JP2020534604A - 画像コンテンツ認識のための方法およびシステム - Google Patents
画像コンテンツ認識のための方法およびシステム Download PDFInfo
- Publication number
- JP2020534604A JP2020534604A JP2020515741A JP2020515741A JP2020534604A JP 2020534604 A JP2020534604 A JP 2020534604A JP 2020515741 A JP2020515741 A JP 2020515741A JP 2020515741 A JP2020515741 A JP 2020515741A JP 2020534604 A JP2020534604 A JP 2020534604A
- Authority
- JP
- Japan
- Prior art keywords
- image
- output
- layer
- neural network
- applying
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 111
- 238000013528 artificial neural network Methods 0.000 claims abstract description 78
- 238000012545 processing Methods 0.000 claims abstract description 16
- 239000013598 vector Substances 0.000 claims description 39
- 230000000306 recurrent effect Effects 0.000 claims description 33
- 230000001537 neural effect Effects 0.000 claims description 32
- 238000009826 distribution Methods 0.000 claims description 17
- 230000002457 bidirectional effect Effects 0.000 claims description 13
- 238000004891 communication Methods 0.000 claims description 7
- 238000003384 imaging method Methods 0.000 claims description 7
- 230000006403 short-term memory Effects 0.000 claims description 7
- 238000013527 convolutional neural network Methods 0.000 claims description 6
- 238000012935 Averaging Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 abstract description 3
- 238000012549 training Methods 0.000 description 17
- 238000012360 testing method Methods 0.000 description 16
- 238000013518 transcription Methods 0.000 description 14
- 230000035897 transcription Effects 0.000 description 14
- 238000002474 experimental method Methods 0.000 description 13
- 230000015654 memory Effects 0.000 description 13
- 238000012015 optical character recognition Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 9
- 210000002569 neuron Anatomy 0.000 description 8
- 230000004913 activation Effects 0.000 description 7
- 238000001994 activation Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 5
- 238000011176 pooling Methods 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 210000004027 cell Anatomy 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 238000002372 labelling Methods 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 150000001875 compounds Chemical class 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012795 verification Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012432 intermediate storage Methods 0.000 description 2
- 238000011068 loading method Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010219 correlation analysis Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 235000019800 disodium phosphate Nutrition 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000010348 incorporation Methods 0.000 description 1
- 239000004615 ingredient Substances 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/196—Recognition using electronic means using sequential comparisons of the image signals with a plurality of references
- G06V30/1983—Syntactic or structural pattern recognition, e.g. symbolic string recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/18—Extraction of features or characteristics of the image
- G06V30/1801—Detecting partial patterns, e.g. edges or contours, or configurations, e.g. loops, corners, strokes or intersections
- G06V30/18019—Detecting partial patterns, e.g. edges or contours, or configurations, e.g. loops, corners, strokes or intersections by matching or filtering
- G06V30/18038—Biologically-inspired filters, e.g. difference of Gaussians [DoG], Gabor filters
- G06V30/18048—Biologically-inspired filters, e.g. difference of Gaussians [DoG], Gabor filters with interaction between the responses of different filters, e.g. cortical complex cells
- G06V30/18057—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/22—Character recognition characterised by the type of writing
- G06V30/226—Character recognition characterised by the type of writing of cursive writing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/192—Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
- G06V30/194—References adjustable by an adaptive method, e.g. learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Databases & Information Systems (AREA)
- Biodiversity & Conservation Biology (AREA)
- Medical Informatics (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Character Discrimination (AREA)
Abstract
Description
本出願は、2017年9月19日に出願された米国仮特許出願第62/560,275号の優先権の利益を主張し、その内容は、その全体が参照により本明細書に組み込まれる。
ネットワークアーキテクチャは、以下のとおりであった。ネットワークの認識部には、エンドツーエンドのトレーニング可能なネットワークを使用した。ネットワークは、トレーニングのために、画像およびそのトランスクリプションのみを取り入れた。本実施例では、画像の高さは、64画素に正規化され、画像の幅およびトランスクリプションの長さは、任意の長さであった。アライメント情報は使用せずに、ネットワークをトレーニングした。
本発明者らは、CTCトランスクリプション確率が画像の間違いラベル付けの予測因子として不十分であることを見出した。したがって、本発明者らは、ネットワークに誤差予測ブランチを付けた。誤差予測ブランチの入力は、ネットワークの中間からの層(隠れ層)であり、誤差予測ブランチの出力は、単一の数であり、それを、回帰タスクとしてのトランスクリプションにおける誤差の数の予測として(編集距離)、または、分類タスクとしての、トランスクリプションが正しいという対数確率として使用した。
システムを、3つのデータセット(CAR、LAR、口座)でトレーニングし、良好な精度が達成された。誤差は、編集距離全長を、正しいストリングの長さで除算したものとして測定した。結果を、以下の表1にまとめて示す。表1では、LARの項目欄全体精度の結果は、トランスクリプションデータを後処理した後に測定した。ドル額およびセント額の精度の測定は別々に行った。
Claims (32)
- 画像のコンテンツを認識する方法であって、
ニューラルネットワークを前記画像に適用することであって、前記ニューラルネットワークは、前記画像を受け取るための入力層と、前記画像を処理するための複数の隠れ層と、前記隠れ層の出力に基づいて推定された画像のコンテンツに関する出力を生成するための出力層と、を備える、適用することと、
ニューラルネットワークブランチを前記隠れ層のうちの少なくとも1つの層の出力に適用することであって、前記ニューラルネットワークブランチは、前記ニューラルネットワークから独立しており、前記推定の推定誤差レベルに関する出力を生成するための出力層を有する、適用することと、
前記推定された画像のコンテンツおよび前記推定誤差レベルを示す、組み合わされた出力を生成することと、を含む、方法。 - 前記ニューラルネットワークブランチは、複数の出力値を生成する少なくとも1つのリカレント層を備える、請求項1に記載の方法。
- 前記少なくとも1つのリカレントニューラル層は、長・短期記憶(LSTM)層である、請求項2に記載の方法。
- 前記LSTM層は、双方向層である、請求項3に記載の方法。
- 前記複数の出力値またはその射影値を合計または平均し、それによって、前記推定誤差レベルを提供することをさらに含む、請求項2〜4のいずれかに記載の方法。
- 前記ニューラルネットワークは、前記画像内の異なるウィンドウへの畳み込みニューラルサブネットワークの適用に各々が対応する、特徴ベクトルの集合を生成する前記畳み込みニューラルサブネットワークを備える、請求項1に記載の方法。
- 前記ニューラルネットワークは、前記画像内の異なるウィンドウへの畳み込みニューラルサブネットワークの適用に各々が対応する、特徴ベクトルの集合を生成する前記畳み込みニューラルサブネットワークを備える、請求項2〜5のいずれかに記載の方法。
- 前記ニューラルネットワークは、前記畳み込みニューラルサブネットワークから前記特徴ベクトルの集合を受け取るリカレントニューラルサブネットワークを備え、前記隠れ層のうちの前記少なくとも1つの層の前記出力は、前記リカレントニューラルサブネットワークの少なくとも1つの層の出力である、請求項6に記載の方法。
- 前記ニューラルネットワークは、前記畳み込みニューラルサブネットワークから前記特徴ベクトルの集合を受け取るリカレントニューラルサブネットワークを備え、前記隠れ層のうちの前記少なくとも1つの層の前記出力は、前記リカレントニューラルサブネットワークの少なくとも1つの層の出力である、請求項7に記載の方法。
- 前記リカレントニューラルサブネットワークは、長・短期記憶(LSTM)層を備える、請求項8に記載の方法。
- 前記リカレントニューラルサブネットワークは、長・短期記憶(LSTM)層を備える、請求項9に記載の方法。
- 前記LSTM層のうちの少なくとも1つは、双方向層である、請求項10に記載の方法。
- 前記LSTM層のうちの少なくとも1つは、双方向層である、請求項11に記載の方法。
- 前記リカレントニューラルサブネットワークは、一連のベクトルを生成し、前記方法は、前記一連のベクトルのうちの各ベクトルの次元を文字体系の長さに対応する所定の次元に射影して、前記文字体系上の一連の確率分布を提供することを含み、各確率分布は、前記画像内の一領域に対応する、請求項8に記載の方法。
- 前記リカレントニューラルサブネットワークは、一連のベクトルを生成し、前記方法は、前記一連のベクトルのうちの各ベクトルの次元を文字体系の長さに対応する所定の次元に射影して、前記文字体系上の一連の確率分布を提供することを含み、各確率分布は、前記画像内の一領域に対応する、請求項9〜13のいずれかに記載の方法。
- 前記ニューラルネットワークは、前記一連の確率分布を受け取り、前記推定を生成する、コネクショニスト時系列分類(CTC)層を備える、請求項14に記載の方法。
- 前記ニューラルネットワークは、前記一連の確率分布を受け取り、前記推定を生成する、コネクショニスト時系列分類(CTC)層を備える、請求項15に記載の方法。
- 前記ニューラルネットワークの前記適用の前に、前記画像の高さを所定の高さに変換することをさらに含む、請求項1に記載の方法。
- 前記ニューラルネットワークの前記適用の前に、前記画像の高さを所定の高さに変換することをさらに含む、請求項2〜12のいずれかに記載の方法。
- 前記画像は、手書き記号の画像である、請求項1に記載の方法。
- 前記画像は、手書き記号の画像である、請求項2〜18のいずれかに記載の方法。
- 前記画像は、機械印刷された記号の画像である、請求項1に記載の方法。
- 前記画像は、機械印刷された記号の画像である、請求項2〜18のいずれかに記載の方法。
- 前記画像は、手書き記号を含む少なくとも1つの領域と、機械印刷された記号を含む少なくとも1つの領域と、を含む、請求項1に記載の方法。
- 前記画像は、手書き記号を含む少なくとも1つの領域と、機械印刷された記号を含む少なくとも1つの領域と、を含む、請求項2〜18のいずれかに記載の方法。
- 前記画像は、銀行小切手の画像である、請求項1に記載の方法。
- 前記画像は、銀行小切手の画像である、請求項2〜18のいずれかに記載の方法。
- 前記銀行小切手は、複数の銀行小切手項目欄を含み、前記方法は、前記銀行小切手項目欄のうちの少なくとも2つに対して別々に繰り返される、請求項26に記載の方法。
- 前記銀行小切手は、複数の銀行小切手項目欄を含み、前記方法は、前記銀行小切手項目欄のうちの少なくとも2つに対して別々に繰り返される、請求項27に記載の方法。
- プログラム命令が記憶されたコンピュータ可読媒体を含む、コンピュータソフトウェア製品であって、前記命令は、コンピュータによって読み取られると、前記コンピュータに入力画像を受け取らせ、請求項1〜28のいずれかに記載の方法を実行させる、コンピュータソフトウェア製品。
- 画像コンテンツを認識するためのシステムであって、
対象物を撮像して、その画像を提供する撮像システムと、
画像プロセッサと、を備え、前記画像プロセッサは、
前記画像を受け取ることと、
ニューラルネットワークを前記画像に適用することであって、前記ニューラルネットワークは、前記画像を受け取るための入力層と、前記画像を処理するための複数の隠れ層と、前記隠れ層の出力に基づいて推定された画像コンテンツに関する出力を生成するための出力層と、を備える、適用することと、
ニューラルネットワークブランチを前記隠れ層のうちの少なくとも1つの層の出力に適用することであって、前記ニューラルネットワークブランチは、前記ニューラルネットワークから独立しており、前記推定の推定誤差レベルに関する出力を生成するための出力層を有する、適用することと、
前記推定された画像コンテンツおよび前記推定誤差レベルを示す、組み合わされた出力を生成することと、を行うように構成されている、システム。 - 画像コンテンツを認識するためのシステムであって、
通信ネットワークを介して画像を受け取るためのネットワークインタフェースと、
画像プロセッサと、を備え、前記画像プロセッサは、
ニューラルネットワークを前記画像に適用することであって、前記ニューラルネットワークは、前記画像を受け取るための入力層と、前記画像を処理するための複数の隠れ層と、前記隠れ層の出力に基づいて推定された画像コンテンツに関する出力を生成するための出力層と、を備える、適用することと、
ニューラルネットワークブランチを前記隠れ層のうちの少なくとも1つの層の出力に適用することであって、前記ニューラルネットワークブランチは、前記ニューラルネットワークから独立しており、前記推定の推定誤差レベルに関する出力を生成するための出力層を有する、適用することと、
前記推定された画像コンテンツおよび前記推定誤差レベルを示す、組み合わされた出力を生成することと、を行うように構成されている、システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762560275P | 2017-09-19 | 2017-09-19 | |
US62/560,275 | 2017-09-19 | ||
PCT/IL2018/051047 WO2019058372A1 (en) | 2017-09-19 | 2018-09-17 | METHOD AND SYSTEM FOR RECOGNIZING IMAGE CONTENT |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020534604A true JP2020534604A (ja) | 2020-11-26 |
JP7457647B2 JP7457647B2 (ja) | 2024-03-28 |
Family
ID=65807598
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020515741A Active JP7457647B2 (ja) | 2017-09-19 | 2018-09-17 | 画像コンテンツ認識のための方法およびシステム |
Country Status (8)
Country | Link |
---|---|
US (1) | US10635934B2 (ja) |
EP (1) | EP3685312A4 (ja) |
JP (1) | JP7457647B2 (ja) |
KR (1) | KR20200055760A (ja) |
CN (1) | CN111279359A (ja) |
IL (1) | IL273446B (ja) |
SG (1) | SG11202002415VA (ja) |
WO (1) | WO2019058372A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022177220A (ja) * | 2022-03-21 | 2022-11-30 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | テキスト認識モデルの訓練方法、テキスト認識方法及び装置 |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7457647B2 (ja) | 2017-09-19 | 2024-03-28 | ラモット・アット・テル・アビブ・ユニバーシテイ・リミテッド | 画像コンテンツ認識のための方法およびシステム |
US10373022B1 (en) * | 2018-02-28 | 2019-08-06 | Konica Minolta Laboratory U.S.A., Inc. | Text image processing using stroke-aware max-min pooling for OCR system employing artificial neural network |
EP3598339B1 (en) * | 2018-07-19 | 2024-09-04 | Tata Consultancy Services Limited | Systems and methods for end-to-end handwritten text recognition using neural networks |
US10984066B2 (en) * | 2019-01-02 | 2021-04-20 | Zyte Group Limited | System and method for a web scraping tool and classification engine |
US11158322B2 (en) * | 2019-09-06 | 2021-10-26 | Verbit Software Ltd. | Human resolution of repeated phrases in a hybrid transcription system |
KR20210053036A (ko) * | 2019-11-01 | 2021-05-11 | 엘지전자 주식회사 | 인공지능 서버 |
US11494886B2 (en) * | 2020-05-29 | 2022-11-08 | Adobe Inc. | Hierarchical multiclass exposure defects classification in images |
US11468551B1 (en) * | 2020-07-24 | 2022-10-11 | Norfolk Southern Corporation | Machine-learning framework for detecting defects or conditions of railcar systems |
CN112926372B (zh) * | 2020-08-22 | 2023-03-10 | 清华大学 | 基于序列变形的场景文字检测方法及系统 |
KR20220028928A (ko) * | 2020-08-31 | 2022-03-08 | 삼성전자주식회사 | 부분 영상 기반의 영상 처리 방법 및 장치 |
CA3197566A1 (en) * | 2020-12-11 | 2022-06-16 | Raunak DEY | Handwriting recognition |
KR102328569B1 (ko) * | 2021-08-03 | 2021-11-19 | (주)티에프프로젝트 | 다목적 펜 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05101029A (ja) * | 1991-10-08 | 1993-04-23 | Sumitomo Cement Co Ltd | 光学的パターン認識分類装置 |
JP2000155803A (ja) * | 1998-11-20 | 2000-06-06 | Nec Corp | 文字読取方法および光学式文字読取装置 |
US20160189010A1 (en) * | 2014-12-30 | 2016-06-30 | Facebook, Inc. | Systems and methods for image object recognition based on location information and object categories |
JP2016139176A (ja) * | 2015-01-26 | 2016-08-04 | シャープ株式会社 | 画像処理装置、画像処理システム、画像処理方法、およびその画像処理プログラム |
JP2017010543A (ja) * | 2015-06-24 | 2017-01-12 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 顔認識方法及び装置 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5052043A (en) * | 1990-05-07 | 1991-09-24 | Eastman Kodak Company | Neural network with back propagation controlled through an output confidence measure |
US5912986A (en) * | 1994-06-21 | 1999-06-15 | Eastman Kodak Company | Evidential confidence measure and rejection technique for use in a neural network based optical character recognition system |
US5812698A (en) * | 1995-05-12 | 1998-09-22 | Synaptics, Inc. | Handwriting recognition system and method |
EP1378855B1 (en) | 2002-07-05 | 2007-10-17 | Honda Research Institute Europe GmbH | Exploiting ensemble diversity for automatic feature extraction |
JP5101029B2 (ja) | 2006-03-27 | 2012-12-19 | 三菱重工業株式会社 | 光電変換素子製造装置および光電変換素子製造方法 |
US10417525B2 (en) * | 2014-09-22 | 2019-09-17 | Samsung Electronics Co., Ltd. | Object recognition with reduced neural network weight precision |
US9858524B2 (en) * | 2014-11-14 | 2018-01-02 | Google Inc. | Generating natural language descriptions of images |
US10319476B1 (en) * | 2015-02-06 | 2019-06-11 | Brain Trust Innovations I, Llc | System, method and device for predicting an outcome of a clinical patient transaction |
CN105654135A (zh) * | 2015-12-30 | 2016-06-08 | 成都数联铭品科技有限公司 | 一种基于递归神经网络的图像文字序列识别系统 |
US10192327B1 (en) * | 2016-02-04 | 2019-01-29 | Google Llc | Image compression with recurrent neural networks |
CN106328122A (zh) * | 2016-08-19 | 2017-01-11 | 深圳市唯特视科技有限公司 | 一种利用长短期记忆模型递归神经网络的语音识别方法 |
CN106855944B (zh) * | 2016-12-22 | 2020-01-14 | 浙江宇视科技有限公司 | 行人标志物识别方法及装置 |
JP7457647B2 (ja) | 2017-09-19 | 2024-03-28 | ラモット・アット・テル・アビブ・ユニバーシテイ・リミテッド | 画像コンテンツ認識のための方法およびシステム |
-
2018
- 2018-09-17 JP JP2020515741A patent/JP7457647B2/ja active Active
- 2018-09-17 WO PCT/IL2018/051047 patent/WO2019058372A1/en unknown
- 2018-09-17 CN CN201880070610.5A patent/CN111279359A/zh active Pending
- 2018-09-17 SG SG11202002415VA patent/SG11202002415VA/en unknown
- 2018-09-17 KR KR1020207011049A patent/KR20200055760A/ko not_active Application Discontinuation
- 2018-09-17 EP EP18859712.4A patent/EP3685312A4/en active Pending
- 2018-09-17 US US16/132,518 patent/US10635934B2/en active Active
-
2020
- 2020-03-19 IL IL273446A patent/IL273446B/en unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05101029A (ja) * | 1991-10-08 | 1993-04-23 | Sumitomo Cement Co Ltd | 光学的パターン認識分類装置 |
JP2000155803A (ja) * | 1998-11-20 | 2000-06-06 | Nec Corp | 文字読取方法および光学式文字読取装置 |
US20160189010A1 (en) * | 2014-12-30 | 2016-06-30 | Facebook, Inc. | Systems and methods for image object recognition based on location information and object categories |
JP2016139176A (ja) * | 2015-01-26 | 2016-08-04 | シャープ株式会社 | 画像処理装置、画像処理システム、画像処理方法、およびその画像処理プログラム |
JP2017010543A (ja) * | 2015-06-24 | 2017-01-12 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 顔認識方法及び装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022177220A (ja) * | 2022-03-21 | 2022-11-30 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | テキスト認識モデルの訓練方法、テキスト認識方法及び装置 |
JP7406606B2 (ja) | 2022-03-21 | 2023-12-27 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | テキスト認識モデルの訓練方法、テキスト認識方法及び装置 |
Also Published As
Publication number | Publication date |
---|---|
KR20200055760A (ko) | 2020-05-21 |
WO2019058372A1 (en) | 2019-03-28 |
CN111279359A (zh) | 2020-06-12 |
US10635934B2 (en) | 2020-04-28 |
EP3685312A4 (en) | 2021-06-16 |
US20190095753A1 (en) | 2019-03-28 |
IL273446A (en) | 2020-05-31 |
EP3685312A1 (en) | 2020-07-29 |
JP7457647B2 (ja) | 2024-03-28 |
IL273446B (en) | 2022-04-01 |
SG11202002415VA (en) | 2020-04-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7457647B2 (ja) | 画像コンテンツ認識のための方法およびシステム | |
Naz et al. | Urdu Nasta’liq text recognition system based on multi-dimensional recurrent neural network and statistical features | |
Al-Ayyoub et al. | Deep learning for Arabic NLP: A survey | |
KR101312804B1 (ko) | 텍스트 인식을 용이하게 하는 시스템 및 텍스트 인식 방법 | |
RU2661750C1 (ru) | Распознавание символов с использованием искусственного интеллекта | |
Poulos et al. | Character-based handwritten text transcription with attention networks | |
Mondal et al. | Handwritten English word recognition using a deep learning based object detection architecture | |
WO2017163230A1 (en) | Method and system for converting an image to text | |
Rashid et al. | Scanning neural network for text line recognition | |
Kaur et al. | A comprehensive survey on word recognition for non-Indic and Indic scripts | |
Dreuw et al. | RWTH OCR: A large vocabulary optical character recognition system for Arabic scripts | |
CN112837466B (zh) | 票据识别方法、装置、设备以及存储介质 | |
KR20220132536A (ko) | 필기에서의 수학 검출 | |
Zia et al. | Recognition of printed Urdu script in Nastaleeq font by using CNN-BiGRU-GRU based encoder-decoder framework | |
Zaiz et al. | Puzzle based system for improving Arabic handwriting recognition | |
Soullard et al. | Ctcmodel: a keras model for connectionist temporal classification | |
Kumar et al. | Bayesian background models for keyword spotting in handwritten documents | |
CN117115824A (zh) | 一种基于笔划区域分割策略的视觉文本检测方法 | |
Kaur et al. | Worddeepnet: handwritten gurumukhi word recognition using convolutional neural network | |
Bhattacharya et al. | Fuzzy-based pseudo segmentation approach for handwritten word recognition using a sequence to sequence model with attention | |
Khoury et al. | Window repositioning for printed Arabic recognition | |
Shashank et al. | Improvising the CNN feature maps through integration of channel attention for handwritten text recognition | |
Nisa et al. | Annotation of struck-out text in handwritten documents | |
Jouanne et al. | PyraD-DCNN: a fully convolutional neural network to replace BLSTM in offline text recognition systems | |
AU2021100089A4 (en) | A method to word recognition for the postal automation and a system thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210804 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220830 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221004 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20221227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230331 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20230407 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20230407 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230801 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20231025 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240131 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240315 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7457647 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |