JP7457647B2 - 画像コンテンツ認識のための方法およびシステム - Google Patents
画像コンテンツ認識のための方法およびシステム Download PDFInfo
- Publication number
- JP7457647B2 JP7457647B2 JP2020515741A JP2020515741A JP7457647B2 JP 7457647 B2 JP7457647 B2 JP 7457647B2 JP 2020515741 A JP2020515741 A JP 2020515741A JP 2020515741 A JP2020515741 A JP 2020515741A JP 7457647 B2 JP7457647 B2 JP 7457647B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- output
- neural network
- image content
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 102
- 238000013528 artificial neural network Methods 0.000 claims description 72
- 239000013598 vector Substances 0.000 claims description 38
- 230000000306 recurrent effect Effects 0.000 claims description 27
- 230000001537 neural effect Effects 0.000 claims description 26
- 238000012545 processing Methods 0.000 claims description 16
- 230000002457 bidirectional effect Effects 0.000 claims description 13
- 238000009826 distribution Methods 0.000 claims description 13
- 238000004891 communication Methods 0.000 claims description 8
- 238000003384 imaging method Methods 0.000 claims description 7
- 238000012935 Averaging Methods 0.000 claims description 5
- 230000006403 short-term memory Effects 0.000 claims description 5
- 238000012360 testing method Methods 0.000 description 16
- 238000012549 training Methods 0.000 description 15
- 230000015654 memory Effects 0.000 description 14
- 238000013518 transcription Methods 0.000 description 14
- 230000035897 transcription Effects 0.000 description 14
- 238000002474 experimental method Methods 0.000 description 13
- 238000012015 optical character recognition Methods 0.000 description 12
- 210000002569 neuron Anatomy 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 230000004913 activation Effects 0.000 description 7
- 238000001994 activation Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000011176 pooling Methods 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 210000004027 cell Anatomy 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 150000001875 compounds Chemical class 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 238000012432 intermediate storage Methods 0.000 description 2
- 238000011068 loading method Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000021615 conjugation Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000010219 correlation analysis Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000000763 evoking effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000010348 incorporation Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/196—Recognition using electronic means using sequential comparisons of the image signals with a plurality of references
- G06V30/1983—Syntactic or structural pattern recognition, e.g. symbolic string recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/18—Extraction of features or characteristics of the image
- G06V30/1801—Detecting partial patterns, e.g. edges or contours, or configurations, e.g. loops, corners, strokes or intersections
- G06V30/18019—Detecting partial patterns, e.g. edges or contours, or configurations, e.g. loops, corners, strokes or intersections by matching or filtering
- G06V30/18038—Biologically-inspired filters, e.g. difference of Gaussians [DoG], Gabor filters
- G06V30/18048—Biologically-inspired filters, e.g. difference of Gaussians [DoG], Gabor filters with interaction between the responses of different filters, e.g. cortical complex cells
- G06V30/18057—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/22—Character recognition characterised by the type of writing
- G06V30/226—Character recognition characterised by the type of writing of cursive writing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/192—Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
- G06V30/194—References adjustable by an adaptive method, e.g. learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Databases & Information Systems (AREA)
- Biodiversity & Conservation Biology (AREA)
- Medical Informatics (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
- Character Discrimination (AREA)
Description
ネットワークアーキテクチャは、以下のとおりであった。ネットワークの認識部には、エンドツーエンドのトレーニング可能なネットワークを使用した。ネットワークは、トレーニングのために、画像およびそのトランスクリプションのみを取り入れた。本実施例では、画像の高さは、64画素に正規化され、画像の幅およびトランスクリプションの長さは、任意の長さであった。アライメント情報は使用せずに、ネットワークをトレーニングした。
本発明者らは、CTCトランスクリプション確率が画像の間違いラベル付けの予測因子として不十分であることを見出した。したがって、本発明者らは、ネットワークに誤差予測ブランチを付けた。誤差予測ブランチの入力は、ネットワークの中間からの層(隠れ層)であり、誤差予測ブランチの出力は、単一の数であり、それを、回帰タスクとしてのトランスクリプションにおける誤差の数の予測として(編集距離)、または、分類タスクとしての、トランスクリプションが正しいという対数確率として使用した。
システムを、3つのデータセット(CAR、LAR、口座)でトレーニングし、良好な精度が達成された。誤差は、編集距離全長を、正しいストリングの長さで除算したものとして測定した。結果を、以下の表1にまとめて示す。表1では、LARの項目欄全体精度の結果は、トランスクリプションデータを後処理した後に測定した。ドル額およびセント額の精度の測定は別々に行った。
Claims (21)
- 画像の画像コンテンツを認識する方法であって、
特定の文字体系に従って画像コンテンツを推定するように事前トレーニングされているニューラルネットワークを前記画像に適用することであって、前記ニューラルネットワークは、前記画像を受け取るための入力層と、前記画像を処理するための複数の隠れ層と、前記隠れ層の出力に基づいて推定された画像コンテンツを備える出力を生成するための出力層と、を備える、適用することと、
ニューラルネットワークブランチを前記隠れ層のうちの少なくとも1つの層の出力に適用することであって、前記ニューラルネットワークブランチの入力は、前記隠れ層のうちの少なくとも1つの層の前記出力であり、前記ニューラルネットワークブランチは、前記ニューラルネットワークから独立しており、前記推定の推定誤差レベルを備える出力を生成するための出力層を有する、適用することと、
前記推定された画像コンテンツおよび前記推定誤差レベルを示す、組み合わされた出力を生成することと、を含む、画像コンテンツを認識する方法。 - 前記ニューラルネットワークブランチは、複数の出力値を生成する少なくとも1つのリカレントニューラル層を備える、請求項1に記載の画像コンテンツを認識する方法。
- 前記少なくとも1つのリカレントニューラル層は、長・短期記憶(LSTM)層である、請求項2に記載の画像コンテンツを認識する方法。
- 前記LSTM層は、双方向層である、請求項3に記載の画像コンテンツを認識する方法。
- 前記複数の出力値を合計または平均し、それによって、前記合計または平均として前記推定誤差レベルを提供することをさらに含む、請求項2~4のいずれかに記載の画像コンテンツを認識する方法。
- 前記複数の出力値は、複数のベクトルを備え、
各ベクトルをスカラ値に射影して複数のスカラ値を提供し、前記複数のスカラ値を合計または平均し、それによって前記推定誤差レベルを前記合計または平均として提供することを備える、
請求項2~4のいずれかに記載の画像コンテンツを認識する方法。 - 前記ニューラルネットワークは、特徴ベクトルの集合を生成する畳み込みニューラルサブネットワークを備え、前記特徴ベクトルの各々は、前記画像内の異なるウィンドウへの前記畳み込みニューラルサブネットワークの適用の結果である、請求項1~6のいずれかに記載の画像コンテンツを認識する方法。
- 前記ニューラルネットワークは、前記畳み込みニューラルサブネットワークから前記特徴ベクトルの集合を受け取るリカレントニューラルサブネットワークを備え、前記隠れ層のうちの前記少なくとも1つの層の前記出力は、前記リカレントニューラルサブネットワークの少なくとも1つの層の出力である、請求項7に記載の画像コンテンツを認識する方法。
- 前記リカレントニューラルサブネットワークは、長・短期記憶(LSTM)層を備える、請求項8に記載の画像コンテンツを認識する方法。
- 前記LSTM層のうちの少なくとも1つは、双方向層である、請求項9に記載の画像コンテンツを認識する方法。
- 前記リカレントニューラルサブネットワークは、ベクトルのシーケンスを生成し、前記方法は、前記ベクトルのシーケンスのうちの各ベクトルの次元を前記文字体系の長さに対応する所定の次元に射影して、前記文字体系上の一連の確率分布を提供することを含み、各確率分布は、前記所定の次元の1つのベクトルによって表され、前記画像内のウィンドウに対応する、請求項8~10のいずれかに記載の画像コンテンツを認識する方法。
- 前記ニューラルネットワークは、前記一連の確率分布を受け取り、前記推定を生成する、コネクショニスト時系列分類(CTC)層を備える、請求項11に記載の画像コンテンツを認識する方法。
- 前記ニューラルネットワークの前記適用の前に、前記画像の高さを所定の高さに変換することをさらに含む、請求項1~9のいずれかに記載の画像コンテンツを認識する方法。
- 前記画像は、手書き記号の画像である、請求項1~12のいずれかに記載の画像コンテンツを認識する方法。
- 前記画像は、機械印刷された記号の画像である、請求項1~12のいずれかに記載の画像コンテンツを認識する方法。
- 前記画像は、手書き記号を含む少なくとも1つの領域と、機械印刷された記号を含む少なくとも1つの領域と、を含む、請求項1~12のいずれかに記載の画像コンテンツを認識する方法。
- 前記画像は、銀行小切手の画像である、請求項1~12のいずれかに記載の画像コンテンツを認識する方法。
- 請求項17に記載の画像コンテンツを認識する方法であって、前記銀行小切手は、複数の銀行小切手項目欄を含み、前記方法は、前記銀行小切手項目欄のうちの少なくとも2つに対して別々に繰り返される、請求項17に記載の画像コンテンツを認識する方法。
- プログラム命令が記憶されたコンピュータ可読媒体であって、前記プログラム命令は、コンピュータによって読み取られると、前記コンピュータに入力画像を受け取らせ、請求項1~18のいずれかに記載の画像コンテンツを認識する方法を実行させるプログラム命令が記憶されたコンピュータ可読媒体。
- 画像コンテンツを認識するためのシステムであって、
対象物を撮像して、前記対象物の画像を提供する撮像システムと、
回路を有する画像プロセッサと、を備え、前記画像プロセッサは、
前記画像を受け取ることと、
特定の文字体系に従って前記画像コンテンツを推定するように事前トレーニングされているニューラルネットワークを前記画像に適用することであって、前記ニューラルネットワークは、前記画像を受け取るための入力層と、前記画像を処理するための複数の隠れ層と、前記隠れ層の出力に基づいて推定された画像コンテンツに関する出力を生成するための出力層と、を備える、適用することと、
ニューラルネットワークブランチを前記隠れ層のうちの少なくとも1つの層の出力に適用することであって、前記ニューラルネットワークブランチの入力は、前記隠れ層のうちの少なくとも1つの層の前記出力であり、前記ニューラルネットワークブランチは、前記ニューラルネットワークから独立しており、前記推定の推定誤差レベルを備える出力を生成するための出力層を有する、適用することと、
前記推定された画像コンテンツおよび前記推定誤差レベルを示す、組み合わされた出力を生成することと、を行うように構成されている、システム。 - 画像コンテンツを認識するためのシステムであって、
クライアントコンピュータから通信ネットワークを介して画像を受け取るためのネットワークインタフェースと、
回路を備える画像プロセッサと、を備え、前記画像プロセッサは、
特定の文字体系に従って前記画像コンテンツを推定するように事前トレーニングされているニューラルネットワークを前記画像に適用することであって、前記ニューラルネットワークは、前記画像を受け取るための入力層と、前記画像を処理するための複数の隠れ層と、前記隠れ層の出力に基づいて推定された画像コンテンツを備える出力を生成するための出力層と、を備える、適用することと、
ニューラルネットワークブランチを前記隠れ層のうちの少なくとも1つの層の出力に適用することであって、前記ニューラルネットワークブランチの入力は、前記隠れ層のうちの少なくとも1つの層の前記出力であり、前記ニューラルネットワークブランチは、前記ニューラルネットワークから独立しており、前記推定の推定誤差レベルを備える出力を生成するための出力層を有する、適用することと、
前記推定された画像コンテンツおよび前記推定誤差レベルを示す、組み合わされた出力を生成することと、を行うように構成されている、システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762560275P | 2017-09-19 | 2017-09-19 | |
US62/560,275 | 2017-09-19 | ||
PCT/IL2018/051047 WO2019058372A1 (en) | 2017-09-19 | 2018-09-17 | METHOD AND SYSTEM FOR RECOGNIZING IMAGE CONTENT |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020534604A JP2020534604A (ja) | 2020-11-26 |
JP7457647B2 true JP7457647B2 (ja) | 2024-03-28 |
Family
ID=65807598
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020515741A Active JP7457647B2 (ja) | 2017-09-19 | 2018-09-17 | 画像コンテンツ認識のための方法およびシステム |
Country Status (8)
Country | Link |
---|---|
US (1) | US10635934B2 (ja) |
EP (1) | EP3685312A4 (ja) |
JP (1) | JP7457647B2 (ja) |
KR (1) | KR20200055760A (ja) |
CN (1) | CN111279359A (ja) |
IL (1) | IL273446B (ja) |
SG (1) | SG11202002415VA (ja) |
WO (1) | WO2019058372A1 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7457647B2 (ja) | 2017-09-19 | 2024-03-28 | ラモット・アット・テル・アビブ・ユニバーシテイ・リミテッド | 画像コンテンツ認識のための方法およびシステム |
US10373022B1 (en) * | 2018-02-28 | 2019-08-06 | Konica Minolta Laboratory U.S.A., Inc. | Text image processing using stroke-aware max-min pooling for OCR system employing artificial neural network |
EP3598339B1 (en) * | 2018-07-19 | 2024-09-04 | Tata Consultancy Services Limited | Systems and methods for end-to-end handwritten text recognition using neural networks |
US10984066B2 (en) * | 2019-01-02 | 2021-04-20 | Zyte Group Limited | System and method for a web scraping tool and classification engine |
US11158322B2 (en) * | 2019-09-06 | 2021-10-26 | Verbit Software Ltd. | Human resolution of repeated phrases in a hybrid transcription system |
KR20210053036A (ko) * | 2019-11-01 | 2021-05-11 | 엘지전자 주식회사 | 인공지능 서버 |
US11494886B2 (en) * | 2020-05-29 | 2022-11-08 | Adobe Inc. | Hierarchical multiclass exposure defects classification in images |
US11468551B1 (en) * | 2020-07-24 | 2022-10-11 | Norfolk Southern Corporation | Machine-learning framework for detecting defects or conditions of railcar systems |
CN112926372B (zh) * | 2020-08-22 | 2023-03-10 | 清华大学 | 基于序列变形的场景文字检测方法及系统 |
KR20220028928A (ko) * | 2020-08-31 | 2022-03-08 | 삼성전자주식회사 | 부분 영상 기반의 영상 처리 방법 및 장치 |
CA3197566A1 (en) * | 2020-12-11 | 2022-06-16 | Raunak DEY | Handwriting recognition |
KR102328569B1 (ko) * | 2021-08-03 | 2021-11-19 | (주)티에프프로젝트 | 다목적 펜 |
CN114372477B (zh) * | 2022-03-21 | 2022-06-10 | 北京百度网讯科技有限公司 | 文本识别模型的训练方法、文本识别方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000155803A (ja) | 1998-11-20 | 2000-06-06 | Nec Corp | 文字読取方法および光学式文字読取装置 |
JP5101029B2 (ja) | 2006-03-27 | 2012-12-19 | 三菱重工業株式会社 | 光電変換素子製造装置および光電変換素子製造方法 |
US20160189010A1 (en) | 2014-12-30 | 2016-06-30 | Facebook, Inc. | Systems and methods for image object recognition based on location information and object categories |
JP2016139176A (ja) | 2015-01-26 | 2016-08-04 | シャープ株式会社 | 画像処理装置、画像処理システム、画像処理方法、およびその画像処理プログラム |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5052043A (en) * | 1990-05-07 | 1991-09-24 | Eastman Kodak Company | Neural network with back propagation controlled through an output confidence measure |
JP3094070B2 (ja) * | 1991-10-08 | 2000-10-03 | 住友大阪セメント株式会社 | 光学的パターン認識分類装置 |
US5912986A (en) * | 1994-06-21 | 1999-06-15 | Eastman Kodak Company | Evidential confidence measure and rejection technique for use in a neural network based optical character recognition system |
US5812698A (en) * | 1995-05-12 | 1998-09-22 | Synaptics, Inc. | Handwriting recognition system and method |
EP1378855B1 (en) | 2002-07-05 | 2007-10-17 | Honda Research Institute Europe GmbH | Exploiting ensemble diversity for automatic feature extraction |
US10417525B2 (en) * | 2014-09-22 | 2019-09-17 | Samsung Electronics Co., Ltd. | Object recognition with reduced neural network weight precision |
US9858524B2 (en) * | 2014-11-14 | 2018-01-02 | Google Inc. | Generating natural language descriptions of images |
US10319476B1 (en) * | 2015-02-06 | 2019-06-11 | Brain Trust Innovations I, Llc | System, method and device for predicting an outcome of a clinical patient transaction |
JP6754619B2 (ja) * | 2015-06-24 | 2020-09-16 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 顔認識方法及び装置 |
CN105654135A (zh) * | 2015-12-30 | 2016-06-08 | 成都数联铭品科技有限公司 | 一种基于递归神经网络的图像文字序列识别系统 |
US10192327B1 (en) * | 2016-02-04 | 2019-01-29 | Google Llc | Image compression with recurrent neural networks |
CN106328122A (zh) * | 2016-08-19 | 2017-01-11 | 深圳市唯特视科技有限公司 | 一种利用长短期记忆模型递归神经网络的语音识别方法 |
CN106855944B (zh) * | 2016-12-22 | 2020-01-14 | 浙江宇视科技有限公司 | 行人标志物识别方法及装置 |
JP7457647B2 (ja) | 2017-09-19 | 2024-03-28 | ラモット・アット・テル・アビブ・ユニバーシテイ・リミテッド | 画像コンテンツ認識のための方法およびシステム |
-
2018
- 2018-09-17 JP JP2020515741A patent/JP7457647B2/ja active Active
- 2018-09-17 WO PCT/IL2018/051047 patent/WO2019058372A1/en unknown
- 2018-09-17 CN CN201880070610.5A patent/CN111279359A/zh active Pending
- 2018-09-17 SG SG11202002415VA patent/SG11202002415VA/en unknown
- 2018-09-17 KR KR1020207011049A patent/KR20200055760A/ko not_active Application Discontinuation
- 2018-09-17 EP EP18859712.4A patent/EP3685312A4/en active Pending
- 2018-09-17 US US16/132,518 patent/US10635934B2/en active Active
-
2020
- 2020-03-19 IL IL273446A patent/IL273446B/en unknown
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000155803A (ja) | 1998-11-20 | 2000-06-06 | Nec Corp | 文字読取方法および光学式文字読取装置 |
JP5101029B2 (ja) | 2006-03-27 | 2012-12-19 | 三菱重工業株式会社 | 光電変換素子製造装置および光電変換素子製造方法 |
US20160189010A1 (en) | 2014-12-30 | 2016-06-30 | Facebook, Inc. | Systems and methods for image object recognition based on location information and object categories |
JP2016139176A (ja) | 2015-01-26 | 2016-08-04 | シャープ株式会社 | 画像処理装置、画像処理システム、画像処理方法、およびその画像処理プログラム |
Also Published As
Publication number | Publication date |
---|---|
KR20200055760A (ko) | 2020-05-21 |
WO2019058372A1 (en) | 2019-03-28 |
CN111279359A (zh) | 2020-06-12 |
US10635934B2 (en) | 2020-04-28 |
EP3685312A4 (en) | 2021-06-16 |
US20190095753A1 (en) | 2019-03-28 |
IL273446A (en) | 2020-05-31 |
EP3685312A1 (en) | 2020-07-29 |
JP2020534604A (ja) | 2020-11-26 |
IL273446B (en) | 2022-04-01 |
SG11202002415VA (en) | 2020-04-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7457647B2 (ja) | 画像コンテンツ認識のための方法およびシステム | |
US11922318B2 (en) | System and method of character recognition using fully convolutional neural networks with attention | |
Naz et al. | Urdu Nasta’liq text recognition system based on multi-dimensional recurrent neural network and statistical features | |
US10936862B2 (en) | System and method of character recognition using fully convolutional neural networks | |
Deng et al. | Challenges in end-to-end neural scientific table recognition | |
US11037010B2 (en) | Compositional model for text recognition | |
Ul-Hasan et al. | Offline printed Urdu Nastaleeq script recognition with bidirectional LSTM networks | |
EP2943911B1 (en) | Process of handwriting recognition and related apparatus | |
US10963685B2 (en) | Generating variations of a known shred | |
Jayech et al. | Synchronous multi-stream hidden markov model for offline Arabic handwriting recognition without explicit segmentation | |
Rashid et al. | Scanning neural network for text line recognition | |
EP3539051A1 (en) | System and method of character recognition using fully convolutional neural networks | |
Kantipudi et al. | Scene text recognition based on bidirectional LSTM and deep neural network | |
CN112597997A (zh) | 感兴趣区域确定方法、图像内容识别方法及装置 | |
KR20220132536A (ko) | 필기에서의 수학 검출 | |
Sarraf | French word recognition through a quick survey on recurrent neural networks using long-short term memory RNN-LSTM | |
JP7172351B2 (ja) | 文字列認識装置及び文字列認識プログラム | |
Zaiz et al. | Puzzle based system for improving Arabic handwriting recognition | |
Kaur et al. | Worddeepnet: handwritten gurumukhi word recognition using convolutional neural network | |
Nisa et al. | Annotation of struck-out text in handwritten documents | |
Ling et al. | Interpreting Texts in Natural Scene Images | |
Jayanna et al. | Advancements in Handwriting Recognition: Deep Learning Techniques Applied to Kannada Language | |
Gautam | Parsing Structural and Textual Information from UML Class diagrams to assist in verification of requirement specifications | |
Patil et al. | Comparative Study of Multilingual Text Detection and Verification from Complex Scene | |
Maheswari et al. | Offline Recognition Of Handwritten Text Using Combination Of Neural Networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210804 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220830 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221004 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20221227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230331 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20230407 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20230407 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230801 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20231025 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240131 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240315 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7457647 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |