RU2016110914A - Способ извлечения области, способ обучения модели и устройства для их осуществления - Google Patents
Способ извлечения области, способ обучения модели и устройства для их осуществления Download PDFInfo
- Publication number
- RU2016110914A RU2016110914A RU2016110914A RU2016110914A RU2016110914A RU 2016110914 A RU2016110914 A RU 2016110914A RU 2016110914 A RU2016110914 A RU 2016110914A RU 2016110914 A RU2016110914 A RU 2016110914A RU 2016110914 A RU2016110914 A RU 2016110914A
- Authority
- RU
- Russia
- Prior art keywords
- reference images
- region
- numerical
- areas
- positive
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
- G06V30/148—Segmentation of character regions
- G06V30/153—Segmentation of character regions using recognition of characters or words
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/758—Involving statistics of pixels or of feature values, e.g. histogram matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
- G06V30/146—Aligning or centring of the image pick-up or image-field
- G06V30/1475—Inclination or skew detection or correction of characters or of image to be recognised
- G06V30/1478—Inclination or skew detection or correction of characters or of image to be recognised of characters or characters lines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/40—Document-oriented image-based pattern recognition
- G06V30/41—Analysis of document content
- G06V30/413—Classification of content, e.g. text, photographs or tables
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Character Input (AREA)
- Character Discrimination (AREA)
Claims (66)
1. Способ извлечения области, содержащий этапы, на которых:
получают модель распознавания, причем модель распознавания формируют путем обучения заданных эталонных изображений с помощью алгоритма классификации, заданные эталонные изображения включают в себя позитивные эталонные изображения и негативные эталонные изображения, каждое из позитивных эталонных изображений имеет по меньшей мере один числовой символ, а каждое из негативных эталонных изображений не имеет числового символа или имеет неполные числовые символы;
распознают изображение, подлежащее распознаванию, в соответствии с моделью распознавания для получения по меньшей мере одной числовой области; и
выполняют сегментацию числовой области для получения по меньшей мере одной области с одним числом.
2. Способ по п. 1, в котором на этапе распознавания:
извлекают область окна-кандидата из изображения, подлежащего распознаванию, в соответствии с заданной стратегией разворачивающегося окна с помощью заданного окна;
классифицируют область окна-кандидата путем ввода признака изображения области окна-кандидата в модель распознавания для получения результата классификации; и
распознают области окна-кандидата в качестве числовой области в случае, когда результатом классификации является положительный результат.
3. Способ по п. 2, в котором существуют по меньшей мере две числовые области, при этом способ дополнительно содержит этап, на котором:
находят n числовых областей, каждая из которых имеет зону пересечения с другой числовой областью в пределах n числовых областей; и
объединяют n числовых областей для получения объединенной числовой области.
4. Способ по п. 3, в котором на этапе объединения:
в случае, когда верхние края и нижние края n числовых областей находятся соответственно на одной прямой,
определяют крайний левый край из n левых краев n числовых областей в качестве объединенного левого края;
определяют крайний правый край из n правых краев n числовых областей в качестве объединенного правого края; и
получают объединенную числовую область на основании верхнего края, нижнего края, объединенного левого края и объединенного правого края.
5. Способ по любому из пп. 1-4, в котором на этапе сегментации:
бинаризируют числовую область для получения бинаризованной числовой области;
вычисляют гистограмму для бинаризованной числовой области в вертикальном направлении, причем гистограмма содержит горизонтальную координату каждого столбца пиксельных точек и совокупное значение пиксельных точек основного цвета в каждом столбце пиксельных точек; и
распознают n областей с одним числом на основании наборов последовательных столбцов в гистограмме, причем каждый из наборов последовательных столбцов состоит из столбцов, в которых совокупные значения пиксельных точек основного цвета превышают заданное пороговое значение.
6. Способ обучения модели, содержащий этапы, на которых:
получают заданные эталонные изображения, причем заданные эталонные изображения включают в себя позитивные эталонные изображения и негативные эталонные изображения, при этом каждое из позитивных изображений имеет по меньшей мере один числовой символ, при этом каждое из негативных эталонных изображений не имеет числового символа или имеет неполные числовые символы; и
обучают заданные эталонные изображения с помощью алгоритма классификации для получения модели распознавания.
7. Способ по п. 6, в котором на этапе обучения:
извлекают признаки изображения из позитивных эталонных изображений и негативных эталонных изображений; и
вводят признаки изображения позитивных эталонных изображений и первую метку, указывающую положительные результаты, в исходную модель и вводят признаки изображения негативных эталонных изображений и вторую метку, указывающую отрицательные результаты, в исходную модель для получения модели распознавания, причем построение исходной модели осуществляют с использованием алгоритма классификации.
8. Способ по п. 6 или 7, в котором алгоритм классификации содержит по меньшей мере один из следующих алгоритмов: Adaboost, метод опорных векторов (SVM), искусственная нейронная сеть, эволюционный алгоритм, наивный байесовский классификатор (Naive Bayes), дерево решений (Decision Trees), алгоритм k-ближайших соседей (K-Nearest Neighbor).
9. Устройство для извлечения области, содержащее:
модуль получения, выполненный с возможностью получения модели распознавания, причем модель распознавания сформирована путем обучения заданных эталонных изображений с помощью алгоритма классификации, причем заданные эталонные изображения включают в себя позитивные эталонные изображения и негативные эталонные изображения, каждое из позитивных эталонных изображений имеет по меньшей мере один числовой символ, а каждое из негативных эталонных изображений не имеет числового символа или имеет неполные числовые символы;
модуль распознавания, выполненный с возможностью распознавания изображения, подлежащего распознаванию, в соответствии с моделью распознавания для получения по меньшей мере одной числовой области; и
модуль сегментации, выполненный с возможностью сегментации числовой области для получения по меньшей мере одной области с одним числом.
10. Устройство по п. 9, в котором модуль распознавания содержит:
подмодуль разворачивающегося окна, выполненный с возможностью извлечения области окна-кандидата из изображения, подлежащего распознаванию, в соответствии с заданной стратегией разворачивающегося окна с помощью заданного окна;
подмодуль классификации, выполненный с возможностью классификации области окна-кандидата путем ввода признака изображения области окна-кандидата в модель распознавания для получения результата классификации; и
подмодуль подтверждения, выполненный с возможностью распознавания области окна-кандидата в качестве числовой области в случае, когда результатом классификации является положительный результат.
11. Устройство по п. 10, в котором существуют по меньшей мере две числовые области, а устройство дополнительно содержит:
модуль нахождения, выполненный с возможностью нахождения n числовых областей, каждая из которых имеет зону пересечения с другой числовой областью в пределах n числовых областей;
модуль объединения, выполненный с возможностью объединения n числовых областей для получения объединенной числовой области.
12. Устройство по п. 11, в котором модуль объединения содержит:
первый подмодуль определения, выполненный с возможностью определения крайнего левого края из n левых краев n числовых областей в качестве объединенного левого края в случае, когда верхние края и нижние края n числовых областей находятся соответственно на одной прямой;
второй подмодуль определения, выполненный с возможностью определения крайнего правого края из n правых краев n числовых областей в качестве объединенного правого края, в случае, когда верхние края и нижние края n числовых областей находятся соответственно на одной прямой; и
третий подмодуль определения, выполненный с возможностью получения объединенной числовой области на основании верхнего края, нижнего края, объединенного левого края и объединенного правого края в случае, когда верхние края и нижние края n числовых областей находятся соответственно на одной прямой.
13. Устройство по любому из пп. 9-12, в котором модуль сегментации содержит:
подмодуль бинаризации, выполненный с возможностью бинаризации числовой области для получения бинаризованной числовой области;
подмодуль вычисления, выполненный с возможностью вычисления гистограммы для бинаризованной числовой области в вертикальном направлении, причем гистограмма содержит горизонтальную координату каждого столбца пиксельных точек и совокупное значение пиксельных точек основного цвета в каждом столбце пиксельных точек; и
подмодуль распознавания чисел, выполненный с возможностью распознавания n областей с одним числом на основании наборов последовательных столбцов в гистограмме, где каждый из наборов последовательных столбцов состоит из столбцов, в которых совокупные значения пиксельных точек основного цвета превышают заданное пороговое значение.
14. Устройство для обучения модели, содержащее:
модуль получения выборки, выполненный с возможностью получения заданных эталонных изображений, причем заданные эталонные изображения включают в себя позитивные эталонные изображения и негативные эталонные изображения, при этом каждое из позитивных эталонных изображений имеет по меньшей мере один числовой символ, и каждое из негативных эталонных изображений не имеет числового символа или имеет неполные числовые символы; и
модуль обучения, выполненный с возможностью обучения заданных эталонных изображений с помощью алгоритма классификации для получения модели распознавания.
15. Устройство по п. 14, в котором модуль обучения содержит:
подмодуль извлечения, выполненный с возможностью извлечения признаков изображения из позитивных эталонных изображений и негативных эталонных изображений; и
подмодуль ввода, выполненный с возможностью ввода признаков изображения позитивных эталонных изображений и первой метки, указывающей положительные результаты, в исходную модель и ввода признаков изображения негативных эталонных изображений и второй метки, указывающей отрицательные результаты, в исходную модель для получения модели распознавания, причем построение исходной модели осуществляется с использованием алгоритма классификации.
16. Устройство по п. 14 или 15, в котором алгоритм классификации содержит по меньшей мере один из следующих алгоритмов: Adaboost, метод опорных векторов (SVM), искусственная нейронная сеть, эволюционный алгоритм, наивный байесовский классификатор (Naive Bayes), дерево решений (Decision Trees), алгоритм k-ближайших соседей (K-Nearest Neighbor).
17. Устройство для извлечения области, содержащее:
процессор; и
память для хранения команд, исполняемых процессором,
причем процессор выполнен с возможностью:
получения модели распознавания, причем модель распознавания формируется путем обучения заданных эталонных изображений с помощью алгоритма классификации, заданные эталонные изображения включают в себя позитивные эталонные изображения и негативные эталонные изображения, каждое из позитивных эталонных изображений имеет по меньшей мере один числовой символ, а каждое из негативных эталонных изображений не имеет числового символа или имеет неполные числовые символы;
распознавания изображения, подлежащего распознаванию, в соответствии с моделью распознавания для получения по меньшей мере одной числовой области; и
выполнения сегментации области в отношении числовой области для получения по меньшей мере одной области с одним числом.
18. Устройство для обучения модели, содержащее:
процессор; и
память для хранения команд, исполняемых процессором,
причем процессор выполнен с возможностью:
получения заданных эталонных изображений, причем заданные эталонные изображения включают в себя позитивные эталонные изображения и негативные эталонные изображения, при этом каждое из позитивных изображений имеет по меньшей мере один числовой символ, при этом каждое из негативных эталонных изображений не имеет числового символа или имеет неполные числовые символы; и
обучения заданных эталонных изображений с помощью алгоритма классификации для получения модели распознавания.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510727932.0A CN105528607B (zh) | 2015-10-30 | 2015-10-30 | 区域提取方法、模型训练方法及装置 |
CN201510727932.0 | 2015-10-30 | ||
PCT/CN2015/099300 WO2017071064A1 (zh) | 2015-10-30 | 2015-12-29 | 区域提取方法、模型训练方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
RU2016110914A true RU2016110914A (ru) | 2017-09-28 |
Family
ID=55770821
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2016110914A RU2016110914A (ru) | 2015-10-30 | 2015-12-29 | Способ извлечения области, способ обучения модели и устройства для их осуществления |
Country Status (8)
Country | Link |
---|---|
US (1) | US20170124719A1 (ru) |
EP (1) | EP3163509A1 (ru) |
JP (1) | JP2018503201A (ru) |
KR (1) | KR101763891B1 (ru) |
CN (1) | CN105528607B (ru) |
MX (1) | MX2016003753A (ru) |
RU (1) | RU2016110914A (ru) |
WO (1) | WO2017071064A1 (ru) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106687992B (zh) * | 2014-07-10 | 2021-01-12 | 赛诺菲-安万特德国有限公司 | 用于执行光学字符识别的装置和方法 |
CN107784301B (zh) * | 2016-08-31 | 2021-06-11 | 百度在线网络技术(北京)有限公司 | 用于识别图像中文字区域的方法和装置 |
CN106373160B (zh) * | 2016-08-31 | 2019-01-11 | 清华大学 | 一种基于深度强化学习的摄像机主动目标定位方法 |
CN107886102B (zh) * | 2016-09-29 | 2020-04-07 | 北京君正集成电路股份有限公司 | Adaboost分类器训练方法及系统 |
CN106991418B (zh) * | 2017-03-09 | 2020-08-04 | 上海小蚁科技有限公司 | 飞虫检测方法、装置及终端 |
EP3682372A4 (en) | 2017-09-14 | 2021-07-21 | Chevron U.S.A. Inc. | CLASSIFICATION OF STRINGS USING MACHINE LEARNING |
KR102030768B1 (ko) | 2018-05-08 | 2019-10-10 | 숭실대학교산학협력단 | 영상을 이용한 가금류 무게 측정 방법, 이를 수행하기 위한 기록매체 및 장치 |
CN108846795A (zh) * | 2018-05-30 | 2018-11-20 | 北京小米移动软件有限公司 | 图像处理方法及装置 |
CN109002846B (zh) * | 2018-07-04 | 2022-09-27 | 腾讯医疗健康(深圳)有限公司 | 一种图像识别方法、装置和存储介质 |
CN111325228B (zh) * | 2018-12-17 | 2021-04-06 | 上海游昆信息技术有限公司 | 一种模型训练方法及装置 |
CN113366390B (zh) * | 2019-01-29 | 2024-02-20 | Asml荷兰有限公司 | 半导体制造过程中的决定方法 |
CN111814514A (zh) * | 2019-04-11 | 2020-10-23 | 富士通株式会社 | 号码识别装置、方法以及电子设备 |
CN110119725B (zh) * | 2019-05-20 | 2021-05-25 | 百度在线网络技术(北京)有限公司 | 用于检测信号灯的方法及装置 |
CN110533003B (zh) * | 2019-09-06 | 2022-09-20 | 兰州大学 | 一种穿线法车牌数字识别方法及设备 |
CN110781877B (zh) * | 2019-10-28 | 2024-01-23 | 京东方科技集团股份有限公司 | 一种图像识别方法、设备及存储介质 |
CN111275011B (zh) * | 2020-02-25 | 2023-12-19 | 阿波罗智能技术(北京)有限公司 | 移动红绿灯检测方法、装置、电子设备和存储介质 |
CN111753851B (zh) * | 2020-07-01 | 2022-06-07 | 中国铁路设计集团有限公司 | 基于图像处理的铁路雪深及风雪运移轨迹监测方法及系统 |
CN112330619B (zh) * | 2020-10-29 | 2023-10-10 | 浙江大华技术股份有限公司 | 一种检测目标区域的方法、装置、设备及存储介质 |
CN115862045B (zh) * | 2023-02-16 | 2023-05-26 | 中国人民解放军总医院第一医学中心 | 基于图文识别技术的病例自动识别方法、系统、设备及存储介质 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2917353B2 (ja) * | 1990-01-22 | 1999-07-12 | 松下電器産業株式会社 | 文字切り出し装置 |
JP3442847B2 (ja) * | 1994-02-17 | 2003-09-02 | 三菱電機株式会社 | 文字読取装置 |
JP4078045B2 (ja) * | 2001-07-02 | 2008-04-23 | キヤノン株式会社 | 画像処理装置、方法、プログラム、及び記憶媒体 |
US7715640B2 (en) * | 2002-11-05 | 2010-05-11 | Konica Minolta Business Technologies, Inc. | Image processing device, image processing method, image processing program and computer-readable recording medium on which the program is recorded |
JP2004287671A (ja) * | 2003-03-20 | 2004-10-14 | Ricoh Co Ltd | 手書き文字認識装置、情報入出力システム、プログラム及び記憶媒体 |
CN101498592B (zh) * | 2009-02-26 | 2013-08-21 | 北京中星微电子有限公司 | 指针式仪表的读数方法及装置 |
US8644561B2 (en) * | 2012-01-18 | 2014-02-04 | Xerox Corporation | License plate optical character recognition method and system |
KR101183211B1 (ko) * | 2012-04-30 | 2012-09-14 | 주식회사 신아시스템 | 계량기 영상 정보의 세그멘테이션 처리장치 |
WO2014075174A1 (en) * | 2012-11-19 | 2014-05-22 | Imds America Inc. | Method and system for the spotting of arbitrary words in handwritten documents |
CN104346628B (zh) * | 2013-08-01 | 2017-09-15 | 天津天地伟业数码科技有限公司 | 基于多尺度多方向Gabor特征的车牌汉字识别方法 |
CN104156704A (zh) * | 2014-08-04 | 2014-11-19 | 胡艳艳 | 一种新的车牌识别方法及系统 |
CN104298976B (zh) * | 2014-10-16 | 2017-09-26 | 电子科技大学 | 基于卷积神经网络的车牌检测方法 |
CN104598885B (zh) * | 2015-01-23 | 2017-09-22 | 西安理工大学 | 街景图像中的文字标牌检测与定位方法 |
CN104899587A (zh) * | 2015-06-19 | 2015-09-09 | 四川大学 | 一种基于机器学习的数字式表计识别方法 |
CN104966107A (zh) * | 2015-07-10 | 2015-10-07 | 安徽清新互联信息科技有限公司 | 一种基于机器学习的信用卡卡号识别方法 |
-
2015
- 2015-10-30 CN CN201510727932.0A patent/CN105528607B/zh active Active
- 2015-12-29 JP JP2017547047A patent/JP2018503201A/ja active Pending
- 2015-12-29 KR KR1020167005383A patent/KR101763891B1/ko active IP Right Grant
- 2015-12-29 MX MX2016003753A patent/MX2016003753A/es unknown
- 2015-12-29 RU RU2016110914A patent/RU2016110914A/ru unknown
- 2015-12-29 WO PCT/CN2015/099300 patent/WO2017071064A1/zh active Application Filing
-
2016
- 2016-10-21 US US15/299,659 patent/US20170124719A1/en not_active Abandoned
- 2016-10-24 EP EP16195235.3A patent/EP3163509A1/en not_active Withdrawn
Also Published As
Publication number | Publication date |
---|---|
MX2016003753A (es) | 2017-05-30 |
WO2017071064A1 (zh) | 2017-05-04 |
EP3163509A1 (en) | 2017-05-03 |
KR101763891B1 (ko) | 2017-08-01 |
CN105528607A (zh) | 2016-04-27 |
JP2018503201A (ja) | 2018-02-01 |
CN105528607B (zh) | 2019-02-15 |
US20170124719A1 (en) | 2017-05-04 |
KR20170061628A (ko) | 2017-06-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2016110914A (ru) | Способ извлечения области, способ обучения модели и устройства для их осуществления | |
CN106778835B (zh) | 融合场景信息和深度特征的遥感图像机场目标识别方法 | |
CN108304873B (zh) | 基于高分辨率光学卫星遥感影像的目标检测方法及其系统 | |
Neumann et al. | Efficient scene text localization and recognition with local character refinement | |
Huang et al. | Robust scene text detection with convolution neural network induced mser trees | |
Shahab et al. | ICDAR 2011 robust reading competition challenge 2: Reading text in scene images | |
Pan et al. | Text localization in natural scene images based on conditional random field | |
US8655070B1 (en) | Tree detection form aerial imagery | |
CN103942550B (zh) | 一种基于稀疏编码特征的场景文本识别方法 | |
WO2018072233A1 (zh) | 一种基于选择性搜索算法的车标检测识别方法及系统 | |
Gatos et al. | Segmentation of historical handwritten documents into text zones and text lines | |
CN104809481A (zh) | 一种基于自适应色彩聚类的自然场景文本检测的方法 | |
Zawbaa et al. | An automatic flower classification approach using machine learning algorithms | |
CN103971102A (zh) | 基于手指轮廓和决策树的静态手势识别方法 | |
Diem et al. | ICFHR 2014 competition on handwritten digit string recognition in challenging datasets (HDSRC 2014) | |
Turki et al. | Text detection based on MSER and CNN features | |
CN103186776A (zh) | 基于多特征和深度信息的人体检测方法 | |
Shivakumara et al. | Gradient-angular-features for word-wise video script identification | |
Kobchaisawat et al. | Thai text localization in natural scene images using convolutional neural network | |
Pham et al. | CNN-based character recognition for license plate recognition system | |
Šarić | Scene text segmentation using low variation extremal regions and sorting based character grouping | |
CN102136074A (zh) | 一种基于mmi的木材图像纹理分析与识别方法 | |
Iqbal et al. | Bayesian network scores based text localization in scene images | |
Xue | Optical character recognition | |
Madushanka et al. | Sinhala handwritten character recognition by using enhanced thinning and curvature histogram based method |