CN111723811A - 文字识别及处理的方法、装置、介质以及电子设备 - Google Patents
文字识别及处理的方法、装置、介质以及电子设备 Download PDFInfo
- Publication number
- CN111723811A CN111723811A CN202010426896.5A CN202010426896A CN111723811A CN 111723811 A CN111723811 A CN 111723811A CN 202010426896 A CN202010426896 A CN 202010426896A CN 111723811 A CN111723811 A CN 111723811A
- Authority
- CN
- China
- Prior art keywords
- processing unit
- information
- hand
- character
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/14—Image acquisition
- G06V30/148—Segmentation of character regions
- G06V30/153—Segmentation of character regions using recognition of characters or words
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
- G06F40/242—Dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/28—Character recognition specially adapted to the type of the alphabet, e.g. Latin alphabet
- G06V30/287—Character recognition specially adapted to the type of the alphabet, e.g. Latin alphabet of Kanji, Hiragana or Katakana characters
Abstract
本发明涉及一种文字识别及处理的方法包括录像设备传递识别图帧,通过图帧识别出手部或点读笔位置不变时针对手部或点读笔位置处的文本信息进行处理并将指尖或笔尖位置处文本信息朗读或翻译出来。此外本发明还提供了一种文字识别及处理装置、介质以及电子设备,可以实现VR点读和/或翻译功能。
Description
技术领域
本发明属于计算机技术领域,特别涉及一种文字识别及处理的方法、装置、介质以及电子设备。
背景技术
本部分旨在为权利要求书中陈述的本发明的实施方式提供背景或上下文。此处的描述不因为包括在本部分中就承认是现有技术。
传统的点读或翻译技术是通过特殊的智能笔或拍照选择与阅读或翻译软件相匹配,通过智能笔内部的信息或所拍照片传递至阅读或翻译软件中进行识别从而实现点读或翻译。拍照点读和翻译耗时长,运用点读笔技术复杂需要购买与阅读文本相匹配的点读笔。
发明内容
为解决目前拍照点读和翻译耗时长,运用点读笔技术复杂需要购买与阅读文本相匹配的点读笔的问题,本发明提供一种能实现VR点读或翻译的技术和设备,包括文字识别及处理的方法、装置、介质以及电子设备。
本发明所采取的技术方案为:一种文字识别和处理的方法,其特征在于,所述方法包括如下步骤:S1通过录像设备将录制的图像逐帧传递至第一处理单元;S2所述第一处理单元在接收所述每一帧图像后进行手部或阅读笔识别并记录当前所述手部或阅读笔的位置,同时与上一帧中的所述手部或阅读笔位置进行比较,当连续至少3帧所述手部或阅读笔位置与上一帧重叠面积大于90%时启动第二处理单元;S3所述第二处理单元启动后,将启动所述第二处理时所识别的这一帧图像传递给第二处理单元,基于所述这一帧图像,所述第二处理单元检测并定位手部或阅读笔的指尖或笔尖位置;所述第二处理单元以所述指尖或笔尖顶部为底部中点在所述这一帧图像中截取256x256至640x640大小的文本分析图像;S4将所述文本分析图像传递至OCR识别模块进行文字识别,所述OCR识别模块识别文字的同时识别文字的位置,所述识别文字的位置与所述指尖或笔尖的位置相匹配,将与所述指尖或笔尖的位置最近的识别文字信息传入文字匹配模块得出最接近的字典信息;S5将所述最接近字典信息转换为信号通过发声设备发出相应语音信息。
优选的,所述S2步骤中识别出所述手部或阅读笔的位置的同时将基于所述手部或阅读笔位置,截取手部或阅读笔图像片段,在所述第二处理单元启动时,代替S3步骤中所述启动所述第二处理时所识别的这一帧图像传递给第二处理单元。
优选的,将所述文本分析图像传递至OCR识别模块进行文字识别时,将所述文本分析图像中的文本信息采取了分块识别文本信息策略,即先将所述文本分析图像中的文本信息如英文字母或汉字或其他任意语言文字信息以最小可识别单元识别成独立的小矩形块,然后将所述独立小矩形块横向连接起来进行文字识别。
优选的,所述文字匹配模块可根据不同语言文字信息和语言文字难度等级录入相应的字典信息,所述字典信息包括该语言文字的拼写、发音,释义,例句,或其他可以录入的信息中的一种或几种。
一种文字识别和处理装置,其特征在于所述装置包括:录像设备:用以将录制的图像逐帧传递至第一处理单元;第一处理单元:接收所述每一帧图像后进行手部或阅读笔识别并记录当前所述手部或阅读笔的位置,同时与上一帧中的所述手部或阅读笔位置进行比较,当连续至少3帧所述手部或阅读笔位置与上一帧重叠面积大于90%时启动第二处理单元;第二处理单元:接收启动所述第二处理时所识别的这一帧图像并基于所述这一帧图像检测并定位手部或阅读笔的指尖或笔尖位置;所述第二处理单元以所述指尖或笔尖顶部为底部中点在所述这一帧图像中截取256x256至640x640大小的文本分析图像;OCR识别模块:接收所述文本分析图像并识别文字的,在识别文字的同时识别文字的位置,将所述识别文字的位置与所述指尖或笔尖的位置相匹配,将与所述指尖或笔尖的位置最近的识别文字信息传入文字匹配模块;文字匹配模块:接收所述最近的识别文字信息与内部字典信息匹配得出最接近的字典信息并将所述字典信息转换为信号传递至发音设备;和发音设备:接收所述文字匹配模块传递的信号并发出相应的语音信息。
优选的,所述第一处理单元中识别出所述手部或阅读笔的位置的同时将基于所述手部或阅读笔位置,截取手部或阅读笔图像片段,在所述第二处理单元启动时,代替所述启动所述第二处理时所识别的这一帧图像传递给第二处理单元。
优选的,所述OCR识别模块进行文字识别时,将所述文本分析图像中的文本信息采取了分块识别文本信息策略,即先将所述文本分析图像中的文本信息如英文字母或汉字或其他任意语言文字信息以最小可识别单元识别成独立的小矩形块,然后将所述独立小矩形块横向连接起来进行文字识别。
优选的,所述文字匹配模块可根据不同语言文字信息和语言文字难度等级录入相应的字典信息,所述字典信息包括该语言文字的拼写、发音,释义,例句,或其他可以录入的信息中的一种或几种。
一种介质,存储有计算机可执行指令,所述指令在被处理器执行时用于实现如权利要求1至4任一项所述的一种文字识别和处理方法。
一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的可执行指令,所述处理器执行所述指令时实现如权利要求1至4任一项所述的一种文字识别和处理方法。
与现有技术相比,本发明取得的有益效果为:
第一,本发明可实现VR点读或翻译。
第二,本发明文本处理效率高。
附图说明
图1本发明文字识别和处理方法流程图;
图2本发明手部或阅读笔的位置识别示意图;
图3本发明手部或阅读笔的指尖或笔尖位置识别示意图;
图4本发明文本分析图像截取示意图;
图5本发明OCR文字识别匹配示意图。
具体实施方式
下面将结合说明书附图对本发明进行进一步详细的说明。
实施例一
如图1至5所示,一种文字识别和处理的方法,所述方法包括如下步骤:S1通过录像设备将录制的图像逐帧传递至第一处理单元;S2所述第一处理单元在接收所述每一帧图像后进行手部或阅读笔识别并记录当前所述手部或阅读笔的位置,所述位置记录方式为图像中当前手部或阅读笔的左上和右下坐标值或右上和左下的坐标值,同时与上一帧中的所述手部或阅读笔位置进行比较,当连续至少3帧所述手部或阅读笔位置与上一帧重叠面积大于90%时启动第二处理单元;S3所述第二处理单元启动后,将启动所述第二处理时所识别的这一帧图像传递给第二处理单元,基于所述这一帧图像,所述第二处理单元检测并定位手部或阅读笔的指尖或笔尖位置;所述第二处理单元以所述指尖或笔尖顶部为底部中点在所述这一帧图像中截取256x256至640x640大小的文本分析图像,优选的可以选择截取416x416大小的文本分析图像;S4将所述文本分析图像传递至OCR识别模块进行文字识别,所述OCR识别模块识别文字的同时识别文字的位置,所述识别文字的位置与所述指尖或笔尖的位置相匹配,将与所述指尖或笔尖的位置最近的识别文字信息传入文字匹配模块得出最接近的字典信息;S5将所述最接近字典信息转换为信号通过发声设备发出相应语音信息。
优选的,所述S2步骤中识别出所述手部或阅读笔的位置的同时将基于所述手部或阅读笔位置,截取手部或阅读笔图像片段,在所述第二处理单元启动时,代替S3步骤中所述启动所述第二处理时所识别的这一帧图像传递给第二处理单元,为了提升容错性,在截取手部或阅读笔图像片段时需要将手部或阅读笔图像坐标范围延伸15%,另外每一帧图像中手部或阅读笔的大小和摄像头与手部或阅读笔的距离有关,需要根据手部或阅读笔的坐标值对原图进行等比例缩放至10000平方像素左右。此步骤可以减少第二处理单元的分析量,减少设备功耗,并提升识别效率。
优选的,将所述文本分析图像传递至OCR识别模块进行文字识别时,将所述文本分析图像中的文本信息采取了分块识别文本信息策略,即先将所述文本分析图像中的文本信息如英文字母或汉字或其他任意语言文字信息以最小可识别单元识别成独立的小矩形块,然后将所述独立小矩形块横向连接起来进行文字识别。分块识别文字信息可以减少设备信息处理量,进而减少功耗提升处理速度。
优选的,所述文字匹配模块可根据不同语言文字信息和语言文字难度等级录入相应的字典信息,所述字典信息包括该语言文字的拼写、发音,释义,例句,或其他可以录入的信息中的一种或几种。
实施例二
一种文字识别和处理装置,其特征在于所述装置包括:录像设备:用以将录制的图像逐帧传递至第一处理单元;第一处理单元:接收所述每一帧图像后进行手部或阅读笔识别并记录当前所述手部或阅读笔的位置,所述位置记录方式为图像中当前手部或阅读笔的左上和右下坐标值或右上和左下的坐标值,同时与上一帧中的所述手部或阅读笔位置进行比较,当连续至少3帧所述手部或阅读笔位置与上一帧重叠面积大于90%时启动第二处理单元;第二处理单元:接收启动所述第二处理时所识别的这一帧图像并基于所述这一帧图像检测并定位手部或阅读笔的指尖或笔尖位置;所述第二处理单元以所述指尖或笔尖顶部为底部中点在所述这一帧图像中截取256x256至640x640大小的文本分析图像,优选的可以选择截取416x416大小的文本分析图像;OCR识别模块:接收所述文本分析图像并识别文字的,在识别文字的同时识别文字的位置,将所述识别文字的位置与所述指尖或笔尖的位置相匹配,将与所述指尖或笔尖的位置最近的识别文字信息传入文字匹配模块;文字匹配模块:接收所述最近的识别文字信息与内部字典信息匹配得出最接近的字典信息并将所述字典信息转换为信号传递至发音设备;和发音设备:接收所述文字匹配模块传递的信号并发出相应的语音信息。
优选的,所述第一处理单元中识别出所述手部或阅读笔的位置的同时将基于所述手部或阅读笔位置,截取手部或阅读笔图像片段,为了提升容错性,在截取手部图像片段时需要将手部图像坐标范围延伸15%;由于视频帧中手部大小和摄像头和手部的距离有关,需要根据手部的坐标值对原图进行等比例缩放至10000平方像素左右,在所述第二处理单元启动时,代替所述启动所述第二处理单元时所识别的这一帧图像传递给第二处理单元。此步骤可以减少第二处理单元的分析量,减少设备功耗,并提升识别效率。
优选的,所述OCR识别模块进行文字识别时,将所述文本分析图像中的文本信息采取了分块识别文本信息策略,即先将所述文本分析图像中的文本信息如英文字母或汉字或其他任意语言文字信息以最小可识别单元识别成独立的小矩形块,然后将所述独立小矩形块横向连接起来进行文字识别。分块识别文字信息可以减少设备信息处理量,进而减少功耗提升处理速度。
优选的,所述文字匹配模块可根据不同语言文字信息和语言文字难度等级录入相应的字典信息,所述字典信息包括该语言文字的拼写、发音,释义,例句,或其他可以录入的信息中的一种或几种。
实施例三
一种介质,存储有计算机可执行指令,所述指令在被处理器执行时用于实现实施例一中所述的一种文字识别和处理方法。
实施例四
一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的可执行指令,所述处理器执行所述指令时实现实施例一中所述的一种文字识别和处理方法。
综上所述,本发明提供一种能实现VR点读或翻译的技术和设备,包括文字识别及处理的方法、装置、介质以及电子设备,本发明所述识别方法具有处理速度快,使设备功耗低的优点。
以上所述实施方式仅为本发明的优选实施例,而并非本发明可行实施的穷举。对于本领域一般技术人员而言,在不背离本发明原理和精神的前提下对其所作出的任何显而易见的改动,都应当被认为包含在本发明的权利要求保护范围之内。
Claims (10)
1.一种文字识别和处理的方法,其特征在于,所述方法包括如下步骤:
S1通过录像设备将录制的图像逐帧传递至第一处理单元;
S2所述第一处理单元在接收所述每一帧图像后进行手部或阅读笔识别并记录当前所述手部或阅读笔的位置,同时与上一帧中的所述手部或阅读笔位置进行比较,当连续至少3帧所述手部或阅读笔位置与上一帧重叠面积大于90%时启动第二处理单元;
S3所述第二处理单元启动后,将启动所述第二处理时所识别的这一帧图像传递给第二处理单元,基于所述这一帧图像,所述第二处理单元检测并定位手部或阅读笔的指尖或笔尖位置;所述第二处理单元以所述指尖或笔尖顶部为底部中点在所述这一帧图像中截取256x256至640x640大小的文本分析图像;
S4将所述文本分析图像传递至OCR识别模块进行文字识别,所述OCR识别模块识别文字的同时识别文字的位置,所述识别文字的位置与所述指尖或笔尖的位置相匹配,将与所述指尖或笔尖的位置最近的识别文字信息传入文字匹配模块得出最接近的字典信息;
S5将所述最接近字典信息转换为信号通过发声设备发出相应语音信息。
2.如权利要求1所述的一种文字识别和处理的方法,其特征在于在所述S2步骤中识别出所述手部或阅读笔的位置的同时将基于所述手部或阅读笔位置,截取手部或阅读笔图像片段,在所述第二处理单元启动时,代替S3步骤中所述启动所述第二处理时所识别的这一帧图像传递给第二处理单元。
3.如权利要求1所述的一种文字识别和处理的方法,其特征在于将所述文本分析图像传递至OCR识别模块进行文字识别时,将所述文本分析图像中的文本信息采取了分块识别文本信息策略,即先将所述文本分析图像中的文本信息如英文字母或汉字或其他任意语言文字信息以最小可识别单元识别成独立的小矩形块,然后将所述独立小矩形块横向连接起来进行文字识别。
4.如权利要求1所述的一种文字识别和处理方法,其特征在于所述文字匹配模块可根据不同语言文字信息和语言文字难度等级录入相应的字典信息,所述字典信息包括该语言文字的拼写、发音,释义,例句,或其他可以录入的信息中的一种或几种。
5.一种文字识别和处理装置,其特征在于所述装置包括:
录像设备:用以将录制的图像逐帧传递至第一处理单元;
第一处理单元:接收所述每一帧图像后进行手部或阅读笔识别并记录当前所述手部或阅读笔的位置,同时与上一帧中的所述手部或阅读笔位置进行比较,当连续至少3帧所述手部或阅读笔位置与上一帧重叠面积大于90%时启动第二处理单元;
第二处理单元:接收启动所述第二处理时所识别的这一帧图像并基于所述这一帧图像检测并定位手部或阅读笔的指尖或笔尖位置;所述第二处理单元以所述指尖或笔尖顶部为底部中点在所述这一帧图像中截取256x256至640x640大小的文本分析图像;
OCR识别模块:接收所述文本分析图像并识别文字的,在识别文字的同时识别文字的位置,将所述识别文字的位置与所述指尖或笔尖的位置相匹配,将与所述指尖或笔尖的位置最近的识别文字信息传入文字匹配模块;
文字匹配模块:接收所述最近的识别文字信息与内部字典信息匹配得出最接近的字典信息并将所述字典信息转换为信号传递至发音设备;
和发音设备:接收所述文字匹配模块传递的信号并发出相应的语音信息。
6.如权利要求5所述的一种文字识别和处理装置,其特征在于在所述第一处理单元中识别出所述手部或阅读笔的位置的同时将基于所述手部或阅读笔位置,截取手部或阅读笔图像片段,在所述第二处理单元启动时,代替所述启动所述第二处理时所识别的这一帧图像传递给第二处理单元。
7.如权利要求5所述的一种文字识别和处理装置,其特征在于所述OCR识别模块进行文字识别时,将所述文本分析图像中的文本信息采取了分块识别文本信息策略,即先将所述文本分析图像中的文本信息如英文字母或汉字或其他任意语言文字信息以最小可识别单元识别成独立的小矩形块,然后将所述独立小矩形块横向连接起来进行文字识别。
8.如权利要求5所述的一种文字识别和处理装置,其特征在于所述文字匹配模块可根据不同语言文字信息和语言文字难度等级录入相应的字典信息,所述字典信息包括该语言文字的拼写、发音,释义,例句,或其他可以录入的信息中的一种或几种。
9.一种介质,存储有计算机可执行指令,所述指令在被处理器执行时用于实现如权利要求1至4任一项所述的一种文字识别和处理方法。
10.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的可执行指令,所述处理器执行所述指令时实现如权利要求1至4任一项所述的一种文字识别和处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010426896.5A CN111723811A (zh) | 2020-05-20 | 2020-05-20 | 文字识别及处理的方法、装置、介质以及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010426896.5A CN111723811A (zh) | 2020-05-20 | 2020-05-20 | 文字识别及处理的方法、装置、介质以及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111723811A true CN111723811A (zh) | 2020-09-29 |
Family
ID=72564677
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010426896.5A Pending CN111723811A (zh) | 2020-05-20 | 2020-05-20 | 文字识别及处理的方法、装置、介质以及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111723811A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102236800A (zh) * | 2010-05-03 | 2011-11-09 | 微软公司 | 经历ocr过程的文本的单词识别 |
CN104157171A (zh) * | 2014-08-13 | 2014-11-19 | 三星电子(中国)研发中心 | 一种点读系统及其方法 |
CN107967824A (zh) * | 2013-01-25 | 2018-04-27 | 陈旭 | 一种图文指点拍照识别装置 |
CN109325464A (zh) * | 2018-10-16 | 2019-02-12 | 上海翎腾智能科技有限公司 | 一种基于人工智能的手指点读文字识别方法及翻译方法 |
CN110443231A (zh) * | 2019-09-05 | 2019-11-12 | 湖南神通智能股份有限公司 | 一种基于人工智能的单手手指点读文字识别方法和系统 |
CN111078083A (zh) * | 2019-06-09 | 2020-04-28 | 广东小天才科技有限公司 | 一种点读内容的确定方法及电子设备 |
-
2020
- 2020-05-20 CN CN202010426896.5A patent/CN111723811A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102236800A (zh) * | 2010-05-03 | 2011-11-09 | 微软公司 | 经历ocr过程的文本的单词识别 |
CN107967824A (zh) * | 2013-01-25 | 2018-04-27 | 陈旭 | 一种图文指点拍照识别装置 |
CN104157171A (zh) * | 2014-08-13 | 2014-11-19 | 三星电子(中国)研发中心 | 一种点读系统及其方法 |
CN109325464A (zh) * | 2018-10-16 | 2019-02-12 | 上海翎腾智能科技有限公司 | 一种基于人工智能的手指点读文字识别方法及翻译方法 |
CN111078083A (zh) * | 2019-06-09 | 2020-04-28 | 广东小天才科技有限公司 | 一种点读内容的确定方法及电子设备 |
CN110443231A (zh) * | 2019-09-05 | 2019-11-12 | 湖南神通智能股份有限公司 | 一种基于人工智能的单手手指点读文字识别方法和系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11482023B2 (en) | Method and apparatus for detecting text regions in image, device, and medium | |
CN112860888A (zh) | 一种基于注意力机制的双模态情感分析方法 | |
WO2012066557A1 (en) | System and method for using information from intuitive multimodal interactions for media tagging | |
CN111353501A (zh) | 一种基于深度学习的书本点读方法及系统 | |
CN109284503B (zh) | 翻译语句结束判断方法与系统 | |
CN104899560A (zh) | 字符的识别方法及手写笔 | |
US10846568B2 (en) | Deep learning-based automatic gesture recognition method and system | |
KR20100120753A (ko) | 문자인식을 위한 이미지 센서 및 이미지 센싱 방법 | |
Yuan et al. | Large scale sign language interpretation | |
CN112836702B (zh) | 一种基于多尺度特征提取的文本识别方法 | |
Kurlekar et al. | Reading device for blind people using Python, OCR and GTTS | |
US20230065965A1 (en) | Text processing method and apparatus | |
Shirke et al. | Portable camera based Text Reading of Objects for blind Persons | |
AlSalman et al. | A Deep Learning-Based Recognition Approach for the Conversion of Multilingual Braille Images. | |
CN201251767Y (zh) | 智能电子词典 | |
Hsueh | Interactive text recognition and translation on a mobile device | |
Ma et al. | Modal contrastive learning based end-to-end text image machine translation | |
CN111723811A (zh) | 文字识别及处理的方法、装置、介质以及电子设备 | |
WO2023051384A1 (zh) | 显示方法、信息发送方法和电子设备 | |
US20220392243A1 (en) | Method for training text classification model, electronic device and storage medium | |
CN110674825A (zh) | 应用于智能语音鼠标的文字识别方法、装置、系统和存储介质 | |
US20160253992A1 (en) | Ocr through voice recognition | |
CN214202843U (zh) | 一种基于ocr和tts的视障者阅读装置 | |
CN112487951B (zh) | 一种手语识别和翻译方法 | |
CN113392847A (zh) | 一种藏汉英三语ocr手持扫描翻译装置及翻译方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20200929 |
|
WD01 | Invention patent application deemed withdrawn after publication |