CN111459443A - 一种文字点读方法、装置、设备和可读介质 - Google Patents

一种文字点读方法、装置、设备和可读介质 Download PDF

Info

Publication number
CN111459443A
CN111459443A CN201910054306.8A CN201910054306A CN111459443A CN 111459443 A CN111459443 A CN 111459443A CN 201910054306 A CN201910054306 A CN 201910054306A CN 111459443 A CN111459443 A CN 111459443A
Authority
CN
China
Prior art keywords
reading
read
point
pointing
pen point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910054306.8A
Other languages
English (en)
Inventor
不公告发明人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
Original Assignee
Beijing ByteDance Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd filed Critical Beijing ByteDance Network Technology Co Ltd
Priority to CN201910054306.8A priority Critical patent/CN111459443A/zh
Publication of CN111459443A publication Critical patent/CN111459443A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/142Image acquisition using hand-held instruments; Constructional details of the instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本公开实施例公开了一种文字点读方法、装置、设备和可读介质。其中,该方法包括:如果检测到笔尖指向当前待点读资料的操作,且,获取到用户的点读语音指令,则获取当前待点读资料的图像;根据所述操作和所述点读语音指令,识别当前待点读资料的图像中笔尖指向区域的文字信息;根据所述点读语音指令,展示所述文字信息的点读结果。本公开实施例提供的技术方案,提高了点读的便利性和实时性,通过任一种笔尖的直接操作实现点读,而无需通过专门配置的点读笔辅助实现对应的点读功能,提高了点读内容识别的准确性,增强了用户的使用体验。

Description

一种文字点读方法、装置、设备和可读介质
技术领域
本公开实施例涉及计算机处理技术,尤其涉及一种文字点读方法、装置、设备和可读介质。
背景技术
在现有的点读设备中,为了满足点读的多样化需求,一般会为点读设备配置一个专用的点读笔,通过该点读笔点击书本上的相应位置,从而获取该位置的文字进行识别,如将点读笔按压于书本中的某一位置,根据该按压操作获取该位置点的坐标,从而得到该位置点上的文字。
此时要求用户随身携带配置的点读笔,才能实现书本上的文字识别,在点读笔丢失时,无法使用该点读设备来识别书本中的文字,存在一定的识别局限性。
发明内容
有鉴于此,本公开实施例提供了一种文字点读方法、装置、设备和可读介质,解决了现有技术中必须通过点读笔识别书本文字的问题,降低了点读过程中文字识别的局限性,提高了文字点读的便利性。
第一方面,本公开实施例提供了一种文字点读方法,该方法包括:
如果检测到笔尖指向当前待点读资料的操作,且,获取到用户的点读语音指令,则获取当前待点读资料的图像;
根据所述操作和所述点读语音指令,识别当前待点读资料的图像中笔尖指向区域的文字信息;
根据所述点读语音指令,展示所述文字信息的点读结果。
进一步的,根据所述操作和所述点读语音指令,识别当前待点读资料的图像中笔尖指向区域的文字信息,包括:
根据所述操作获取当前待点读资料的图像中笔尖的指向位置;
根据所述点读语音指令和所述指向位置确定对应的笔尖指向区域;
识别所述笔尖指向区域内的文字信息。
进一步的,根据所述操作和所述点读语音指令,识别当前待点读资料的图像中笔尖指向区域的文字信息,包括:
将当前待点读资料的图像输入预先构建的神经网络模型中,得到所述操作对应的笔尖的指向位置;
根据所述点读语音指令和所述指向位置确定对应的笔尖指向区域;
识别所述笔尖指向区域内的文字信息。
进一步的,所述识别所述笔尖指向区域内的文字信息,包括:
采用光学字符识别算法识别所述笔尖指向区域的文字信息。
进一步的,根据所述点读语音指令,展示所述文字信息的点读结果,包括:
采用自然语言处理算法识别所述点读语音指令,得到指令关键词;
根据所述指令关键词确定识别的笔尖指向区域内容的点读结果和对应的点读方式;
根据对应的点读方式展示所述点读结果。
第二方面,本公开实施例提供了一种文字点读装置,该装置包括:
图像获取模块,用于如果检测到笔尖指向当前待点读资料的操作,且,获取到用户的点读语音指令,则获取当前待点读资料的图像;
文字识别模块,用于根据所述操作和所述点读语音指令,识别当前待点读资料的图像中笔尖指向区域的文字信息;
文字点读模块,用于根据所述点读语音指令,展示所述文字信息的点读结果。
进一步的,所述文字识别模块包括:
位置获取单元,用于根据所述操作获取当前待点读资料的图像中笔尖的指向位置;
区域确定单元,用于根据所述点读语音指令和所述指向位置确定对应的笔尖指向区域;
文字识别单元,用于识别所述笔尖指向区域内的文字信息。
进一步的,所述文字识别模块包括:
位置获取单元,用于将当前待点读资料的图像输入预先构建的神经网络模型中,得到所述操作对应的笔尖的指向位置;
区域确定单元,用于根据所述点读语音指令和所述指向位置确定对应的笔尖指向区域;
文字识别单元,用于识别所述笔尖指向区域内的文字信息。
进一步的,所述文字识别单元,具体用于:
采用光学字符识别算法识别所述笔尖指向区域的文字信息。
进一步的,所述文字点读模块,包括:
关键词确定单元,用于采用自然语言处理算法识别所述点读语音指令,得到指令关键词;
点读模式确定单元,用于根据所述指令关键词确定识别的笔尖指向区域内容的点读结果和对应的点读方式;
文字点读单元,用于根据对应的点读方式展示所述点读结果。
第三方面,本公开实施例还提供了一种设备,该设备包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如本公开任意实施例所述的文字点读方法。
第四方面,本公开实施例提供了一种可读介质,其上存储有计算机程序,该程序被处理器执行时实现如本公开任意实施例所述的文字点读方法。
本公开实施例提供的一种文字点读方法、装置、设备和可读介质,在检测到笔尖指向当前待点读资料的操作,且,获取到用户的点读语音指令时,确定当前待点读资料的图像中的笔尖指向区域,并识别该笔尖指向区域内的文字信息,进而根据点读语音指令,展示该文字信息的点读结果,提高了点读的便利性和实时性,通过任一种笔尖的直接操作实现点读,而无需通过专门配置的点读笔辅助实现对应的点读功能,提高了点读内容识别的准确性,增强了用户的使用体验。
附图说明
为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图做一简单地介绍,显而易见地,下面描述中的附图是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1A示出了本公开实施例提供的一种文字点读方法的流程图;
图1B示出了本公开实施例提供的文字点读过程的原理示意图;
图2示出了本公开实施例提供的一种文字点读过程中确定笔尖指向区域的原理示意图;
图3示出了本公开实施例提供的另一种文字点读过程中确定笔尖指向区域的原理示意图;
图4示出了本公开实施例提供的一种文字点读装置的结构示意图;
图5示出了本公开实施例提供的一种设备的结构示意图。
具体实施方式
为使本公开的目的、技术方案和优点更加清楚,以下将参照本公开实施例中的附图,通过实施方式清楚、完整地描述本公开的技术方案,显然,所描述的实施例是本公开一部分实施例,而不是全部的实施例。基于本公开中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
图1A示出了本公开实施例提供的一种文字点读方法的流程图,本公开实施例可适用于对书本上的资料内容进行点读的过程中。本实施例提供的一种文字点读方法可以由本公开实施例提供的文字点读装置来执行,该装置可以通过软件和/或硬件的方式来实现,并集成在执行本方法的设备中,在本实施例中执行本方法的设备可以是用于点读的智能终端。
具体的,如图1A所示,本公开实施例中提供的文字点读方法可以包括如下步骤:
S110,如果检测到笔尖指向当前待点读资料的操作,且,获取到用户的点读语音指令,则获取当前待点读资料的图像。
其中,本实施例中文字点读方法主要应用在对书本资料中的内容进行点读的点读设备中,该点读设备无需配置专用的点读笔来辅助实现点读功能,用户在使用该点读设备对书本资料进行点读时,首先会开启该点读设备上预先配置的摄像器件,用于在用户将待点读资料放置于点读设备的可采集区域时,能够实时将待点读资料预览在该点读设备的屏幕中,以供用户在屏幕上观看该待点读资料;同时用户会发出对应的点读语音,点读设备通过预先配置的语音采集器来获取并分析该点读语音,判断用户本次的点读意图,从而实现后续的点读功能。其中,由于本实施例中的点读设备主要用于学生的学习辅助过程中,因此待点读资料可以是各类教学领域内的相关资料,例如各类书本、课件或者习题等。
同时,用户在需要对某一书本资料内容进行点读时,会将任一种普通笔的笔尖指向待点读资料所在的位置,以明确本次需要点读的待点读资料中包含的具体内容,本实施例中可以采用学习使用的圆珠笔、铅笔等任一种普通笔来指向对应的点读位置,而无需采用专门配置的点读笔来按压书本中具体的点读位置,此时笔尖指向当前待点读资料的操作是指点读设备在屏幕上显示的待点读资料的图像中用户通过任一种普通笔的笔尖指向待点读资料中的点读位置的操作;点读语音指令是用于指示当前需要对用户通过笔尖指向的待点读资料中的相应内容进行点读的触发指令。
可选的,用户在需要使用本实施例中的点读设备来点读书本中的资料时,首先会开启该点读设备中配置的摄像器件,并将待点读资料对应放置于该点读设备的图像采集区域,以使待点读资料在该点读设备的屏幕上预览;在用户需要点读该待点读资料中的具体内容时,首先会将任一种普通笔的笔尖指向图像采集区域中待点读资料的特定位置,并发出对应的点读语音,此时点读设备可以在屏幕上检测到笔尖指向待点读资料的操作,并通过预先配置的语音采集器会获取到用户的点读语音指令,表示用户当前需要对待点读资料中的某一内容进行点读,因此首先获取当前待点读资料的图像,后续根据当前待点读资料的图像中笔尖的具体指向判断本次需要点读的具体内容。
S120,根据该操作和点读语音指令,识别当前待点读资料的图像中笔尖指向区域的文字信息。
其中,笔尖指向区域是指用户通过笔尖指向的待点读资料中本次需要点读的具体信息所处的位置区域。
具体的,在得到当前待点读资料的图像时,首先采用相应的图像识别技术分析该图像中笔尖指向待点读资料的操作所对应的笔尖指向方向,并对点读语音指令进行解析,判断本次待点读的点读内容类型,该点读内容类型是指设定的本次点读的信息所属类型,如本次点读内容属于词语、句子或者段落等;示例性的,点读语音指令可以为“请翻译一下这个词语”,此时可以确定本次的点读内容类型为词语;进而根据图像中的笔尖指向方向以及点读语音指令中包含的点读内容类型,确定本次点读对应指向的位置区域,也就是本实施例中的笔尖指向区域。同时为了实现相应的点读功能,在确定当前待点读资料的图像中对应的笔尖指向区域后,还可以识别该笔尖指向区域内包含的文字信息,从而得到本次点读对应的具体内容。
S130,根据点读语音指令,展示该文字信息的点读结果。
可选的,在识别当前待点读资料的图像中笔尖指向区域的文字信息后,可以对点读语音指令进行分析,判断用户本次点读的点读意图,如判断点读语音指令中针对的是翻译、朗读还是计算解题步骤等,进而根据点读语音指令中携带的不同点读意图,可以进一步在后台服务器或者云服务端中查找与识别的文字信息对应的符合本次点读意图的点读结果,进而展示该文字信息对应的点读结果;示例性的,若点读语音指令为“请计算一下这个题目”,此时可以根据识别的笔尖指向区域内包含的该题目的文字信息,查找该题目对应的解题思路和步骤,并在屏幕上展示给对应的用户,实现相应的点读功能。
本公开实施例提供的技术方案,在检测到笔尖指向当前待点读资料的操作,且,获取到用户的点读语音指令时,确定当前待点读资料的图像中的笔尖指向区域,并识别该笔尖指向区域内的文字信息,进而根据点读语音指令,展示该文字信息的点读结果,提高了点读的便利性和实时性,通过任一种笔尖的直接操作实现点读,而无需通过专门配置的点读笔辅助实现对应的点读功能,提高了点读内容识别的准确性,增强了用户的使用体验。
在上述实施例提供的技术方案的基础上,对于本公开实施例提供的文字点读方法中在笔尖指向区域内识别的文字信息的点读结果进行展示的情况进行进一步说明。示例性的,如图1B所示,本实施例中根据点读语音指令,展示文字信息的读结果,具体可以包括:采用自然语言处理算法识别点读语音指令,得到指令关键词;根据指令关键词确定识别的笔尖指向区域内容的点读结果和对应的点读方式;根据对应的点读方式展示点读结果。
可选的,本实施例在解析点读语音指令时,可以采用自然语言处理(NaturalLanguage Processing,NLP)算法来识别,得到点读语音指令中包含的指令关键词,该指令关键词可以明确用户本次点读的点读意图,如点读语音指令为“请翻译一下这个词语”时,得到的指令关键词为“翻译”和“词语”,则可以确定本次点读是对词语进行翻译;此时根据得到的指令关键词可以在后台服务器或者云服务端中查找与本次识别的笔尖指向区域内包含的文字信息对应的点读结果,如指令关键词为“翻译”时,可以查找出笔尖指向区域内包含的文字信息的翻译结果;同时根据指令关键词确定对应的点读方式,如指令关键词为“翻译”和“词语”,并没有明确指出本次的点读方式,此时将默认的点读方式作为本次的点读方式,如直接将翻译结果显示在屏幕上;如果点读语音指令为“请读一下这个词语”时,可以确定本次的点读方式为语音播放。进一步的,在确定本次点读对应的点读结果和点读方式时,点读设备可以采用该点读方式来展示对应的点读结果,如在对某一数学题进行点读时,点读语音指令可以是“请计算一下这道题”,此时确定出用户通过笔尖指向的数学题,并在后台服务器或者云服务端查找该数学题的对应解题过程,并将该解题过程对应显示在屏幕上,实现相应的点读功能;本实施例中全程通过任一种普通笔的笔尖来实现点读,而无需通过专门配置辅助点读笔,便可实现对应的点读功能,提高了点读的便利性和实时性。
本公开实施例中对于笔尖指向区域的具体确定主要分为两种情况,1)通过设定的指向规则判断对应的笔尖指向区域;2)通过模型训练的方法判断对应的笔尖指向区域;以下分别对这两种情况进行详细的解释说明。
图2示出了本公开实施例提供的一种文字点读过程中确定笔尖指向区域的原理示意图,本实施例是在上述提供的各个可选方案的基础上进行优化。具体的,本实施例对于通过设定的指向规则判断对应的笔尖指向区域的具体确定过程进行详细的介绍。
可选的,该方法具体可以包括如下步骤:
S210,如果检测到笔尖指向当前待点读资料的操作,且,获取到用户的点读语音指令,则获取当前待点读资料的图像。
S220,根据该操作获取当前待点读资料的图像中笔尖的指向位置。
具体的,在获取到当前待点读资料的图像时,可以通过图像识别技术识别该图像中笔尖指向待点读资料的操作,此时若识别出该图像中笔尖直接接触待点读资料的纸面,则直接将该接触的位置作为当前待点读资料的图像中笔尖的指向位置21;若识别出该图像中笔尖未与待点读资料的纸面接触,而仅仅是相隔一段距离来指向待点读资料中需要点读的位置,则获取当前笔尖所在的位置点作为原点,并以笔杆本身的方向作为以笔尖为原点的射线,将该射线反向延伸,进而获取到反向延伸线与待点读资料的纸面的交接点,计算该交接点的位置,将该位置作为当前待点读资料的图像中笔尖的指向位置21。示例性的,本实施例中在判断笔尖在待点读资料中的指向位置时,可以首先判断笔尖直接所在的位置处是否存在文字,若笔尖直接所在的位置处存在文字则说明笔尖与待点读资料的纸面直接接触,从而将该接触位置作为笔尖的指向位置21;若笔尖直接所在的位置处不存在文字,则说明笔尖未与待点读资料的纸面直接接触,此时需要在笔尖的位置按照笔杆的方向反向延伸,将与待点读资料的纸面的交接点作为笔尖的指向位置21。
S230,根据点读语音指令和指向位置确定对应的笔尖指向区域。
可选的,在确定当前待点读资料的图像中笔尖的指向位置21时,可以采用NLP算法对点读语音指令进行分析,得到该点读语音指令中包含的点读内容类型,也就是确定本次点读的内容为单词、词语、段落或者数学题等中的哪一种,进而从待点读资料的图像中笔尖的指向位置21开始,通过识别该指向位置处的文字信息,确定出本次点读内容类型对应的在该图像中的笔尖指向区域22。
此外,在根据笔尖的指向位置确定对应的笔尖指向区域时,由于用户可以在通过笔尖在待点读资料上画出对应的点读区域,将该画出的点读区域作为本实施例中的笔尖指向区域,因此本实施例中还可以在检测到笔尖指向当前待点读资料的操作,且,获取到用户的点读语音指令时,连续获取多帧当前待点读资料的图像,并分析每一帧中笔尖的指向位置,进而根据连续多帧中笔尖的指向位置,确定用户通过笔尖画出的点读区域,作为对应的笔尖指向区域,后续对该笔尖指向区域内包含的文字信息进行识别,从而实现相应的点读功能。
S240,识别笔尖指向区域内的文字信息。
具体的,在确定出当前待点读资料的图像中对应的笔尖指向区域时,本实施例中可以通过字符识技术来识别该笔尖指向区域内包含的文字信息;示例性的,本实施例中采用光学字符识别(Optical Character Recognition,OCR)算法识别该笔尖指向区域的文字信息。其中,OCR算法是指电子设备(例如扫描仪或数码相机)检查纸上打印的或者屏幕显示的字符,通过检测字符暗、亮的模式确定字符形状,然后用字符识别方法将形状翻译成计算机文字的过程,以对文字进行自动识别;本实施例中通过OCR算法检测笔尖指向区域内包含的各个字符的形状,从而确定该笔尖指向区域内的文字信息。
S250,根据点读语音指令,展示该文字信息的点读结果。
本公开实施例提供的技术方案,通过设定的笔尖指向规则确定当前待点读资料的图像中的笔尖指向区域,并识别该笔尖指向区域内的文字信息,进而根据点读语音指令,展示该文字信息的点读结果,提高了点读的便利性和实时性,通过任一种笔尖的直接操作实现点读,而无需通过专门配置的点读笔辅助实现对应的点读功能,增强了用户的使用体验。
图3示出了本公开实施例提供的另一种文字点读过程中确定笔尖指向区域的原理示意图,本实施例是在上述提供的各个可选方案的基础上进行优化。具体的,本实施例对于通过模型训练的方法判断对应的笔尖指向区域的具体确定过程进行详细的介绍。
可选的,该方法具体可以包括如下步骤:
S310,如果检测到笔尖指向当前待点读资料的操作,且,获取到用户的点读语音指令,则获取当前待点读资料的图像。
S320,将当前待点读资料的图像输入预先构建的神经网络模型中,得到该操作对应的笔尖的指向位置。
可选的,本实施例中的神经网络模型是通过大量历史图像预先训练生成的,该历史图像中包含有笔尖指向待点读资料的操作信息,并在历史图像中对笔尖实际指向的位置进行标记,进而训练出一种能够准确识别出任一携带有笔尖指向待点读资料的操作信息的图像中包含的笔尖的指向位置的神经网络模型。本实施例在获取到当前待点读资料的图像时,可以直接将该当前待点读资料的图像输入到该预先构建的神经网络模型中,该神经网络模型通过相应训练好的参数对该图像中的笔尖指向当前待点读资料的操作信息进行相应的分析,从而得到该操作对应的笔尖的指向位置31。
S330,根据点读语音指令和指向位置确定对应的笔尖指向区域。
可选的,在确定当前待点读资料的图像中笔尖的指向位置31时,可以采用NLP算法对点读语音指令进行分析,得到该点读语音指令中包含的点读内容类型,也就是确定本次点读的内容为单词、词语、段落或者数学题等中的哪一种,进而从待点读资料的图像中笔尖的指向位置31开始,通过识别该指向位置处的文字信息,确定出本次点读内容类型对应的在该图像中的笔尖指向区域32。
此外,在根据笔尖的指向位置确定对应的笔尖指向区域时,由于用户可以在通过笔尖在待点读资料上画出对应的点读区域,将该画出的点读区域作为本实施例中的笔尖指向区域,因此本实施例中还可以在检测到笔尖指向当前待点读资料的操作,且,获取到用户的点读语音指令时,连续获取多帧当前待点读资料的图像,并分析每一帧中笔尖的指向位置,进而根据连续多帧中笔尖的指向位置,确定用户通过笔尖画出的点读区域,作为对应的笔尖指向区域,后续对该笔尖指向区域内包含的文字信息进行识别,从而实现相应的点读功能。
S340,识别笔尖指向区域内的文字信息。
具体的,在确定出当前待点读资料的图像中对应的笔尖指向区域时,本实施例中可以通过字符识技术来识别该笔尖指向区域内包含的文字信息;示例性的,本实施例中采用光学字符识别(Optical Character Recognition,OCR)算法识别该笔尖指向区域的文字信息。其中,OCR算法是指电子设备(例如扫描仪或数码相机)检查纸上打印的或者屏幕显示的字符,通过检测字符暗、亮的模式确定字符形状,然后用字符识别方法将形状翻译成计算机文字的过程,以对文字进行自动识别;本实施例中通过OCR算法检测笔尖指向区域内包含的各个字符的形状,从而确定该笔尖指向区域内的文字信息。
S350,根据点读语音指令,展示该文字信息的点读结果。
本公开实施例提供的技术方案,通过预先训练好的神经网络模型确定当前待点读资料的图像中的笔尖指向区域,并识别该笔尖指向区域内的文字信息,进而根据点读语音指令,展示该文字信息的点读结果,提高了文字信息识别的准确性,通过任一种笔尖的直接操作实现点读,而无需通过专门配置的点读笔辅助实现点读功能,提高了点读的便利性和实时性,强了用户的使用体验。
图4示出了本公开实施例提供的一种文字点读装置的结构示意图,本公开实施例可适用于对书本上的资料内容进行点读的过程中,该装置可以通过软件和/或硬件来实现,并集成在执行本方法的设备中。如图4所示,本公开实施例中的文字点读装置,可以包括:
图像获取模块410,用于如果检测到笔尖指向当前待点读资料的操作,且,获取到用户的点读语音指令,则获取当前待点读资料的图像;
文字识别模块420,用于根据该操作和点读语音指令,识别当前待点读资料的图像中笔尖指向区域的文字信息;
文字点读模块430,用于根据点读语音指令,展示文字信息的点读结果。
本公开实施例提供的技术方案,本公开实施例提供的技术方案,在检测到笔尖指向当前待点读资料的操作,且,获取到用户的点读语音指令时,确定当前待点读资料的图像中的笔尖指向区域,并识别该笔尖指向区域内的文字信息,进而根据点读语音指令,展示该文字信息的点读结果,提高了点读的便利性和实时性,通过任一种笔尖的直接操作实现点读,而无需通过专门配置的点读笔辅助实现对应的点读功能,提高了点读内容识别的准确性,增强了用户的使用体验。
进一步的,上述文字识别模块420可以包括:
位置获取单元,用于根据该操作获取当前待点读资料的图像中笔尖的指向位置;
区域确定单元,用于根据点读语音指令和指向位置确定对应的笔尖指向区域;
文字识别单元,用于识别笔尖指向区域内的文字信息。
进一步的,上述位置获取单元,还可以用于:
将当前待点读资料的图像输入预先构建的神经网络模型中,得到该操作对应的笔尖的指向位置。
进一步的,上述文字识别单元,可以具体用于:
采用光学字符识别算法识别笔尖指向区域的文字信息。
进一步的,上述文字点读模块430,可以包括:
关键词确定单元,用于采用自然语言处理算法识别点读语音指令,得到指令关键词;
点读模式确定单元,用于根据指令关键词确定识别的笔尖指向区域内容的点读结果和对应的点读方式;
文字点读单元,用于根据对应的点读方式展示点读结果。
本公开实施例提供的文字点读装置,与上述实施例提供的文字点读方法属于同一发明构思,未在本公开实施例中详尽描述的技术细节可参见上述实施例,并且本公开实施例与上述实施例具有相同的有益效果。
下面参考图5,其示出了适于用来实现本公开实施例的设备500的结构示意图。本公开实施例中的设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图5示出的设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图5所示,设备500可以包括处理装置(例如中央处理器、图形处理器等)501,其可以根据存储在只读存储器(ROM)502中的程序或者从存储装置508加载到随机访问存储器(RAM)503中的程序而执行各种适当的动作和处理。在RAM 503中,还存储有设备500操作所需的各种程序和数据。处理装置501、ROM 502以及RAM 503通过总线504彼此相连。输入/输出(I/O)接口505也连接至总线504。
通常,以下装置可以连接至I/O接口505:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置506;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置507;包括例如磁带、硬盘等的存储装置508;以及通信装置509。通信装置509可以允许设备500与其他设备进行无线或有线通信以交换数据。虽然图5示出了具有各种装置的设备500,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置509从网络上被下载和安装,或者从存储装置508被安装,或者从ROM 502被安装。在该计算机程序被处理装置501执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述设备中所包含的;也可以是单独存在,而未装配入该设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该设备执行时,使得该设备:如果检测到笔尖指向当前待点读资料的操作,且,获取到用户的点读语音指令,则获取当前待点读资料的图像;根据该操作和点读语音指令,识别当前待点读资料的图像中笔尖指向区域的文字信息;根据点读语音指令,展示文字信息的点读结果。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (10)

1.一种文字点读方法,其特征在于,包括:
如果检测到笔尖指向当前待点读资料的操作,且,获取到用户的点读语音指令,则获取当前待点读资料的图像;
根据所述操作和所述点读语音指令,识别当前待点读资料的图像中笔尖指向区域的文字信息;
根据所述点读语音指令,展示所述文字信息的点读结果。
2.根据权利要求1所述的方法,其特征在于,根据所述操作和所述点读语音指令,识别当前待点读资料的图像中笔尖指向区域的文字信息,包括:
根据所述操作获取当前待点读资料的图像中笔尖的指向位置;
根据所述点读语音指令和所述指向位置确定对应的笔尖指向区域;
识别所述笔尖指向区域内的文字信息。
3.根据权利要求1所述的方法,其特征在于,根据所述操作和所述点读语音指令,识别当前待点读资料的图像中笔尖指向区域的文字信息,包括:
将当前待点读资料的图像输入预先构建的神经网络模型中,得到所述操作对应的笔尖的指向位置;
根据所述点读语音指令和所述指向位置确定对应的笔尖指向区域;
识别所述笔尖指向区域内的文字信息。
4.根据权利要求2或3所述的方法,其特征在于,所述识别所述笔尖指向区域内的文字信息,包括:
采用光学字符识别算法识别所述笔尖指向区域的文字信息。
5.根据权利要求1所述的方法,其特征在于,根据所述点读语音指令,展示所述文字信息的点读结果,包括:
采用自然语言处理算法识别所述点读语音指令,得到指令关键词;
根据所述指令关键词确定识别的笔尖指向区域内容的点读结果和对应的点读方式;
根据对应的点读方式展示所述点读结果。
6.一种文字点读装置,其特征在于,包括:
图像获取模块,用于如果检测到笔尖指向当前待点读资料的操作,且,获取到用户的点读语音指令,则获取当前待点读资料的图像;
文字识别模块,用于根据所述操作和所述点读语音指令,识别当前待点读资料的图像中笔尖指向区域的文字信息;
文字点读模块,用于根据所述点读语音指令,展示所述文字信息的点读结果。
7.根据权利要求6所述的装置,其特征在于,所述文字识别模块包括:
位置获取单元,用于根据所述操作获取当前待点读资料的图像中笔尖的指向位置;
区域确定单元,用于根据所述点读语音指令和所述指向位置确定对应的笔尖指向区域;
文字识别单元,用于识别所述笔尖指向区域内的文字信息。
8.根据权利要求6所述的装置,其特征在于,所述文字识别模块包括:
位置获取单元,用于将当前待点读资料的图像输入预先构建的神经网络模型中,得到所述操作对应的笔尖的指向位置;
区域确定单元,用于根据所述点读语音指令和所述指向位置确定对应的笔尖指向区域;
文字识别单元,用于识别所述笔尖指向区域内的文字信息。
9.一种设备,其特征在于,所述设备包括:
一个或多个处理器;
存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-5中任一所述的文字点读方法。
10.一种可读介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-5中任一所述的文字点读方法。
CN201910054306.8A 2019-01-21 2019-01-21 一种文字点读方法、装置、设备和可读介质 Pending CN111459443A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910054306.8A CN111459443A (zh) 2019-01-21 2019-01-21 一种文字点读方法、装置、设备和可读介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910054306.8A CN111459443A (zh) 2019-01-21 2019-01-21 一种文字点读方法、装置、设备和可读介质

Publications (1)

Publication Number Publication Date
CN111459443A true CN111459443A (zh) 2020-07-28

Family

ID=71684048

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910054306.8A Pending CN111459443A (zh) 2019-01-21 2019-01-21 一种文字点读方法、装置、设备和可读介质

Country Status (1)

Country Link
CN (1) CN111459443A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114359919A (zh) * 2021-12-30 2022-04-15 科大讯飞股份有限公司 书写文字的识别方法、计算机设备及存储介质
CN114429632A (zh) * 2020-10-15 2022-05-03 腾讯科技(深圳)有限公司 识别点读内容的方法、装置、电子设备及计算机存储介质
CN116070173A (zh) * 2023-03-07 2023-05-05 之江实验室 一种跨模态任务指令理解的指读方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110307842A1 (en) * 2010-06-14 2011-12-15 I-Jen Chiang Electronic reading device
CN104217197A (zh) * 2014-08-27 2014-12-17 华南理工大学 一种基于视觉手势的点读方法和装置
CN105590486A (zh) * 2014-10-21 2016-05-18 黄小曼 一种基于机器视觉的座台式点读机及相关系统装置与方法
CN108509136A (zh) * 2018-04-12 2018-09-07 山东音为爱智能科技有限公司 一种基于人工智能的儿童绘本辅助阅读方法
CN108549878A (zh) * 2018-04-27 2018-09-18 北京华捷艾米科技有限公司 基于深度信息的手部检测方法及系统
CN109063583A (zh) * 2018-07-10 2018-12-21 广东小天才科技有限公司 一种基于点读操作的学习方法及电子设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110307842A1 (en) * 2010-06-14 2011-12-15 I-Jen Chiang Electronic reading device
CN104217197A (zh) * 2014-08-27 2014-12-17 华南理工大学 一种基于视觉手势的点读方法和装置
CN105590486A (zh) * 2014-10-21 2016-05-18 黄小曼 一种基于机器视觉的座台式点读机及相关系统装置与方法
CN108509136A (zh) * 2018-04-12 2018-09-07 山东音为爱智能科技有限公司 一种基于人工智能的儿童绘本辅助阅读方法
CN108549878A (zh) * 2018-04-27 2018-09-18 北京华捷艾米科技有限公司 基于深度信息的手部检测方法及系统
CN109063583A (zh) * 2018-07-10 2018-12-21 广东小天才科技有限公司 一种基于点读操作的学习方法及电子设备

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114429632A (zh) * 2020-10-15 2022-05-03 腾讯科技(深圳)有限公司 识别点读内容的方法、装置、电子设备及计算机存储介质
CN114429632B (zh) * 2020-10-15 2023-12-12 腾讯科技(深圳)有限公司 识别点读内容的方法、装置、电子设备及计算机存储介质
CN114359919A (zh) * 2021-12-30 2022-04-15 科大讯飞股份有限公司 书写文字的识别方法、计算机设备及存储介质
CN116070173A (zh) * 2023-03-07 2023-05-05 之江实验室 一种跨模态任务指令理解的指读方法及系统

Similar Documents

Publication Publication Date Title
CN109766879B (zh) 字符检测模型的生成、字符检测方法、装置、设备及介质
CN111368562B (zh) 翻译图片中的文字的方法、装置、电子设备、及存储介质
US8943092B2 (en) Digital ink based contextual search
CN111738041A (zh) 一种视频分割方法、装置、设备及介质
WO2022016654A1 (zh) 点阵书写内容的记录方法、装置及电子设备
CN112906380B (zh) 文本中角色的识别方法、装置、可读介质和电子设备
CN111459443A (zh) 一种文字点读方法、装置、设备和可读介质
CN111178056A (zh) 基于深度学习的文案生成方法、装置及电子设备
CN112906381B (zh) 对话归属的识别方法、装置、可读介质和电子设备
CN111738316B (zh) 零样本学习的图像分类方法、装置及电子设备
CN110826619A (zh) 电子卷宗的文件分类方法、装置及电子设备
CN114444508A (zh) 日期识别方法、装置、可读介质及电子设备
CN112306235A (zh) 一种手势操作方法、装置、设备和存储介质
CN111259676A (zh) 翻译模型的训练方法、装置、电子设备、及存储介质
CN111462548A (zh) 一种段落点读方法、装置、设备和可读介质
CN113191251B (zh) 一种笔顺检测方法、装置、电子设备和存储介质
CN111428721A (zh) 词语释义的确定方法、装置、设备及存储介质
CN111460086A (zh) 一种点读标记方法、装置、设备和可读介质
CN113784045A (zh) 聚焦互动方法、装置、介质和电子设备
WO2022016653A1 (zh) 点阵书写内容的记录方法、装置及电子设备
CN112309389A (zh) 信息交互方法和装置
CN115171122A (zh) 一种点读处理方法、装置、设备及介质
CN111461095A (zh) 一种语音点读方法、装置、设备和可读介质
CN112231023A (zh) 一种信息显示方法、装置、设备及存储介质
CN111435442B (zh) 文字选取方法、装置、点读设备、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination