CN111428721A - 词语释义的确定方法、装置、设备及存储介质 - Google Patents

词语释义的确定方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN111428721A
CN111428721A CN201910022935.2A CN201910022935A CN111428721A CN 111428721 A CN111428721 A CN 111428721A CN 201910022935 A CN201910022935 A CN 201910022935A CN 111428721 A CN111428721 A CN 111428721A
Authority
CN
China
Prior art keywords
context
determining
words
word
text image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910022935.2A
Other languages
English (en)
Inventor
不公告发明人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
Original Assignee
Beijing ByteDance Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd filed Critical Beijing ByteDance Network Technology Co Ltd
Priority to CN201910022935.2A priority Critical patent/CN111428721A/zh
Publication of CN111428721A publication Critical patent/CN111428721A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • G06V30/153Segmentation of character regions using recognition of characters or words
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/63Scene text, e.g. street names

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Character Input (AREA)
  • Character Discrimination (AREA)

Abstract

本公开实施例公开了一种词语释义的确定方法、装置、设备及存储介质。该方法包括:采集目标文本对应的文本图像;对所述文本图像进行文字识别,获取所述目标文本的语境;获取所述文本图像中的待解释词语;根据所述语境确定所述待解释词语的释义。本公开实施例提供的词语释义的确定方法,根据词语所处的文本的语境确定词语的释义,可以提高确定词语释义的准确性,使用户更准确的理解词语以及词语所在的文本的意思。

Description

词语释义的确定方法、装置、设备及存储介质
技术领域
本公开实施例涉及文字处理技术领域,尤其涉及一种词语释义的确定方法、装置、设备及存储介质。
背景技术
随着客观事物的发展和人们对客观事物认识的深化,不可避免地要用原有的一些词来表示有关的其他事物,这就造成了词的多义现象。现有技术中,在对词语解释时,会优先显示该词语常用的释义,而显示出的释义没有与词语当前所处的语境相结合,使得显示的释义不准确,误导用户对词语的理解,甚至对词语所在句子的理解。
发明内容
本公开实施例提供一种词语释义的确定方法、装置、设备及存储介质,可以提高确定词语释义的准确性。
第一方面,本公开实施例提供了一种词语释义的确定方法,该方法包括:
采集目标文本对应的文本图像;
对所述文本图像进行文字识别,获取所述目标文本的语境;
获取所述文本图像中的待解释词语;
根据所述语境确定所述待解释词语的释义。
进一步地,对所述文本图像进行文字识别,获取所述目标文本的语境,包括:
采用光学字符识别OCR技术对所述文本图像进行文字识别,并获取所述目标文本对应的语义信息;
根据所述语义信息确定所述目标文本中的语境因素;
根据所述语境因素确定所述目标文本的语境。
进一步地,所述语境因素包括下述至少一个:上下文、时间、空间、情景、对象。
进一步地,获取所述文本图像中的待解释词语,包括:
对所述文本图像进行指尖或笔尖识别,根据识别出的指尖或笔尖确定待解释词语;或者,
检测用户的触摸操作,根据所述触摸操作的位置信息确定待解释词语。
进一步地,对所述文本图像进行指尖识别,包括:
通过肤色检测获取所述文本图像中的手部特征区域;
对所述手部特征区域进行边缘检测,将满足设定弧度的边缘确定为指尖,其中,所述指尖包含多个像素点;
相应的,根据识别出的指尖确定待解释词语,包括:
根据指尖包含的多个像素点的坐标信息确定待解释词语。
进一步地,根据所述语境确定所述待解释词语的释义,包括:
获取所述待解释词语对应的至少一个释义;
若所述待解释词语对应的释义有多个,则将所述语境分别与多个释义进行匹配,获得与所述语境相匹配的释义;
若所述待解释词语对应的释义有一个,则将所述释义确定为所述待解释词语的释义。
进一步地,将所述语境分别与多个释义进行匹配,获得与所述语境相匹配的释义,包括:
将语境包含的语境因素分别与多个释义进行匹配,
将包括语境因素的释义确定为与所述语境相匹配的释义。
第二方面,本公开实施例还提供了一种词语释义的确定装置,该装置包括:
文本图像采集模块,用于采集目标文本对应的文本图像;
语境获取模块,用于对所述文本图像进行文字识别,获取所述目标文本的语境;
待解释词语获取模块,用于获取所述文本图像中的待解释词语;
释义确定模块,用于根据所述语境确定所述待解释词语的释义。
第三方面,本公开实施例还提供了一种电子设备,所述电子设备包括:
一个或多个处理装置;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理装置执行,使得所述一个或多个处理装置实现如本公开实施例所述的词语释义的确定方法。
第四方面,本公开实施例还提供了一种一种计算机可读介质,其上存储有计算机程序,该程序被处理装置执行时实现如本公开实施例所述的词语释义的确定方法。
本公开实施例,首先采集目标文本对应的文本图像,然后对文本图像进行文字识别,获取目标文本的语境,再然后获取文本图像中的待解释词语,最后根据语境确定待解释词语的释义。本公开实施例提供的词语释义的确定方法,根据词语所处的文本的语境确定词语的释义,可以提高确定词语释义的准确性,使用户更准确的理解词语以及词语所在的文本的意思。
附图说明
图1是本公开实施例一中的一种词语释义的确定方法的流程图;
图2是本公开实施例二中的一种词语释义的确定装置的结构示意图;
图3是本公开实施例三中的一种电子设备的结构示意图。
具体实施方式
下面结合附图和实施例对本公开作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本公开,而非对本公开的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本公开相关的部分而非全部结构。
下述各实施例中,每个实施例中同时提供了可选特征和示例,实施例中记载的各个特征可进行组合,形成多个可选方案,不应将每个编号的实施例仅视为一个技术方案。
实施例一
图1为本公开实施例一提供的一种词语释义的确定方法的流程图,本实施例可适用于确定词语在当前语境下的释义的情况,该方法可以由词语释义的确定装置来执行,该装置可由硬件和/或软件组成,并一般可集成在词语释义的确定功能的设备中,该设备可以是服务器、移动终端或服务器集群等电子设备。如图1所示,该方法具体包括如下步骤:
步骤110,采集目标文本对应的文本图像。
其中,目标文本可以是用户当前阅读或者查阅的文本,如报刊、杂志、小说、散文集等。文本图像可以是具有目标文本内容的数字图像。当用户读到不理解或者不懂的词语时,需要获取在该文本中的词语,以更准确的理解文本的意思。采用扫描仪或者数码相机等电子设备扫描或者拍摄目标文本,从而获得目标文本对应的文本图像。
步骤120,对文本图像进行文字识别,获取目标文本的语境。
其中,语境可以理解使用语言的环境,包括内部环境和外部环境。内部环境指一定的言语片段和一定的上下文之间的关系,外部环境指存在于言语片段之外的语言的社会环境。本实施例中,在确定语境时,需要同时考虑内部环境以及撰写目标文本时所处的社会环境。
可选的,对文本图像进行文字识别,获取目标文本的语境,可通过下述方式实施:采用光学字符识别(Optical Character Recognition,OCR)技术对文本图像进行文字识别,并获取目标文本对应的语义信息;根据语义信息确定目标文本中的语境因素;根据语境因素确定目标文本的语境。
其中,OCR技术原理可以是扫描待背诵文本获得字符,通过检测暗、亮模式确定其形状,然后用字符识别方法将形状翻译为计算机文字;即,针对印刷体字符,采用光学的方式将纸质文本中的文字转化为黑白点阵的图像文件,并通过识别软件将图像中的文字转化成文本格式。语境因素包括上下文、时间、空间、情景、对象中的至少一个因素。语境因素构成目标文本当前所处的语境。
具体的,在采用OCR技术识别出文本图像中的文字后,对文字组成的文本进行语义识别,并根据语义信息获取目标文本中的上下文、时间、空间、情景、对象等语境因素,将语境因素进行组合,获得目标文本的语境。示例性的,在“李清照的诗词写得玲珑剔透,深受人们的喜爱”的句子中,要确定“玲珑剔透”这个词语的释义,而“玲珑剔透”的释义包括:1、形容器物精致通透;2、形容诗文作品精巧优美;3、形容人聪明伶俐。因而需要确定句子的语境,句子中形容的“对象”是诗词,即语境是“形容诗词”,那么“玲珑剔透”在该句的释义为形容李清照的诗词精巧优美。
步骤130,获取文本图像中的待解释词语。
本实施例中,用户在查阅目标文本时,在遇到难以理解的词语时,需要告知机器需要解释哪个词语,此时,用户可以用手指或手写笔指出待解释词语,或者点选出待解释词语。机器在扫描到文本图像时,对文本图像进行指尖或笔尖识别或者检测用户的触摸操作,获得待解释词语。
可选的,获取文本图像中的待解释词语,可通过下述方式实施:对文本图像进行指尖或笔尖识别;根据识别出的指尖或笔尖确定待解释词语。
具体的,对文本图像进行指尖识别的方式可以是通过肤色检测获取文本图像中的手部特征区域;对手部特征区域进行边缘检测,将满足设定弧度的边缘确定为指尖,其中,指尖包含多个像素点。
其中,肤色检测的原理的可以是获取文本图像中每个像素点的红绿蓝(Red GreenBlue,RGB)值,将RGB值满足设定条件的像素点确定为组成手部的像素点。例如,设定条件可以是R>95,G>40,B>20,R>B,R>G,|R-G|>15。由所有满足设定条件的像素点组成手部特征区域。在获得手部特征区域后,提取手部特征区域边缘的像素点,组成手部特征区域的轮廓线,计算轮廓线中各像素点的曲率,将满足设定弧度的边缘确定指尖。
相应的,根据识别出的指尖确定待解释词语,可通过下述方式实施:根据指尖包含的多个像素点的坐标信息确定待解释词语。
具体的,对文本图像进行笔尖识别的方式可以是,获取文本图像中各像素点的颜色值,将满足设定颜色条件值的像素点确定为组成笔尖的像素点。本实施例中,可以预先采集只包含笔尖的图像信息,获取组成笔尖的像素点的标准颜色值,然后将文本图像的各像素点的颜色值与组成笔尖的像素点的标准颜色值进行比对,从而识别出文本图像中的笔尖。
可选的,获取文本图像中的待解释词语,可通过下述方式实施,检测用户的触摸操作,根据所述触摸操作的位置信息确定待解释词语。
具体的,在检测到用户的触摸操作后,根据触摸操作的位置信息确定在文本图像中对应的像素点,根据对应的像素点确定待解释词语。
本实施例中,将位于指尖上方的词语确定为待解释词语。具体的,在获得指尖包含的多个像素点的坐标信息后,根据坐标信息获取位于指尖上方的词语,即为待解释词语。可选的,若指尖上方的字够不成词语,则结合前后的字组成待解释词语。
步骤140,根据语境确定待解释词语的释义。
在获得待解释词语所处的语境后,结合语境确定待解释词语在该语境的释义。
可选的,根据语境确定待解释词语的释义,可通过下述方式实施:获取待解释词语对应的至少一个释义;若待解释词语对应的释义有多个,则将语境分别与多个释义进行匹配,获得与语境相匹配的释义;若待解释词语对应的释义有一个,则将释义确定为待解释词语的释义。
在获得待解释词语后,可以向设定词库中查询待解释词语包含的释义,若待解释词语只有一种释义,则直接将该释义确定为待解释词语在当前语境下的释义;若待解释词语包含多种释义,则将当前语境分别与多种释义进行匹配,获得待解释词语在当前语境下的释义。
可选的,将语境分别与多个释义进行匹配,获得与语境相匹配的释义,可通过下述方式实施:将语境包含的语境因素分别与多个释义进行匹配,将包括语境因素的释义确定为与语境相匹配的释义。
语境中包含上下文、时间、空间、情景、对象中的至少一个因素,将包含的语境因素分别与多种释义进行匹配,将包括语境因素的释义确定为与语境相匹配的释义。示例性的,对于词语“明珠暗投”,在确定其在句子“一部名著的原稿,落到不学无术的人手里,这真是明珠暗投了”释义。首先获取该句的语境因素有对象为“名著的原稿”、情景为“落在不学无术的人手里”,然后获取“明珠暗投”包含的释义有:1、比喻有才能的人得不到重用、赏识或者好人误入歧途。2、也比喻珍贵的东西落错了地方,得不到珍爱。将语境因素与两种释义分别进行匹配,第二种释义中的“珍贵的东西”与“名著的原稿”对应,“落差了地方”与“落在不学无术的人手里”对应,所以,“明珠暗投”在该句中的释义为第二种。
本实施例的技术方案,首先采集目标文本对应的文本图像,然后对文本图像进行文字识别,获取目标文本的语境,再然后获取文本图像中指尖所指的待解释词语,最后根据语境确定待解释词语的释义。本公开实施例提供的词语释义的确定方法,根据词语所处的文本的语境确定词语的释义,可以提高确定词语释义的准确性,使用户更准确的理解词语以及词语所在的文本的意思。
实施例二
图2为本公开实施例二提供的一种词语释义的确定装置的结构示意图。如图2所示,该装置包括:文本图像采集模块210,语境获取模块220,待解释词语获取模块230和释义确定模块240。
文本图像采集模块210,用于采集目标文本对应的文本图像;
语境获取模块220,用于对文本图像进行文字识别,获取目标文本的语境;
待解释词语获取模块230,用于获取文本图像中的待解释词语;
释义确定模块240,用于根据语境确定待解释词语的释义。
可选的,语境获取模块220,还用于:
采用光学字符识别OCR技术对文本图像进行文字识别,并获取目标文本对应的语义信息;
根据语义信息确定目标文本中的语境因素;
根据语境因素确定目标文本的语境。
可选的,语境因素下述至少一个:上下文、时间、空间、情景、对象。
可选的,待解释词语获取模块230,还用于:
对文本图像进行指尖或笔尖识别,根据识别出的指尖或笔尖确定待解释词语;或者,
检测用户的触摸操作,根据触摸操作的位置信息确定待解释词语。
可选的,待解释词语获取模块230,还用于:
通过肤色检测获取文本图像中的手部特征区域;
对手部特征区域进行边缘检测,将满足设定弧度的边缘确定为指尖,其中,指尖包含多个像素点;
根据指尖包含的多个像素点的坐标信息确定待解释词语。
可选的,释义确定模块240,还用于:
获取待解释词语对应的至少一个释义;
若待解释词语对应的释义有多个,则将语境分别与多个释义进行匹配,获得与语境相匹配的释义;
若待解释词语对应的释义有一个,则将释义确定为待解释词语的释义。
可选的,释义确定模块240,还用于:
将语境包含的语境因素分别与多个释义进行匹配,
将包括语境因素的释义确定为与语境相匹配的释义。
上述装置可执行本公开前述所有实施例所提供的方法,具备执行上述方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本公开前述所有实施例所提供的方法。
实施例三
下面参考图3,其示出了适于用来实现本公开实施例的电子设备300的结构示意图。本公开实施例中的电子设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端,或者各种形式的服务器,如独立服务器或者服务器集群。图3示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图3所示,电子设备300可以包括处理装置(例如中央处理器、图形处理器等)301,其可以根据存储在只读存储装置(ROM)302中的程序或者从存储装置305加载到随机访问存储装置(RAM)303中的程序而执行各种适当的动作和处理。在RAM 303中,还存储有电子设备300操作所需的各种程序和数据。处理装置301、ROM 302以及RAM 303通过总线304彼此相连。输入/输出(I/O)接口305也连接至总线304。
通常,以下装置可以连接至I/O接口305:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置306;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置307;包括例如磁带、硬盘等的存储装置308;以及通信装置309。通信装置309可以允许电子设备300与其他设备进行无线或有线通信以交换数据。虽然图3示出了具有各种装置的电子设备300,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行词语释义的确定方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置309从网络上被下载和安装,或者从存储装置305被安装,或者从ROM 302被安装。在该计算机程序被处理装置301执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储装置(RAM)、只读存储装置(ROM)、可擦式可编程只读存储装置(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储装置(CD-ROM)、光存储装置件、磁存储装置件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该处理装置执行时,使得该电子设备:采集目标文本对应的文本图像;对文本图像进行文字识别,获取目标文本的语境;获取文本图像中指尖所指的待解释词语;根据语境确定待解释词语的释义。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,模块的名称在某种情况下并不构成对该模块本身的限定,例如,获取模块还可以被描述为“词语释义的确定模块”。
注意,上述仅为本公开的较佳实施例及所运用技术原理。本领域技术人员会理解,本公开不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本公开的保护范围。因此,虽然通过以上实施例对本公开进行了较为详细的说明,但是本公开不仅仅限于以上实施例,在不脱离本公开构思的情况下,还可以包括更多其他等效实施例,而本公开的范围由所附的权利要求范围决定。

Claims (10)

1.一种词语释义的确定方法,其特征在于,包括:
采集目标文本对应的文本图像;
对所述文本图像进行文字识别,获取所述目标文本的语境;
获取所述文本图像中的待解释词语;
根据所述语境确定所述待解释词语的释义。
2.根据权利要求1所述的方法,其特征在于,对所述文本图像进行文字识别,获取所述目标文本的语境,包括:
采用光学字符识别OCR技术对所述文本图像进行文字识别,并获取所述目标文本对应的语义信息;
根据所述语义信息确定所述目标文本中的语境因素;
根据所述语境因素确定所述目标文本的语境。
3.根据权利要求2所述的方法,其特征在于,所述语境因素为下述至少一个:上下文、时间、空间、情景、对象。
4.根据权利要求1所述的方法,其特征在于,获取所述文本图像中的待解释词语,包括:
对所述文本图像进行指尖或笔尖识别,根据识别出的指尖或笔尖确定待解释词语;或者,
检测用户的触摸操作,根据所述触摸操作的位置信息确定待解释词语。
5.根据权利要求4所述的方法,其特征在于,对所述文本图像进行指尖识别,包括:
通过肤色检测获取所述文本图像中的手部特征区域;
对所述手部特征区域进行边缘检测,将满足设定弧度的边缘确定为指尖,其中,所述指尖包含多个像素点;
相应的,根据识别出的指尖确定待解释词语,包括:
根据指尖包含的多个像素点的坐标信息确定待解释词语。
6.根据权利要求1所述的方法,其特征在于,根据所述语境确定所述待解释词语的释义,包括:
获取所述待解释词语对应的至少一个释义;
若所述待解释词语对应的释义有多个,则将所述语境分别与多个释义进行匹配,获得与所述语境相匹配的释义;
若所述待解释词语对应的释义有一个,则将所述释义确定为所述待解释词语的释义。
7.根据权利要求6所述的方法,其特征在于,将所述语境分别与多个释义进行匹配,获得与所述语境相匹配的释义,包括:
将语境包含的语境因素分别与多个释义进行匹配,
将包括语境因素的释义确定为与所述语境相匹配的释义。
8.一种词语释义的确定装置,其特征在于,包括:
文本图像采集模块,用于采集目标文本对应的文本图像;
语境获取模块,用于对所述文本图像进行文字识别,获取所述目标文本的语境;
待解释词语获取模块,用于获取所述文本图像中的待解释词语;
释义确定模块,用于根据所述语境确定所述待解释词语的释义。
9.一种电子设备,其特征在于,所述电子设备包括:
一个或多个处理装置;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理装置执行,使得所述一个或多个处理装置实现如权利要求1-7中任一所述的词语释义的确定方法。
10.一种计算机可读介质,其上存储有计算机程序,其特征在于,该程序被处理装置执行时实现如权利要求1-7中任一所述的词语释义的确定方法。
CN201910022935.2A 2019-01-10 2019-01-10 词语释义的确定方法、装置、设备及存储介质 Pending CN111428721A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910022935.2A CN111428721A (zh) 2019-01-10 2019-01-10 词语释义的确定方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910022935.2A CN111428721A (zh) 2019-01-10 2019-01-10 词语释义的确定方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
CN111428721A true CN111428721A (zh) 2020-07-17

Family

ID=71546026

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910022935.2A Pending CN111428721A (zh) 2019-01-10 2019-01-10 词语释义的确定方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN111428721A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113657113A (zh) * 2021-08-24 2021-11-16 北京字跳网络技术有限公司 文本处理方法、装置和电子设备
CN113806602A (zh) * 2021-09-23 2021-12-17 联想(北京)有限公司 信息输出方法和装置
CN114781409A (zh) * 2022-05-12 2022-07-22 北京百度网讯科技有限公司 文本的翻译方法、装置、电子设备和存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102737096A (zh) * 2011-03-31 2012-10-17 微软公司 基于位置的会话理解
CN104123552A (zh) * 2013-04-28 2014-10-29 浙江大学 一种可以自动识别的翻译眼镜
CN104598289A (zh) * 2013-10-31 2015-05-06 联想(北京)有限公司 一种识别方法及一种电子设备
CN105354199A (zh) * 2014-08-20 2016-02-24 北京羽扇智信息科技有限公司 一种基于场景信息的实体含义识别方法和系统
CN105786803A (zh) * 2016-02-22 2016-07-20 广东小天才科技有限公司 翻译方法及翻译装置
CN107679043A (zh) * 2017-09-22 2018-02-09 广州阿里巴巴文学信息技术有限公司 数据处理方法、装置及终端设备
CN108304368A (zh) * 2017-04-20 2018-07-20 腾讯科技(深圳)有限公司 文本信息的类型识别方法和装置及存储介质和处理器

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102737096A (zh) * 2011-03-31 2012-10-17 微软公司 基于位置的会话理解
CN104123552A (zh) * 2013-04-28 2014-10-29 浙江大学 一种可以自动识别的翻译眼镜
CN104598289A (zh) * 2013-10-31 2015-05-06 联想(北京)有限公司 一种识别方法及一种电子设备
CN105354199A (zh) * 2014-08-20 2016-02-24 北京羽扇智信息科技有限公司 一种基于场景信息的实体含义识别方法和系统
CN105786803A (zh) * 2016-02-22 2016-07-20 广东小天才科技有限公司 翻译方法及翻译装置
CN108304368A (zh) * 2017-04-20 2018-07-20 腾讯科技(深圳)有限公司 文本信息的类型识别方法和装置及存储介质和处理器
CN107679043A (zh) * 2017-09-22 2018-02-09 广州阿里巴巴文学信息技术有限公司 数据处理方法、装置及终端设备

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113657113A (zh) * 2021-08-24 2021-11-16 北京字跳网络技术有限公司 文本处理方法、装置和电子设备
CN113806602A (zh) * 2021-09-23 2021-12-17 联想(北京)有限公司 信息输出方法和装置
CN114781409A (zh) * 2022-05-12 2022-07-22 北京百度网讯科技有限公司 文本的翻译方法、装置、电子设备和存储介质
CN114781409B (zh) * 2022-05-12 2023-12-01 北京百度网讯科技有限公司 文本的翻译方法、装置、电子设备和存储介质

Similar Documents

Publication Publication Date Title
CN109684980B (zh) 自动阅卷方法及装置
CN107885430B (zh) 一种音频播放方法、装置、存储介质及电子设备
CN109753968A (zh) 字符识别模型的生成方法、装置、设备及介质
CN111709414A (zh) Ar设备及其文字识别方法、装置和计算机可读存储介质
CN109189879A (zh) 电子书籍显示方法及装置
US20220050975A1 (en) Content Translation Method and Terminal
CN111160333A (zh) Ar眼镜及其文本翻译方法、装置和计算机可读存储介质
CN111754414B (zh) 一种图像处理方法、装置和用于图像处理的装置
CN111339737B (zh) 实体链接方法、装置、设备及存储介质
CN111428721A (zh) 词语释义的确定方法、装置、设备及存储介质
EP3537381A1 (en) Information processing device, information processing method, and recording medium
US20250039537A1 (en) Screenshot processing method, electronic device, and computer readable medium
CN115480659A (zh) 一种手写笔编辑笔势识别方法、介质及电子设备
CN110378318B (zh) 文字识别方法、装置、计算机设备及存储介质
CN118568289B (zh) 目标定位方法及其相关设备
CN111291575A (zh) 文本处理方法、装置、电子设备、及存储介质
CN115205883A (zh) 基于ocr和nlp的资料审核方法、装置、设备、存储介质
CN110377914B (zh) 字符识别方法、装置及存储介质
CN111291758B (zh) 用于识别印章文字的方法和装置
CN113784045A (zh) 聚焦互动方法、装置、介质和电子设备
CN111027533A (zh) 一种点读坐标的变换方法、系统、终端设备及存储介质
CN116681765A (zh) 图像内标识位置确定方法、模型训练方法、装置及设备
CN111462548A (zh) 一种段落点读方法、装置、设备和可读介质
US20170060822A1 (en) Method and device for storing string
CN111435442B (zh) 文字选取方法、装置、点读设备、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200717