CN111338540B - 图片文本处理方法、装置、电子设备和存储介质 - Google Patents

图片文本处理方法、装置、电子设备和存储介质 Download PDF

Info

Publication number
CN111338540B
CN111338540B CN202010086414.6A CN202010086414A CN111338540B CN 111338540 B CN111338540 B CN 111338540B CN 202010086414 A CN202010086414 A CN 202010086414A CN 111338540 B CN111338540 B CN 111338540B
Authority
CN
China
Prior art keywords
text
picture
punctuation mark
display interface
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010086414.6A
Other languages
English (en)
Other versions
CN111338540A (zh
Inventor
孟婉婷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority to CN202010086414.6A priority Critical patent/CN111338540B/zh
Publication of CN111338540A publication Critical patent/CN111338540A/zh
Priority to PCT/CN2021/074801 priority patent/WO2021159992A1/zh
Priority to EP21753248.0A priority patent/EP4102347A4/en
Application granted granted Critical
Publication of CN111338540B publication Critical patent/CN111338540B/zh
Priority to US17/816,794 priority patent/US20220366711A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/1444Selective acquisition, locating or processing of specific regions, e.g. highlighted text, fiducial marks or predetermined fields
    • G06V30/1456Selective acquisition, locating or processing of specific regions, e.g. highlighted text, fiducial marks or predetermined fields based on user interactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/103Formatting, i.e. changing of presentation of documents
    • G06F40/109Font handling; Temporal or kinetic typography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/1444Selective acquisition, locating or processing of specific regions, e.g. highlighted text, fiducial marks or predetermined fields
    • G06V30/1448Selective acquisition, locating or processing of specific regions, e.g. highlighted text, fiducial marks or predetermined fields based on markings or identifiers characterising the document or the area

Abstract

本申请提供的图片文本处理方法、装置、电子设备和存储介质,终端获取携带位置信息的用户操作指令,根据用户操作指令,从图片上识别位置信息对应的目标文本,在图片上叠加展示文本显示界面,并在文本显示界面上展示目标文本。终端可以直接在图片上叠加展示文本显示界面,并在文本显示界面上展示目标文本,无需跳转至下一级显示界面展示文本,使得层级显示更加的简单,简化用户操作流程,并减少了用户操作时间。

Description

图片文本处理方法、装置、电子设备和存储介质
技术领域
本申请涉及图片识别技术,特别是涉及一种图片文本处理方法、装置、电子设备和存储介质。
背景技术
一直以来,文本都在人们生活中发挥着重要的作用。文本中包含丰富而精确的信息对基于视觉的应用来说非常重要。目前,越来越多的图片中包括文本,在很多场景中,需要识别图片中的文本。
例如,在一些应用中,当用户需要提取图片中的文本时,可以点击“识别文字”按钮,终端识别图片中的文本,并从显示图片的当前页面跳转至下一级页面中,显示该文本,用户可以在下一级页面中该文本进行编辑、复制等操作。
然而,上述方法存在层级显示复杂和用户操作复杂的问题。
发明内容
本申请实施例提供了一种图片文本处理方法、装置、电子设备和存储介质,可以简化用户操作流程和层级复杂度。
一种图片文本处理方法,包括:
获取携带位置信息的用户操作指令;所述位置信息用于指示用户在图片上的操作位置;
根据所述用户操作指令,从所述图片上识别所述位置信息对应的目标文本;
在所述图片上叠加展示文本显示界面,并在所述文本显示界面上展示所述目标文本。
在一个实施例中,所述根据所述用户操作指令,从所述图片上识别所述位置信息对应的目标文本,包括:
根据所述用户操作指令,识别所述图片上的全部文本;
根据所述位置信息从所述全部文本中确定所述目标文本。
在一个实施例中,所述根据所述位置信息从所述全部文本中确定所述目标文本,包括:
从所述全部文本中,确定所述位置信息指示的操作位置向前的第一标点符号,和所述操作位置向后的第二标点符号,所述第一标点符号和所述第二标点符号相邻;
将所述第一标点符号和所述第二标点符号之间的文本确定为所述目标文本。
在一个实施例中,所述根据所述操作指令,从所述图片上识别所述位置信息对应的文本,包括:
根据所述位置信息指示的操作位置,在所述图片上确定目标区域;
识别所述目标区域内的文本;
根据所述位置信息,从所述目标区域内的文本中确定所述目标文本。
在一个实施例中,所述根据所述位置信息,从所述目标区域内的文本中确定所述目标文本,包括:
从所述目标区域内的文本中,确定所述位置信息指示的操作位置向前的第一标点符号,和所述操作位置向后的第二标点符号,所述第一标点符号和所述第二标点符号相邻;
将所述第一标点符号和所述第二标点符号之间的文本确定为所述目标文本。
在一个实施例中,所述第一标点符号为所述操作位置向前的第一个特定标点符号,所述第二标点符号为所述操作位置向后的第一个标点符号。
在一个实施例中,所述方法还包括:
在所述图片上确定所述目标文本的首尾位置,并在所述首尾位置处分别插入拖动把手;
获取用户对所述拖动把手的拖动操作指令;
根据所述拖动操作指令更新所述文本显示界面中展示的文本。
在一个实施例中,所述根据所述拖动操作指令更新所述文本显示界面中展示的文本,包括:
根据所述拖动操作指令确定两个所述拖动把手的位置;
从所述图片上识别两个所述拖动把手的位置之间的本文信息,作为更新后的目标文本;
在所述文本显示界面中展示所述更新后的目标文本。
在一个实施例中,所述文本显示界面上设置有操作控件,所述方法还包括:
检测到所述操作控件被触发时,对所述目标文本执行所述操作控件对应的目标操作。
在一个实施例中,所述操作控件为复制控件时,所述目标操作为复制操作;
所述操作控件为分享控件时,所述目标操作为分享操作。
在一个实施例中,所述文本显示界面上设置有功能控件,所述方法还包括:
检测到所述功能控件被触发时,设置所述目标文本的属性和/或所述文本显示界面的属性。
在一个实施例中,所述目标文本的属性包括所述目标文本的字体尺寸、字体格式、字体颜色中的至少一个;
所述文本显示界面的属性包括所述文本显示界面的背景图案、背景颜色、形状、尺寸、位置中的至少一个。
在一个实施例中,所述文本显示界面的尺寸与所述目标文本的尺寸成正比。
在一个实施例中,所述方法还包括:
接收用户输入的移动操作指令;所述移动操作指令中包括移动轨迹;
根据所述移动轨迹移动所述文本显示界面移动。
一种图片文本处理装置,包括:
获取模块,用于获取携带位置信息的用户操作指令;所述位置信息用于指示用户在图片上的操作位置;
识别模块,用于根据所述用户操作指令,从所述图片上识别所述位置信息对应的目标文本;
显示模块,用于在所述图片上叠加展示文本显示界面,并在所述文本显示界面上展示所述目标文本。
一种电子设备,包括存储器及处理器,所述存储器中储存有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如图片文本处理方法实施例中任一项所述的图片文本处理方法的步骤。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如图片文本处理方法实施例中任一项所述的图片文本处理方法的步骤。
本申请提供的图片文本处理方法、装置、电子设备和存储介质,终端获取携带位置信息的用户操作指令,根据用户操作指令,从图片上识别位置信息对应的目标文本,在图片上叠加展示文本显示界面,并在文本显示界面上展示目标文本。当用户需要对图片上文本进行操作时,可在图片上的相应位置触发用户操作指令,终端识别该操作位置对应的目标文本,终端可以直接在图片上叠加展示文本显示界面,并在文本显示界面上展示目标文本,无需跳转至下一级显示界面展示文本,使得层级显示更加的简单,并且,用户可直接对文本显示界面上显示的目标文本进行操作,无需跳转至下一级显示界面上对目标文本进行操作,简化用户操作流程,另外,用户需要哪些文本,在图片对该相应的文本位置进行操作,终端识别并在文本显示界面上展示该操作位置对应的目标文本即可,终端无需展示图片上所有的文本,减轻了终端显示文本所带来的负荷,而且,用户可以直接对需要的文本进行操作,无需像现有技术一样再从所有的文本中查找需要的文本,减少了用户操作时间。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为一个实施例中图片文本处理方法的应用环境图;
图2为一个实施例中图片文本处理方法的流程图;
图2a和图2b分别为一个实施例中图片文本显示示意图;
图3为一个实施例中图片文本处理方法的流程图;
图4为一个实施例中图片文本处理方法的流程图;
图5为一个实施例提供的另一种图片文本处理方法的流程图;
图6为一个实施例中图片文本处理方法的流程图;
图7为一个实施例中图片文本处理方法的流程图;
图7a、图7b、图8、图9、图9a、图9b分别为一个实施例中图片文本显示示意图;
图10为一个实施例中图片文本处理装置的结构框图;
图11为一个实施例中图片文本处理装置的结构框图;
图12为一个实施例中电子设备的结构框图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
可以理解,本申请所使用的术语“第一”、“第二”等可在本文中用于描述各种元素或者元件,但这些元件不受这些术语限制。这些术语仅用于将第一个元素或元件与另一个元素或元件区分。举例来说,在不脱离本申请的范围的情况下,可以将第一客户端称为第二客户端,且类似地,可将第二客户端称为第一客户端。第一客户端和第二客户端两者都是客户端,但其不是同一客户端。
图1为一个实施例中图片文本处理方法的应用环境示意图。如图1所示,该应用环境包括用户和终端。该终端想用户展示图片,用户可以对该图片进行长按、双击、滑动等操作,终端接收到用户的上述操作时,将图片上该操作位置对应的文本识别出来,并在叠加显示于图片上层的文本显示界面上进行显示。其中,该终端可以为手机、电脑、iPad、游戏机等,本申请实施例不加以限制。
图2为一个实施例中图片文本处理方法的流程图。本实施例中的图片文本处理方法,以运行于图1中的终端上为例进行描述。如图2所示,该图片文本处理方法包括以下步骤:
S201、获取携带位置信息的用户操作指令;位置信息用于指示用户在图片上的操作位置。
其中,用户可以通过多种方式输入用户操作指令,例如,长按图片的某个位置,双击图片的某个位置,或者,在图片上进行滑动等操作等,相应的,操作位置可以为用户长按的位置,用户双击图片的位置,或者,用户在图片上滑动的位置等,本申请实施例中不加以限制。该用户操作指令用于指示终端识别用户在图片上的操作位置对应的文本。
在本实施例中,当用户通过终端的显示界面浏览图片时,若图片上包含文本,并且,用户需要对该文本进行操作时,用户可以通过长按、双击、滑动的方式触发该用户操作指令,指示终端识别该操作位置对应的文本。
S202、根据用户操作指令,从图片上识别位置信息对应的目标文本。
其中,目标文本可以是图片中的一句文本、一段本文、甚至是所有的文本,本申请实施例不加以限制。
在本实施例中,终端获取到该用户操作指令之后,开始从图片上识别该位置信息对应的目标文本。终端可以将图片上的全部文本都识别出来,然后再从全部文本中确定该操作位置对应的目标文本。或者,终端也可以先根据该位置信息从图片上截取一定范围的小图片,然后识别该截取的小图片上的文本,再从小图片上的文本中确定用户的操作位置对应的文本。
在本实施例中,该位置信息对应的目标文本,可以是根据该位置信息指示的操作位置前后延伸,将该操作位置前后延伸的一句文本、一个段落文本等确定为目标文本;也可以是以该操作位置为中心,上下延展一定的尺寸,左右以图片宽度为尺寸,延伸出一个目标区域,将该目标区域中的一个语句完整的句子或者段落作为目标文本;或者,还可以将该位置信息对应的操作位置前后的两个标点符号之间的语句作为目标文本,等等,本申请实施例中不加以限制。
S203、在图片上叠加展示文本显示界面,并在文本显示界面上展示目标文本。
在本实施例中,终端识别到目标文本之后,在图片上叠加展示文本显示界面,将该目标文本在文本显示界面上进行显示。该文本显示界面可以预先生成的一个显示界面,当终端识别到目标文本之后,可以直接调用该文本显示界面显示目标文本。或者,终端也可以在识别到目标文本之后,实时的生成一个文本显示界面,并叠加显示在图片上方,用来显示目标文本,本申请实施例中不加以限制。该文本显示界面的尺寸可以是预先设置好的,也可以是根据目标文本的尺寸得到的,本申请实施例中不加以限制。
并且,该文本显示界面上显示的文本是可以编辑了,例如,用户可以该文本显示界面上显示的文本进行复制、分享、编辑等操作。
如图2a所示,终端显示界面上展示一张图片,当用户需要对该图片中的一些文字进行操作时,可以通过手指长按图片上的相应位置。如图2b,当用户长按图片上的相应位置时,会触发用户操作指令,该操作指令会记录用户长按的位置信息,终端根据该位置信息识别相应的目标文本,并在图片上叠加展示文本显示界面,在该文本显示界面上显示识别的目标文本。
本申请实施例提供的图片文本处理方法,终端获取携带位置信息的用户操作指令,根据用户操作指令,从图片上识别位置信息对应的目标文本,在图片上叠加展示文本显示界面,并在文本显示界面上展示目标文本。当用户需要对图片上文本进行操作时,可在图片上的相应位置触发用户操作指令,终端识别该操作位置对应的目标文本,终端可以直接在图片上叠加展示文本显示界面,并在文本显示界面上展示目标文本,无需跳转至下一级显示界面展示文本,使得层级显示更加的简单,并且,用户可直接对文本显示界面上显示的目标文本进行操作,无需跳转至下一级显示界面上对目标文本进行操作,简化用户操作流程,另外,用户需要哪些文本,在图片对该相应的文本位置进行操作,终端识别并在文本显示界面上展示该操作位置对应的目标文本即可,终端无需展示图片上所有的文本,减轻了终端显示文本所带来的负荷,而且,用户可以直接对需要的文本进行操作,无需像现有技术一样再从所有的文本中查找需要的文本,减少了用户操作时间。
在图2所示实施例中,终端可以通过多种不同的方式来识别目标文本,下面分别介绍识别目标文本的不同方法。
图3为一个实施例提供的一种图片文本处理方法的流程图。本申请实施例涉及的是终端识别图片上的所有文本,再根据位置信息从所有文本中确定目标文本的具体时限过程。如图3所示,该方法包括以下步骤:
S301、根据用户操作指令,识别图片上的全部文本。
在本实施例中,终端获取到该用户操作指令之后,识别图片上的全部文本。终端可以采用光学字符识别(Optical Character Recognition,OCR)技术识别图片上的文本,也可以采用神经网络算法识别图片上的文本,本申请实施例中不加以限制。
S302、根据位置信息从全部文本中确定目标文本。
在本实施例中,终端需要根据该位置信息从全部文本中确定目标文本,也即根据用户的操作位置从全部文本中确定目标文本。可以以一句话为单位,将操作位置延伸按照语义延伸的一句话确定为目标文本,也可以一个段落为单位,将操作位置延伸按照语义延伸的一个段落确定为目标文本,本申请实施例中不加以限制。
本申请实施例提供的图片文本处理方法,终端根据用户操作指令,先识别图片上的全部文本,再根据位置信息从全部文本中确定目标文本,可以结合义信息准确的识别目标文本,避免出现语义不全、断句等问题,提高了文本识别的准确性。
在一个实施例中,如图4所示,步骤S302“根据位置信息从全部文本中确定目标文本”可以包括以下步骤:
S401、从全部文本中,确定位置信息指示的操作位置向前的第一标点符号,和操作位置向后的第二标点符号,第一标点符号和第二标点符号相邻。
在本实施例中,终端可以根据语义方向,在操作位置前后进行延伸,确定操作位置之前的第一标点符号,和操作位置之后的第二标点符号。如图2a所示,在用户手指长按的位置,按照语义向前后延伸,将文本的第一行结尾的句号“。”确定为第一标点符号,将文本第二行的第一个逗号“,”确定为第二标点符号。
可选地,第一标点符号为操作位置向前的第一个特定标点符号,第二标点符号为操作位置向后的第一个标点符号。在本实施例中,可以根据语义信息确定标点符号,将一个完整的语句前后的标点作为特定标点符号,来确定一个语句作为目标文本。例如,该特定标点符号可以为句号、问号、感叹号等标点符号,本申请实施例中不加以限制。如图2b所示,在用户手指长按的位置,按照语义向前后延伸,将文本的第一行结尾的句号“。”确定为第一标点符号,将文本第三行的第一个问号“?”确定为第二标点符号。
S402、将第一标点符号和第二标点符号之间的文本确定为目标文本。
在本实施例中,终端将相邻的两个标点符号之间的文本确定为目标文本,例如,将图2a中的“GGGGGHHHHHHHHHHHHhKKKKK,”确定为目标文本,或者,将相邻的两个特定标点符号之间的文本确定为目标文本,如图2b所示,将“GGGGGHHHHHHHHHHHHhKKKKK,XXXXXXXXXX,XXXXXXXXXXX?”确定为目标文本。
本申请实施例提供的图片文本处理方法,终端从全部文本中,确定位置信息指示的操作位置之前的第一标点符号,和操作位置之后的第二标点符号,将第一标点符号和第二标点符号之间的文本确定为目标文本,通过标点符号能快速准确的识别出目标文本。
图5为一个实施例提供的另一种图片文本处理方法的流程图。本申请实施例涉及的是终端根据操作位置在图片上确定目标区域,识别目标区域的文本,从目标区域的文本中确定目标文本的具体实现过程。如图5所示,该方法包括以下步骤:
S501、根据位置信息指示的操作位置,在图片上确定目标区域。
在本实施例中,终端可以根据该位置信息指示的操作位置,在图片上确定一个目标区域,例如,以该操作位置为中心,形成一个矩形框,该矩形框的宽度为预设长度,该矩形框的宽度等于图片宽度,将该矩形框作为目标区域。
S502、识别目标区域内的文本。
在本申请实施例中,终端可以在图片上确定目标区域后,直接识别图片上目标区域内的文本,或者,终端也可以确定目标区域之后,从图片上截取该目标区域,然后识别截取的目标区域中的文本。对于图片上目标区域之外的文本不作识别。可选地,终端可以采用OCR技术识别图片上的文本,也可以采用神经网络算法识别图片上的文本,本申请实施例中不加以限制。
S503、根据位置信息,从目标区域内的文本中确定目标文本。
在本实施例中,终端需要根据该位置信息从目标区域内的文本中确定目标文本,也即根据用户的操作位置从目标区域内的文本中确定目标文本。可以以一句话为单位,将操作位置延伸按照语义延伸的一句话确定为目标文本,也可以一个段落为单位,将操作位置延伸按照语义延伸的一个段落确定为目标文本,本申请实施例中不加以限制。
在一个实施例中,如图6所示,步骤S503“根据位置信息,从目标区域内的文本中确定目标文本”可以包括以下步骤:
S601、从目标区域内的文本中,确定位置信息指示的操作位置向前的第一标点符号,和操作位置向后的第二标点符号,第一标点符号和第二标点符号相邻。
S602、将第一标点符号和第二标点符号之间的文本确定为目标文本。
可选地,第一标点符号为操作位置向前的第一个特定标点符号,第二标点符号为操作位置向后的第一个标点符号。
在本申请实施例中,步骤S601和步骤S602的实现原理和有益效果,可参照图4的步骤S401和步骤S402的实现原理和有益效果,此处不再赘述。
本申请实施例提供的图片文本处理方法,终端根据位置信息指示的操作位置,在图片上确定目标区域,识别目标区域内的文本,根据位置信息,从目标区域内的文本中确定目标文本,终端识别目标区域的文本即可,不需要识别图片上的全部文本,减少了识别文本带来的终端负荷。
在一个实施例中,终端还可以在图片的文本中插入拖动把手,供用户选择所需的文本。如图7所示,上述图片文本处理方法还包括以下步骤:
S701、在图片上确定目标文本的首尾位置,并在首尾位置处分别插入拖动把手。
在本实施例中,终端确定目标文本之后,还可以在图片上目标文本的开始和结束的位置插入拖动把手,用户可以对该拖动把手进行拖动,来选中所需的文本。如图7a所示,在目标文本的首尾位置分别插入两个光标形状的拖动把手,用户可以在终端的显示界面上拖动开始位置处的把手,或者拖动结束位置处的把手,选择所需的文本。
S702、获取用户对拖动把手的拖动操作指令。
在本实施例中,用户对该拖动把手进行操作,可触发拖动操作指令,如图7b所示,用户将目标文本结束位置处的拖动把手拖动到第三行文本的末尾,用户结束拖动操作后,生成拖动操作指令。
S703、根据拖动操作指令更新文本显示界面中展示的文本。
在本实施例中,终端可以根据拖动指令获取两个拖动把手之间的本文作为新的目标文本,在文本显示界面中展示该新的目标文本。
可选地,步骤S703可以包括:根据拖动操作指令确定两个拖动把手的位置;从图片上识别两个拖动把手的位置之间的本文信息,作为更新后的目标文本;在文本显示界面中展示更新后的目标文本。
在本实施例中,终端根据该拖动操作指令获取两个拖动把手的位置,从图片上识别两个拖动把手的位置之间的文本信息作为更新后的目标文本,如图7b所示,两个拖动把手之间的文本为“GGGGGHHHHHHHHHHHHhKKKKK,XXXXXXXXXX,XXXXXXXXXXX?XXXXXXXXXXXXX,XXXXXXXXXXXXX,”则终端将文本“GGGGGHHHHHHHHHHHHhKKKKK,XXXXXXXXXX,XXXXXXXXXXX?XXXXXXXXXXXXX,XXXXXXXXXXXXX,”作为更新后的目标文本,在文本显示区域内显示。
可选地,在本实施例中,文本显示界面的尺寸与目标文本的尺寸成正比。
在本实施例中,文本显示界面的尺寸与目标文本的尺寸成正比,也即,终端可以根据目标文本的尺寸来调节文本显示界面的尺寸,或者,根据文本显示界面的尺寸来调节目标文本的尺寸,使得文本显示界面的比例更加美观、协调。
本申请实施例提供的图片文本处理方法,终端在图片上确定目标文本的首尾位置,并在首尾位置处分别插入拖动把手,获取用户对拖动把手的拖动操作指令,根据拖动操作指令更新文本显示界面中展示的文本,当用户需要更新目标文本时,用户可以通过拖动把手选择所需的文本,使得终端可以准确的识别用户所需的文本信息,用户操作简单方便,极大的满足用户需求。而且,避免了终端进行层级跳转,层级操作简单。
在一些实施例中,还可以在文本显示界面上设置一些控件,实现对目标文本和文本显示界面的设置。可选地,文本显示界面上设置有操作控件,该图片文本处理方法还包括:检测到操作控件被触发时,对目标文本执行操作控件对应的目标操作。
在本实施例中,可以在文本显示界面设置操作控件,以实现对目标文本的不同操作。如图8所示,文本显示界面上设置有复制控件和分享控件,复制控件对应的目标操作为复制操作,分享控件对应的目标操作为分享操作。例如,当终端检测到用户点击复制控件时,复制文本显示界面中的目标文本,当终端检测用户点击分享控件时,将文本显示界面中的目标文本分享至用户指定的应用或页面中。还可以根据需求设置其它的操作控件,本申请实施例中不以此为限。
在一个实施例中,文本显示界面上设置有功能控件,上述图片文本处理方法还包括:检测到功能控件被触发时,设置目标文本的属性和/或文本显示界面的属性。其中,目标文本的属性包括目标文本的字体尺寸、字体格式、字体颜色中的至少一个;文本显示界面的属性包括文本显示界面的背景图案、背景颜色、形状、尺寸、位置中的至少一个。
在本实施例中,如图9所示,可以在文本显示界面上设置一个功能控件“设置”,用户点击该功能控件,如图9a所示,弹出一个设置界面,该设置界面中可以包括字体尺寸、字体格式、字体颜色、文本显示界面的背景图案、背景颜色、形状、尺寸、位置等设置选项,用户可以在该设置界面设置目标文本的属性和文本显示界面的属性。或者,如图9b所示,还可以直接在文本显示界面上设置字体尺寸、字体格式、字体颜色、背景图案、背景颜色、形状、尺寸、位置等多个功能控件,用户需要设置哪项内容操作对应的功能控件即可。
本申请实施例提供的图片文本处理方法,文本显示界面上设置有操作控件,在检测到操作控件被触发时,对目标文本执行操作控件对应的目标操作,和/或,文本显示界面上设置有功能控件,在检测到功能控件被触发时,设置目标文本的属性和/或文本显示界面的属性。方便用户对目标文本或文本显示界面的属性进行设置,满足不同用户的需求。
在一些场景中,为了满足用户需求,用户还可以对文本显示界面直接拖动,可选地,上述图片文本处理方法还可以包括:接收用户输入的移动操作指令;移动操作指令中包括移动轨迹;根据移动轨迹移动文本显示界面。
在本实施例中,用户可直接对该文本显示界面进行拖动,终端记录用户的移动操作轨迹,根据该移动操作轨迹移动文本显示界面,以满足用户需求。例如,用户可以将文本显示界面移动到显示界面的任意位置,例如,可以将文本显示界面向上或向下拖动,或者将文本显示界面拖动到图片上没有文本的位置,等等,本申请实施例不加以限制。
应该理解的是,虽然图2-图7的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2-图7中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
图10为一个实施例的图片文本处理装置的结构框图。如图10所示,该装置包括:
获取模块21,用于获取携带位置信息的用户操作指令;位置信息用于指示用户在图片上的操作位置;
识别模块22,用于根据用户操作指令,从图片上识别位置信息对应的目标文本;
显示模块23,用于在图片上叠加展示文本显示界面,并在文本显示界面上展示目标文本。
在一个实施例中,识别模块22,用于根据用户操作指令,识别图片上的全部文本;根据位置信息从全部文本中确定目标文本。
在一个实施例中,识别模块22,用于从全部文本中,确定位置信息指示的操作位置向前的第一标点符号,和操作位置向后的第二标点符号,第一标点符号和第二标点符号相邻;将第一标点符号和第二标点符号之间的文本确定为目标文本。
在一个实施例中,识别模块22,用于根据位置信息指示的操作位置,在图片上确定目标区域;识别目标区域内的文本;根据位置信息,从目标区域内的文本中确定目标文本。
在一个实施例中,识别模块22,用于从目标区域内的文本中,确定位置信息指示的操作位置向前的第一标点符号,和操作位置向后的第二标点符号,第一标点符号和第二标点符号相邻;将第一标点符号和第二标点符号之间的文本确定为目标文本。
在一个实施例中,第一标点符号为操作位置向前的第一个特定标点符号,第二标点符号为操作位置向后的第一个标点符号。
在一个实施例中,如图11所示,装置还包括:
插入模块24,用于在图片上确定目标文本的首尾位置,并在首尾位置处分别插入拖动把手;
获取模块21还用于获取用户对拖动把手的拖动操作指令;
显示模块23还用于根据拖动操作指令更新文本显示界面中展示的文本。
在一个实施例中,显示模块23还用于根据拖动操作指令确定两个拖动把手的位置;从图片上识别两个拖动把手的位置之间的本文信息,作为更新后的目标文本;在文本显示界面中展示更新后的目标文本。
在一个实施例中,如图11所示,装置还包括:
检测模块25,用于检测到操作控件被触发时,对目标文本执行操作控件对应的目标操作。
在一个实施例中,操作控件为复制控件时,目标操作为复制操作;
操作控件为分享控件时,目标操作为分享操作。
在一个实施例中,检测模块25,还用于检测到功能控件被触发时,设置目标文本的属性和/或文本显示界面的属性。
在一个实施例中,目标文本的属性包括目标文本的字体尺寸、字体格式、字体颜色中的至少一个;文本显示界面的属性包括文本显示界面的背景图案、背景颜色、形状、尺寸、位置中的至少一个。
在一个实施例中,文本显示界面的尺寸与目标文本的尺寸成正比。
在一个实施例中,显示模块23还用于接收用户输入的移动操作指令;移动操作指令中包括移动轨迹;根据移动轨迹移动文本显示界面移动。
本申请实施例提供的图片文本处理装置的实现原理和有益效果可参照方法实施例的实现原理和有益效果,此处不再赘述。
上述图片文本处理装置中各个模块的划分仅用于举例说明,在其他实施例中,可将图片文本处理装置按照需要划分为不同的模块,以完成上述图片文本处理装置的全部或部分功能。
关于图片文本处理装置的具体限定可以参见上文中对于图片文本处理方法的限定,在此不再赘述。上述图片文本处理装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
图12为一个实施例中电子设备的内部结构示意图。如图12所示,该电子设备包括通过系统总线连接的处理器和存储器。其中,该处理器用于提供计算和控制能力,支撑整个电子设备的运行。存储器可包括非易失性存储介质及内存储器。非易失性存储介质存储有操作系统和计算机程序。该计算机程序可被处理器所执行,以用于实现以下各个实施例所提供的一种图片文本处理方法。内存储器为非易失性存储介质中的操作系统计算机程序提供高速缓存的运行环境。该电子设备可以是手机、平板电脑、PDA(Personal DigitalAssistant,个人数字助理)、POS(Point of Sales,销售终端)、车载电脑、穿戴式设备等任意终端设备。
本申请实施例中提供的图片文本处理装置中的各个模块的实现可为计算机程序的形式。该计算机程序可在终端或服务器上运行。该计算机程序构成的程序模块可存储在电子设备的存储器上。该计算机程序被处理器执行时,实现本申请实施例中所描述方法的步骤。
本申请实施例还提供了一种计算机可读存储介质。一个或多个包含计算机可执行指令的非易失性计算机可读存储介质,当所述计算机可执行指令被一个或多个处理器执行时,使得所述处理器执行图片文本处理方法的步骤。
一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行图片文本处理方法。
本申请所使用的对存储器、存储、数据库或其它介质的任何引用可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM),它用作外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDR SDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (13)

1.一种图片文本处理方法,其特征在于,包括:
获取携带位置信息的用户操作指令;所述位置信息用于指示用户在图片上的操作位置;
根据所述用户操作指令,采用神经网络算法从所述图片上识别所述位置信息指示的操作位置向前的第一标点符号,和所述操作位置向后的第二标点符号,所述第一标点符号和所述第二标点符号相邻;所述第一标点符号为所述操作位置向前的第一个特定标点符号,所述第二标点符号为所述操作位置向后的第一个标点符号;
将所述第一标点符号和所述第二标点符号之间的文本确定为目标文本;
在所述图片上叠加展示文本显示界面,并在所述文本显示界面上展示所述目标文本;
在所述图片上确定所述目标文本的首尾位置,并在所述首尾位置处分别插入拖动把手;
获取用户对所述拖动把手的拖动操作指令;
根据所述拖动操作指令更新所述文本显示界面中展示的文本。
2.根据权利要求1所述的方法,其特征在于,所述根据所述用户操作指令,采用神经网络算法从所述图片上识别所述位置信息指示的操作位置向前的第一标点符号,和所述操作位置向后的第二标点符号,包括:
根据所述用户操作指令,采用神经网络算法识别所述图片上的全部文本;
根据所述位置信息从所述全部文本中,确定所述位置信息指示的操作位置向前的第一标点符号,和所述操作位置向后的第二标点符号。
3.根据权利要求1所述的方法,其特征在于,所述根据所述操作指令,从所述图片上识别所述位置信息指示的操作位置向前的第一标点符号,和所述操作位置向后的第二标点符号,包括:
根据所述位置信息指示的操作位置,在所述图片上确定目标区域;
采用神经网络算法识别所述目标区域内的文本;
根据所述位置信息,从所述目标区域内的文本中,确定所述位置信息指示的操作位置向前的第一标点符号,和所述操作位置向后的第二标点符号。
4.根据权利要求1所述的方法,其特征在于,所述根据所述拖动操作指令更新所述文本显示界面中展示的文本,包括:
根据所述拖动操作指令确定两个所述拖动把手的位置;
从所述图片上识别两个所述拖动把手的位置之间的本文信息,作为更新后的目标文本;
在所述文本显示界面中展示所述更新后的目标文本。
5.根据权利要求1-3任一项所述的方法,其特征在于,所述文本显示界面上设置有操作控件,所述方法还包括:
检测到所述操作控件被触发时,对所述目标文本执行所述操作控件对应的目标操作。
6.根据权利要求5所述的方法,其特征在于,所述操作控件为复制控件时,所述目标操作为复制操作;
所述操作控件为分享控件时,所述目标操作为分享操作。
7.根据权利要求1-3任一项所述的方法,其特征在于,所述文本显示界面上设置有功能控件,所述方法还包括:
检测到所述功能控件被触发时,设置所述目标文本的属性和/或所述文本显示界面的属性。
8.根据权利要求7所述的方法,其特征在于,所述目标文本的属性包括所述目标文本的字体尺寸、字体格式、字体颜色中的至少一个;
所述文本显示界面的属性包括所述文本显示界面的背景图案、背景颜色、形状、尺寸、位置中的至少一个。
9.根据权利要求1-3任一项所述的方法,其特征在于,所述文本显示界面的尺寸与所述目标文本的尺寸成正比。
10.根据权利要求1-3任一项所述的方法,其特征在于,所述方法还包括:
接收用户输入的移动操作指令;所述移动操作指令中包括移动轨迹;
根据所述移动轨迹移动所述文本显示界面移动。
11.一种图片文本处理装置,其特征在于,包括:
获取模块,用于获取携带位置信息的用户操作指令;所述位置信息用于指示用户在图片上的操作位置;
识别模块,用于根据所述用户操作指令,采用神经网络算法从所述图片上识别所述位置信息指示的操作位置向前的第一标点符号,和所述操作位置向后的第二标点符号,所述第一标点符号和所述第二标点符号相邻;将所述第一标点符号和所述第二标点符号之间的文本确定为目标文本;所述第一标点符号为所述操作位置向前的第一个特定标点符号,所述第二标点符号为所述操作位置向后的第一个标点符号;
显示模块,用于在所述图片上叠加展示文本显示界面,并在所述文本显示界面上展示所述目标文本;
插入模块,用于在图片上确定目标文本的首尾位置,并在首尾位置处分别插入拖动把手;
获取模块,还用于获取用户对拖动把手的拖动操作指令;
显示模块,还用于根据拖动操作指令更新文本显示界面中展示的文本。
12.一种电子设备,包括存储器及处理器,所述存储器中储存有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如权利要求1至10中任一项所述的图片文本处理方法的步骤。
13.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至10中任一项所述的图片文本处理方法的步骤。
CN202010086414.6A 2020-02-11 2020-02-11 图片文本处理方法、装置、电子设备和存储介质 Active CN111338540B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202010086414.6A CN111338540B (zh) 2020-02-11 2020-02-11 图片文本处理方法、装置、电子设备和存储介质
PCT/CN2021/074801 WO2021159992A1 (zh) 2020-02-11 2021-02-02 图片文本处理方法、装置、电子设备和存储介质
EP21753248.0A EP4102347A4 (en) 2020-02-11 2021-02-02 IMAGE TEXT PROCESSING METHOD AND DEVICE, ELECTRONIC DEVICE AND STORAGE MEDIA
US17/816,794 US20220366711A1 (en) 2020-02-11 2022-08-02 Method for processing text in image, electronic device, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010086414.6A CN111338540B (zh) 2020-02-11 2020-02-11 图片文本处理方法、装置、电子设备和存储介质

Publications (2)

Publication Number Publication Date
CN111338540A CN111338540A (zh) 2020-06-26
CN111338540B true CN111338540B (zh) 2022-02-18

Family

ID=71181476

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010086414.6A Active CN111338540B (zh) 2020-02-11 2020-02-11 图片文本处理方法、装置、电子设备和存储介质

Country Status (4)

Country Link
US (1) US20220366711A1 (zh)
EP (1) EP4102347A4 (zh)
CN (1) CN111338540B (zh)
WO (1) WO2021159992A1 (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111338540B (zh) * 2020-02-11 2022-02-18 Oppo广东移动通信有限公司 图片文本处理方法、装置、电子设备和存储介质
CN112199004A (zh) * 2020-10-10 2021-01-08 Vidaa美国公司 一种用户界面的显示方法及显示设备
CN112613270A (zh) * 2020-12-22 2021-04-06 百色学院 基于预训练的绘画创作模型对目标文本进行样式推荐的方法、系统、设备及存储介质
CN112684970B (zh) * 2020-12-31 2022-11-29 腾讯科技(深圳)有限公司 虚拟场景的适配显示方法、装置、电子设备及存储介质
CN113157194B (zh) * 2021-03-15 2023-08-08 合肥讯飞读写科技有限公司 文本显示方法以及电子设备、存储装置
CN113138933A (zh) * 2021-05-13 2021-07-20 网易(杭州)网络有限公司 数据表的测试方法、电子设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2704061A2 (en) * 2012-08-27 2014-03-05 Samsung Electronics Co., Ltd Apparatus and method for recognizing a character in terminal equipment
CN110427139A (zh) * 2018-11-23 2019-11-08 网易(杭州)网络有限公司 文本处理方法及装置、计算机存储介质、电子设备
CN110659633A (zh) * 2019-08-15 2020-01-07 坎德拉(深圳)科技创新有限公司 图像文本信息的识别方法、装置以及存储介质
CN110674814A (zh) * 2019-09-25 2020-01-10 深圳传音控股股份有限公司 一种图片识别翻译方法、终端及介质

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6704034B1 (en) * 2000-09-28 2004-03-09 International Business Machines Corporation Method and apparatus for providing accessibility through a context sensitive magnifying glass
US20120131520A1 (en) * 2009-05-14 2012-05-24 Tang ding-yuan Gesture-based Text Identification and Selection in Images
US20120185787A1 (en) * 2011-01-13 2012-07-19 Microsoft Corporation User interface interaction behavior based on insertion point
US9092130B2 (en) * 2011-05-31 2015-07-28 Apple Inc. Devices, methods, and graphical user interfaces for document manipulation
KR102068604B1 (ko) * 2012-08-28 2020-01-22 삼성전자 주식회사 휴대단말기의 문자 인식장치 및 방법
KR102145515B1 (ko) * 2013-04-24 2020-08-18 삼성전자주식회사 화면 제어 방법 및 그 전자 장치
US10078444B2 (en) * 2013-06-25 2018-09-18 Lg Electronics Inc. Mobile terminal and method for controlling mobile terminal
US10423706B2 (en) * 2014-10-31 2019-09-24 Xiaomi Inc. Method and device for selecting information
US10453353B2 (en) * 2014-12-09 2019-10-22 Full Tilt Ahead, LLC Reading comprehension apparatus
KR20170085419A (ko) * 2016-01-14 2017-07-24 삼성전자주식회사 터치 입력에 기반한 동작 방법 및 그 전자 장치
CN107729897B (zh) * 2017-11-03 2020-09-15 北京字节跳动网络技术有限公司 一种文本操作方法、装置及终端
CN109002759A (zh) * 2018-06-07 2018-12-14 Oppo广东移动通信有限公司 文本识别方法、装置、移动终端以及存储介质
CN111338540B (zh) * 2020-02-11 2022-02-18 Oppo广东移动通信有限公司 图片文本处理方法、装置、电子设备和存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2704061A2 (en) * 2012-08-27 2014-03-05 Samsung Electronics Co., Ltd Apparatus and method for recognizing a character in terminal equipment
CN110427139A (zh) * 2018-11-23 2019-11-08 网易(杭州)网络有限公司 文本处理方法及装置、计算机存储介质、电子设备
CN110659633A (zh) * 2019-08-15 2020-01-07 坎德拉(深圳)科技创新有限公司 图像文本信息的识别方法、装置以及存储介质
CN110674814A (zh) * 2019-09-25 2020-01-10 深圳传音控股股份有限公司 一种图片识别翻译方法、终端及介质

Also Published As

Publication number Publication date
EP4102347A4 (en) 2023-08-02
US20220366711A1 (en) 2022-11-17
WO2021159992A1 (zh) 2021-08-19
CN111338540A (zh) 2020-06-26
EP4102347A1 (en) 2022-12-14

Similar Documents

Publication Publication Date Title
CN111338540B (zh) 图片文本处理方法、装置、电子设备和存储介质
US11631050B2 (en) Syncing physical and electronic document
CN106484266B (zh) 一种文本处理方法及装置
US10778928B2 (en) Device and method for inputting note information into image of photographed object
US20150156147A1 (en) Method, system and apparatus for adding network comment information
KR102369604B1 (ko) 고정 포맷 문서를 리플로우 포맷으로 프리젠트하는 기법
CN110489312B (zh) 用于控件触发数据采集的数据关联方法和装置
US20140129931A1 (en) Electronic apparatus and handwritten document processing method
KR20160044487A (ko) E-리더 애플리케이션에서 고정 포맷 문서를 네비게이팅하는 기법
CN111954079B (zh) 图像处理方法、装置、电子设备及介质
CN112965681A (zh) 图像处理方法、装置、设备、及存储介质
CN112269523B (zh) 对象编辑处理方法、装置及电子设备
CN115237293A (zh) 图片编辑方法、装置、设备及存储介质
KR20150097250A (ko) 태그 정보를 이용한 스케치 검색 시스템, 사용자 장치, 서비스 제공 장치, 그 서비스 방법 및 컴퓨터 프로그램이 기록된 기록매체
CN111382552B (zh) 排版处理方法、装置、设备和存储介质
KR102213861B1 (ko) 스케치 검색 시스템, 사용자 장치, 서비스 제공 장치, 그 서비스 방법 및 컴퓨터 프로그램이 기록된 기록매체
CN112287131A (zh) 信息交互方法、信息交互装置
EP2544108A1 (fr) Dispositif électronique pour l'annotation de document
CN113436297A (zh) 图片处理方法和电子设备
US10223607B2 (en) Physical and digital bookmark syncing
US20170052653A1 (en) Cloud-based inter-application interchange of style information
CN117130508A (zh) 笔记记录方法、装置、存储介质及电子设备
CN116909412A (zh) 信息输入区显示方法、装置、电子设备和介质
CN115543229A (zh) 打印数据处理方法、装置、计算机设备和存储介质
CN115357249A (zh) 一种代码生成方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant