CN112053450A - 文字的显示方法、装置、电子设备及存储介质 - Google Patents

文字的显示方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN112053450A
CN112053450A CN202010948338.5A CN202010948338A CN112053450A CN 112053450 A CN112053450 A CN 112053450A CN 202010948338 A CN202010948338 A CN 202010948338A CN 112053450 A CN112053450 A CN 112053450A
Authority
CN
China
Prior art keywords
special effect
text
character
characters
live
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010948338.5A
Other languages
English (en)
Inventor
李云珠
徐力有
陈志立
朱逸衡
朱世光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lemon Inc Cayman Island
Original Assignee
Lemon Inc Cayman Island
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lemon Inc Cayman Island filed Critical Lemon Inc Cayman Island
Priority to CN202010948338.5A priority Critical patent/CN112053450A/zh
Publication of CN112053450A publication Critical patent/CN112053450A/zh
Priority to PCT/SG2021/050491 priority patent/WO2022055419A2/zh
Priority to JP2023504123A priority patent/JP2023542598A/ja
Priority to EP21867239.2A priority patent/EP4170599A4/en
Priority to US18/060,454 priority patent/US11836437B2/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/103Formatting, i.e. changing of presentation of documents
    • G06F40/109Font handling; Temporal or kinetic typography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/004Annotating, labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/024Multi-user, collaborative environment

Abstract

本公开实施例提供的文字的显示方法、装置、电子设备及存储介质,通过获取实景拍摄图像以及待显示的文字,调用文字运动轨迹数据,对待显示的文字进行动态特效处理,将动态特效处理后的文字显示在所述实景拍摄图像上,从而实现了在虚拟增强现实显示中对文字进行动态特效显示的功能,使得文字的显示效果更为生动,该显示方法能广泛运用于各应用场景,为用户带来更好的视觉感官体验。

Description

文字的显示方法、装置、电子设备及存储介质
技术领域
本公开实施例涉及计算机领域,尤其涉及一种文字的显示方法、装置、电子设备及存储介质。
背景技术
增强现实(Augmented Reality,简称AR)显示技术是一种将虚拟信息与真实世界巧妙融合的技术,在虚拟增强现实显示技术中融入更多的特效内容,能够更好呈现应用场景。
文字在虚拟增强现实显示中的应用是虚拟增强现实显示技术的重要组成部分。在现有的文字显示方案中,一般采用的是静态文字展示的方式,这使得对于文字的显示效果较为生硬,展示方式也较为单一。
发明内容
针对上述问题,本公开实施例提供了一种文字的显示方法、装置、电子设备及存储介质。
第一方面,本公开实施例提供一种文字的显示方法,包括:
获取实景拍摄图像;
获取待显示的文字;
调用文字运动轨迹数据,对所述待显示的文字进行动态特效处理;
将动态特效处理后的文字显示在所述实景拍摄图像上。
第二方面,本公开实施例提供一种文字的显示装置,包括:
通信模块,用于获取实景拍摄图像,以及获取待显示的文字;
处理模块,用于调用文字运动轨迹数据,对用户输入的待显示的文字进行动态特效处理;
显示模块,用于将动态特效处理后的文字显示在所述实景拍摄图像上。
第三方面,本公开实施例提供一种电子设备,包括:至少一个处理器和存储器;
所述存储器存储计算机执行指令;
所述至少一个处理器执行所述存储器存储的计算机执行指令,使得所述至少一个处理器执行如上第一方面以及第一方面各种可能的涉及所述的文字的显示方法。
第四方面,本公开实施例提供一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机执行指令,当处理器执行所述计算机执行指令时,实现如上第一方面以及第一方面各种可能的设计所述的文字的显示方法。
本公开实施例提供的文字的显示方法、装置、电子设备及存储介质,通过获取实景拍摄图像以及待显示的文字,调用文字运动轨迹数据,对待显示的文字进行动态特效处理,将动态特效处理后的文字显示在所述实景拍摄图像上,从而实现了在虚拟增强现实显示中对文字进行动态特效显示的功能,使得文字的显示效果更为生动,该显示方法能广泛运用于各应用场景,为用户带来更好的视觉感官体验。
附图说明
为了更清楚地说明本公开实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本公开所基于的一种网络架构的示意图;
图2为文字的显示方法所基于的第一场景示意图;
图3为本公开所基于的另一种网络架构的示意图;
图4为文字的显示方法所基于的第二场景示意图;
图5为本公开实施例提供的一种文字的显示方法的流程示意图;
图6为本公开提供的文字的显示方法的第一界面示意图;
图7为本公开提供的文字的显示方法的第二界面示意图;
图8为本公开提供的文字的显示方法的第三界面示意图;
图9为本公开提供的文字的显示方法的第四界面示意图;
图10为本公开实施例提供的文字的显示装置的结构框图;
图11为本公开实施例提供的电子设备的硬件结构示意图。
具体实施方式
为使本公开实施例的目的、技术方案和优点更加清楚,下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本公开一部分实施例,而不是全部的实施例。基于本公开中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
增强现实(Augmented Reality,简称AR)显示技术是一种将虚拟信息与真实世界巧妙融合的技术,在虚拟增强现实显示技术中融入更多的特效内容,能够更好呈现应用场景。
文字在虚拟增强现实显示中的应用是虚拟增强现实显示技术的重要组成部分。在现有的文字显示方案中,一般采用的是静态文字展示的方式,这使得对于文字的显示效果较为生硬,展示方式也较为单一。
针对这样的问题,本公开的实施例提供了一种文字的显示方法,通过调用文字运动轨迹数据,对待显示的文字进行动态特效处理,基于增强现实技术将动态特效处理后的文字显示在拍摄获取的实景拍摄图像上,从而实现了在增强现实显示中对文字进行动态特效显示的功能,使得文字的显示效果更为生动,该显示方法能广泛运用于各应用场景,为用户带来更好的视觉感官体验。
参考图1,图1为本公开所基于的一种网络架构的示意图,该图1所示网络架构具体可包括终端1、文字的显示装置2以及服务器3。
其中,终端1具体可为用户手机、智能家居设备、平板电脑等可用于拍摄实景并且展现拍摄的实景的硬件设备,而文字的显示装置2可为集成或安装在所述终端1上的客户端或显示端,服务器3可为设置在云端的包括存储各类文字运动轨迹数据的服务器集群。
文字的显示装置2可在终端1上运行,并为终端1提供显示页面,以供终端1利用其屏幕或显示组件向用户显示文字的显示装置2所提供的页面。
同时,文字的显示装置2还可利用终端1的网络组件与服务器3进行交互,以获取服务器3中的预存的文字运动轨迹数据。
此外,在一些可选的实施方式中,终端1中也可对服务器3中的各类文字运动轨迹数据进行缓存,以便于使用。例如,终端1中可以存储有各类文字运动轨迹数据,通过调用文字运动轨迹数据,对待显示的文字进行动态特效处理,并将动态特效处理后的文字显示在该终端1所拍摄的实景拍摄图像上。
特别来说,图1所示架构可适用多种应用场景,图2为文字的显示方法所基于的第一场景示意图。
如图2所示的,在该场景中,用户可启动文字的显示装置提供的虚拟增强现实显示功能,并通过终端1向文字的显示装置2发送对于待显示的文字进行显示的操作指令,以供文字的显示装置2与服务器3交互,获得相应的文字运动轨迹数据。文字的显示装置2利用文字运动轨迹数据对待显示的文字进行处理,并将显示处理后的文字显示在终端拍摄获得的实景拍摄图像中。
在该场景中,用户可对于处理后的实景拍摄图像进行录屏等操作,获得具有个人风格的图像作品,还可将处理后的实景拍摄图像作为虚拟增强现实显示的导航场景的图示、虚拟增强现实显示的旅游场景的图示等。
此外,参考图3,图3为本公开所基于的另一种网络架构的示意图,该图3所示网络架构具体可包括多个终端1、文字的显示装置2、服务器3以及拍摄系统4。
与图1所示架构不同的是,文字的显示装置2是集成在服务器3中的。在该图3所示网络架构中,拍摄系统4可与服务器3进行交互,为其中的文字的显示装置2提供实景拍摄图像,而文字的显示装置2将采用本公开提供的文字的显示方法对实景拍摄图像进行处理,并将处理后的图像发送至多个终端1,以供终端1观看获取。
其中,拍摄系统4可由设置在同一拍摄区域的多个拍摄设备构成,该多个拍摄设备将以不同拍摄角度对于拍摄区域进行拍摄。当拍摄系统4在对拍摄区域进行拍摄时,其拍摄得到的实景拍摄图像将被传输至服务器3,并通过服务器3转发文字的显示装置2,以呈现在终端1上。
特别来说,图3所示架构可适用于基于视频直播场景下的文字的显示场景。其中,图4为文字的显示方法所基于的第二场景示意图。
如图4所示的,在该场景中,由拍摄系统拍摄的多角度的实景拍摄图像将经过服务器中的文字的显示装置的处理,发送至位于不同地点的终端1,以供各用户观看。
下面将以图1所示结构为例,针对本公开提供的文字的显示方法进行进一步说明。其中,文字的显示方法在图3所示结构上的应用与其在图1所示结构上的应用类似,不再进行赘述。
第一方面,参考图5,图5为本公开实施例提供的一种文字的显示方法的流程示意图。本公开实施例提供的文字的显示方法,包括:
步骤101、获取实景拍摄图像。
步骤102、获取待显示的文字。
在本公开中,可采用多种方式获取待显示的文字:
在其中一种可选的实施方式中,通过接收用户输入的文字信息,直接获取待显示的文字。
在其中另一种可选实施方式中,显示装置可获取用户输入的语音,对所述语音进行语音转换处理,获得待显示的文字。
在其中的又一种可选实施方式中,还可获取用户输入的肢体信息,根据预设的肢体信息与文字之间的映射关系,确定所述肢体信息对应文字,所述肢体信息对应文字作为所述待显示的文字。其中,所述肢体信息包括手语信息、手势信息、面部表情信息中的一种信息或多种信息。
步骤103、调用文字运动轨迹数据,对待显示的文字进行动态特效处理。
步骤104、将动态特效处理后的文字显示在所述实景拍摄图像上。
需要说明的是,本示例的提供的处理方法的执行主体为前述的文字的显示装置。如前所示的,该文字的显示装置可架设于终端中,也可架设于服务器中,无论其架设在何种设备中,均可通过其架设的设备(终端或服务器)接收用户触发的操作,并进行相应的处理,以将处理结果发送至终端并进行显示。
与现有技术不同的是,在本公开所基于的方案中,包括有:调用文字运动轨迹数据,对待显示的文字进行动态特效处理,并将动态特效处理后的文字显示在所述实景拍摄图像上的步骤。
通过采用本公开的方案,实现了在增强现实显示中对文字进行动态特效显示的功能,使得文字的显示效果更为生动,该显示方法能广泛运用于各应用场景,为用户带来更好的视觉感官体验。
图6为本公开提供的文字的显示方法的第一界面示意图,图7为本公开提供的文字的显示方法的第二界面示意图。如图6所示的,首先,当用户触发文字的显示装置执行该显示功能时,文字的显示装置首先将通过与终端的拍摄组件或通过拍摄系统进行交互,获得实景拍摄图像。然后显示装置将获取待显示的文字,并调用文字运动轨迹数据,对待显示的文字进行动态特效处理,如图7所示的,显示装置将动态特效处理后的文字显示在实景拍摄图像上。
可选实施例中,对于步骤103,可采用如下方式实现:
步骤1031、接收用户对动态特效类型的选择指令;
步骤1032、文字的显示装置可根据选中的动态特效类型,从文字运动轨迹数据库中调用相应类型的文字运动轨迹数据。
其中,动态特效类型具体指代的是文字的显示装置为用户提供的可供用户选择的文字效果,不同的动态特效类型将对文字进行不同的动态特效处理,以使其呈现不同的动态运动轨迹和不同的渲染结果。而不同动态特效类型对应的文字运动轨迹数据由开发人员预先设计并存储在服务器的文字运动轨迹数据库中,以供文字的显示装置随时调用。
步骤1023、根据选中的动态特效类型,生成所述待显示的文字的三维文字建模,并获得文字的建模数据。
步骤1034、利用前述获得的文字运动轨迹数据对所述文字的建模数据进行处理,获得动态特效处理后的文字。
进一步来说,根据选中的动态特效类型,生成所述待显示的文字的三维文字建模,并获得文字的建模数据。其中,文字的建模数据具体可由文字的三维文字坐标构成。以图7为例,如文字为“你好”,相应的,分别对“你”和“好”进行建模处理,分别得到对应的三维文字模型“你”和“好”,然后,该两个三维文字模型的中心坐标将作为文字的三维文字坐标。
文字运动轨迹数据包括不同运动帧下的文字位置坐标。如,在某一种动态特效类型下,例如,文字运动轨迹是从界面的左侧“滑”向界面的右侧,且该“滑”的时间为1秒(对应N个运动帧),那么可知的是,文字运动轨迹数据包括每一运动帧下的文字位置坐标:
如第1运动帧中的文字位置坐标[(x11,y11,z11),(x12,y12,z12)];其中,(x11,y11,z11)用于表示第1运动帧中“你”的文字位置坐标,而(x12,y12,z12)用于表示第1运动帧中“好”的文字位置坐标。
在第N运动帧中,文字位置坐标将为[(xN1,yN1,z21),(xN2,yN2,zN2)];其中,(xN1,yN1,zN1)用于表示第N运动帧中“你”的文字位置坐标,而(xN2,yN2,zN2)用于表示第N运动帧中“好”的文字位置坐标。
也就是说,针对于“你”来说,由(x11,y11,z11)、(x21,y21,z21)……(xN1,yN1,z21)等N个运动帧下的文字位置坐标构成的集合将成为其在该N个运动帧所对应的时长下的运动轨迹;类似的,针对于“好”来说,由(x12,y12,z12)、(x22,y22,z22)……(xN2,yN2,zN2)等N个运动帧下的文字位置坐标构成的集合将成为其在该N个运动帧所对应的时长下的运动轨迹。
当然,文字位置坐标用于表示每个文字的位置坐标。也就是说,当采用相同的动态特效类型时,不同字数的文字所对应的文字运动轨迹数据中的文字位置坐标也是不同的。相应的,若文字的字数发生变化,显示装置需要重新确定每个文字在各运动帧下的文字位置坐标,以保证该文字中的每一个文字能够被精准表示。
步骤1023、利用前述获得的文字运动轨迹数据对所述文字的建模数据进行处理,获得动态特效处理后的文字。
具体来说,在该步骤中,显示装置将利用预设的坐标映射脚本,将所述文字的三维文字坐标映射至文字运动轨迹数据所基于的坐标系中,以保证两者是采用同一坐标系下的坐标。
然后,显示装置将映射后的文字的三维文字坐标与文字运动轨迹数据中各运动帧下的文字位置坐标进行坐标对齐处理,即使得文字中每一文字的中心点的三维文字坐标对齐至该对文字对应的文字位置坐标处;最后,所述对齐处理后的文字作为动态特效处理后的文字。
可选的,本公开提供的方案中,对于文字的动态特效处理还包括:对文字的文字形状进行特效处理。基于用户选中的不同的动态特效类型,显示装置将采用不同的特效处理算法对文字的文字形状进行处理,例如,在“你”“好”的三维模型的基础上,还可对三维模型进行特效处理,例如对其进行艺术字处理以使文字的三维模型具备一定的艺术风格。
可选实施例中,在获得动态特效处理后的文字之后,还将包括有将动态特效处理后的文字显示在所述实景拍摄图像上的步骤。具体的,该步骤可利用虚拟现实增强算法实现,例如SLAM的融合算法,即所述动态特效处理后的文字与所述实景拍摄图像进行融合处理,将融合处理后的所述实景拍摄图像进行显示。其中的SLAM的融合算法是一种现有的将虚拟信息与实景图像进行融合显示的算法模型,利用该融合算法和每一运动帧下的对齐处理后的文字的三维文字坐标,实现将文字融合至实景拍摄图像中并进行显示的功能。
可选的,显示方法中还包括对于特效显示区的选择功能。具体来说,将动态特效处理后的文字显示在所述实景拍摄图像上,还包括:根据选中的动态特效类型,确定所述实景拍摄图像中的特效显示区;将所述动态特效处理后的文字显示在所述实景拍摄图像的特效显示区上。
进一步的,在确定特效显示区的过程中,可根据选中的动态特效类型,对所述实景拍摄图像进行目标识别处理,确定所述实景拍摄图像的目标所在区域;根据所述实景拍摄图像的目标所在区域确定所述特效显示区。
以基于人脸自拍的场景为例,图8为本公开提供的文字的显示方法的第三界面示意图,如图8所示的,在该场景中,通过开启终端的前置摄像头可使得显示装置获取包括人脸的实景拍摄图像,然后从界面提供的多种动态特效类型中选中其中一种动态特效,以使在实景拍摄图像的人脸的特效显示区显示相应的文字。
具体的,在图8中的第三界面中设置有多种动态特效类型:类型A、类型B、类型C和类型D。当接收到用户选中的“类型A(例如,该类型A为文字眼镜特效)”的特效类型的指令时,基于该类型,首先在实景拍摄图像中确定生成该文字的特效显示区,如,实景拍摄图像中人脸上眼睛所在的区域;随后,调用该特效类型对应的文字运动轨迹数据,并对文字(如用户输入的“GOOD GIRL”)进行动态特效处理;最后,将处理后的文字显示在前述获得的特效显示区(如眼睛所在的区域)。在一个实施例中,还可以在特效显示区增加相关的虚拟物体,并将处理后的文字显示在该虚拟物体处。例如,在图8中,还可以在眼睛区域先设置虚拟眼镜,并将处理后的文字显示在虚拟眼镜上,以增强界面的美观性。
图9为本公开提供的文字的显示方法的第四界面示意图,如图9所示的,显示装置将基于该动态特效类型对当前实景拍摄图像中的面部进行识别处理,以确定面部中眼睛在图像中的位置区域,然后根据眼睛所在的区域确定特效显示区,相应的,当面部在图像中出现旋转或位置改变时,特效显示区也将相应改变,从而获得图9所示的示意图。例如,处理后的文字的位置和角度也可以随着面部的位置和角度的变化而在画面中相应地变化。
此外,在本公开中,文字的显示装置可采用多种方式获取待显示的文字:
在其中一种可选的实施方式中,通过接收用户输入的文字信息,直接获取待显示的文字。
在其中另一种可选实施方式中,显示装置可获取用户输入的语音,对所述语音进行语音转换处理,获得待显示的文字。
在其中的又一种可选实施方式中,显示装置还可获取用户输入的肢体信息,根据预设的肢体信息与文字之间的映射关系,确定所述肢体信息对应文字,所述肢体信息对应文字作为所述待显示的文字。其中,所述肢体信息包括手语信息、手势信息、面部表情信息中的一种信息或多种信息。
本公开实施例提供的文字的显示方法,通过获取实景拍摄图像,调用文字运动轨迹数据,对待显示的文字进行动态特效处理,将动态特效处理后的文字显示在所述实景拍摄图像上,从而实现了在虚拟增强现实显示中对文字进行动态特效显示的功能,使得文字的显示效果更为生动,该显示方法能广泛运用于各应用场景,为用户带来更好的视觉感官体验。
对应于上文实施例的文字的显示方法,图10为本公开实施例提供的文字的显示装置的结构框图。为了便于说明,仅示出了与本公开实施例相关的部分。参照图10,所述文字的显示装置包括:通信模块10、处理模块20以及显示模块30。
通信模块10,用于获取实景拍摄图像以及待显示的文字;
处理模块20,用于调用文字运动轨迹数据,对所述待显示的文字进行动态特效处理;
显示模块30,用于将动态特效处理后的文字显示在所述实景拍摄图像上。
可选实施方式中,通信模块10,用于接收用户对动态特效类型的选择指令;
处理模块20还用于根据选中的动态特效类型,确定所述实景拍摄图像中的特效显示区;
显示模块30,用于将所述动态特效处理后的文字显示在所述实景拍摄图像的特效显示区上。
可选实施方式中,处理模块20还用于根据选中的动态特效类型,对所述实景拍摄图像进行目标识别处理,确定所述实景拍摄图像中待识别目标所在的图像区域;根据所述待识别目标所在的图像区域确定所述特效显示区。
可选实施方式中,通信模块10,用于接收用户对动态特效类型的选择指令;
处理模块20,具体用于根据选中的动态特效类型,从文字运动轨迹数据库中调用相应类型的文字运动轨迹数据;以及根据选中的动态特效类型,生成所述待显示的文字的三维文字建模,并获得文字的建模数据;利用文字运动轨迹数据对所述文字的建模数据进行处理,获得所述动态特效处理后的文字。
可选实施方式中,所述文字的建模数据包括文字的三维文字坐标;所述文字运动轨迹数据包括不同运动帧下的文字位置坐标;
处理模块20,具体用于利用预设的坐标映射脚本,将所述文字的三维文字坐标映射至文字运动轨迹数据所基于的坐标系中;将映射后的文字的三维文字坐标与文字运动轨迹数据中各运动帧下的文字位置坐标进行坐标对齐处理;将所述对齐处理后的文字作为所述动态特效处理后的文字。
可选实施方式中,处理模块20,具体还用于对文字的文字形状进行特效处理。
可选实施方式中,显示模块30,具体用于基于增强现实显示技术,对所述动态特效处理后的文字与所述实景拍摄图像进行融合处理,将融合处理后的所述实景拍摄图像进行显示。
可选实施方式中,通信模块10还用于获取用户输入的语音,对所述语音进行语音转换处理,获得所述待显示的文字。
可选实施方式中,通信模块10还用于获取用户输入的肢体信息,根据预设的肢体信息与文字之间的映射关系,确定所述肢体信息对应文字,并将所述肢体信息对应文字作为所述待显示的文字。
可选实施方式中,所述肢体信息包括手语信息、手势信息、面部表情信息中的一种信息或多种信息。
本公开实施例提供的文字的显示装置,通过获取实景拍摄图像,以及获取待显示的文字,调用文字运动轨迹数据,对待显示的文字进行动态特效处理,将动态特效处理后的文字显示在所述实景拍摄图像上,从而实现了在虚拟增强现实显示中对文字进行动态特效显示的功能,使得文字的显示效果更为生动,该显示方法能广泛运用于各应用场景,为用户带来更好的视觉感官体验。
本实施例提供的电子设备,可用于执行上述方法实施例的技术方案,其实现原理和技术效果类似,本实施例此处不再赘述。
参考图11,其示出了适于用来实现本公开实施例的电子设备900的结构示意图,该电子设备900可以为终端设备或媒体库。其中,终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、个人数字助理(Personal Digital Assistant,简称PDA)、平板电脑(Portable Android Device,简称PAD)、便携式多媒体播放器(Portable MediaPlayer,简称PMP)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图11示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图11所示,电子设备900可以包括文字的显示方法(例如中央处理器、图形处理器等)901,其可以根据存储在只读存储器(Read Only Memory,简称ROM)902中的程序或者从存储装置908加载到随机访问存储器(Random Access Memory,简称RAM)903中的程序而执行各种适当的动作和处理。在RAM 903中,还存储有电子设备900操作所需的各种程序和数据。文字的显示方法901、ROM 902以及RAM 903通过总线904彼此相连。输入/输出(I/O)接口905也连接至总线904。
通常,以下装置可以连接至I/O接口905:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置906;包括例如屏幕、扬声器、振动器等的输出装置907;包括例如磁带、硬盘等的存储装置908;以及通信装置909。通信装置909可以允许电子设备900与其他设备进行无线或有线通信以交换数据。虽然图11示出了具有各种装置的电子设备900,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置909从网络上被下载和安装,或者从存储装置908被安装,或者从ROM 902被安装。在该计算机程序被文字的显示方法901执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备执行上述实施例所示的方法。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或媒体库上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LocalArea Network,简称LAN)或广域网(Wide Area Network,简称WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定,例如,第一获取单元还可以被描述为“获取至少两个网际协议地址的单元”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
以下是本公开的一些实施例。
第一方面,根据本公开的一个或多个实施例,一种文字的显示方法,包括:
获取实景拍摄图像;
获取待显示的文字;
调用文字运动轨迹数据,对所述待显示的文字进行动态特效处理;
将动态特效处理后的文字显示在所述实景拍摄图像上。
可选实施方式中,所述将动态特效处理后的文字显示在所述实景拍摄图像上,包括:
接收用户对动态特效类型的选择指令;
根据选中的动态特效类型,确定所述实景拍摄图像中的特效显示区;
将所述动态特效处理后的文字显示在所述实景拍摄图像的特效显示区上。
可选实施方式中,所述根据选中的动态特效类型,确定所述实景拍摄图像中的特效显示区,包括:
根据选中的动态特效类型,对所述实景拍摄图像进行目标识别处理,确定所述实景拍摄图像中待识别目标所在的图像区域;
根据所述待识别目标所在的图像区域确定所述特效显示区。
可选实施方式中,所述调用文字运动轨迹数据,对待显示的文字进行动态特效处理,包括:
接收用户对动态特效类型的选择指令;
根据选中的动态特效类型,从文字运动轨迹数据库中调用相应类型的文字运动轨迹数据;以及,
根据选中的动态特效类型,生成所述待显示的文字的三维文字建模,并获得文字的建模数据;
利用文字运动轨迹数据对所述文字的建模数据进行处理,获得所述动态特效处理后的文字。
可选实施方式中,所述文字的建模数据包括文字的三维文字坐标;
所述文字运动轨迹数据包括运动轨迹在不同运动帧下的文字位置坐标;
所述利用文字运动轨迹数据对所述文字的建模数据进行处理,获得动态特效处理后的文字,包括:
利用预设的坐标映射脚本,将所述文字的三维文字坐标映射至文字运动轨迹数据所基于的坐标系中;
将映射后的文字的三维文字坐标与文字运动轨迹数据中各运动帧下的文字位置坐标进行坐标对齐处理;
将所述对齐处理后的文字作为所述动态特效处理后的文字。
可选实施方式中,所述动态特效处理还包括:
对文字的文字形状进行特效处理。
可选实施方式中,所述将动态特效处理后的文字显示在所述实景拍摄图像上,包括:
基于增强现实显示技术,对所述动态特效处理后的文字与所述实景拍摄图像进行融合处理,将融合处理后的所述实景拍摄图像进行显示。
可选实施方式中,该方法还包括:
获取用户输入的语音,对所述语音进行语音转换处理,获得所述待显示的文字。
可选实施方式中,该方法还包括:
获取用户输入的肢体信息,根据预设的肢体信息与文字之间的映射关系,确定所述肢体信息对应文字,并将所述肢体信息对应文字作为所述待显示的文字。
可选实施方式中,所述肢体信息包括手语信息、手势信息、面部表情信息中的一种信息或多种信息。
第二方面,根据本公开的一个或多个实施例,一种文字的显示装置,包括:
通信模块,用于获取实景拍摄图像以及待显示的文字;
处理模块,用于调用文字运动轨迹数据,对所述待显示的文字进行动态特效处理;
显示模块,用于将动态特效处理后的文字显示在所述实景拍摄图像上。
可选实施方式中,通信模块用于接收用户对动态特效类型的选择指令;
处理模块还用于根据选中的动态特效类型,确定所述实景拍摄图像中的特效显示区;
显示模块,用于将所述动态特效处理后的文字显示在所述实景拍摄图像的特效显示区上。
可选实施方式中,处理模块还用于根据选中的动态特效类型,对所述实景拍摄图像进行目标识别处理,确定所述实景拍摄图像中待识别目标所在的图像区域;根据所述待识别目标所在的图像区域确定所述特效显示区。
可选实施方式中,通信模块,用于接收用户对动态特效类型的选择指令;
处理模块,具体用于根据选中的动态特效类型,从文字运动轨迹数据库中调用相应类型的文字运动轨迹数据;以及根据选中的动态特效类型,生成所述待显示的文字的三维文字建模,并获得文字的建模数据;利用文字运动轨迹数据对所述文字的建模数据进行处理,获得所述动态特效处理后的文字。
可选实施方式中,所述文字的建模数据包括文字的三维文字坐标;所述文字运动轨迹数据包括不同运动帧下的文字位置坐标;
处理模块,具体用于利用预设的坐标映射脚本,将所述文字的三维文字坐标映射至文字运动轨迹数据所基于的坐标系中;将映射后的文字的三维文字坐标与文字运动轨迹数据中各运动帧下的文字位置坐标进行坐标对齐处理;将所述对齐处理后的文字作为所述动态特效处理后的文字。
可选实施方式中,处理模块,具体还用于对文字的文字形状进行特效处理。
可选实施方式中,显示模块,具体用于基于增强现实显示技术,对所述动态特效处理后的文字与所述实景拍摄图像进行融合处理,将融合处理后的所述实景拍摄图像进行显示。
可选实施方式中,通信模块还用于获取用户输入的语音,对所述语音进行语音转换处理,获得所述待显示的文字。
可选实施方式中,通信模块还用于获取用户输入的肢体信息,根据预设的肢体信息与文字之间的映射关系,确定所述肢体信息对应文字,并将所述肢体信息对应文字作为所述待显示的文字。
可选实施方式中,所述肢体信息包括手语信息、手势信息、面部表情信息中的一种信息或多种信息。
第三方面,根据本公开的一个或多个实施例,一种电子设备,包括:至少一个处理器和存储器;
所述存储器存储计算机执行指令;
所述至少一个处理器执行所述存储器存储的计算机执行指令,使得所述至少一个处理器执行如前任一项所述的文字的显示方法。
第四方面,根据本公开的一个或多个实施例,一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机执行指令,当处理器执行所述计算机执行指令时,实现如前任一项所述的文字的显示方法。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。

Claims (13)

1.一种文字的显示方法,其特征在于,包括:
获取实景拍摄图像;
获取待显示的文字;
调用文字运动轨迹数据,对所述待显示的文字进行动态特效处理;
将动态特效处理后的文字显示在所述实景拍摄图像上。
2.根据权利要求1所述的文字的显示方法,其特征在于,所述将动态特效处理后的文字显示在所述实景拍摄图像上,包括:
接收用户对动态特效类型的选择指令;
根据选中的动态特效类型,确定所述实景拍摄图像中的特效显示区;
将所述动态特效处理后的文字显示在所述实景拍摄图像的特效显示区上。
3.根据权利要求2所述的文字的显示方法,其特征在于,所述根据选中的动态特效类型,确定所述实景拍摄图像中的特效显示区,包括:
根据选中的动态特效类型,对所述实景拍摄图像进行目标识别处理,确定所述实景拍摄图像中待识别目标所在的图像区域;
根据所述待识别目标所在的图像区域确定所述特效显示区。
4.根据权利要求1所述的文字的显示方法,其特征在于,所述调用文字运动轨迹数据,对待显示的文字进行动态特效处理,包括:
接收用户对动态特效类型的选择指令;
根据选中的动态特效类型,从文字运动轨迹数据库中调用相应类型的文字运动轨迹数据;以及,
根据选中的动态特效类型,生成所述待显示的文字的三维文字建模,并获得文字的建模数据;
利用文字运动轨迹数据对所述文字的建模数据进行处理,获得所述动态特效处理后的文字。
5.根据权利要求4所述的文字的显示方法,其特征在于,所述文字的建模数据包括文字的三维文字坐标;
所述文字运动轨迹数据包括运动轨迹在不同运动帧下的文字位置坐标;
所述利用文字运动轨迹数据对所述文字的建模数据进行处理,获得动态特效处理后的文字,包括:
利用预设的坐标映射脚本,将所述文字的三维文字坐标映射至文字运动轨迹数据所基于的坐标系中;
将映射后的文字的三维文字坐标与文字运动轨迹数据中各运动帧下的文字位置坐标进行坐标对齐处理;
将所述对齐处理后的文字作为所述动态特效处理后的文字。
6.根据权利要求1所述的文字的显示方法,其特征在于,所述动态特效处理还包括:
对文字的文字形状进行特效处理。
7.根据权利要求1所述的文字的显示方法,其特征在于,所述将动态特效处理后的文字显示在所述实景拍摄图像上,包括:
基于增强现实显示技术,对所述动态特效处理后的文字与所述实景拍摄图像进行融合处理,将融合处理后的所述实景拍摄图像进行显示。
8.根据权利要求1-7任一项所述的文字的显示方法,其特征在于,还包括:
获取用户输入的语音,对所述语音进行语音转换处理,获得所述待显示的文字。
9.根据权利要求1-7任一项所述的文字的显示方法,其特征在于,还包括:
获取用户输入的肢体信息,根据预设的肢体信息与文字之间的映射关系,确定所述肢体信息对应文字,并将所述肢体信息对应文字作为所述待显示的文字。
10.根据权利要求9所述的文字的显示方法,其特征在于,所述肢体信息包括手语信息、手势信息、面部表情信息中的一种信息或多种信息。
11.一种文字的显示装置,其特征在于,包括:
通信模块,用于获取实景拍摄图像,以及获取待显示的文字;
处理模块,用于调用文字运动轨迹数据,对所述待显示的文字进行动态特效处理;
显示模块,用于将动态特效处理后的文字显示在所述实景拍摄图像上。
12.一种电子设备,其特征在于,包括:
至少一个处理器;以及
存储器;
所述存储器存储计算机执行指令;
所述至少一个处理器执行所述存储器存储的计算机执行指令,使得所述至少一个处理器执行如权利要求1-10任一项所述的文字的显示方法。
13.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机执行指令,当处理器执行所述计算机执行指令时,实现如权利要求1-10任一项所述的文字的显示方法。
CN202010948338.5A 2020-09-10 2020-09-10 文字的显示方法、装置、电子设备及存储介质 Pending CN112053450A (zh)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN202010948338.5A CN112053450A (zh) 2020-09-10 2020-09-10 文字的显示方法、装置、电子设备及存储介质
PCT/SG2021/050491 WO2022055419A2 (zh) 2020-09-10 2021-08-23 文字的显示方法、装置、电子设备及存储介质
JP2023504123A JP2023542598A (ja) 2020-09-10 2021-08-23 文字の表示方法、装置、電子機器及び記憶媒体
EP21867239.2A EP4170599A4 (en) 2020-09-10 2021-08-23 CHARACTER DISPLAY METHOD AND APPARATUS, ELECTRONIC DEVICE AND STORAGE MEDIA
US18/060,454 US11836437B2 (en) 2020-09-10 2022-11-30 Character display method and apparatus, electronic device, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010948338.5A CN112053450A (zh) 2020-09-10 2020-09-10 文字的显示方法、装置、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN112053450A true CN112053450A (zh) 2020-12-08

Family

ID=73610437

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010948338.5A Pending CN112053450A (zh) 2020-09-10 2020-09-10 文字的显示方法、装置、电子设备及存储介质

Country Status (5)

Country Link
US (1) US11836437B2 (zh)
EP (1) EP4170599A4 (zh)
JP (1) JP2023542598A (zh)
CN (1) CN112053450A (zh)
WO (1) WO2022055419A2 (zh)

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101075349A (zh) * 2007-06-22 2007-11-21 珠海金山软件股份有限公司 一种在svg中表达演示动画效果的方法
CN105184840A (zh) * 2015-07-17 2015-12-23 天脉聚源(北京)科技有限公司 动画显示拼字的方法和装置
CN106100983A (zh) * 2016-08-30 2016-11-09 黄在鑫 一种基于增强现实与gps定位技术的移动社交网络系统
US20170032575A1 (en) * 2015-06-30 2017-02-02 Magic Leap, Inc. Technique for more efficiently displaying text in virtual image generation system
US20170301141A1 (en) * 2012-09-28 2017-10-19 Apple Inc. Method of Image Processing for an Augmented Reality Application
CN107590860A (zh) * 2017-09-07 2018-01-16 快创科技(大连)有限公司 一种基于ar技术的ar名片数据管理系统
CN108022306A (zh) * 2017-12-30 2018-05-11 华自科技股份有限公司 基于增强现实的场景识别方法、装置、存储介质和设备
CN108337547A (zh) * 2017-11-27 2018-07-27 腾讯科技(深圳)有限公司 一种文字动画实现方法、装置、终端和存储介质
CN109035421A (zh) * 2018-08-29 2018-12-18 百度在线网络技术(北京)有限公司 图像处理方法、装置、设备及存储介质
CN110738737A (zh) * 2019-10-15 2020-01-31 北京市商汤科技开发有限公司 一种ar场景图像处理方法、装置、电子设备及存储介质
WO2020038378A1 (zh) * 2018-08-22 2020-02-27 华为技术有限公司 色度块预测方法及装置
CN110874859A (zh) * 2018-08-30 2020-03-10 三星电子(中国)研发中心 一种生成动画的方法和设备
CN111274910A (zh) * 2020-01-16 2020-06-12 腾讯科技(深圳)有限公司 场景互动方法、装置及电子设备
CN111415422A (zh) * 2020-04-17 2020-07-14 Oppo广东移动通信有限公司 虚拟对象调整方法、装置、存储介质与增强现实设备
CN111476911A (zh) * 2020-04-08 2020-07-31 Oppo广东移动通信有限公司 虚拟影像实现方法、装置、存储介质与终端设备
CN111640193A (zh) * 2020-06-05 2020-09-08 浙江商汤科技开发有限公司 文字处理方法、装置、计算机设备及存储介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103729878A (zh) 2013-12-19 2014-04-16 江苏锐天信息科技有限公司 一种基于wpf的三维图形实现方法及三维文字实现方法
US10146318B2 (en) * 2014-06-13 2018-12-04 Thomas Malzbender Techniques for using gesture recognition to effectuate character selection
US10402211B2 (en) * 2016-10-21 2019-09-03 Inno Stream Technology Co., Ltd. Method for processing innovation-creativity data information, user equipment and cloud server
US10914957B1 (en) * 2017-05-30 2021-02-09 Apple Inc. Video compression methods and apparatus
US10565761B2 (en) * 2017-12-07 2020-02-18 Wayfair Llc Augmented reality z-stack prioritization
US11080330B2 (en) * 2019-02-26 2021-08-03 Adobe Inc. Generation of digital content navigation data

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101075349A (zh) * 2007-06-22 2007-11-21 珠海金山软件股份有限公司 一种在svg中表达演示动画效果的方法
US20170301141A1 (en) * 2012-09-28 2017-10-19 Apple Inc. Method of Image Processing for an Augmented Reality Application
US20170032575A1 (en) * 2015-06-30 2017-02-02 Magic Leap, Inc. Technique for more efficiently displaying text in virtual image generation system
CN107710284A (zh) * 2015-06-30 2018-02-16 奇跃公司 用于在虚拟图像生成系统中更有效地显示文本的技术
CN105184840A (zh) * 2015-07-17 2015-12-23 天脉聚源(北京)科技有限公司 动画显示拼字的方法和装置
CN106100983A (zh) * 2016-08-30 2016-11-09 黄在鑫 一种基于增强现实与gps定位技术的移动社交网络系统
CN107590860A (zh) * 2017-09-07 2018-01-16 快创科技(大连)有限公司 一种基于ar技术的ar名片数据管理系统
CN108337547A (zh) * 2017-11-27 2018-07-27 腾讯科技(深圳)有限公司 一种文字动画实现方法、装置、终端和存储介质
CN108022306A (zh) * 2017-12-30 2018-05-11 华自科技股份有限公司 基于增强现实的场景识别方法、装置、存储介质和设备
WO2020038378A1 (zh) * 2018-08-22 2020-02-27 华为技术有限公司 色度块预测方法及装置
CN109035421A (zh) * 2018-08-29 2018-12-18 百度在线网络技术(北京)有限公司 图像处理方法、装置、设备及存储介质
CN110874859A (zh) * 2018-08-30 2020-03-10 三星电子(中国)研发中心 一种生成动画的方法和设备
CN110738737A (zh) * 2019-10-15 2020-01-31 北京市商汤科技开发有限公司 一种ar场景图像处理方法、装置、电子设备及存储介质
CN111274910A (zh) * 2020-01-16 2020-06-12 腾讯科技(深圳)有限公司 场景互动方法、装置及电子设备
CN111476911A (zh) * 2020-04-08 2020-07-31 Oppo广东移动通信有限公司 虚拟影像实现方法、装置、存储介质与终端设备
CN111415422A (zh) * 2020-04-17 2020-07-14 Oppo广东移动通信有限公司 虚拟对象调整方法、装置、存储介质与增强现实设备
CN111640193A (zh) * 2020-06-05 2020-09-08 浙江商汤科技开发有限公司 文字处理方法、装置、计算机设备及存储介质

Also Published As

Publication number Publication date
JP2023542598A (ja) 2023-10-11
EP4170599A2 (en) 2023-04-26
WO2022055419A3 (zh) 2022-05-05
US11836437B2 (en) 2023-12-05
US20230177253A1 (en) 2023-06-08
EP4170599A4 (en) 2023-08-30
WO2022055419A2 (zh) 2022-03-17

Similar Documents

Publication Publication Date Title
EP4243398A1 (en) Video processing method and apparatus, electronic device, and storage medium
CN112199016B (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
CN110898429B (zh) 一种游戏剧情展现方法、装置、电子设备及存储介质
CN114331820A (zh) 图像处理方法、装置、电子设备及存储介质
CN109600559B (zh) 一种视频特效添加方法、装置、终端设备及存储介质
CN111638791B (zh) 虚拟角色的生成方法、装置、电子设备及存储介质
CN113467603A (zh) 音频处理方法、装置、可读介质及电子设备
CN114677386A (zh) 特效图像处理方法、装置、电子设备及存储介质
CN113806306B (zh) 媒体文件处理方法、装置、设备、可读存储介质及产品
CN112053449A (zh) 基于增强现实的显示方法、设备及存储介质
CN114401443B (zh) 特效视频处理方法、装置、电子设备及存储介质
CN113163135B (zh) 视频的动画添加方法、装置、设备及介质
CN111862349A (zh) 虚拟画笔实现方法、装置和计算机可读存储介质
CN114598823A (zh) 特效视频生成方法、装置、电子设备及存储介质
CN110084306B (zh) 用于生成动态图像的方法和装置
CN109816791B (zh) 用于生成信息的方法和装置
CN113628097A (zh) 图像特效配置方法、图像识别方法、装置及电子设备
CN114697568B (zh) 特效视频确定方法、装置、电子设备及存储介质
CN115734001A (zh) 特效显示方法、装置、电子设备及存储介质
CN115272151A (zh) 图像处理方法、装置、设备及存储介质
CN110807728B (zh) 对象的显示方法、装置、电子设备及计算机可读存储介质
CN112053450A (zh) 文字的显示方法、装置、电子设备及存储介质
CN114339356B (zh) 视频录制方法、装置、设备及存储介质
CN114417204A (zh) 信息生成方法、装置和电子设备
CN117372240A (zh) 特效图像的展示方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination