CN111311713A - 漫画处理方法、显示方法、装置、终端及存储介质 - Google Patents
漫画处理方法、显示方法、装置、终端及存储介质 Download PDFInfo
- Publication number
- CN111311713A CN111311713A CN202010113775.5A CN202010113775A CN111311713A CN 111311713 A CN111311713 A CN 111311713A CN 202010113775 A CN202010113775 A CN 202010113775A CN 111311713 A CN111311713 A CN 111311713A
- Authority
- CN
- China
- Prior art keywords
- cartoon
- picture
- display
- processor
- processing method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 29
- 230000036544 posture Effects 0.000 claims abstract description 93
- 238000000034 method Methods 0.000 claims description 27
- 230000000694 effects Effects 0.000 claims description 26
- 238000012545 processing Methods 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 5
- 230000006870 function Effects 0.000 description 9
- 230000008451 emotion Effects 0.000 description 6
- 230000003068 static effect Effects 0.000 description 6
- 230000002093 peripheral effect Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 206010012289 Dementia Diseases 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008909 emotion recognition Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/205—3D [Three Dimensional] animation driven by audio data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/02—Non-photorealistic rendering
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明涉及多媒体领域,特别涉及一种漫画处理方法、显示方法、装置、终端及存储介质。漫画处理方法,包括:识别漫画图片中的元素;根据所述漫画图片和所述元素在所述漫画图片中的当前显示姿态,生成若干个连续的帧,所述元素在各所述帧中的显示姿态各不相同;根据所述帧,生成所述漫画图片对应的视频文件。采用本发明的实施例,能够将漫画图片转化为动态形象的媒体形式,以提升对于漫画的阅读体验。
Description
技术领域
本发明涉及多媒体领域,特别涉及一种漫画处理方法、显示方法、装置、终端及存储介质。
背景技术
随着移动互联网的成熟和社会文化的发展,基于终端进行阅读逐渐融入到人们的日常生活中,漫画作为阅读内容的一部分也被人们所接受。然而发明人发现相关技术中存在如下问题:人们在阅读漫画时,通常都是直接观看静态的漫画图片,阅读静态的文本台词,阅读方式和阅读体验都十分单调,缺乏吸引力和趣味性。
发明内容
本发明实施例的目的在于提供一种漫画处理方法、显示方法、装置、终端及存储介质,能够将漫画图片转化为动态形象的媒体形式,以提升对于漫画的阅读体验。
为解决上述技术问题,本发明的实施例提供了一种漫画处理方法,包括:识别漫画图片中的元素;根据所述漫画图片和所述元素在所述漫画图片中的当前显示姿态,生成若干个连续的帧,所述元素在各所述帧中的显示姿态各不相同;根据所述帧,生成所述漫画图片对应的视频文件。
本发明的实施例还提供了一种漫画显示方法,应用于终端,终端上显示的漫画图片对应有根据上述漫画处理方法生成的视频文件;所述方法包括:根据捕捉到的视线焦点,获取目标漫画图片;播放所述目标漫画图片对应的视频文件。
本发明的实施例还提供了一种漫画处理装置,包括:至少一个处理器;以及,与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述的漫画处理方法。
本发明的实施例还提供了一种终端,包括:至少一个处理器;以及,与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述的漫画显示方法。
本发明的实施例还提供了一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时实现上述的漫画处理方法,或上述的漫画显示方法。
本发明实施例相对于现有技术而言,识别漫画图片中的元素;根据所述漫画图片和所述元素在所述漫画图片中的当前显示姿态,生成若干个连续的帧,所述元素在各所述帧中的显示姿态各不相同;根据所述帧,生成所述漫画图片对应的视频文件,也就是说将静态的漫画图片转化为了可播放的动态媒体形式,漫画图片中的元素在视频文件中是连续动态变化显示的,因此在播放漫画图片的视频文件时能够提供更为生动形象的阅读体验,以提升漫画图片的吸引力。
另外,所述根据所述漫画图片和所述元素在所述漫画图片中的当前显示姿态,生成若干个连续的帧,包括:获取所述元素的原始显示姿态;根据所述漫画图片,所述元素的原始显示姿态和当前显示姿态,生成若干个连续的帧,其中,所述元素在所述连续的帧中的显示姿态由所述原始显示姿态变化为所述当前显示姿态。可以理解的是,在播放连续的帧时,元素是从原始显示姿态动态变化到当前显示姿态的,这样以动态形象显示的元素使得漫画图片更为生动形象。
另外,所述获取所述元素的原始显示姿态,包括:从与所述漫画图片关联的漫画图片中,获取所述元素的所有显示姿态;根据预设的姿态识别模型,从所述所有显示姿态中确定目标显示姿态;根据所述当前显示姿态,调整所述目标显示姿态,并将调整后的所述目标显示姿态作为所述原始显示姿态。可以理解的是,对目标显示姿态进行调整使其与当前显示姿态的显示范围等较为相似,从而元素在从原始显示姿态动态变化到当前显示姿态的过程中,产生的变化更为自然逼真,从而使得视频文件更为生动形象。
另外,如果从所述漫画图片中识别出文本,则所述生成所述漫画图片对应的视频文件,包括:根据所述文本和预设的声音信息,生成音频文件;根据所述帧和所述音频文件,生成所述漫画图片对应的视频文件。也就是说,最终生成的视频文件属于有声视频,使得对于漫画图片的展现更为丰富生动。
另外,如果获取到所述元素在所述帧中的嘴部图像,则在生成所述漫画图片对应的视频文件前,还包括:根据所述文本,对所述元素在各所述帧中的嘴部图像进行变形处理。可以理解的是,各帧中的嘴部图像进行变形处理后是符合文本对应的发音嘴型的,从而在播放由连续的帧组成的、漫画图片对应的视频文件时,元素的嘴部会连续变化,营造出正在说话的效果,使得漫画图片更为生动逼真。
另外,在生成所述漫画图片对应的视频文件前,还包括:获取所述文本中的关键词;根据预设的关键词和特效信息的对应关系,查询所述关键词对应的特效信息,并将查询到的特效信息添加至所述帧中。可以理解的是,根据文本台词中的关键词来添加特效信息,使得帧所展现的画面,也就是生成的漫画图片对应的视频文件的画面更加丰富。
附图说明
一个或多个实施例通过与之对应的附图中的图片进行示例性说明,这些示例性说明并不构成对实施例的限定。
图1是根据本发明第一实施例中漫画处理方法的流程图;
图2是根据本发明第一实施例中漫画图片示意图;
图3是根据本发明第一实施例中步骤102的具体实现方式的流程图;
图4是根据本发明第一实施例中桌子的显示姿态示意图;
图5是根据本发明第二实施例中漫画处理方法的流程图;
图6是根据本发明第二实施例中男角色的嘴部图像示意图;
图7是根据本发明第三实施例中漫画显示方法的流程图;
图8是根据本发明第三实施例中漫画分镜示意图;
图9是根据本发明第四实施例中漫画处理装置的结构方框图;
图10是根据本发明第五实施例中终端的结构方框图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的各实施方式进行详细的阐述。然而,本领域的普通技术人员可以理解,在本发明各实施方式中,为了使读者更好地理解本申请而提出了许多技术细节。但是,即使没有这些技术细节和基于以下各实施方式的种种变化和修改,也可以实现本申请所要求保护的技术方案。
本发明的第一实施例涉及一种漫画处理方法,其具体流程如图1所示,包括:
步骤101,识别漫画图片中的元素;
步骤102,根据漫画图片和元素在漫画图片中的当前显示姿态,生成若干个连续的帧;
步骤103,根据帧,生成漫画图片对应的视频文件。
对本实施例的漫画处理方法的实现细节进行具体的说明,以下内容仅为方便理解提供的细节,并非实施本方案的必须。
在步骤101中,漫画处理装置识别漫画图片中的元素,具体可以通过对人或对物的图像识别技术实现。在实例中,对如图2中的2a所示的漫画图片进行识别,其中包括三个人物元素:桌子、左下角的女角色和右侧的男角色;例如,识别得到的元素“桌子”如图2中的2b所示。
在步骤102中,漫画处理装置根据漫画图片和元素在漫画图片中的显示姿态,生成若干个连续的帧,元素在各帧中的显示姿态各不相同。本实施例中提供了一种步骤102的具体实现方式,如图3所示,包括以下步骤。
步骤1021,获取元素的原始显示姿态。
具体地说,元素的原始显示姿态可以理解为元素在自然状态下的显示姿态,例如“桌子”在自然状态下是水平放置,“角色”在自然状态下是立正站立等。本实施例中,元素的原始显示姿态可以通过以下流程获取得到。
(1)从与漫画图片关联的漫画图片中,获取元素的所有显示姿态;
具体地说,通常观看的一部漫画作品中是包括许多副漫画图片的,那么与漫画图片关联的漫画图片就可以理解为同一部漫画作品中的其他漫画图片;因此在同一部漫画作品中的其他漫画图片中,对步骤101中识别得到的元素进行识别,并获取识别得到的元素的不同的显示姿态。在实例中,识别得到元素“桌子”的当前显示姿态为“90°直立”,从同一部漫画作品的其他漫画图片中识别元素“桌子”,并获取到“桌子”在其他漫画图片中的显示姿态包括“45°直立”、“水平”等。可以理解的是,如果元素并未在关联的漫画图片中出现,那么元素的所有显示姿态就是元素在漫画图片中的当前显示姿态。
(2)根据预设的姿态识别模型,从所有显示姿态中确定目标显示姿态;
具体地说,将元素的所有显示姿态输入预设的姿态识别模型,输出得到一个确定的目标显示姿态。本实施例中,预设的姿态识别模型是根据已经标注好显示姿态的人物图像样本,对图像识别模型训练得到的,例如,提供一组关于“桌子”的样本作为输入,输入包括显示姿态为“水平”的桌子、显示姿态为“直立”的桌子等;由于桌子在自然状态下通常是水平放置,因此标记显示姿态为“水平”的桌子作为输出,对图像识别模型进行训练;又例如,提供一组关于“人物”的样本作为输入,输入包括显示姿态为“立正站立”的人物、显示姿态为“坐下”的人物、显示姿态为“侧身”的人物等;由于人物在自然状态下通常是立正站立,因此标记显示姿态为“立正站立”的人物作为输出,对图像识别模型进行训练。可以理解的是,提供的训练样本尽可能多的覆盖人或物,以使得模型能够从识别出元素。
(3)根据当前显示姿态,调整目标显示姿态,并将调整后的目标显示姿态作为原始显示姿态。
具体地说,漫画图片中的元素并不一定是完整地显示在漫画图片中的,因此根据元素的当前显示姿态,调整目标显示姿态,使其与当前显示姿态的显示范围较为相似后,作为原始显示姿态,从而元素在从原始显示姿态动态变化到当前显示姿态的过程中,产生的变化更为自然逼真。在实例中,元素“女角色”的当前显示姿态仅显示了上半身,则调整“女角色”的目标显示姿态,使其也只显示上半身,将只显示上半身的目标显示姿态作为原始显示姿态。
步骤1022,根据漫画图片,元素的原始显示姿态和当前显示姿态,生成若干个连续的帧,其中,元素在连续的帧中的显示姿态由原始显示姿态变化为当前显示姿态。
具体地说,除了从漫画图片中识别出的元素,漫画图片可能还包括文本、背景等其他内容,在生成连续的帧的时候,可以保持漫画图片的文本、背景等其他内容不变,改变的是元素在帧中的显示姿态,这样在播放连续的帧的时候呈现出来的画面就是,漫画图片中的元素在动态变化。
更具体地说,令元素在连续的帧中的显示姿态由原始显示姿态变化为当前显示姿态,也就是在连续的帧的首帧中,元素以原始显示姿态显示,在末帧中,元素以当前显示姿态显示,在首帧和末帧之间的中间帧中,元素的显示姿态逐渐变化;中间帧可以通过例如spine软件、flash软件等动画软件的补间功能自动生成,例如,在软件中设置首帧和末帧为关键帧,那么中间帧会根据首帧中元素的显示姿态和末帧中的显示姿态自动计算生成。生成的连续的帧中,元素是从原始显示姿态动态变化到当前显示姿态的,这样以动态形象显示的元素使得漫画图片更为生动形象。
另外,由于漫画图片是静态的平面图片,从漫画图片中识别出来的元素可能由于被其他元素遮挡而并不完整,这种情况下也可以通过图像处理软件的内容识别、填充等功能自动补全元素残缺的部分。
在实例中,漫画图片中的元素“桌子”的当前显示姿态为图4中的4a所示(可以看出显示姿态为“90°直立”),“桌子”的原始显示姿态为图4中的4c所示(可以看出显示姿态为“水平”),生成的中间帧之一例如图4中的4b所示(可以看出显示姿态为“45°直立”)。同样可以理解的是,元素“男角色”的当前显示姿态如图2中的2a可知,“男角色”的原始显示姿态可以为“立正站立”,生成的中间帧标识“男角色”的显示姿态由“立正站立”逐渐动态变化为“”
在步骤103中,漫画处理装置根据连续的帧,生成漫画图片对应的视频文件。可以理解的是,连续的帧是一组有序排列的帧图片,按照首帧到末帧的顺序播放连续的帧,生成的就是动态的视频文件。仍以步骤1022中的元素“桌子”为例,生成的视频文件中,“桌子”从4c所示的原始姿态逐渐动态变化为4a所示的当前显示姿态;可以理解的是,“男角色”也可以从原始显示姿态“立正站立”逐渐动态变化为图2中2a所示的当前显示状态,结合图2的漫画图片可知,视频文件呈现出了“桌子”被“男角色”掀起的动态效果。
本实施例相对于现有技术而言,识别漫画图片中的元素;根据漫画图片和元素在漫画图片中的当前显示姿态,生成若干个连续的帧,元素在各帧中的显示姿态各不相同;根据帧,生成漫画图片对应的视频文件,也就是说将静态的漫画图片转化为了可播放的动态媒体形式,漫画图片中的元素在视频文件中是连续动态变化显示的,因此在播放漫画图片的视频文件时能够提供更为生动形象的阅读体验,以提升漫画图片的吸引力。
本发明第二实施例涉及一种漫画处理方法,本实施例与第一实施例大致相同,区别之处在于,如果从漫画图片中识别出文本,则在生成视频文件的过程中添加更多画面效果。本实施例中的漫画处理方法的具体流程如图5所示,下面进行说明。
步骤201,识别漫画图片中的元素和文本。
具体地说,漫画处理装置识别漫画图片中的文本,也就是漫画图片中的台词、旁白、拟声词等等文字内容,具体可以通过例如OCR等图像识别技术实现。在实例中,有一漫画图片如图2中的2a所示,识别的到其中的文本包括:“骗谁啊,白痴!”和“呜啊!”。
步骤202,根据漫画图片和元素在漫画图片中的当前显示姿态,生成若干个连续的帧。此步骤与步骤102大致相同,此处不再赘述。
步骤203,如果获取到元素在帧中的嘴部图像,则根据文本,对元素在各帧中的嘴部图像进行变形处理。
具体地说,如果元素为一个能够说话的角色,且对应有台词时,通常情况下元素是具有用来说出台词的“嘴部”的,因此如果获取到元素在帧中的嘴部图像,则可以根据识别得到的文本,也就是元素的台词,对元素在各帧中的嘴部图像进行变形处理,即各帧中的嘴部图像进行变形处理后是符合文本对应的发音嘴型的,从而在播放由连续的帧组成的视频文件时,元素的嘴部会连续变化,营造出正在说话的效果,使得漫画图片更为生动逼真。
在实例中,图2中的2a所示的漫画图片中,右侧的男角色为一个人物元素,获取到男角色的嘴部图像如图6中6a所示,也就是男角色在各帧中的嘴部图像都如图6中的6a所示;根据男角色的台词“骗谁啊,白痴!”,依次获取每一个文字对应的发音嘴型,根据每一个文字对应的发音嘴型,将男角色在各帧中的嘴部图像进行变形处理,得到各帧中的嘴部图像,可例如图6中6b和6c所示(6b和6c仅为举例,并未对所有变形处理后的帧进行枚举),从而在播放由连续的帧组成的视频文件时,可以观看到男角色的嘴部连续变化,例如从6a变化至6c。
步骤204,获取文本中的关键词,根据预设的关键词和特效信息的对应关系,查询关键词对应的特效信息,并将查询到的特效信息添加至帧中。
具体地说,预设的关键词对应有特效信息,特效信息用于丰富关键词的表现力,可以理解为静态图像或动态图像等等,例如生气意义的关键词对应“火焰图像”,喜欢意义的关键词对应“心形图像”,惊讶意义的关键词对应“感叹号图像”等等;将查询到的特效信息添加到帧中,也就是将特效信息叠加在每一帧的漫画图片上。在实例中,获取到文本“骗谁啊,白痴!”中的关键词为“白痴”,查询得到关键词“白痴”对应的特效信息为“火焰图像”,将“火焰图像”叠加到各帧中男角色的头部位置,以表现男角色正在生气,使得画面更加丰富。在另一实例中,获取到文本中的关键词为“下雨”,查询得到关键词“下雨”对应的特效信息为“雨滴图像”,将“雨滴图像”叠加到各帧中的漫画图像中去。
更具体地说,也可以通过情绪识别模型,对文本对应的情绪进行识别,根据预设的情绪和特效信息的对应关系,查询情绪对应的特效信息,并将查询到的特效信息添加至帧中。在实例中,通过情绪识别模型识别得到文本“骗谁啊,白痴!”对应的情绪为“生气”,查询得到情绪“生气”对应的特效信息为“火焰图像”,并将“火焰图像”添加至帧中。
步骤205,根据文本和预设的声音信息,生成音频文件。
具体地说,预设的声音信息可以理解为预设的多种声音样本,根据声音样本制作的声音数据库可以用来合成新的声音;在实例中,可通过例如vocaloid等合成器应用程序来合成新的声音,应用程序内置有预设的声音信息;也就是说,将文本输入合成器,得到合成器生成的音频文件,其内容包括通过预设的声音信息朗读文本的音频。
预设的声音信息可以通过以下几种方式获取得到:一种情况下,当漫画图片所属的一部漫画作品已经被制作为动画时,可将为动画进行配音的配音演员们的声音信息,作为预设的声音信息;例如,当漫画图片中的角色A在动画中是由配音演员A进行配音时,将配音演员A的声音信息作为预设的声音信息;可以理解的是,如果识别得到的文本在动画中已经被配音,可以直接获取现有的配音音频,作为音频文件的一部分。另一种情况下,根据观看漫画图片的用户喜好,选择预设的配音演员的声音信息作为预设的声音信息,其中,用户喜好可以包括用户喜好的配音演员、用户喜好的声音类型、用户喜欢的动画人物等等,用户喜好可以通过提供喜好调查问卷等形式供采集得到,此处不再赘述。
在实例中,有一漫画图片如图2中的2a所示,识别的到其中的文本包括:男角色的台词“骗谁啊,白痴!”和女角色的台词“呜啊!”;根据预设的声音信息,生成音频文件,其内容包括:通过预设的声音信息A朗读台词“骗谁啊,白痴!”的音频,和通过预设的声音信息B朗读台词“呜啊!”的音频。另外,由于预设的声音信息可以通过多种方式获取得到,因此在生成音频文件时,可以采用不同的声音信息生成多个音频文件,这样可以为用户提供多种丰富的选择。
需要说明的是,步骤203至步骤205互不影响,并无严格的先后执行顺序,也可同时执行。
步骤206,根据帧和音频文件,生成漫画图片对应的视频文件。可以理解的是,按照起始帧到结束帧的顺序播放连续的帧,并同步播放音频文件,二者结合生成的就是具有音频的动态的视频文件。
本实施例相对于现有技术而言,在从漫画图片中识别出文本时,根据文本生成音频文件,使得最终生成的视频文件属于有声视频;还根据文本的发音嘴型对元素的嘴部图像进行逐帧的变形处理,使得在播放视频文件时营造出元素正在说话的效果,还根据文本中的关键词为各帧添加特效信息,综上使得对于漫画图片的展现更为丰富生动,进一步提升了用户观看漫画的体验感受。
本发明第三实施例涉及一种漫画显示方法,应用于终端,终端上显示的漫画图片对应有根据上述漫画处理方法生成的视频文件。本实施例中的漫画显示方法的具体流程如图7所示,下面进行说明。
本实施例中的终端通常可以理解为智能手机、智能平板等智能移动设备;本实施例中的终端具有例如前置摄像头的摄像功能,通过摄像功能,能够在用户通过终端观看漫画图片时拍摄用户的面部图像、并结合视线追踪技术捕捉用户落在终端上的视线焦点。
步骤301,根据捕捉到的视线焦点,获取目标漫画图片。
具体地说,根据摄像功能捕捉到的视线焦点可以确定用户当前正在观看的内容;通常情况下,一张漫画图片是由若干格分镜图片组成的,如图8所示的漫画分镜示意图,共有6格分镜图片组成了一张完整的漫画图片,每格分镜图片都可以视作一个目标漫画图片。在实例中,如果捕捉到用户的视线焦点落在图8中的标号1处,则将标号为1的分镜图片作为目标漫画图片。
步骤302,播放目标漫画图片对应的视频文件。
具体地说,本实例中终端上显示的漫画图片,对应有根据上述实施例中的漫画处理方法生成的视频文件,从而在确定目标漫画图片后,播放目标漫画图片对应的视频文件即可。在实例中,首先检测到用户的视线焦点落在图8中的标号1处,则播放标号1的漫画图片对应的视频文件;随后检测到用户的视线焦点落在图8中的标号2处,则播放标号2的漫画图片对应的视频文件,等。
可以理解的是,漫画图片对应的视频文件可以存储在云端,例如为每一张漫画图片和其对应的视频文件建立唯一标识信息,进行存储;终端在需要播放视频文件时从云端下载视频文件,或是预先下载好所有的视频文件,进行播放;终端并可将视频文件存储在本地,以供下一次再次观看同样的漫画图片时可直接从本地提供其对应的视频文件。
另外,由上述实施例可知,可以采用不同的声音信息生成多个音频文件,也就是可以生成多个视频文件,每个视频文件的音频均不相同;因此在为用户播放视频文件时,可以将多个视频文件提供给用户进行选择,从而能够满足用户个性化的需求,贴合用户的喜好。
本实施例相对于现有技术而言,终端根据捕捉到的视线焦点来播放漫画图片对应的视频文件,也就是能够在不影响正常阅读的前提下,有针对性地为用户正在观看的漫画图片提供有序地动态阅读体验。
发明第四实施例涉及一种漫画处理装置,如图9所示,包括:至少一个处理器401;以及,与至少一个处理器401通信连接的存储器402;其中,存储器402存储有可被至少一个处理器401执行的指令,指令被至少一个处理器401执行,以使至少一个处理器401能够执行上述的漫画处理方法。
其中,存储器402和处理器401采用总线方式连接,总线可以包括任意数量的互联的总线和桥,总线将一个或多个处理器401和存储器402的各种电路连接在一起。总线还可以将诸如外围设备、稳压器和功率管理电路等之类的各种其他电路连接在一起,这些都是本领域所公知的,因此,本文不再对其进行进一步描述。总线接口在总线和收发机之间提供接口。收发机可以是一个元件,也可以是多个元件,比如多个接收器和发送器,提供用于在传输介质上与各种其他装置通信的单元。经处理器401处理的数据通过天线在无线介质上进行传输,进一步,天线还接收数据并将数据传送给处理器401。
处理器401负责管理总线和通常的处理,还可以提供各种功能,包括定时,外围接口,电压调节、电源管理以及其他控制功能。而存储器402可以被用于存储处理器401在执行操作时所使用的数据。
本发明第五实施例涉及一种终端,如图10所示,包括:至少一个处理器501;以及,与至少一个处理器501通信连接的存储器502;其中,存储器502存储有可被至少一个处理器501执行的指令,指令被至少一个处理器501执行,以使至少一个处理器501能够执行上述的漫画显示方法。
其中,存储器502和处理器501采用总线方式连接,总线可以包括任意数量的互联的总线和桥,总线将一个或多个处理器501和存储器502的各种电路连接在一起。总线还可以将诸如外围设备、稳压器和功率管理电路等之类的各种其他电路连接在一起,这些都是本领域所公知的,因此,本文不再对其进行进一步描述。总线接口在总线和收发机之间提供接口。收发机可以是一个元件,也可以是多个元件,比如多个接收器和发送器,提供用于在传输介质上与各种其他装置通信的单元。经处理器501处理的数据通过天线在无线介质上进行传输,进一步,天线还接收数据并将数据传送给处理器501。
处理器501负责管理总线和通常的处理,还可以提供各种功能,包括定时,外围接口,电压调节、电源管理以及其他控制功能。而存储器502可以被用于存储处理器501在执行操作时所使用的数据。
本发明第六实施例涉及一种计算机可读存储介质,存储有计算机程序。计算机程序被处理器执行时实现上述漫画处理方法实施例或漫画显示方法实施例。
即,本领域技术人员可以理解,实现上述实施例方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序存储在一个存储介质中,包括若干指令用以使得一个装置(可以是单片机,芯片等)或处理器(processor)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本领域的普通技术人员可以理解,上述各实施方式是实现本发明的具体实施例,而在实际应用中,可以在形式上和细节上对其作各种改变,而不偏离本发明的精神和范围。
Claims (10)
1.一种漫画处理方法,其特征在于,包括:
识别漫画图片中的元素;
根据所述漫画图片和所述元素在所述漫画图片中的当前显示姿态,生成若干个连续的帧,所述元素在各所述帧中的显示姿态各不相同;
根据所述帧,生成所述漫画图片对应的视频文件。
2.根据权利要求1所述的漫画处理方法,其特征在于,所述根据所述漫画图片和所述元素在所述漫画图片中的当前显示姿态,生成若干个连续的帧,包括:
获取所述元素的原始显示姿态;
根据所述漫画图片,所述元素的原始显示姿态和当前显示姿态,生成若干个连续的帧,其中,所述元素在所述连续的帧中的显示姿态由所述原始显示姿态变化为所述当前显示姿态。
3.根据权利要求2所述的漫画处理方法,其特征在于,所述获取所述元素的原始显示姿态,包括:
从与所述漫画图片关联的漫画图片中,获取所述元素的所有显示姿态;
根据预设的姿态识别模型,从所述所有显示姿态中确定目标显示姿态;
根据所述当前显示姿态,调整所述目标显示姿态,并将调整后的所述目标显示姿态作为所述原始显示姿态。
4.根据权利要求1所述的漫画处理方法,其特征在于,如果从所述漫画图片中识别出文本,则所述生成所述漫画图片对应的视频文件,包括:
根据所述文本和预设的声音信息,生成音频文件;
根据所述帧和所述音频文件,生成所述漫画图片对应的视频文件。
5.根据权利要求4所述的漫画处理方法,其特征在于,如果获取到所述元素在所述帧中的嘴部图像,则在生成所述漫画图片对应的视频文件前,还包括:
根据所述文本,对所述元素在各所述帧中的嘴部图像进行变形处理。
6.根据权利要求4所述的漫画处理方法,其特征在于,在生成所述漫画图片对应的视频文件前,还包括:
获取所述文本中的关键词;
根据预设的关键词和特效信息的对应关系,查询所述关键词对应的特效信息,并将查询到的特效信息添加至所述帧中。
7.一种漫画显示方法,其特征在于,应用于终端,所述终端上显示的漫画图片对应有根据权利要求1—6所述的漫画处理方法生成的视频文件;所述方法包括:
根据捕捉到的视线焦点,获取目标漫画图片;
播放所述目标漫画图片对应的视频文件。
8.一种漫画处理装置,其特征在于,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至6中任一项所述的漫画处理方法。
9.一种终端,其特征在于,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求7所述的漫画显示方法。
10.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6中任一项所述的漫画处理方法,或权利要求7所述的漫画显示方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010113775.5A CN111311713A (zh) | 2020-02-24 | 2020-02-24 | 漫画处理方法、显示方法、装置、终端及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010113775.5A CN111311713A (zh) | 2020-02-24 | 2020-02-24 | 漫画处理方法、显示方法、装置、终端及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111311713A true CN111311713A (zh) | 2020-06-19 |
Family
ID=71145600
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010113775.5A Pending CN111311713A (zh) | 2020-02-24 | 2020-02-24 | 漫画处理方法、显示方法、装置、终端及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111311713A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111899154A (zh) * | 2020-06-24 | 2020-11-06 | 广州梦映动漫网络科技有限公司 | 漫画视频生成方法及漫画生成方法、装置、设备、介质 |
CN114928755A (zh) * | 2022-05-10 | 2022-08-19 | 咪咕文化科技有限公司 | 一种视频制作方法、电子设备及计算机可读存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102572217A (zh) * | 2011-12-29 | 2012-07-11 | 华为技术有限公司 | 基于视觉关注的多媒体处理方法及装置 |
CN104992462A (zh) * | 2015-07-20 | 2015-10-21 | 网易(杭州)网络有限公司 | 一种动画播放方法、装置及终端 |
CN108320319A (zh) * | 2018-02-02 | 2018-07-24 | 广东蜂助手网络技术股份有限公司 | 一种漫画合成方法、装置、设备及计算机可读存储介质 |
CN109493888A (zh) * | 2018-10-26 | 2019-03-19 | 腾讯科技(武汉)有限公司 | 漫画配音方法及装置、计算机可读存储介质、电子设备 |
CN110197123A (zh) * | 2019-04-26 | 2019-09-03 | 昆明理工大学 | 一种基于Mask R-CNN的人体姿态识别方法 |
-
2020
- 2020-02-24 CN CN202010113775.5A patent/CN111311713A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102572217A (zh) * | 2011-12-29 | 2012-07-11 | 华为技术有限公司 | 基于视觉关注的多媒体处理方法及装置 |
CN104992462A (zh) * | 2015-07-20 | 2015-10-21 | 网易(杭州)网络有限公司 | 一种动画播放方法、装置及终端 |
CN108320319A (zh) * | 2018-02-02 | 2018-07-24 | 广东蜂助手网络技术股份有限公司 | 一种漫画合成方法、装置、设备及计算机可读存储介质 |
CN109493888A (zh) * | 2018-10-26 | 2019-03-19 | 腾讯科技(武汉)有限公司 | 漫画配音方法及装置、计算机可读存储介质、电子设备 |
CN110197123A (zh) * | 2019-04-26 | 2019-09-03 | 昆明理工大学 | 一种基于Mask R-CNN的人体姿态识别方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111899154A (zh) * | 2020-06-24 | 2020-11-06 | 广州梦映动漫网络科技有限公司 | 漫画视频生成方法及漫画生成方法、装置、设备、介质 |
CN114928755A (zh) * | 2022-05-10 | 2022-08-19 | 咪咕文化科技有限公司 | 一种视频制作方法、电子设备及计算机可读存储介质 |
CN114928755B (zh) * | 2022-05-10 | 2023-10-20 | 咪咕文化科技有限公司 | 一种视频制作方法、电子设备及计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110941954B (zh) | 文本播报方法、装置、电子设备及存储介质 | |
CN112162628A (zh) | 基于虚拟角色的多模态交互方法、装置及系统、存储介质、终端 | |
US11847726B2 (en) | Method for outputting blend shape value, storage medium, and electronic device | |
US11482134B2 (en) | Method, apparatus, and terminal for providing sign language video reflecting appearance of conversation partner | |
JP6656447B1 (ja) | 動画出力システム | |
KR102193029B1 (ko) | 디스플레이 장치 및 그의 화상 통화 수행 방법 | |
KR20170034409A (ko) | 안면 구조에 기초한 음성 합성 방법 및 장치 | |
CN107403011B (zh) | 虚拟现实环境语言学习实现方法和自动录音控制方法 | |
CN103348338A (zh) | 文件格式、服务器、数字漫画的观看器设备、数字漫画产生设备 | |
CN112188304A (zh) | 视频生成方法、装置、终端及存储介质 | |
CN110162598B (zh) | 一种数据处理方法和装置、一种用于数据处理的装置 | |
KR102174922B1 (ko) | 사용자의 감정 또는 의도를 반영한 대화형 수어-음성 번역 장치 및 음성-수어 번역 장치 | |
JP6783479B1 (ja) | 動画生成プログラム、動画生成装置及び動画生成方法 | |
US9525841B2 (en) | Imaging device for associating image data with shooting condition information | |
CN114401431A (zh) | 一种虚拟人讲解视频生成方法及相关装置 | |
CN111311713A (zh) | 漫画处理方法、显示方法、装置、终端及存储介质 | |
CN113822187B (zh) | 手语翻译、客服、通信方法、设备和可读介质 | |
US10923106B2 (en) | Method for audio synthesis adapted to video characteristics | |
CN110910898B (zh) | 一种语音信息处理的方法和装置 | |
CN111160051B (zh) | 数据处理方法、装置、电子设备及存储介质 | |
CN104270501B (zh) | 一种通讯录中联系人的头像设置方法和相关装置 | |
CN113851029A (zh) | 一种无障碍通信方法和装置 | |
CN113259778A (zh) | 将虚拟人物用于视频自动生产的方法、系统和存储介质 | |
CN117689752A (zh) | 文学作品插图生成方法、装置、设备及存储介质 | |
CN113314104A (zh) | 交互对象驱动和音素处理方法、装置、设备以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200619 |
|
RJ01 | Rejection of invention patent application after publication |