WO2009076876A1 - 卡通形象的生成、嵌入方法及系统 - Google Patents

卡通形象的生成、嵌入方法及系统 Download PDF

Info

Publication number
WO2009076876A1
WO2009076876A1 PCT/CN2008/073381 CN2008073381W WO2009076876A1 WO 2009076876 A1 WO2009076876 A1 WO 2009076876A1 CN 2008073381 W CN2008073381 W CN 2008073381W WO 2009076876 A1 WO2009076876 A1 WO 2009076876A1
Authority
WO
WIPO (PCT)
Prior art keywords
cartoon image
feature
network
image
network cartoon
Prior art date
Application number
PCT/CN2008/073381
Other languages
English (en)
French (fr)
Inventor
Jianyu Wang
Liang Wang
Original Assignee
Tencent Technology (Shenzhen) Company Limited
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology (Shenzhen) Company Limited filed Critical Tencent Technology (Shenzhen) Company Limited
Publication of WO2009076876A1 publication Critical patent/WO2009076876A1/zh

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation

Definitions

  • the invention belongs to the technical field of image processing, and particularly relates to a method for generating and embedding a cartoon image and a system. Background of the invention
  • the cartoon image is a technology developed in the network in recent years. It can reflect the user's individuality and display user's creativity. It has gradually become a fashion for netizens and is very popular among netizens. At present, most of the network cartoon characters are developed by network content providers, and users can choose. This method is inexpensive and can be used as a value-added part of network services for users to use for free. However, as the number of network users increases, the network cartoon image that can be provided to the user is limited. Therefore, it is difficult to satisfy the user's personalized demand for the network cartoon image. It is necessary to provide a method or system for automatically generating a network cartoon image to meet the individual needs of the user.
  • a non-parametric sampling algorithm is used to model the complex statistical mapping relationship between the original photo and the network cartoon image, so as to generate a personalized network cartoon image for the original photo according to the mapping obtained by the learning.
  • the shortcoming of this method is that, because it uses line segments as geometric comparison and generating primitives, and the original photos have strict correspondence with the network cartoon image, the generated network cartoon image styles are limited, relatively rigid, and difficult to generate.
  • the network cartoon image is modified.
  • the generated network cartoon image is the Graphics Interchange Format (GIF), which cannot be integrated with other services, so it can not bring a better user experience.
  • GIF Graphics Interchange Format
  • Embodiments of the present invention provide a method and system for generating and embedding a cartoon image, which can Generate a variety of styles of online cartoon characters to meet the individual needs of users.
  • An embodiment of the present invention provides a method for generating a cartoon image, the method comprising the steps of: sampling a picture marked with a feature component, and acquiring relative position information of the feature component constituting the network cartoon image;
  • the acquired feature parts are placed at corresponding positions to generate a network cartoon image.
  • a feature component acquiring module configured to sample the stored feature component sets, and obtain each feature component required to generate a network cartoon image
  • the network cartoon image generating module is configured to: according to the relative position information of the feature component, place the acquired feature components in corresponding positions to generate a network cartoon image.
  • Another embodiment of the present invention provides a method for embedding a cartoon image, the method comprising the following steps:
  • Marking the dynamic work obtaining the annotation information of the cartoon image in the dynamic work; generating the network cartoon image according to the annotation information of the cartoon image in the dynamic work; replacing the generated network cartoon image with the marked dynamic work Cartoon image.
  • Network cartoon image generation unit used to mark the cartoon image in the dynamic work Interest, generate a network cartoon image
  • An embedding module that replaces the generated cartoon image with the cartoon image in the annotated dynamic work.
  • the relative position information of the feature component constituting the network cartoon image is obtained, and the stored feature component set is randomly and uniformly sampled to obtain the feature component for generating the network cartoon image.
  • the relative position information of the obtained feature parts are placed in corresponding positions, so that a variety of styles of network cartoon characters can be generated to meet the personalized needs of the user.
  • FIG. 1 is a flowchart of a method for generating a network cartoon image according to an embodiment of the present invention.
  • FIG. 2 is an effect diagram of the featured components constituting the network cartoon image provided by the embodiment of the present invention.
  • FIG. 3 is a flowchart of a method for embedding a network cartoon image according to an embodiment of the present invention.
  • FIG. 4 is a schematic structural diagram of a system for generating a network cartoon image according to an embodiment of the present invention.
  • FIG. 5 is a schematic structural diagram of an embedded system of a network cartoon image according to an embodiment of the present invention. Mode for carrying out the invention
  • the relative position information of the feature component constituting the network cartoon image is obtained, and the stored feature component set is randomly sampled, and each required for generating the network cartoon image is obtained.
  • Characteristic component according to the obtained
  • the relative position information of the feature components constituting the network cartoon image places the obtained feature components in corresponding positions, thereby generating a network cartoon image.
  • the random sampling of the stored feature set can be randomly sampled, that is, the probability that the feature components in the feature set are sampled is the same.
  • Non-uniform sampling may be used when randomly sampling the stored feature set, that is, the probability that the feature parts in the feature set are sampled may be different. For example, suppose the feature set includes 10 feature parts.
  • the probability that each feature part is sampled is 1/10. If non-uniform sampling is used, the probability that the feature parts satisfying certain conditions are sampled is high. For other feature parts, the probability of sampling among the 10 feature parts is different at this time, and the probability that the qualified feature parts are sampled is higher than other feature parts.
  • FIG. 1 is a flowchart showing an implementation process of a method for generating a network cartoon image according to an embodiment of the present invention. As shown in FIG. 1, the method is as follows:
  • step S101 the relative position information of the feature components constituting the network cartoon image is obtained by sampling the picture marked with the feature component.
  • the features that make up the network cartoon image refer to the various components that make up the network cartoon image.
  • Features include, but are not limited to, eyes, eyebrows, nose, mouth, ears, and face porches.
  • the relative position information of the feature parts of the network cartoon image refers to the layout of the various feature parts constituting the network cartoon image. Relative placements such as eyes, eyebrows, nose, mouth, ears, etc. in the face of the web cartoon image of the face.
  • the relative position information of the feature parts of the network cartoon image is referred to as p gl . Bal .
  • T t ⁇ P gl .
  • bal J /j l,...,M ⁇ , where M is the number of image samples.
  • the picture can be true collected by the user. Real photos and so on.
  • the feature component when the feature is marked on the picture, the feature component may be manually labeled. As shown in FIG. 2, two points are respectively marked on the left and right sides of the left eye component in the picture to indicate the width wl of the left eye. The remaining features are labeled the same way. You can also use the professional annotation software to mark the features of the image, or use the image processing technology to mark the features of the image.
  • the picture after the feature is marked is shown in Figure 2. Sampling the picture after the feature part is marked, and obtaining the relative position information set T t of the feature part of the network cartoon image
  • B Perform analysis and statistics and Gaussian fitting on the relative position information set of the feature parts of the obtained network cartoon image, and obtain the Gaussian distribution of the relative position information set of the feature parts of the network cartoon image, which is represented by G (T t ) to ensure
  • G (T t ) the Gaussian distribution of the relative position information set of the feature parts of the network cartoon image.
  • the relative position of the feature components conforms to the positional relationship of the feature components constituting the network cartoon image. For example: Make sure the nose is above the mouth, the eyes are on both sides of the nose, and the ears are on either side of the face gallery.
  • step S102 the stored feature set is randomly and uniformly sampled to obtain a combination of feature components required to generate a network cartoon image.
  • the stored set of features comprises an eye component set K eye eyebrow component set K eyeb nose component set K n . Se , mouth parts collection K m . Uth , ear part collection K ear and face contour part set K ⁇ nt . Ur .
  • a specific sample of a plurality of corresponding components is stored in each feature set.
  • the eye component set K eye it stores a variety of eye parts of different shapes and sizes.
  • the other 'J pairs K eye K eyebrow K nose K mouth K ear and K contoU r are randomly sampled, select one feature from each feature set, and combine the selected features into a network cartoon image.
  • ci represents a specific feature in each feature set, such as cl for a particular eye component in K eye , c2 for a particular eyebrow component in K eyeb , and c3 for K n .
  • se a specific member of the nose c4 represents K m.
  • c5 represents a specific ear part in K ear
  • c6 represents a specific face contour part in K contour .
  • a set of controllable adjustable parameters for controlling the dimensions, angles, and positions of the respective features are included.
  • it includes a set of controllable adjustable parameters for controlling the scale (w), angle (e) and position (h) of the corresponding feature component; for example; :
  • the user can modify the controllable and adjustable parameters included in each feature component to better meet the user's perception requirements or personalized requirements for the network cartoon image.
  • step S101 and step S102 can be mutually changed, and the execution order of the switch does not affect the effect of the embodiment of the present invention.
  • step S103 based on the obtained relative position information P gl of the feature constituting the network cartoon image.
  • step S102 a plurality of features can be obtained in combination members C, so that each combination of components wherein component C is characterized by placing P gl. bal corresponding positions may be generated A variety of different styles of cartoon cartoons.
  • each feature component constituting the network cartoon image includes a set of controllable adjustable parameters
  • the user can adjust the generated network cartoon image by modifying the controllable adjustable parameter of the feature component.
  • the method for generating a network cartoon image provided by the embodiment of the present invention may further include the following steps:
  • step S104 a network cartoon image adjustment instruction is received, and the network cartoon image adjustment instruction carries an adjustment parameter of a feature component constituting the network cartoon image.
  • step S105 according to the adjustment parameters of the feature components constituting the network cartoon image carried in the network cartoon image adjustment instruction, the controllable adjustable parameters of the corresponding feature components in the generated network cartoon image are adjusted to the network cartoon image adjustment.
  • the adjustment parameters carried in the instruction are the angle parameter of the feature component, and in response to the network cartoon image adjustment instruction, the angle of the corresponding feature component in the generated network cartoon image is adjusted to be carried in the network cartoon image adjustment instruction.
  • the angle parameter of the feature component can realize any adjustment of the network cartoon image.
  • the feature can be an eye or an eyebrow or the like.
  • a visible interface may be provided for the user to adjust the generated network cartoon image, such as displaying the generated network cartoon image to the user, because each feature component constituting the network cartoon image includes a set of controls.
  • the controllable adjustment of the scale, angle or position of the corresponding feature component can be adjusted. Therefore, the user can directly operate the specific feature component in the network cartoon image displayed to the user to adjust the scale, angle or position of the feature component.
  • each feature component includes a set of controllable adjustable parameters, the generated network cartoon image can be arbitrarily modified.
  • the vector format is used for description, so that the generated network cartoon image can be stored as an extensible markup language format.
  • the method for generating a network cartoon image may further include the following steps:
  • step S106 the generated or adjusted network cartoon image is stored to realize the sharing of the network cartoon image.
  • the network cartoon image generated by the embodiment of the invention can be shared, so that it can be applied to the cartoon image of the instant messaging software, the cartoon image of the community or the personalized static occasion of the mobile phone multimedia message.
  • the network cartoon image generated by the embodiment of the present invention can also be embedded into the existing dynamic work to replace the cartoon image in the existing dynamic work, thereby generating a more personalized dynamic work.
  • the dynamic work refers to a work consisting of a multi-frame still picture, and the multi-frame still picture is continuously played on the time line at a certain speed (for example, 16 pictures per second).
  • the dynamic work includes but is not limited to cartoon animations such as Flash, or real video.
  • FIG. 3 is a flow chart showing a method for embedding a network cartoon image according to an embodiment of the present invention. As shown in FIG. 3, the method is described as follows.
  • step S301 the cartoon animation in the cartoon animation library is marked, the annotation information of the cartoon image in the cartoon animation is obtained, and the annotation information of the cartoon image in the cartoon animation obtained is stored.
  • the annotation information includes information such as the position, scale, occupied area, and status of the cartoon image at that point in time.
  • image processing technology can be used to segment the cartoon image in cartoon animation by frame, and to recognize the cartoon image in each frame of cartoon animation, and get each frame cartoon animation. Annotated information in the cartoon image. You can also use the professional annotation software or manual annotation to mark the cartoon image in each frame of cartoon animation.
  • step S302 according to the label information of the cartoon image in the cartoon animation obtained, a corresponding network cartoon image is generated.
  • the network cartoon image generation method shown in Figure 1 can be used to generate the corresponding network cartoon image, and other network cartoon images can also be used.
  • the generation method When the network cartoon image generation method shown in FIG. 1 is used to generate the network cartoon image, it is necessary to obtain the animation of each frame from the feature component library according to the annotation information of the cartoon image in each frame cartoon animation obtained in step S301.
  • the cartoon image of the cartoon image is similar to the feature component, and generates a network cartoon image corresponding to the annotation information of the cartoon image in each frame cartoon animation.
  • the annotation information of the cartoon image is: the position of the cartoon image at the time point is P1, the scale is L1, the occupied area is the A area, and the state is a smile, then, the feature A feature component suitable for being placed in the position P1, having a dimension L1, and being placed in the area A, and having a state similar to that of the smile is obtained in the component library.
  • the eyes and the mouth selected from the feature component library should be able to constitute Smile the shape and angle of the state.
  • step S303 the generated network cartoon image is replaced with the annotated cartoon animation.
  • the cartoon image thus generates a new personalized cartoon animation.
  • the cartoon animation can be in units of frames on the timeline, when the generated cartoon image is replaced with the cartoon image in the annotated cartoon animation, it can also be in units of frames, that is, according to each stored In the frame cartoon animation, the cartoon image is marked with information, and the network cartoon image corresponding to the cartoon image in the frame cartoon animation is selected from the generated network cartoon image, and the cartoon image in the cartoon animation is replaced to form a new cartoon.
  • the animation also ensures that the replaced network cartoon image is kept in sync with the original cartoon image in the cartoon animation.
  • all the cartoon animations in the cartoon animation library may be marked by performing step S301 to obtain the annotation information of the cartoon image in the cartoon animation.
  • the corresponding network cartoon image is generated, and the network cartoon image library is formed.
  • the network cartoon image library is selected from the network cartoon image library.
  • the corresponding network cartoon image replaces the cartoon image in the cartoon animation, thereby realizing the batch embedding of the network cartoon image.
  • FIG. 4 shows the structure of a network cartoon image generation system according to an embodiment of the present invention. For the convenience of description, only parts related to the embodiment of the present invention are shown.
  • the system includes: a feature component library 41, a relative position information acquisition module 42, a feature component acquisition module, and a network cartoon image generation module.
  • the feature library 41 is used to store a plurality of feature sets constituting a network cartoon image, including an eye component set K eye , an eyebrow component set K eyeb nose component set K n . Se , mouth parts collection K m . Uth , ear part set K ear, and face contour part set K ⁇ nt ur Each feature part set stores a specific sample of a plurality of corresponding parts.
  • the relative position information obtaining module 42 is configured to obtain the relative position information P gl of the feature component constituting the network cartoon image by sampling the marked picture. Bal .
  • the features that make up the network cartoon image include, but are not limited to, eyes, eyebrows, nose, mouth, ears, and face. Contours, etc.
  • the relative position information obtaining module 42 may include: a relative position information sampling module 421, a relative position information processing module 422, and a relative position information selecting module 423.
  • the relative position information sampling module 421 is configured to sample the picture marked with the feature component, and obtain a relative position information set of the feature component constituting the network cartoon image.
  • T t ⁇ P gl .
  • Bal Vj l,...,M ⁇ , where M is the number of pictures sampled.
  • the picture can be a real photo collected by the user, and the like.
  • the feature When the feature is marked on the image, the feature can be directly labeled by the image, or the feature component can be marked by the image processing technology or the professional annotation software, and the image after the feature component is labeled as shown in FIG. 2 Shown.
  • the relative position information processing module 422 is configured to perform an analysis and a Gaussian distribution fitting on the relative position information set of the feature parts of the network cartoon image obtained by the relative position information collecting module 421, and obtain a relative position information set of the feature parts of the network cartoon image.
  • Gaussian distribution denoted by G (T t ), to ensure that the relative position of the feature parts conforms to the positional relationship of the feature parts constituting the network cartoon image.
  • the relative location information selection module 423 is configured to obtain the relative location information processing module 422.
  • the Gaussian distribution G ( T t ) performs random uniform sampling to obtain relative position information P gl of the feature components constituting the network cartoon image. Bal .
  • the system may further include an adjustment instruction receiving module 45 and a parameter adjustment module 441 built in the network cartoon image generation module 44.
  • the adjustment instruction receiving module 45 is configured to receive a network cartoon image adjustment instruction, where the network cartoon image adjustment instruction carries an adjustment parameter of a feature component constituting the network cartoon image;
  • the parameter adjustment module 441 is configured to adjust the composition carried in the instruction according to the network cartoon image Adjusting parameters of the feature parts of the network cartoon image, adjusting the controllable and adjustable parameters of the corresponding feature parts in the network cartoon image generated by the network cartoon image generation module 44 to the adjustment parameters carried in the network cartoon image adjustment instruction, thereby implementing the network The adjustment and modification of the cartoon image.
  • the network cartoon image generation system provided by the embodiment of the present invention further includes a modification authority setting module 46 for setting a modification authority for the generated network cartoon image.
  • a modification authority setting module 46 for setting a modification authority for the generated network cartoon image.
  • the network cartoon image generation system of the embodiment of the present invention may further include a cartoon image storage module 47 for generating a network cartoon image generation module, in order to realize the sharing of the generated network cartoon image.
  • the generated network cartoon image or the adjusted network cartoon image is stored in an Extensible Markup Language (XML, Extensible Markup Language), SWF or other file format to realize the sharing of the network cartoon image.
  • XML Extensible Markup Language
  • SWF Extensible Markup Language
  • the network cartoon image generation system may further comprise an annotation module, configured to mark the dynamic work, obtain the annotation information of the cartoon image in the dynamic work, and embed the module, and replace the generated network cartoon image The cartoon image in the annotated dynamic work.
  • the feature component obtaining module 43 is configured to use the feature information according to the acquired tag information.
  • Each feature set stored in the library 41 is sampled to obtain a combination of feature components required to generate a network cartoon image. That is, the obtained feature components required to generate a network cartoon image correspond to the annotation information. In this way, it is possible to embed the network cartoon image into the dynamic work.
  • the embodiment of the invention also provides an embedded system for the network cartoon image.
  • the embedded system of the network cartoon image provided by the embodiment of the present invention can embed the network cartoon image into the dynamic work to replace the original cartoon image in the dynamic work, thereby generating a more personalized dynamic work.
  • the description of the dynamic work is as described above, including but not limited to cartoon animation, video, and the like.
  • an example is as follows: embedding a network cartoon image into a cartoon animation as an example.
  • FIG. 5 is a schematic structural diagram of a network cartoon image embedding system according to an embodiment of the present invention.
  • the network cartoon image embedding system provided by the embodiment of the present invention includes an annotation module 501, a network cartoon image generation unit 502, and an embedding system. Module 503.
  • the labeling module 501 is used to mark the cartoon animation in the cartoon animation library, and obtain the labeling information of the cartoon image in the cartoon animation.
  • the annotation information includes information such as the position, scale, occupied area, and status of the cartoon image at that point in time. In the timeline, it is frame-based. The position, scale, occupied area and state of the cartoon image in each frame of cartoon animation may be inconsistent. Therefore, in order to ensure the network cartoon image and cartoon animation in the cartoon animation Some cartoon characters are consistent. When the cartoon characters in cartoon animations are marked, they are also in frame units, that is, the cartoon characters in each frame of cartoon animation are marked to get the cartoon in each frame cartoon animation. The labeling information of the image.
  • the network cartoon image generation unit 502 is configured to generate the corresponding network cartoon image by using the annotation information of the cartoon image in the cartoon animation obtained by the labeling module 501.
  • the network cartoon image generation method shown in FIG. 1 may be used to generate a network cartoon image.
  • the network cartoon image generation unit may include a feature component library, a feature component acquisition module, The relative position information is obtained by the ear and the network cartoon image generation module.
  • the feature component store stores a plurality of feature components constituting a network cartoon image
  • the feature component acquisition module samples the feature component sets stored in the feature component library according to the obtained annotation information, and obtains feature components required for generating a network cartoon image.
  • the relative position information is obtained by sampling the picture marked by the feature component, and the relative position information set of the feature component constituting the network cartoon image is obtained, and the network cartoon image generation module obtains the composition obtained by the relative position acquisition module.
  • the relative position information of the feature parts of the network cartoon image is placed in the corresponding position by the feature component acquisition component to obtain the network cartoon image.
  • the network cartoon image generation unit 502 may also generate a corresponding network cartoon image by using other network cartoon image generation methods according to the annotation information of the cartoon image in the cartoon animation obtained by the labeling module 501, for example, according to the annotation.
  • the information for example, according to the position, scale, occupied area and state of the cartoon image in the cartoon animation, uses a hand or a drawing tool to draw a network cartoon image corresponding to the annotation information.
  • the embedding module 503 is used to replace the generated cartoon image with the cartoon image in the annotated cartoon animation to generate a new personalized cartoon animation. Since the cartoon animation is frame-based on the timeline, when the generated cartoon image is replaced with the cartoon image in the annotated cartoon animation, it is also in units of frames.
  • the relative position information of the feature component constituting the network cartoon image is obtained, and the stored feature component set is randomly and uniformly sampled to obtain the feature component for generating the network cartoon image.
  • the obtained feature parts are placed at corresponding positions, thereby generating a network cartoon image, which satisfies the user's sensory needs and individualized demands for the network cartoon image. Therefore, the generated network cartoon image styles are numerous and lively.
  • each feature constituting the network cartoon image includes a set to control its scale, Controllable tunable parameters for angle and position, so the generated network cartoon image can be adjusted and modified.
  • the network cartoon image can be shared and can be integrated with other services, thereby bringing a better user experience.
  • the generated network cartoon image can be embedded into an existing cartoon animation or real video, thereby generating various personalized cartoon animations or real videos, thereby increasing entertainment.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Description

卡通形象的生成、 嵌入方法及系统
技术领域
本发明属于图像处理技术领域, 尤其涉及卡通形象的生成、 嵌入方 法及系统。 发明背景
卡通形象是近年在网络中发展起来的一种技术, 它能体现用户的个 性化、 展现用户创意, 已逐步成为网民的一种时尚, 深受网民喜爱。 目 前, 网络卡通形象大多都由网络内容服务商开发, 用户可以选择。 这种 方式成本低廉, 可以作为网络服务的增值部分, 供用户免费使用。 但随 着网络用户数量的增加, 能提供给用户选择的网络卡通形象是有限的, 因此, 难以满足用户对网络卡通形象的个性化需求。 需要提供网络卡通 形象自动生成的方法或系统, 以满足用户的个性化需求。
在现有的卡通形象自动生成方法中, 采用非参数采样算法来建模原 始照片和网络卡通形象之间复杂的统计映射关系 , 从而根据学习获得的 映射,为原始照片生成个性化的网络卡通形象。该方法的不足之处在于, 由于其采用线段作为几何比较和生成基元, 且原始照片与网络卡通形象 之间具有严格的对应, 因此生成的网络卡通形象风格种类有限, 比较呆 板, 难以对生成的网络卡通形象进行修改。 且生成的网络卡通形象为图 片交换格式( GIF, Graphics Interchange Format ), 无法与其他服务融合, 因此不能带来更好的用户体验。 发明内容
本发明的实施例提供了卡通形象的生成、 嵌入方法及系统, 其可以 生成多种风格的网络卡通形象, 满足用户的个性化需求。
本发明实施例提供了卡通形象的生成方法, 该方法括以下步骤: 对标注了特征部件的图片进行采样 , 获取构成网络卡通形象的特征 部件的相对位置信息;
对存储的各特征部件集合进行采样 , 获取生成网络卡通形象所需的 各特征部件;
根据特征部件的相对位置信息, 将获取的各特征部件置于相应的位 置, 生成网络卡通形象。
本发明另一实施例提供了卡通形象的生成系统, 该系统包括: 特征部件库, 用于存储构成网络卡通形象的各个特征部件集合; 相对位置信息获取模块, 用于通过对标注了特征部件的图片进行采 样, 获取构成网络卡通形象的特征部件的相对位置信息;
特征部件获取模块, 用于对存储的各特征部件集合进行采样, 获取 生成网络卡通形象所需的各特征部件;
网络卡通形象生成模块, 用于根据所述特征部件的相对位置信息, 将获取的各特征部件置于相应的位置, 生成网络卡通形象。
本发明另一实施例提供了卡通形象的嵌入方法, 该方法包括以下步 骤:
对动态作品进行标注 , 获取动态作品中卡通形象的标注信息; 才艮据所述动态作品中的卡通形象的标注信息, 生成网络卡通形象; 将生成的网络卡通形象替换已标注的动态作品中的卡通形象。
本发明另一实施例提供了卡通形象的嵌入系统 , 该系统包括: 标注模块, 用于对动态作品进行标注, 获取动态作品中卡通形象的 标注信息;
网络卡通形象生成单元, 用于^^据动态作品中的卡通形象的标注信 息, 生成网络卡通形象;
嵌入模块, 用于将生成的网络卡通形象替换已标注的动态作品中的 卡通形象。
在本发明实施例中, 通过对标注了特征部件的图片进行采样, 得到 构成网络卡通形象的特征部件的相对位置信息 , 对存储的特征部件集合 进行随机均匀采样, 得到生成网络卡通形象的特征部件, 根据得到的特 征部件的相对位置信息将网络卡通形象的特征部件置于相应的位置 , 从 而可以生成多种风格的网络卡通形象, 满足用户的个性化需求。 附图简要说明
图 1是本发明实施例提供的网络卡通形象的生成方法的流程图。 图 2是本发明实施例提供的标注后的构成网络卡通形象的特征部件 的效果图。
图 3是本发明实施例提供的网络卡通形象的嵌入方法的流程图。 图 4是本发明实施例提供的网络卡通形象的生成系统的结构示意 图。
图 5 是本发明实施例提供的网络卡通形象的嵌入系统的结构示意 图。 实施本发明的方式
为使本发明的目的、 技术方案和优点更加清楚明白, 以下举具体实 施例并参照附图, 对本发明作进一步详细说明。
在本发明实施例中, 通过对标注了特征部件的图片进行采样, 得到 构成网络卡通形象的特征部件的相对位置信息 , 对存储的特征部件集合 进行随机采样, 得到生成网络卡通形象所需的各特征部件, 根据得到的 构成网络卡通形象的特征部件的相对位置信息将得到的各特征部件置 于相应的位置, 从而生成网络卡通形象。 其中, 对存储的特征部件集合 进行随机采样时可以采用随机均匀采样, 即特征部件集合中的特征部件 被采样到的概率是相同的。 对存储的特征部件集合进行随机采样时可以 采用非均匀采样, 即特征部件集合中的特征部件被采样到的概率可以不 相同。 比如, 假设特征部件集合包括 10个特征部件, 如果均匀采样, 则各特征部件被采样的概率为 1/10; 若采用非均匀采样, 则可以设置满 足某一条件的特征部件被采样的概率高于其他的特征部件, 则此时 10 个特征部件中被采样的概率是不同的, 符合条件的特征部件被采样的概 率高于其他的特征部件。
图 1示出了本发明实施例提供的网络卡通形象的生成方法的实现流 程, 如图 1所示, 该方法详述如下:
在步骤 S101 中, 通过对进行了特征部件标注的图片进行采样, 获 取构成网络卡通形象的特征部件的相对位置信息。 其中构成网络卡通形 象的特征部件是指构成网络卡通形象的各个组成部分。 特征部件包括但 不限于眼睛、 眉毛、 鼻子、 嘴巴、 耳朵以及脸部轮廊。 网络卡通形象的 特征部件的相对位置信息是指构成网络卡通形象的各特征部件的布局。 如眼睛、 眉毛、 鼻子、 嘴巴、 耳朵等在网络卡通形象的脸部轮廊区域内 的相对放置位置。 其具体步骤为:
A、 对进行了特征部件标注的图片进行采样, 得到构成网络卡通形 象的特征部件的相对位置信息集合。 在本发明实施例中, 将网络卡通形 象的特征部件的相对位置信息称为 pglbal。对多个图片进行采样后,可得 到多个网络卡通形象的特征部件的相对位置信息 , 从而构成网络卡通形 象的特征部件的相对位置信息集合, 用 Tt表示, 则 Tt = {Pglbal J /j=l,...,M}, 其中 M为采样的图片数量。 其中图片可以是用户采集的真 实照片等。
在本发明实施例中, 在对图片进行特征部件标注时, 可以采用人工 对图片进行特征部件标注。 如图 2所示, 在图片中的左眼睛部件的左右 两边分别标注两个点, 以表示左眼睛的宽度 wl。 其余特征部件的标注 方式也相同。 也可以采用专业标注软件对图片进行特征部件标注, 或者 采用图片处理技术对图片进行特征部件标注。 进行特征部件标注后的图 片如图 2所示。 对进行特征部件标注后的图片进行采样, 得到网络卡通 形象的特征部件的相对位置信息集合 Tt
B、 对得到的网络卡通形象的特征部件的相对位置信息集合进行分 析统计和高斯拟合, 得到网络卡通形象的特征部件的相对位置信息集合 的高斯分布, 用 G ( Tt )表示, 以保证特征部件的相对位置符合构成网 络卡通形象的特征部件的位置关系。 例如: 保证鼻子位于嘴巴的上方、 眼睛位于鼻子的两边、 耳朵位于脸部轮廊的两边等。
C、对得到的高斯分布 G ( Tt )进行采样, 得到构成网络卡通形象的 特征部件的相对位置信息 Pglbal。 即对得到的高斯分布 G ( Tt )进行随机 均匀的采样, 选取其中一种 Pgl ba 为生成网络卡通形象的特征部件的 相对位置信息 Pgl bal
在步骤 S102 中, 对存储的特征部件集合进行随机均匀采样, 得到 生成网络卡通形象所需的特征部件的组合。
在本发明实施例中 , 存储的特征部件集合包括眼睛部件集合 Keye 眉毛部件集合 Keyeb 鼻子部件集合 Knse、 嘴巴部件集合 Kmuth、 耳朵 部件集合 Kear 及脸部轮廓部件集合 K∞ntur。 各特征部件集合中存储有 多种相应部件的具体样本。 如对于眼睛部件集合 Keye, 其存储有多种不 同形状、 大小的眼睛部件。 而对于鼻子部件集合 Knse, 其存储有多种不 同形状、 大小的鼻子部件。 分别对存储的上述特征部件集合进行随机均 匀采样, 得到生成网络卡通形象的特征部件组合, 用 C 表示, 则 C={cili=l,...,6}。 分另 'J对 Keye Keyebrow Knose Kmouth Kear以及 KcontoUr 进行随机均勾的采样, 从每个特征部件集合中选取一个特征部件, 将选 取的各特征部件组合为生成网络卡通形象所需的特征部件组合 C, 则 C = {cili=l,...,6}。其中 ci表示每个特征部件集合中的某个具体的特征部件, 如 cl表示 Keye中的某个具体的眼睛部件, c2表示 Keyeb 中的某个具体 的眉毛部件、 c3表示 Knse中的某个具体的鼻子部件、 c4表示 Kmuth中 的某个具体的嘴巴部件、 c5表示 Kear中的某个具体的耳朵部件, c6表示 Kcontour中的某个具体的脸部轮廓部件。
对于上述特征部件集合中的每个具体的特征部件 , 均包括一组用以 控制相应特征部件的尺度、 角度以及位置的可控可调整参数。 如图 2所 示, 对于构成网络卡通形象的每个特征部件, 其包括一组用以控制相应 特征部件的尺度 ( w ) 、 角度(e ) 以及位置 (h ) 的可控可调整参数; 例如: 对于眼睛部件, 其包括一组用以控制眼睛部件的尺度(wl )、 角 度(e3 e4 ) 以及位置 (hi ) 的可控可调整参数。 当需要对某特征部件 进行调整时, 用户可以通过对各特征部件包括的可控可调整参数进行修 改, 以更好的满足用户对于网络卡通形象的观感需求或者个性化需求。
在本发明实施例中, 步骤 S101和步骤 S102的执行顺序可以相互调 换, 调换执行顺序不会影响本发明实施例的效果。
在步骤 S103 中, 根据得到的构成网络卡通形象的特征部件的相对 位置信息 Pglbal, 将得到的生成网络卡通形象所需的特征部件组合 C中 的各特征部件置于相应的位置, 生成网络卡通形象, 用 Ca表示, 则 Ca = {Pgiobai, C}„ 由于步骤 S101中可以得到多个 Pglbal, 在步骤 S102中也 可以得到多个特征部件组合 C, 从而通过将特征部件组合 C中的各特征 部件置于 Pglbal中相应位置, 可以生成多种风格各异的网络卡通形象。 在本发明实施例中, 由于构成网络卡通形象的各个特征部件均包括 一组可控可调整参数, 因此, 用户可以通过修改特征部件的可控可调整 参数来对生成的网络卡通形象进行调整, 从而满足用户对网络卡通形象 的观感需求和个性化需求。 因此, 本发明实施例提供的网络卡通形象的 生成方法还可以包括下述步骤:
在步骤 S104 中, 接收网络卡通形象调整指令, 该网络卡通形象调 整指令中携带构成网络卡通形象的特征部件的调整参数。
在步骤 S105 中, 根据该网络卡通形象调整指令中携带的构成网络 卡通形象的特征部件的调整参数, 将生成的网络卡通形象中的相应特征 部件的可控可调整参数调整为该网络卡通形象调整指令中携带的调整 参数。 例如: 网络卡通形象调整指令中携带的参数为特征部件的角度参 数, 则响应该网络卡通形象调整指令, 将生成的网络卡通形象中的相应 特征部件的角度调整为网络卡通形象调整指令中携带的特征部件的角 度参数, 即可实现网络卡通形象的任意调整。 例如, 该特征部件可以是 眼睛或者眉毛等。
在本发明实施例中, 可以通过提供一可见界面供用户对生成的网络 卡通形象进行调整, 如将生成的网络卡通形象显示给用户, 由于组成该 网络卡通形象的各个特征部件均包括一组控制相应特征部件的尺度、 角 度或者位置的可控可调整^:, 因此, 用户可以直接对显示给用户的网 络卡通形象中的具体特征部件进行操作, 来调整该特征部件的尺度、 角 度或者位置, 以达到用户个性化需求。 由于每个特征部件均包括一组可 控可调整参数, 从而可以对生成的网络卡通形象进行任意的修改。
为了保证生成的网络卡通形象不被任意的修改, 在本发明实施例还 可以包括下述步骤:
为生成的网络卡通形象设置修改权限, 从而保证生成的网络卡通形 象不被任意的修改, 当用户需要其他人帮助修改生成的网络卡通形象 时, 可以授予其他用户修改该网络卡通形象的权限。
在本发明实施例中, 根据生成的网络卡通形象是采用矢量格式进行 描述的, 因而可以将生成的网络卡通形象存储为可扩展标记语言格式
( XML, Extensible Markup Language ) 、 SWF或者其它文件格式, 实现 网络卡通形象的共享。 因此, 在本发明实施例中, 提供的网络卡通形象 的生成方法还可以包括下述步骤:
在步骤 S106 中, 存储生成的或者调整后的网络卡通形象, 实现网 络卡通形象的共享。
本发明实施例生成的网络卡通形象由于可以实现共享, 从而可以应 用在即时通讯软件的卡通形象, 社区的卡通形象或者手机彩信等个性化 静态场合。 也可以将本发明实施例生成的网络卡通形象嵌入到现有的动 态作品中, 以替换现有的动态作品中的卡通形象, 从而生成更具个性化 的动态作品。 其中动态作品是指由多帧静止的画面组成, 且该多帧静止 的画面在时间线上以一定的速度(如每秒 16 张)连续播放的作品。 该 动态作品包括但不限于卡通动画, 如 Flash等, 或者真实视频。 以下以 将生成的网络卡通形象嵌入至卡通动画为例, 进行说明。 图 3示出了本 发明实施例提供的网络卡通形象的嵌入方法的流程图, 如图 3所示, 该 方法伴述:^下。
在步骤 S301 中, 对卡通动画库中的卡通动画进行标注, 得到卡通 动画中的卡通形象的标注信息, 并存储得到的卡通动画中的卡通形象的 标注信息。 该标注信息包括卡通形象在该时间点的位置、 尺度、 所占区 域以及状态等信息。
在对卡通动画库的卡通动画进行标注时 , 先从卡通动画库中选取一 个卡通动画, 接着对选取的卡通动画进行标注。 由于卡通动画在时间线 上是以帧为单位的, 每一帧卡通动画中卡通形象的位置、 尺度、 所占区 域以及状态都可能不一致, 因此, 为了保证嵌入至卡通动画中的网络卡 通形象与卡通动画中原有的卡通形象保持一致, 在对卡通动画中的卡通 形象进行标注时, 也是以帧为单位的, 即对每一帧卡通动画中的卡通形 象进行标注, 以得到每一帧卡通动画中的卡通形象的标注信息。
在对卡通动画进行标注时, 可以采用图像处理技术, 对卡通动画中 的卡通形象按帧进行分割 , 并对分割得到的每一帧卡通动画中的卡通形 象进行动作识别, 得到每一帧卡通动画中的卡通形象的标注信息。 也可 以采用专业的标注软件或者手工标注方式, 对每一帧卡通动画中的卡通 形象进行标注。
在步骤 S302 中, 据得到的卡通动画中的卡通形象的标注信息, 生成相应的网络卡通形象。
在才 据得到的卡通动画中的卡通形象的标注信息, 生成相应的网络 卡通形象时, 可以采用图 1所示的网络卡通形象生成方法生成相应的网 络卡通形象, 也可以采用其他的网络卡通形象生成方法。 在采用图 1所 示的网络卡通形象生成方法生成网络卡通形象时, 需要才 据步骤 S301 得到的每一帧卡通动画中的卡通形象的标注信息 , 从特征部件库中获取 与每一帧通动画中的卡通形象的标注信息相似的特征部件, 生成与每一 帧卡通动画中的卡通形象的标注信息对应的网络卡通形象。 例如, 当得 到的某一帧的卡通动画中的卡通形象的标注信息为: 卡通形象在该时间 点的位置为 Pl、 尺度为 Ll、 所占区域为 A区域以及状态为微笑, 则, 从特征部件库中获取适于放置于位置 P1 , 尺度为 Ll, 且可以放置于区 域 A, 且状态与^笑相似的特征部件, 具体地, 比如从特征部件库中选 择的眼睛和嘴巴应该是能够构成微笑状态的形状以及角度。
在步骤 S303 中, 将生成的网络卡通形象替换已标注的卡通动画中 的卡通形象, 从而生成新的个性化卡通动画。
由于卡通动画在时间线上可以是以帧为单位的, 所以在将生成的网 络卡通形象替换已标注的卡通动画中的卡通形象时 , 也可以是以帧为单 位的, 即根据存储的每一帧卡通动画中卡通形象的标注信息, 从生成的 网络卡通形象中选取与该帧卡通动画中卡通形象的标注信息对应的网 络卡通形象,替换已标注的卡通动画中的卡通形象,形成新的卡通动画, 同时保证了替换的网络卡通形象与卡通动画中原有的卡通形象保持同 步。
在本发明实施例中, 可以先通过执行步骤 S301 , 将卡通动画库中的 所有卡通动画进行标注, 得到卡通动画中卡通形象的标注信息。 再才艮据 卡通动画库中每个卡通动画的标注信息, 生成相应的网络卡通形象, 形 成网络卡通形象库, 然后根据需要嵌入网络卡通形象的已标注的卡通动 画, 从网络卡通形象库中选取相应的网络卡通形象, 替换该卡通动画中 的卡通形象, 从而实现网络卡通形象的批量嵌入。
图 4示出了本发明实施例提供的网络卡通形象的生成系统的结构 , 为了便于说明, 仅示出了与本发明实施例相关的部分。
如图 4所示, 该系统包括: 特征部件库 41 , 相对位置信息获取模块 42, 特征部件获耳 ^莫块 43和网络卡通形象生成模块 44
特征部件库 41 用于存储多个构成网络卡通形象的特征部件集合, 包括眼睛部件集合 Keye、 眉毛部件集合 Keyeb 鼻子部件集合 Knse、 嘴 巴部件集合 Kmuth、 耳朵部件集合 Kear以及脸部轮廓部件集合 K∞nt ur 各特征部件集合中存储有多种相应部件的具体样本。
相对位置信息获取模块 42用于通过对标注的图片进行采样, 获取 构成网络卡通形象的特征部件的相对位置信息 Pglbal。其中构成网络卡通 形象的特征部件包括但不限于眼睛、 眉毛、 鼻子、 嘴巴、 耳朵以及脸部 轮廓等。
特征部件获取模块 43用于对特征部件库 41中存储的各特征部件集 合进行随机均匀采样 , 得到生成网络卡通形象所需的特征部件的组合 , 用 C表示, 则 C={cili=l,...,6}。 其中 ci表示每个特征部件集合中的某个 具体的特征部件。
网络卡通形象生成模块 44用于根据相对位置获取模块 42得到的构 成网络卡通形象的特征部件的相对位置信息 Pglbal,将特征部件获取模块 43得到的生成网络卡通形象所需的特征部件组合 C 中的各特征部件置 于相应的位置, 生成网络卡通形象, 用 Ca表示, 则 Ca = {Pglbal, C}。
其中, 所述的相对位置信息获取模块 42 可以包括: 相对位置信息 采样模块 421 , 相对位置信息处理模块 422 和相对位置信息选取模块 423。
相对位置信息采样模块 421用于对进行了特征部件标注的图片进行 采样, 得到构成网络卡通形象的特征部件的相对位置信息集合, 用 Tt 表示, 则 Tt = {PglbalVj=l,...,M}, 其中 M为采样的图片数量。 其中图片 可以是用户采集的真实照片等。
在对图片进行特征部件标注时, 可以采用人工直接对图片进行特征 部件的标注, 也可以采用图片处理技术或者专业的标注软件对图片进行 特征部件的标注, 进行特征部件标注后的图片如图 2所示。
相对位置信息处理模块 422用于对相对位置信息采集模块 421得到 的网络卡通形象的特征部件的相对位置信息集合进行分析统计和高斯 分布拟合, 得到网络卡通形象的特征部件的相对位置信息集合的高斯分 布, 用 G ( Tt )表示, 以保证特征部件的相对位置符合构成网络卡通形 象的特征部件的位置关系。
相对位置信息选取模块 423用于对相对位置信息处理模块 422得到 的高斯分布 G ( Tt )进行随机均匀采样, 得到构成网络卡通形象的特征 部件的相对位置信息 Pglbal
当生成的网络卡通形象不能满足用户的需求时, 需要对生成的网络 卡通形象进行调整, 此时, 该系统还可以包括调整指令接收模块 45 和 内置于网络卡通形象生成模块 44的参数调整模块 441。调整指令接收模 块 45 用于接收网络卡通形象调整指令, 该网络卡通形象调整指令中携 带构成网络卡通形象的特征部件的调整参数; 参数调整模块 441用于根 据该网络卡通形象调整指令中携带的构成网络卡通形象的特征部件的 调整参数, 将网络卡通形象生成模块 44生成的网络卡通形象中的相应 特征部件的可控可调整参数调整为该网络卡通形象调整指令中携带的 调整参数, 从而实现网络卡通形象的调整和修改。
为了保证生成的网络卡通形象不被其他人任意的修改, 本发明实施 例提供的网络卡通形象生成系统还包括修改权限设置模块 46,用于为生 成的网络卡通形象设置修改权限。 当用户需要其他人帮助修改生成的网 络卡通形象时, 可以授予其他人修改该网络卡通形象的权限。
由于生成网络卡通形象是采用矢量格式进行描述的, 为了实现生成 的网络卡通形象的共享 , 本发明实施例的网络卡通形象生成系统还可以 包括卡通形象存储模块 47 , 用于将网络卡通形象生成模块 44生成的网 络卡通形象或者调整后的网络卡通形象存储为可扩展标记语言格式 ( XML, Extensible Markup Language )、 SWF或者其它文件格式, 实现 网络卡通形象的共享。
较佳地, 所述网络卡通形象的生成系统还可以包括标注模块, 用于 对动态作品进行标注,获取动态作品中卡通形象的标注信息,嵌入模块, 用于将所述生成的网络卡通形象替换已标注的动态作品中的卡通形象。 其中, 特征部件获取模块 43 用于根据获取的标注信息, 用于对特征部 件库 41 中存储的各特征部件集合进行采样, 得到生成网络卡通形象所 需的特征部件的组合。 即, 得到的生成网络卡通形象所需的特征部件是 与标注信息相对应的。 这样, 可以实现将网络卡通形象嵌入到动态作品 中。
本发明实施例还提供了网络卡通形象的嵌入系统。 采用本发明实施 例提供的网络卡通形象的嵌入系统可以将网络卡通形象嵌入至动态作 品中, 以替换动态作品中原有的卡通形象, 从而生成更具个性化的动态 作品。 其中动态作品的描述如上所述, 其包括但不限于卡通动画、 视频 等。 在本发明实施例中, 以将网络卡通形象嵌入至卡通动画为例, 进行 说明。
图 5 是本发明实施例提供的网络卡通形象的嵌入系统的结构示意 图, 如图 5所示, 本发明实施例提供的网络卡通形象的嵌入系统包括标 注模块 501、 网络卡通形象生成单元 502以及嵌入模块 503。
其中, 标注模块 501用于对卡通动画库中的卡通动画进行标注, 得 到卡通动画中的卡通形象的标注信息。 该标注信息包括卡通形象在该时 间点的位置、 尺度、 所占区域以及状态等信息。 在时间线上是以帧为单 位的, 每一帧卡通动画中卡通形象的位置、 尺度、 所占区域以及状态都 可能不一致, 因此, 为了保证嵌入至卡通动画中的网络卡通形象与卡通 动画中原有的卡通形象保持一致, 在对卡通动画中的卡通形象进行标注 时, 也是以帧为单位的, 即对每一帧卡通动画中的卡通形象进行标注, 以得到每一帧卡通动画中的卡通形象的标注信息。
网络卡通形象生成单元 502用于 ^居标注模块 501得到的卡通动画 中的卡通形象的标注信息, 生成相应的网络卡通形象。 在生成网络卡通 形象时,可以采用图 1所示的网络卡通形象生成方法生成网络卡通形象 , 此时, 网络卡通形象生成单元可以包括特征部件库、特征部件获取模块、 相对位置信息获耳 ^莫块以及网络卡通形象生成模块。
其中特征部件库存储多个构成网络卡通形象的特征部件集合 , 特征 部件获取模块对特征部件库中存储的各特征部件集合根据获得的标注 信息进行采样, 得到生成网络卡通形象所需的特征部件的组合, 相对位 置信息获耳 ^莫块对进行了特征部件标注的图片进行采样, 得到构成网络 卡通形象的特征部件的相对位置信息集合, 网络卡通形象生成模块才艮据 相对位置获取模块得到的构成网络卡通形象的特征部件的相对位置信 息 , 将特征部件获取模块得到的生成网络卡通形象所需的特征部件组合 中的各特征部件置于相应的位置, 生成网络卡通形象。
在本发明实施例中, 网络卡通形象生成单元 502也可以根据标注模 块 501得到的卡通动画中的卡通形象的标注信息, 采用其他网络卡通形 象生成方法, 生成相应的网络卡通形象, 比如, 根据标注信息, 比如根 据卡通动画中卡通形象的位置、 尺度、 所占区域以及状态等信息, 采用 手会或者采用绘图工具绘制与标注信息相应的网络卡通形象。
嵌入模块 503用于将生成的网络卡通形象替换已标注的卡通动画中 的卡通形象, 从而生成新的个性化卡通动画。 由于卡通动画在时间线上 是以帧为单位的, 所以在将生成的网络卡通形象替换为已标注的卡通动 画中的卡通形象时, 也是以帧为单位的。
在本发明实施例中, 通过对标注了特征部件的图片进行采样, 得到 构成网络卡通形象的特征部件的相对位置信息 , 对存储的特征部件集合 进行随机均匀采样, 得到生成网络卡通形象的特征部件, 根据得到的特 征部件的相对位置信息, 将得到的特征部件置于相应的位置, 从而生成 网络卡通形象, 满足用户对于网络卡通形象的感观需求和个性化需求。 因此生成的网络卡通形象风格种类多, 且比较活泼。
由于构成网络卡通形象的各特征部件均包括一组用以控制其尺度、 角度和位置的可控可调参数, 因此可以对生成的网络卡通形象进行调整 和修改。
同时, 由于生成的网络卡通形象采用矢量格式进行描述, 从而可以 实现网络卡通形象的共享, 并且可以与其他服务融合, 因此带来更好的 用户体验。
通过本发明实施例提供的嵌入方法以及嵌入系统, 可以将生成的网 络卡通形象嵌入至已有的卡通动画或者真实视频中, 从而生成各种个性 化的卡通动画或者真实视频, 增加娱乐性。
以上所述仅为本发明的较佳实施例而已, 并不用以限制本发明, 凡 在本发明的精神和原则之内所做的任何修改、 等同替换和改进等, 均应 包含在本发明的保护范围之内。

Claims

权利要求书
1、 一种卡通形象的生成方法, 其特征在于, 包括:
对标注了特征部件的图片进行采样, 获取构成网络卡通形象的特征 部件的相对位置信息;
对存储的各特征部件集合进行采样, 获取生成网络卡通形象所需的 各特征部件;
根据所述特征部件的相对位置信息, 将获取的各特征部件置于相应 位置, 生成网络卡通形象。
2、 如权利要求 1 所述的方法, 其特征在于, 所述特征部件包括一 组可控可调整参数, 用于控制所述特征部件的尺度、 角度和位置。
3、 如权利要求 2所述的方法, 其特征在于, 还包括:
接收网络卡通形象调整指令, 所述网络卡通形象调整指令中携带构 成网络卡通形象的特征部件的调整参数;
根据所述网络卡通形象调整指令, 将所述网络卡通形象中的相应特 征部件的可控可调整参数调整为所述网络卡通形象调整指令中携带的 调整参数。
4、 如权利要求 2或 3所述的方法, 其特征在于, 还包括: 为所述网络卡通形象设置修改权限, 其中, 具有所述修改权限的用 户利用所述可控可调参数控制所述特征部件的尺度、 角度和位置。
5、 如权利要求 1至 4中任一项所述的方法, 其特征在于, 还包括: 存储所述网络卡通形象。
6、 如权利要求 1至 5任一项所述的方法, 其特征在于, 所述对标 注了特征部件的图片进行采样 , 获取构成网络卡通形象的特征部件的相 对位置信息为: 对标注了特征部件的图片进行采样, 获取构成网络卡通形象的特征 部件的相对位置信息集合;
对所述网络卡通形象的特征部件的相对位置信息集合进行分析统 计和高斯拟合, 得到网络卡通形象的特征部件的相对位置信息集合的高 斯分布;
对所述网络卡通形象的特征部件的相对位置信息集合的高斯分布 进行采样, 得到构成网络卡通形象的特征部件的相对位置信息。
7、 如权利要求 1至 6任一项所述的方法, 其特征在于, 还包括: 对动态作品进行标注, 获取动态作品中卡通形象的标注信息, 将所 述生成的网络卡通形象替换已标注的动态作品中的卡通形象;
其中, 所述对存储的各特征部件集合进行采样, 获取生成网络卡通 形象所需的各特征部件包括:
根据所述标注信息, 对存储的各特征部件集合进行采样, 获取所述 生成的网络卡通形象所需的各特征部件。
8、 如权利要求 7所述的方法, 其特征在于, 所述标注信息包括卡 通形象在某时间点的位置、 尺度、 所占区域以及状态。
9、 如权利要求 7 所述的方法, 其特征在于, 所述对动态作品进行 标注, 获取动态作品中卡通形象的标注信息为: 对动态作品中的卡通形 象以帧为单位对卡通形象进行标注, 得到每一帧动态作品的卡通形象的 标注信息。
10、 一种卡通形象的生成系统, 其特征在于, 所述系统包括: 特征部件库, 用于存储构成网络卡通形象的各个特征部件集合; 相对位置信息获取模块, 用于通过对标注了特征部件的图片进行采 样, 获取构成网络卡通形象的特征部件的相对位置信息;
特征部件获取模块, 用于对存储的各特征部件集合进行采样, 获取 生成网络卡通形象所需的各特征部件;
网络卡通形象生成模块, 用于根据所述特征部件的相对位置信息, 将获取的各特征部件置于相应的位置, 生成网络卡通形象。
11、 如权利要求 10所述的系统, 其特征在于, 所述特征部件包括 一组可控可调整参数, 用于控制所述特征部件的尺度、 角度和位置。
12、 如权利要求 11所述的系统, 其特征在于, 所述系统还包括: 调整指令接收模块, 用于接收网络卡通形象调整指令, 所述网络卡 通形象调整指令中携带构成网络卡通形象的特征部件的调整参数;
参数调整模块, 用于将所述网络卡通形象中的相应特征部件的可控 可调整参数调整为所述网络卡通形象调整指令中携带的调整参数。
13、 如权利要求 10所述的系统, 其特征在于, 所述系统还包括: 修改权限设置模块, 用于为所述网络卡通形象设置修改权限。
14、 如权利要求 10所述的系统, 其特征在于, 所述系统还包括: 卡通形象存储模块, 用于存储所述网络卡通形象。
15、 如权利要求 10至 14任一项所述的系统, 其特征在于, 所述相 对位置信息获取模块包括:
相对位置信息采样模块, 用于对标注了特征部件的图片进行采样, 获取构成网络卡通形象的特征部件的相对位置信息集合;
相对位置信息处理模块, 用于对所述网络卡通形象的特征部件的相 对位置信息集合进行分析统计和高斯拟合, 得到网络卡通形象的特征部 件的相对位置信息集合的高斯分布;
相对位置信息选取模块, 用于对所述网络卡通形象的特征部件的相 对位置信息集合的高斯分布进行采样 , 得到构成网络卡通形象的特征部 件的相对位置信息。
16、如权利要求 10至 15任一项所述的系统,其特征在于,还包括: 标注模块, 用于对动态作品进行标注, 获取动态作品中卡通形象的 标注信息; 和
嵌入模块 , 用于将所述生成的网络卡通形象替换已标注的动态作品 中的卡通形象;
其中, 所述特征部件获取模块, 用于根据所述标注信息, 对存储的 各特征部件集合进行采样, 获取生成网络卡通形象所需的各特征部件。
17、 一种卡通形象的嵌入方法, 其特征在于, 所述方法包括下述步 骤:
对动态作品进行标注 , 获取动态作品中卡通形象的标注信息; 才艮据所述动态作品中的卡通形象的标注信息, 生成网络卡通形象; 将所述生成的网络卡通形象替换已标注的动态作品中的卡通形象。
18、 如权利要求 17 所述的方法, 其特征在于, 所述根据所述动态 作品中的卡通形象的标注信息, 生成相应的网络卡通形象的步骤具体 为:
对标注了特征部件的图片进行采样, 获取构成网络卡通形象的特征 部件的相对位置信息;
根据所述动态作品中的卡通形象的标注信息, 对存储的各特征部件 集合进行采样 , 获取与所述标注信息对应的各特征部件;
根据所述特征部件的相对位置信息, 将获取的各特征部件置于相应 位置, 生成网络卡通形象。
19、 如权利要求 17或 18所述的方法, 其特征在于, 所述动态作品 包括卡通动画、 视频。
20、 如权利要求 17 所述的方法, 其特征在于, 所述对动态作品进 行标注, 获取动态作品中卡通形象的标注信息为: 对动态作品中的卡通 形象以帧为单位对卡通形象进行标注 , 得到每一帧动态作品的卡通形象 的标注信息。
21、 如权利要求 17所述的方法, 其特征在于, 所述标注信息包括 卡通形象在某时间点的位置、 尺度、 所占区域以及状态。
22、 一种卡通形象的嵌入系统, 其特征在于, 所述系统包括: 标注模块, 用于对动态作品进行标注, 获取动态作品中卡通形象的 标注信息;
网络卡通形象生成单元, 用于^ ^据所述动态作品中的卡通形象的标 注信息, 生成网络卡通形象;
嵌入模块, 用于将所述生成的网络卡通形象替换已标注的动态作品 中的卡通形象。
23、 如权利要求 22所述的系统, 其特征在于, 所述网络卡通形象 生成单元包括:
特征部件库, 用于存储构成网络卡通形象的各个特征部件集合; 相对位置信息获取模块, 用于对标注了特征部件的图片进行采样, 获取构成网络卡通形象的特征部件的相对位置信息;
特征部件获取模块, 用于根据所述动态作品中的卡通形象的标注信 息, 对存储的各特征部件集合进行采样, 获取与所述标注信息对应的各 特征部件;
网络卡通形象生成模块, 用于根据所述特征部件的相对位置信息, 将获取的各特征部件置于相应位置 , 生成所述网络卡通形象。
PCT/CN2008/073381 2007-12-12 2008-12-08 卡通形象的生成、嵌入方法及系统 WO2009076876A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN2007101248945A CN101183462B (zh) 2007-12-12 2007-12-12 一种卡通形象的生成、嵌入方法及系统
CN200710124894.5 2007-12-12

Publications (1)

Publication Number Publication Date
WO2009076876A1 true WO2009076876A1 (zh) 2009-06-25

Family

ID=39448725

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2008/073381 WO2009076876A1 (zh) 2007-12-12 2008-12-08 卡通形象的生成、嵌入方法及系统

Country Status (2)

Country Link
CN (1) CN101183462B (zh)
WO (1) WO2009076876A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109756672A (zh) * 2018-11-13 2019-05-14 深圳艺达文化传媒有限公司 短视频动物模型叠加方法及相关产品

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101183462B (zh) * 2007-12-12 2011-08-31 腾讯科技(深圳)有限公司 一种卡通形象的生成、嵌入方法及系统
CN105374055B (zh) * 2014-08-20 2018-07-03 腾讯科技(深圳)有限公司 图像处理方法及装置
CN104318596B (zh) * 2014-10-08 2017-10-20 北京搜狗科技发展有限公司 一种动态图片的生成方法以及生成装置
CN109353078B (zh) * 2018-10-09 2020-07-28 乐米智拓(北京)科技有限公司 折纸模型生成方法、装置、介质及电子设备
CN111696182A (zh) * 2020-05-06 2020-09-22 广东康云科技有限公司 一种虚拟主播生成系统、方法和存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5459830A (en) * 1991-07-22 1995-10-17 Sony Corporation Animation data index creation drawn from image data sampling composites
CN1649409A (zh) * 2004-01-30 2005-08-03 株式会社Ntt都科摩 移动通信终端及程序
US20070024639A1 (en) * 2005-08-01 2007-02-01 Luxology, Llc Method of rendering pixel images from abstract datasets
CN101183462A (zh) * 2007-12-12 2008-05-21 腾讯科技(深圳)有限公司 一种卡通形象的生成、嵌入方法及系统

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100416612C (zh) * 2006-09-14 2008-09-03 浙江大学 基于视频流的三维动态人脸表情建模方法
CN101034481A (zh) * 2007-04-06 2007-09-12 湖北莲花山计算机视觉和信息科学研究院 一种肖像画的自动生成方法
CN100593789C (zh) * 2007-07-11 2010-03-10 成都金山互动娱乐科技有限公司 一种利用3d技术提供网络游戏反外挂图像来源的方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5459830A (en) * 1991-07-22 1995-10-17 Sony Corporation Animation data index creation drawn from image data sampling composites
CN1649409A (zh) * 2004-01-30 2005-08-03 株式会社Ntt都科摩 移动通信终端及程序
US20070024639A1 (en) * 2005-08-01 2007-02-01 Luxology, Llc Method of rendering pixel images from abstract datasets
CN101183462A (zh) * 2007-12-12 2008-05-21 腾讯科技(深圳)有限公司 一种卡通形象的生成、嵌入方法及系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109756672A (zh) * 2018-11-13 2019-05-14 深圳艺达文化传媒有限公司 短视频动物模型叠加方法及相关产品

Also Published As

Publication number Publication date
CN101183462A (zh) 2008-05-21
CN101183462B (zh) 2011-08-31

Similar Documents

Publication Publication Date Title
US11961189B2 (en) Providing 3D data for messages in a messaging system
US11776233B2 (en) Beautification techniques for 3D data in a messaging system
US11176737B2 (en) Textured mesh building
CN111383304B (zh) 用于计算设备的图像检索
KR102624635B1 (ko) 메시징 시스템에서의 3d 데이터 생성
US11783556B2 (en) Augmented reality content generators including 3D data in a messaging system
US11457196B2 (en) Effects for 3D data in a messaging system
US20210065464A1 (en) Beautification techniques for 3d data in a messaging system
CN114615486B (zh) 用于生成合成流的方法、系统和计算机可读存储介质
CN103929606B (zh) 图像呈现控制方法及图像呈现控制装置
WO2009076876A1 (zh) 卡通形象的生成、嵌入方法及系统
US20110029540A1 (en) Method for matching artistic attributes of a template and secondary images to a primary image
JP2012519333A (ja) 画像変換システムおよび方法
WO2011014233A1 (en) Image capture device with artistic template design
CN113302659A (zh) 用于生成具有定制的文本消息的个性化视频的系统和方法
JP7483301B2 (ja) 画像処理及び画像合成方法、装置及びコンピュータプログラム
CN109035288A (zh) 一种图像处理方法及装置、设备和存储介质
KR20220150410A (ko) 동적 깊이 이미지를 캡처 및 편집하는 기술
CN112884908A (zh) 基于增强现实的显示方法、设备、存储介质及程序产品
CN116724337A (zh) 增强现实内容中显示屏的检测和模糊化
JP2003125361A (ja) 情報処理装置、情報処理方法、情報処理プログラム、及び情報処理システム
WO2020040061A1 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
US20240062500A1 (en) Generating ground truths for machine learning
CN114255230A (zh) 基于人脸特征点的人像下颌线修图方法和装置以及设备
CN112887796A (zh) 视频生成方法、装置、设备及介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 08861803

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 3260/CHENP/2010

Country of ref document: IN

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC, EPO FORM 1205A DATED 22.10.2010.

122 Ep: pct application non-entry in european phase

Ref document number: 08861803

Country of ref document: EP

Kind code of ref document: A1