CN102509328A - 日记文件生成方法和装置 - Google Patents
日记文件生成方法和装置 Download PDFInfo
- Publication number
- CN102509328A CN102509328A CN2011103023779A CN201110302377A CN102509328A CN 102509328 A CN102509328 A CN 102509328A CN 2011103023779 A CN2011103023779 A CN 2011103023779A CN 201110302377 A CN201110302377 A CN 201110302377A CN 102509328 A CN102509328 A CN 102509328A
- Authority
- CN
- China
- Prior art keywords
- image
- action command
- journal file
- action
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
本发明提供了一种日记文件生成方法和装置,其中,该方法包括:获取用于生成日记文件的图像和动作描述信息;获取动作描述信息所对应的动作指令信息;根据动作指令信息和图像生成日记文件。本发明解决了现有技术中生成日记文件的复杂度较大的问题,降低了生成日记文件的复杂度,提高了效率,并能够满足用户不同的需求。
Description
技术领域
本发明涉及通信领域,具体而言,涉及一种日记文件生成方法和装置。
背景技术
随着技术的发展,用户目前可以通过很多种形式来生成日记文件,例如,通过视频、拍照、电子文本、手工记录等方式。
以视频生成日记文件为例,用户可以对感兴趣的内容进行拍摄,然后将拍摄后的视频文件作为日记文件进行存储。若以后需要查看上述感兴趣的内容,用户可以调取存储的日记文件来播放对应的视频文件。
在上述生成日记文件的过程中,若相同的主体在同一个场景下执行不同的动作,需要分开拍摄和存储。举例而言,假设需要拍摄的是用户A将物体B抱到地方C1上以及用户A将物体B背到地方C1上,这样,需要重复拍摄两个视频文件,以分别记录用户A将物体B抱运到地方C1上以及背到地方C1上的过程。
在上述的通过视频生成日记文件的过程中,搬运的主体均为用户A,搬运的对象均为物体B,目的地均为C1,只是执行的动作不同。然而,即使上述两个视频内容的差别不大,但仍然需要重复拍摄,形成不同的视频文件,从而增加了生成日记文件的复杂度,导致无法灵活地满足不同的需求。
发明内容
本发明提供了一种日记文件生成方法和装置,以至少解决现有技术中由于生成日记文件的复杂度较大的问题。
根据本发明的一个方面,提供了一种日记文件生成方法,其包括:获取用于生成日记文件的图像和动作描述信息;获取动作描述信息所对应的动作指令信息;根据动作指令信息和图像生成日记文件。
优选的,获取用于生成日记文件的图像的步骤包括:将输入的文本信息和/或图像信息转换成符合预定格式的图像。
优选的,获取动作描述信息所对应的动作指令信息的步骤包括:从数据库中查找与动作描述信息所对应的动作指令信息,其中,所述数据库中预先存储具有映射关系的动作描述信息和动作指令信息。
优选的,根据动作指令信息和图像生成日记文件的步骤包括:操作图像执行动作指令信息中指示的动作指令;记录所述操作的执行过程,并将记录的结果作为日记文件进行存储。
优选的,操作图像执行动作指令信息中指示的动作指令的步骤包括:按照动作指令指示的轨迹操作图像进行运动。
优选的,操作图像执行动作指令信息中指示的动作指令的步骤包括:在不同的时间段上按照动作指令显示图像中的一幅或多幅。
根据本发明的另一方面,提供了一种日记文件记录装置,其包括:获取单元,用于获取用于生成日记文件的图像和动作描述信息,并获取动作描述信息所对应的动作指令信息;生成单元,用于根据动作指令信息和图像生成日记文件。
优选的,获取单元包括:转换模块,用于将输入的文本信息和/或图像信息转换成符合预定格式的图像。
优选的,所述获取单元包括:查找模块,用于从数据库中查找与动作描述信息所对应的动作指令信息,其中,数据库中预先存储具有映射关系的动作描述信息和动作指令信息。
优选的,生成单元包括:处理模块,用于操作图像执行动作指令信息中指示的动作指令;记录模块,用于记录操作的执行过程,并将记录的结果作为日记文件进行存储。
在本发明中,由于根据动作指令信息和图像生成日记文件,因此,即使使用相同的图像,也能够根据不同的动作指令形成不同的日记文件,这样,对于差别较小的两个场景而言,不需要执行重复的拍摄过程,而只需要预先配置图像和不同的动作指令即能够实现日记文件的生成,从而解决了现有技术中生成日记文件的复杂度较大的问题,降低了生成日记文件的复杂度,提高了效率,并能够满足用户不同的需求。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是根据本发明实施例的日记文件生成装置的一种优选结构框图;
图2是根据本发明实施例的日记文件生成方法的一种优选流程图;
图3是根据本发明实施例的日记文件生成装置的另一种优选结构框图;
图4是根据本发明实施例的日记文件生成方法的一种优选流程图;
图5是根据本发明实施例的日记文件生成方法的另一种优选流程图。
具体实施方式
下文中将参考附图并结合实施例来详细说明本发明。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
实施例1
图1是根据本发明实施例的日记文件生成装置的一种优选结构框图,其包括:获取单元102,用于获取用于生成日记文件的图像和动作描述信息,并获取所述动作描述信息所对应的动作指令信息;生成单元104,与获取单元102连接,用于根据所述动作指令信息和所述图像生成日记文件。
在本优选的实施例中,由于根据动作指令信息和图像生成日记文件,因此,即使使用相同的图像,也能够根据不同的动作指令形成不同的日记文件,这样,对于差别较小的两个场景而言,不需要执行重复的拍摄过程,而只需要预先配置图像和不同的动作指令即能够实现日记文件的生成,从而解决了现有技术中生成日记文件的复杂度较大的问题,降低了生成日记文件的复杂度,提高了效率,并能够满足用户不同的需求。
在本发明的优选实施例中,用户可以通过不同格式的输入信息来形成所需的用于生成日记文件的图像,其中,不同格式的输入信息可以包括:手工绘制的图像、文本信息、照片等。为了适用于不同格式的输入信息,本发明提供了一种优选的获取单元102,其包括:转换模块,用于将输入的文本信息和/或图像信息转换成符合预定格式的图像。
例如,在具体的获取图像的过程中,可以包括以下步骤:导入用户输入的手工绘制的图像、文本信息或照片等信息;将这些信息转换成内部能够识别的图像,即,具有统一的格式,例如,尺寸大小和灰度等级等。
为了获取动作指令信息,本发明提供了一种优选的获取单元102,其包括:查找模块,用于从数据库中查找与所述动作描述信息所对应的动作指令信息,其中,所述数据库中预先存储具有映射关系的动作描述信息和动作指令信息。在本优选实施例中,系统预先建立了数据库,存储很多具有映射关系的动作描述信息和动作指令信息,其中,动作指令信息可以但不仅限于由一段代码实现。在本实施例中,相比于实时生成动作指令信息的方式,通过数据库查找的方式,能够快速地获取与所述动作描述信息所对应的动作指令信息,节省了生成日记文件的时间。
为了生成日记文件,本发明还提供一种优选的生成单元104,其包括:处理模块,用于操作所述图像执行所述动作指令信息中指示的动作指令;记录模块,用于记录所述操作的执行过程,并将记录的结果作为日记文件进行存储。这里,具体的操作所述图像执行所述动作指令信息中指示的动作指令的步骤可以但不限于包括以下两种情况:
1)按照所述动作指令指示的轨迹操作所述图像进行运动;或者
2)在不同的时间段上按照所述动作指令显示所述图像中的一幅或多幅。
此外,还可以针对主体图像的不同部位来操作图像执行动作指令信息中指示的动作指令,具体而言,该操作包括:
S1,将外部导入的图片转换成内部能够识别的平面图像;
S2,根据平面图像中的主体像素(人)的轮廓来确定执行动作的各个部位,这里,识别各个部位可以采用现有的图像识别技术,在此不再赘述;优选的,还可以根据平面图像的轮廓结合立体人物对应的配置参数(例如,人物的黄金比例,图像的饱和度等)生成立体图像,然而,从生成的立体图像中按照轮廓确定执行动作的各个部位,当然,用户还可以根据实际需要对生成的立体图像进行大小、胖瘦等方面的修改;
S3,从动作指令的数据库中获取与不同的部位相应的动作指令;
S4,在选择完动作指令之后,按照预定的顺序操作各个部位执行相应的动作指令,同时记录执行的过程,从而形成具有动画效果的日记文件。这里,操作各个部位执行相应的动作指令可以通过编写代码来实现,具体的代码实现可以采用现有的语言,在此不再赘述。
在上述实施例中,可以根据不同的动作生成日记文件。
实施例2
在图1所示的装置的基础上,本发明还提供了一种优选的日记文件生成方法,其包括如下步骤:
S202,获取用于生成日记文件的图像和动作描述信息;
S204,获取动作描述信息所对应的动作指令信息;
S206,根据动作指令信息和图像生成日记文件。
在本优选的实施例中,由于根据动作指令信息和图像生成日记文件,因此,即使使用相同的图像,也能够根据不同的动作指令形成不同的日记文件,这样,对于差别较小的两个场景而言,不需要执行重复的拍摄过程,而只需要预先配置图像和不同的动作指令即能够实现日记文件的生成,从而解决了现有技术中生成日记文件的复杂度较大的问题,降低了生成日记文件的复杂度,提高了效率,并能够满足用户不同的需求。
在本发明的优选实施例中,用户可以通过不同格式的输入信息来形成所需的用于生成日记文件的图像,其中,不同格式的输入信息可以包括:手工绘制的图像、文本信息、照片等。为了适用于不同格式的输入信息,本发明提供了一种优选的获取用于生成日记文件的图像的步骤,其包括:将输入的文本信息和/或图像信息转换成符合预定格式的图像。
例如,在具体的获取图像的过程中,可以包括以下步骤:导入用户输入的手工绘制的图像、文本信息或照片等信息;将这些信息转换成内部能够识别的图像,即,具有统一的格式,例如,尺寸大小和灰度等级等。
为了获取动作指令信息,本发明提供了一种优选的获取动作描述信息所对应的动作指令信息的步骤,其包括:从数据库中查找与动作描述信息所对应的动作指令信息,其中,数据库中预先存储具有映射关系的动作描述信息和动作指令信息。在本优选实施例中,系统预先建立了数据库,存储很多具有映射关系的动作描述信息和动作指令信息,其中,动作指令信息可以但不仅限于由一段代码实现。在本实施例中,相比于实时生成动作指令信息的方式,通过数据库查找的方式,能够快速地获取与动作描述信息所对应的动作指令信息,节省了生成日记文件的时间。
为了生成日记文件,本发明提供一种优选的根据动作指令信息和图像生成日记文件的步骤,其包括:操作图像执行动作指令信息中指示的动作指令;记录操作的执行过程,并将记录的结果作为日记文件进行存储。这里,具体的操作图像执行动作指令信息中指示的动作指令的步骤可以但不限于包括以下两种情况:
1)按照动作指令指示的轨迹操作图像进行运动;或者
2)在不同的时间段上按照动作指令显示图像中的一幅或多幅。
此外,还可以针对主体图像的不同部位来操作图像执行动作指令信息中指示的动作指令,具体而言,该操作包括:
S1,将外部导入的图片转换成内部能够识别的平面图像;
S2,根据平面图像中的主体像素(人)的轮廓来确定执行动作的各个部位,这里,识别各个部位可以采用现有的图像识别技术,在此不再赘述;优选的,还可以根据平面图像的轮廓结合立体人物对应的配置参数(例如,人物的黄金比例,图像的饱和度等)生成立体图像,然而,从生成的立体图像中按照轮廓确定执行动作的各个部位,当然,用户还可以根据实际需要对生成的立体图像进行大小、胖瘦等方面的修改;
S3,从动作指令的数据库中获取与不同的部位相应的动作指令;
S4,在选择完动作指令之后,按照预定的顺序操作各个部位执行相应的动作指令,同时记录执行的过程,从而形成具有动画效果的日记文件。这里,操作各个部位执行相应的动作指令可以通过编写代码来实现,具体的代码实现可以采用现有的语言,在此不再赘述。
在上述实施例中,可以根据不同的动作生成日记文件。
实施例3
图3是根据本发明实施例的日记文件生成装置的另一种优选结构框图,其包括:动画处理模块302,用于根据用户输入的动作描述信息和图像生成作为日记文件的动画;图像管理模块304,用于将用户输入的手工绘制图像、外部导入的图像或文本信息统一转换为内部可识别的图像;动作管理模块306,用于提供动作描述信息与对应的动作指令信息。
下面结合图4对图3所示的日记文件生成装置的工作过程进行的详细,其包括如下步骤:
S402,接收用户输入的与日记文件的主体对应的图像,如:我今天去公园,用户输入“我”和“公园”对应的图像;图像管理模块304将这些图像统一转换为内部可识别的图像;
S404,接收用户输入的用于上述输入的图像之间的动作描述信息,动作管理模块306从数据库中查找与动作描述信息对应的动作指令信息;优选的,还可以利用动画处理模块302处理图像与动作之间整体关系;
S406,动画处理模块302根据日记文件主体图像以及所选择的动作生成具有动画效果的日记文件。
在本优选的实施例中,由于根据动作指令信息和图像生成日记文件,因此,即使使用相同的图像,也能够根据不同的动作指令形成不同的日记文件,这样,对于差别较小的两个场景而言,不需要执行重复的拍摄过程,而只需要预先配置图像和不同的动作指令即能够实现日记文件的生成,从而解决了现有技术中由于重复操作而导致的生成日记文件的复杂度增加的问题,降低了生成日记文件的复杂度,提高了效率,并能够满足用户不同的需求。
下面结合图5来详细的描述动画日记文件场景下的日记文件生成过程。在场景下,用户设置图像和动作,通过动画处理模块完成具有动画效果的日记文件。如图5所示,日记文件生成方法具体包括如下步骤:
S502:日记文件生成装置成功启动动画日记文件生成功能,加载默认图像、动作描述信息(如动词)、动作指令信息等信息。
S504:用户将用于获取所需图像的信息传输给日记文件生成装置。优选的,用于获取所需图像的信息包括:手工绘制的图像、文本信息、本地/远程摄入的图像(例如由拍照、视频等方式生成)。在此步骤中,对用于获取所需图像的信息的大小和格式不做限制。
S506:日记文件生成装置判断用户输入的是否是文本信息,若是,则执行步骤S510,以进行文本转换;否则,执行步骤S508。
S508:日记文件生成装置判断用户输入的是否是手工绘制图像,若是,则执行步骤S512,否则,执行步骤S514。
S510:建立文本与已有图像的关联关系,如:输入我去公园,建立“我”和“公园”对应的图像,执行S516。
S512:将手工绘制的图像保存为日记文件生成装置内部可识别的图像。
S514:日记文件生成装置直接导入用户输入的图像,其中,该图像可来自于视频、拍照、本地图片、远程图片等。
S516:用户建立日记文件主体与图像之间的关联关系,其中日记文件主体为日记文件中所涉及的所有对象。
S518:判断是否创建具有动画效果的日记文件,若是,则进行步骤S520;否则,进行步骤S526。
S520:选择图像之间对应的动作描述信息,根据该动词创建或查找图像之间的动作指令信息。
S522:用户摄入录音,启动音频转换为文字功能。
S524:根据动作指令信息和上述图像生成具有动画效果的日记文件,结束本流程。
S526:用户摄入录音,启动音频转换为文字功能。
S528:生成包含图片的电子文本日记文件,结束本流程。
在本优选实施例中,以将视频,照片等方式转换为漫画或flash的方式记录日记文件。这种新的日记文件记录方式,可以对已有的视频日记文件,照片日记文件,电子文本日记文件等进行加工处理,保证以前的记录不会丢失的同时,还会给用户提供一种新视觉感受,除此之外,这种记录日记文件的方式还具有操作简单,使用便捷的特点。
显然,本领域的技术人员应该明白,上述的本发明的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,并且在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明不限制于任何特定的硬件和软件结合。
以上仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种日记文件生成方法,其特征在于,包括:
获取用于生成日记文件的图像和动作描述信息;
获取所述动作描述信息所对应的动作指令信息;
根据所述动作指令信息和所述图像生成日记文件。
2.根据权利要求1所述的方法,其特征在于,获取用于生成日记文件的图像的步骤包括:将输入的文本信息和/或图像信息转换成符合预定格式的图像。
3.根据权利要求1所述的方法,其特征在于,获取所述动作描述信息所对应的动作指令信息的步骤包括:
从数据库中查找与所述动作描述信息所对应的动作指令信息,其中,所述数据库中预先存储具有映射关系的动作描述信息和动作指令信息。
4.根据权利要求1所述的方法,其特征在于,根据所述动作指令信息和所述图像生成日记文件的步骤包括:
操作所述图像执行所述动作指令信息中指示的动作指令;
记录所述操作的执行过程,并将记录的结果作为日记文件进行存储。
5.根据权利要求4所述的方法,其特征在于,操作所述图像执行所述动作指令信息中指示的动作指令的步骤包括:
按照所述动作指令指示的轨迹操作所述图像进行运动。
6.根据权利要求4所述的方法,其特征在于,操作所述图像执行所述动作指令信息中指示的动作指令的步骤包括:
在不同的时间段上按照所述动作指令显示所述图像中的一幅或多幅。
7.一种日记文件生成装置,其特征在于,包括:
获取单元,用于获取用于生成日记文件的图像和动作描述信息,并获取所述动作描述信息所对应的动作指令信息;
生成单元,用于根据所述动作指令信息和所述图像生成日记文件。
8.根据权利要求7所述的装置,其特征在于,所述获取单元包括:
转换模块,用于将输入的文本信息和/或图像信息转换成符合预定格式的图像。
9.根据权利要求7所述的装置,其特征在于,所述获取单元包括:
查找模块,用于从数据库中查找与所述动作描述信息所对应的动作指令信息,其中,所述数据库中预先存储具有映射关系的动作描述信息和动作指令信息。
10.根据权利要求7所述的装置,其特征在于,所述生成单元包括:
处理模块,用于操作所述图像执行所述动作指令信息中指示的动作指令;
记录模块,用于记录所述操作的执行过程,并将记录的结果作为日记文件进行存储。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2011103023779A CN102509328A (zh) | 2011-09-30 | 2011-09-30 | 日记文件生成方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2011103023779A CN102509328A (zh) | 2011-09-30 | 2011-09-30 | 日记文件生成方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN102509328A true CN102509328A (zh) | 2012-06-20 |
Family
ID=46221405
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2011103023779A Pending CN102509328A (zh) | 2011-09-30 | 2011-09-30 | 日记文件生成方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102509328A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1447265A (zh) * | 2002-03-25 | 2003-10-08 | 白涛 | 将文字型语句转变为相应的动画卡通的基本方法 |
JP2004274226A (ja) * | 2003-03-06 | 2004-09-30 | Matsushita Electric Ind Co Ltd | 情報処理システムおよびプログラム |
CN1567383A (zh) * | 2003-06-18 | 2005-01-19 | 财团法人工业技术研究院 | 利用文字脚本制作三维动画的方法 |
JP2009211389A (ja) * | 2008-03-04 | 2009-09-17 | Sogo Keibi Hosho Co Ltd | 日誌作成装置及び日誌作成方法 |
CN101639943A (zh) * | 2008-07-14 | 2010-02-03 | 三星电子株式会社 | 制作动画的方法和设备 |
CN101840414A (zh) * | 2009-03-17 | 2010-09-22 | 三星电子株式会社 | 从网络文本创建动画的设备和方法 |
-
2011
- 2011-09-30 CN CN2011103023779A patent/CN102509328A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1447265A (zh) * | 2002-03-25 | 2003-10-08 | 白涛 | 将文字型语句转变为相应的动画卡通的基本方法 |
JP2004274226A (ja) * | 2003-03-06 | 2004-09-30 | Matsushita Electric Ind Co Ltd | 情報処理システムおよびプログラム |
CN1567383A (zh) * | 2003-06-18 | 2005-01-19 | 财团法人工业技术研究院 | 利用文字脚本制作三维动画的方法 |
JP2009211389A (ja) * | 2008-03-04 | 2009-09-17 | Sogo Keibi Hosho Co Ltd | 日誌作成装置及び日誌作成方法 |
CN101639943A (zh) * | 2008-07-14 | 2010-02-03 | 三星电子株式会社 | 制作动画的方法和设备 |
CN101840414A (zh) * | 2009-03-17 | 2010-09-22 | 三星电子株式会社 | 从网络文本创建动画的设备和方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101316226B (zh) | 一种获取资源的方法、装置及系统 | |
US20180145941A1 (en) | Personal information apparatus, sharing system and sharing system operating method for servicing map-based user generated contents for social network service | |
CA2690630A1 (en) | Method, apparatus and computer program product for providing association of objects using metadata | |
CN101243706A (zh) | 用于保存移动终端显示器的内容的方法、设备和计算机程序产品 | |
CN111158924B (zh) | 内容分享方法、装置、电子设备及可读存储介质 | |
CN102510360A (zh) | 一种设置联系人头像图片的方法、装置及系统 | |
CN103186908A (zh) | 终端、服务器和基于漫画的交互式处理方法 | |
CN112817671B (zh) | 图像处理方法、装置、设备以及计算机可读存储介质 | |
CN110245128A (zh) | 元模型的建立方法及装置、存储介质、电子装置 | |
CN103151044A (zh) | 基于语音识别的语言转换方法及系统 | |
CN104572830A (zh) | 推荐拍摄信息的处理方法及装置 | |
CN103593172A (zh) | 面向统一结构化数据的应用程序的开发系统、方法及装置 | |
CN102509328A (zh) | 日记文件生成方法和装置 | |
CN104090878A (zh) | 一种多媒体查找方法、终端、服务器及系统 | |
CN109756497A (zh) | 传输调用消息的方法和系统、转发服务器及可读存储介质 | |
KR101324393B1 (ko) | Rest 기반 웹 서비스 조합 시스템 및 방법 | |
CN104239068B (zh) | 多维度语义web服务开发方法 | |
CN105592319A (zh) | 一种服务器截图方法及服务器 | |
CN103491454A (zh) | 一种音视频资源的共享方法、系统及装置 | |
CN113382086A (zh) | 文档传输方法、装置、电子设备及计算机程序产品 | |
KR20160066274A (ko) | 클라우드 스트리밍 서비스 시스템, 어플리케이션 코드를 이용한 이미지 클라우드 스트리밍 서비스 방법 및 이를 위한 장치 | |
CN111010366A (zh) | 一种基于反向隔离技术的数据传输方法及系统 | |
Singh et al. | Twiddlenet: Smartphones as personal content servers for first responders | |
CN104426903A (zh) | 媒体数据分享方法 | |
CN102664821A (zh) | 多媒体邮件客户端、多媒体邮件服务器和多媒体邮件系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20120620 |
|
RJ01 | Rejection of invention patent application after publication |