CN112256902A - 图片的文案生成方法、装置、设备及存储介质 - Google Patents
图片的文案生成方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN112256902A CN112256902A CN202011129209.XA CN202011129209A CN112256902A CN 112256902 A CN112256902 A CN 112256902A CN 202011129209 A CN202011129209 A CN 202011129209A CN 112256902 A CN112256902 A CN 112256902A
- Authority
- CN
- China
- Prior art keywords
- picture
- generated
- information
- document
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/55—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/5866—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, manually generated location and time information
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Library & Information Science (AREA)
- Image Analysis (AREA)
Abstract
本申请提供一种图片的文案生成方法、装置、设备及存储介质,其中,图片的文案生成方法包括步骤:将待生成文案的图片导入深度图片分类模型中,以获取深度图片分类模型输出的待生成文案的图片的风格信息,将待生成文案的图片导入深度空间分类模型中,以获取深度空间分类模型输出的待生成文案的图片的空间分类信息,将待生成文案的图片导入目标检测模型中,以获取目标检测模型输出的待生成文案的图片的类型信息,将空间分类信息、类型信息、风格信息导入关键词生成模型中,以获取关键词生成模型输出的待生成文案的图片对应的文案信息。通过本申请生成的图片对应的文案具有多样性。
Description
技术领域
本申请涉及计算机领域,具体而言,涉及一种图片的文案生成方法、装置、设备及存储介质。
背景技术
文案生成领域应用前景广阔,具有巨大的市场需求,例如电商中的商品推荐语、新闻财报等,这可以大大提高效率以及降低一些重复性的工作。
然而,现有的从图片到文本的自动生成技术主要是基于端到端的Seq2Seq算法模型框架实现,这种方式生成的文案较为单一,而无法生成大量的多样性文本。
发明内容
本申请实施例的目的在于提供一种图片的文案生成方法、装置、设备及存储介质,用以实现基于图片生成的文案具有多样性。
为此,本申请第一方面提供一种图片的文案生成方法,所述方法包括步骤:
获取待生成文案的图片;
将所述待生成文案的图片导入深度图片分类模型中,以获取所述深度图片分类模型输出的所述待生成文案的图片的风格信息,所述待生成文案的图片的风格信息表征所述待生成文案的图片中记载的物体的装饰风格;
将所述待生成文案的图片导入深度空间分类模型中,以获取所述深度空间分类模型输出的所述待生成文案的图片的空间分类信息,所述待生成文案的图片的空间分类信息表征所述待生成文案的图片中记载物体的放置空间类型;
将所述待生成文案的图片导入目标检测模型中,以获取所述目标检测模型输出的所述待生成文案的图片的类型信息,所述待生成文案的图片的类型信息表征所述待生成文案的图片中记载物体的家居类型;
将所述空间分类信息、所述类型信息、所述风格信息导入关键词生成模型中,以获取所述关键词生成模型输出的所述待生成文案的图片对应的文案信息。
在本申请第一方面中,通过分别将待生成文案的图片导入训练好的目标检测模型、深度图片分类模型、深度空间分类模型中,可得到待生成文案的图片对应的空间分类信息、类型信息、风格信息,这样一来就能够得到待生成文案的图片的更多信息,进而能够基于待生成文案的图片的更多信息生成更加多样的文案,且可提高所生成文案的可读性、通顺性、相关性。
在本申请第一方面中,作为一种可选的实施方式,在所述将所述待生成文案的图片导入深度图片分类模型中之前,所述方法还包括:
根据第一预设训练样本训练ResNet神经网络,并得到所述深度图片分类模型。
在本可选的实施方式中,通过第一预设训练样本可训练ResNet神经网络,进而能够得到深度图片分类模型。
在本申请第一方面中,作为一种可选的实施方式,所述待生成文案的图片中记载的物体的装饰风格至少是美式、中式、欧式、日式、工业、轻奢、混搭、地中海、现代、古典、田园、东南亚中的一种风格。
本可选的实施方式中能够识别多种待生成文案的图片中记载的物体的装饰风格。
在本申请第一方面中,作为一种可选的实施方式,在所述将所述待生成文案的图片导入目标检测模型中之前,所述方法还包括:
根据第二预设训练样本训练YOLO神经网络模型,并得到所述目标检测模型。
在本可选的实施方式中,通过第二预设训练样本可训练YOLO神经网络模型,进而能够得到目标检测模型。
在本申请第一方面中,作为一种可选的实施方式,所述待生成文案的图片中记载物体的家居类型至少是床、柜、沙发、瓷砖、椅子中的一种。
本可选的实施方式中能够识别多种不同家居类型的图片,这样一来,能够针对不同家居类型的图片生成多样的文案。
在本申请第一方面中,作为一种可选的实施方式,在所述将所述待生成文案的图片导入深度空间分类模型中之前,所述方法还包括:
根据第三预设训练样本训练ResNet神经网络,并得到所述深度空间分类模型。
在本可选的实施方式中,通过第三预设训练样本能够训练ResNet神经网络,进而能够得到深度空间分类模型。
在本申请第一方面中,作为一种可选的实施方式,所述待生成文案的图片中记载物体的放置空间类型至少是阳台、卫生间、卧室、儿童房、玄关、厨房、客厅、餐厅、书房、衣帽间中的一种。
本可选的实施方式能够识别多种不同放置空间类型的图片,这样一来,能够针对不放置空间类型的图片生成多样的文案。
本申请第二方面提供一种图片的文案生成装置,所述装置包括:
第一获取模块,用于获取待生成文案的图片;
第二获取模块,用于将所述待生成文案的图片导入深度图片分类模型中,以获取所述深度图片分类模型输出的所述待生成文案的图片的风格信息,所述待生成文案的图片的风格信息表征所述待生成文案的图片中记载的物体的装饰风格;
第三获取模块,用于将所述待生成文案的图片导入深度空间分类模型中,以获取所述深度空间分类模型输出的所述待生成文案的图片的空间分类信息,所述待生成文案的图片的空间分类信息表征所述待生成文案的图片中记载物体的放置空间类型;
第四获取模块,用于将所述待生成文案的图片导入目标检测模型中,以获取所述目标检测模型输出的所述待生成文案的图片的类型信息,所述待生成文案的图片的类型信息表征所述待生成文案的图片中记载物体的家居类型;
第五获取模块,用于将所述空间分类信息、所述类型信息、所述风格信息导入关键词生成模型中,以获取所述关键词生成模型输出的所述待生成文案的图片对应的文案信息。
本申请第二方面的装置,能够通过分别将待生成文案的图片导入训练好的目标检测模型、深度图片分类模型、深度空间分类模型中,进而得到待生成文案的图片对应的空间分类信息、类型信息、风格信息,这样一来就能够得到待生成文案的图片的更多信息,进而能够基于待生成文案的图片的更多信息生成更加多样的文案,且可提高所生成文案的可读性、通顺性、相关性。
本申请第三方面提供一种图片的文案生成设备,所述设备包括:
处理器;以及
存储器,配置用于存储机器可读指令,所述指令在由所述处理器执行时,使得所述处理器执行如本申请第一方面图片的文案生成方法。
本申请第三方面的设备,能够通过分别将待生成文案的图片导入训练好的目标检测模型、深度图片分类模型、深度空间分类模型中,进而得到待生成文案的图片对应的空间分类信息、类型信息、风格信息,这样一来就能够得到待生成文案的图片的更多信息,进而能够基于待生成文案的图片的更多信息生成更加多样的文案,且可提高所生成文案的可读性、通顺性、相关性。
本申请第四方面提供一种存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行本申请第一方面的图片的文案生成方法。
本申请第四方面的存储介质,能够通过分别将待生成文案的图片导入训练好的目标检测模型、深度图片分类模型、深度空间分类模型中,进而得到待生成文案的图片对应的空间分类信息、类型信息、风格信息,这样一来就能够得到待生成文案的图片的更多信息,进而能够基于待生成文案的图片的更多信息生成更加多样的文案,且可提高所生成文案的可读性、通顺性、相关性。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请实施例提供的一种图片的文案生成方法的流程示意图;
图2为本申请实施例提供的一种图片的文案生成装置的结构示意图;
图3为本申请实施例提供的一种图片的文案生成设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述。
实施例一
请参阅图1,图1是本申请实施例提供的一种图片的文案生成方法的流程示意图。如图1所示,本申请实施例的方法包括步骤:
101、获取待生成文案的图片;
102、将待生成文案的图片导入深度图片分类模型中,以获取深度图片分类模型输出的待生成文案的图片的风格信息,待生成文案的图片的风格信息表征待生成文案的图片中记载的物体的装饰风格;
103、将待生成文案的图片导入深度空间分类模型中,以获取深度空间分类模型输出的待生成文案的图片的空间分类信息,待生成文案的图片的空间分类信息表征待生成文案的图片中记载物体的放置空间类型;
104、将待生成文案的图片导入目标检测模型中,以获取目标检测模型输出的待生成文案的图片的类型信息,待生成文案的图片的类型信息表征待生成文案的图片中记载物体的家居类型;
105、将空间分类信息、类型信息、风格信息导入关键词生成模型中,以获取关键词生成模型输出的待生成文案的图片对应的文案信息。
在本申请实施例中,待生成文案的图片为与家具相关的图片,例如,待生成文案的图片可以是摆放有出具的厨房照片。
在本申请实施例中,深度空间分类模型能够根据待生成文案的图片中的目标物体周围的图像特征识别出,例如,假设待生成文案的图片中的目标物体为柜子,且待生成文案的图片中出现床,则可以确定待生成文案的图片的物体的放置空间类型为卧室。
在本申请实施例中,假设待生成文案的图片中的目标物体可以通过目标检测模型,例如,通过目标检测模型确定假设待生成文案的图片中的目标物体为柜子。
与现有技术相比,本申请实施例能够从待生成文案的图片中获取更多的信息,进而生成更多的文案。而Seq2Seq算法模型框架是基于词向量实现,其仅是将较少的描述词生成图片的文案,进而当描述词有限或单一的情况下,无法生成丰富多样的文案。例如,采用Seq2Seq算法模型框架,是基于一图片的描述标签“家居”、“柜子”、“卧室”生成一段“柜子是卧室内的一种家居”,然而,本申请实施例能够提取出图片中的空间分类信息、类型信息、风格信息分,即“卧室”、“柜子”、“欧式”,那么本申请实施例能够生成“柜子是一种卧室内的欧式家居”等。
需要说明的是,深度图片分类模型能够输出待生成文案的图片的多种风格,即待生成文案的图片的风格信息可以包括多种风格标签。例如,同时包括“中式”、“轻奢”等。
可见,通过分别将待生成文案的图片导入训练好的目标检测模型、深度图片分类模型、深度空间分类模型中,可得到待生成文案的图片对应的空间分类信息、类型信息、风格信息,这样一来就能够得到待生成文案的图片的更多信息,进而能够基于待生成文案的图片的更多信息生成更加多样的文案,且可提高所生成文案的可读性、通顺性、相关性。
在本申请实施例中,作为一种可选的实施方式,在步骤102:将待生成文案的图片导入深度图片分类模型中之前,本申请实施例的方法还包括:
根据第一预设训练样本训练ResNet神经网络,并得到深度图片分类模型。
在本可选的实施方式中,通过第一预设训练样本可训练ResNet神经网络,进而能够得到深度图片分类模型。
需要说明的是,第一预设训练样本与第二预设训练样本、第三预设训练样本可以是相同的样本,也可以是不同的训练样本。
再需要说明的是,关于如何训练ResNet神经网络,得到深度图片分类模型,请参阅现有技术,本申请实施例对此不作赘述。
在本申请实施例,作为一种可选的实施方式,待生成文案的图片中记载的物体的装饰风格至少是美式、中式、欧式、日式、工业、轻奢、混搭、地中海、现代、古典、田园、东南亚中的一种风格。
本可选的实施方式中能够识别多种待生成文案的图片中记载的物体的装饰风格。
在本申请实施例中,作为一种可选的实施方式,在步骤104:将待生成文案的图片导入目标检测模型中之前,本申请实施例的方法还包括:
根据第二预设训练样本训练YOLO神经网络模型,并得到目标检测模型。
在本可选的实施方式中,通过第二预设训练样本可训练YOLO神经网络模型,进而能够得到目标检测模型。
需要说明的是,关于如何训练YOLO神经网络模型,得到目标检测模型,请参阅现有技术,本申请实施例对此不作赘述。
在本申请实施例中,作为一种可选的实施方式,待生成文案的图片中记载物体的家居类型至少是床、柜、沙发、瓷砖、椅子中的一种。
本可选的实施方式中能够识别多种不同家居类型的图片,这样一来,能够针对不同家居类型的图片生成多样的文案。
在本申请实施例中,作为一种可选的实施方式,在步骤103:将待生成文案的图片导入深度空间分类模型中之前,本申请实施例的方法还包括步骤:
根据第三预设训练样本训练ResNet神经网络,并得到深度空间分类模型。
在本可选的实施方式中,通过第三预设训练样本能够训练ResNet神经网络,进而能够得到深度空间分类模型。
需要说明的是,关于如何训练ResNet神经网络,得到深度空间分类模型,请参阅现有技术,本申请实施例对此不作赘述。
在本申请实施例中,作为一种可选的实施方式,待生成文案的图片中记载物体的放置空间类型至少是阳台、卫生间、卧室、儿童房、玄关、厨房、客厅、餐厅、书房、衣帽间中的一种。
本可选的实施方式能够识别多种不同放置空间类型的图片,这样一来,能够针对不放置空间类型的图片生成多样的文案。
实施例二
请参阅图2,图2是本申请实施例公开的一种图片的文案生成装置的结构示意图。如图2所示,本申请实施例的装置包括:
第一获取模块201,用于获取待生成文案的图片;
第二获取模块202,用于将待生成文案的图片导入深度图片分类模型中,以获取深度图片分类模型输出的待生成文案的图片的风格信息,待生成文案的图片的风格信息表征待生成文案的图片中记载的物体的装饰风格;
第三获取模块203,用于将待生成文案的图片导入深度空间分类模型中,以获取深度空间分类模型输出的待生成文案的图片的空间分类信息,待生成文案的图片的空间分类信息表征待生成文案的图片中记载物体的放置空间类型;
第四获取模块204,用于将待生成文案的图片导入目标检测模型中,以获取目标检测模型输出的待生成文案的图片的类型信息,待生成文案的图片的类型信息表征待生成文案的图片中记载物体的家居类型;
第五获取模块205,用于将空间分类信息、类型信息、风格信息导入关键词生成模型中,以获取关键词生成模型输出的待生成文案的图片对应的文案信息。
在本申请实施例中,待生成文案的图片为与家具相关的图片,例如,待生成文案的图片可以是摆放有出具的厨房照片。
在本申请实施例中,深度空间分类模型能够根据待生成文案的图片中的目标物体周围的图像特征识别出,例如,假设待生成文案的图片中的目标物体为柜子,且待生成文案的图片中出现床,则可以确定待生成文案的图片的物体的放置空间类型为卧室。
在本申请实施例中,假设待生成文案的图片中的目标物体可以通过目标检测模型,例如,通过目标检测模型确定假设待生成文案的图片中的目标物体为柜子。
与现有技术相比,本申请实施例能够从待生成文案的图片中获取更多的信息,进而生成更多的文案。而Seq2Seq算法模型框架是基于词向量实现,其仅是将较少的描述词生成图片的文案,进而当描述词有限或单一的情况下,无法生成丰富多样的文案。例如,采用Seq2Seq算法模型框架,是基于一图片的描述标签“家居”、“柜子”、“卧室”生成一段“柜子是卧室内的一种家居”,然而,本申请实施例能够提取出图片中的空间分类信息、类型信息、风格信息分,即“卧室”、“柜子”、“欧式”,那么本申请实施例能够生成“柜子是一种卧室内的欧式家居”等。
需要说明的是,深度图片分类模型能够输出待生成文案的图片的多种风格,即待生成文案的图片的风格信息可以包括多种风格标签。例如,同时包括“中式”、“轻奢”等。
可见,通过分别将待生成文案的图片导入训练好的目标检测模型、深度图片分类模型、深度空间分类模型中,可得到待生成文案的图片对应的空间分类信息、类型信息、风格信息,这样一来就能够得到待生成文案的图片的更多信息,进而能够基于待生成文案的图片的更多信息生成更加多样的文案,且可提高所生成文案的可读性、通顺性、相关性。
在本申请实施例中,本申请实施例的装置还包括:
第一训练模块,用于根据第一预设训练样本训练ResNet神经网络,并得到深度图片分类模型。
在本可选的实施方式中,通过第一预设训练样本可训练ResNet神经网络,进而能够得到深度图片分类模型。
需要说明的是,第一预设训练样本与第二预设训练样本、第三预设训练样本可以是相同的样本,也可以是不同的训练样本。
再需要说明的是,关于如何训练ResNet神经网络,得到深度图片分类模型,请参阅现有技术,本申请实施例对此不作赘述。
在本申请实施例,作为一种可选的实施方式,待生成文案的图片中记载的物体的装饰风格至少是美式、中式、欧式、日式、工业、轻奢、混搭、地中海、现代、古典、田园、东南亚中的一种风格。
本可选的实施方式中能够识别多种待生成文案的图片中记载的物体的装饰风格。
在本申请实施例中,作为一种可选的实施方式,在本申请实施例中,本申请实施例的装置还包括:
第二训练模块,用于根据第二预设训练样本训练YOLO神经网络模型,并得到目标检测模型。
在本可选的实施方式中,通过第二预设训练样本可训练YOLO神经网络模型,进而能够得到目标检测模型。
需要说明的是,关于如何训练YOLO神经网络模型,得到目标检测模型,请参阅现有技术,本申请实施例对此不作赘述。
在本申请实施例中,作为一种可选的实施方式,待生成文案的图片中记载物体的家居类型至少是床、柜、沙发、瓷砖、椅子中的一种。
本可选的实施方式中能够识别多种不同家居类型的图片,这样一来,能够针对不同家居类型的图片生成多样的文案。
在本申请实施例中,可选地,本申请实施例的装置还包括:
第三训练模块,用于根据第三预设训练样本训练ResNet神经网络,并得到深度空间分类模型。
在本可选的实施方式中,通过第三预设训练样本能够训练ResNet神经网络,进而能够得到深度空间分类模型。
需要说明的是,关于如何训练ResNet神经网络,得到深度空间分类模型,请参阅现有技术,本申请实施例对此不作赘述。
在本申请实施例中,作为一种可选的实施方式,待生成文案的图片中记载物体的放置空间类型至少是阳台、卫生间、卧室、儿童房、玄关、厨房、客厅、餐厅、书房、衣帽间中的一种。
本可选的实施方式能够识别多种不同放置空间类型的图片,这样一来,能够针对不放置空间类型的图片生成多样的文案。
实施例三
请参阅图3,图3是本申请实施例公开的一种图片的文案生成设备的结构示意图。如图3所示,本申请实施例的设备包括:
处理器301;以及
存储器302,配置用于存储机器可读指令,指令在由处理器301执行时,使得处理器301执行如本申请实施例一提供的图片的文案生成方法。
本申请实施例的设备,能够通过分别将待生成文案的图片导入训练好的目标检测模型、深度图片分类模型、深度空间分类模型中,进而得到待生成文案的图片对应的空间分类信息、类型信息、风格信息,这样一来就能够得到待生成文案的图片的更多信息,进而能够基于待生成文案的图片的更多信息生成更加多样的文案,且可提高所生成文案的可读性、通顺性、相关性。
实施例四
本申请实施例提供一种存储介质,该存储介质存储有计算机程序,计算机程序被处理器执行本申请实施例一提供的图片的文案生成方法。
本申请实施例的存储介质,能够通过分别将待生成文案的图片导入训练好的目标检测模型、深度图片分类模型、深度空间分类模型中,进而得到待生成文案的图片对应的空间分类信息、类型信息、风格信息,这样一来就能够得到待生成文案的图片的更多信息,进而能够基于待生成文案的图片的更多信息生成更加多样的文案,且可提高所生成文案的可读性、通顺性、相关性。
在本申请所提供的实施例中,应该理解到,所揭露装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
另外,作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
再者,在本申请各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
需要说明的是,功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。
以上所述仅为本申请的实施例而已,并不用于限制本申请的保护范围,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (10)
1.一种图片的文案生成方法,其特征在于,所述方法包括:
获取待生成文案的图片;
将所述待生成文案的图片导入深度图片分类模型中,以获取所述深度图片分类模型输出的所述待生成文案的图片的风格信息,所述待生成文案的图片的风格信息表征所述待生成文案的图片中记载的物体的装饰风格;
将所述待生成文案的图片导入深度空间分类模型中,以获取所述深度空间分类模型输出的所述待生成文案的图片的空间分类信息,所述待生成文案的图片的空间分类信息表征所述待生成文案的图片中记载物体的放置空间类型;
将所述待生成文案的图片导入目标检测模型中,以获取所述目标检测模型输出的所述待生成文案的图片的类型信息,所述待生成文案的图片的类型信息表征所述待生成文案的图片中记载物体的家居类型;
将所述空间分类信息、所述类型信息、所述风格信息导入关键词生成模型中,以获取所述关键词生成模型输出的所述待生成文案的图片对应的文案信息。
2.如权利要求1所述的图片的文案生成方法,其特征在于,在所述将所述待生成文案的图片导入深度图片分类模型中之前,所述方法还包括:
根据第一预设训练样本训练ResNet神经网络,并得到所述深度图片分类模型。
3.如权利要求2所述的图片的文案生成方法,其特征在于,所述待生成文案的图片中记载的物体的装饰风格至少是美式、中式、欧式、日式、工业、轻奢、混搭、地中海、现代、古典、田园、东南亚中的一种风格。
4.如权利要求1所述的图片的文案生成方法,其特征在于,在所述将所述待生成文案的图片导入目标检测模型中之前,所述方法还包括:
根据第二预设训练样本训练YOLO神经网络模型,并得到所述目标检测模型。
5.如权利要求4所述的图片的文案生成方法,其特征在于,所述待生成文案的图片中记载物体的家居类型至少是床、柜、沙发、瓷砖、椅子中的一种。
6.如权利要求1所述的图片的文案生成方法,其特征在于,在所述将所述待生成文案的图片导入深度空间分类模型中之前,所述方法还包括:
根据第三预设训练样本训练ResNet神经网络,并得到所述深度空间分类模型。
7.如权利要求6所述的图片的文案生成方法,其特征在于,所述待生成文案的图片中记载物体的放置空间类型至少是阳台、卫生间、卧室、儿童房、玄关、厨房、客厅、餐厅、书房、衣帽间中的一种。
8.一种图片的文案生成装置,其特征在于,所述装置包括:
第一获取模块,用于获取待生成文案的图片;
第二获取模块,用于将所述待生成文案的图片导入深度图片分类模型中,以获取所述深度图片分类模型输出的所述待生成文案的图片的风格信息,所述待生成文案的图片的风格信息表征所述待生成文案的图片中记载的物体的装饰风格;
第三获取模块,用于将所述待生成文案的图片导入深度空间分类模型中,以获取所述深度空间分类模型输出的所述待生成文案的图片的空间分类信息,所述待生成文案的图片的空间分类信息表征所述待生成文案的图片中记载物体的放置空间类型;
第四获取模块,用于将所述待生成文案的图片导入目标检测模型中,以获取所述目标检测模型输出的所述待生成文案的图片的类型信息,所述待生成文案的图片的类型信息表征所述待生成文案的图片中记载物体的家居类型;
第五获取模块,用于将所述空间分类信息、所述类型信息、所述风格信息导入关键词生成模型中,以获取所述关键词生成模型输出的所述待生成文案的图片对应的文案信息。
9.一种图片的文案生成设备,其特征在于,所述设备包括:
处理器;以及
存储器,配置用于存储机器可读指令,所述指令在由所述处理器执行时,使得所述处理器执行如权利要求1-7任一项所述的图片的文案生成方法。
10.一种存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行如权利要求1-7任一项所述的图片的文案生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011129209.XA CN112256902A (zh) | 2020-10-20 | 2020-10-20 | 图片的文案生成方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011129209.XA CN112256902A (zh) | 2020-10-20 | 2020-10-20 | 图片的文案生成方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112256902A true CN112256902A (zh) | 2021-01-22 |
Family
ID=74263679
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011129209.XA Pending CN112256902A (zh) | 2020-10-20 | 2020-10-20 | 图片的文案生成方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112256902A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109522531A (zh) * | 2017-09-18 | 2019-03-26 | 腾讯科技(北京)有限公司 | 文案生成方法和装置、存储介质及电子装置 |
CN110309839A (zh) * | 2019-08-27 | 2019-10-08 | 北京金山数字娱乐科技有限公司 | 一种图像描述的方法及装置 |
US20190325259A1 (en) * | 2018-04-12 | 2019-10-24 | Discovery Communications, Llc | Feature extraction and machine learning for automated metadata analysis |
CN110969137A (zh) * | 2019-12-10 | 2020-04-07 | 杭州群核信息技术有限公司 | 家居图像描述生成方法、装置、系统及存储介质 |
CN111310867A (zh) * | 2020-05-11 | 2020-06-19 | 北京金山数字娱乐科技有限公司 | 一种基于图片的文本生成方法及装置 |
CN111581926A (zh) * | 2020-05-15 | 2020-08-25 | 北京字节跳动网络技术有限公司 | 文案生成方法、装置、设备和计算机可读存储介质 |
-
2020
- 2020-10-20 CN CN202011129209.XA patent/CN112256902A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109522531A (zh) * | 2017-09-18 | 2019-03-26 | 腾讯科技(北京)有限公司 | 文案生成方法和装置、存储介质及电子装置 |
US20190325259A1 (en) * | 2018-04-12 | 2019-10-24 | Discovery Communications, Llc | Feature extraction and machine learning for automated metadata analysis |
CN110309839A (zh) * | 2019-08-27 | 2019-10-08 | 北京金山数字娱乐科技有限公司 | 一种图像描述的方法及装置 |
CN110969137A (zh) * | 2019-12-10 | 2020-04-07 | 杭州群核信息技术有限公司 | 家居图像描述生成方法、装置、系统及存储介质 |
CN111310867A (zh) * | 2020-05-11 | 2020-06-19 | 北京金山数字娱乐科技有限公司 | 一种基于图片的文本生成方法及装置 |
CN111581926A (zh) * | 2020-05-15 | 2020-08-25 | 北京字节跳动网络技术有限公司 | 文案生成方法、装置、设备和计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106462608B (zh) | 改进语言模型的知识源个性化 | |
Jänicke et al. | On Close and Distant Reading in Digital Humanities: A Survey and Future Challenges. | |
Schöch | Big? Smart? Clean? Messy? Data in the Humanities? | |
CN102779114B (zh) | 利用自动规则生成的非结构化数据支持 | |
CN106033435B (zh) | 物品识别方法和装置,室内地图生成方法和装置 | |
US9177262B2 (en) | Method of automated discovery of new topics | |
CN101416179B (zh) | 用来向每个用户提供调整推荐字的系统和方法 | |
US9582494B2 (en) | Object extraction from presentation-oriented documents using a semantic and spatial approach | |
CN100449485C (zh) | 信息处理装置和方法 | |
US20110173527A1 (en) | Determining Semantically Distinct Regions of a Document | |
US10366154B2 (en) | Information processing device, information processing method, and computer program product | |
CN107295361B (zh) | 一种内容推送方法 | |
CN101609399B (zh) | 基于建模的智能化网站开发系统及方法 | |
CN110532309B (zh) | 一种高校图书馆用户画像系统的生成方法 | |
CA2669479A1 (en) | Generating end-user presentations from structured data | |
CN109344298A (zh) | 一种将非结构化数据转化为结构化数据的方法及装置 | |
CN106227714A (zh) | 一种基于人工智能的获取生成诗词的关键词的方法和装置 | |
Ye et al. | 3D question answering | |
CN114817481A (zh) | 基于大数据的智慧供应链可视化方法及装置 | |
CN110826321A (zh) | 合同文件风险校验方法、装置、计算机设备以及存储介质 | |
CN114238689A (zh) | 视频生成方法、装置、电子设备、存储介质和程序产品 | |
Abrami et al. | Text2scenevr: Generating hypertexts with vannotator as a pre-processing step for text2scene systems | |
US20240086452A1 (en) | Tracking concepts within content in content management systems and adaptive learning systems | |
CN112966099A (zh) | 关系图谱展示方法、装置及计算机可读存储介质 | |
CN104837065B (zh) | 电视终端与移动终端间的二维码信息共享方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |