CN115393685A - 基于可拓展模型的文旅数据处理方法及系统 - Google Patents
基于可拓展模型的文旅数据处理方法及系统 Download PDFInfo
- Publication number
- CN115393685A CN115393685A CN202211330530.3A CN202211330530A CN115393685A CN 115393685 A CN115393685 A CN 115393685A CN 202211330530 A CN202211330530 A CN 202211330530A CN 115393685 A CN115393685 A CN 115393685A
- Authority
- CN
- China
- Prior art keywords
- image
- training
- fusion
- pixel
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims description 7
- 238000012549 training Methods 0.000 claims abstract description 360
- 230000004927 fusion Effects 0.000 claims abstract description 299
- 238000000605 extraction Methods 0.000 claims abstract description 117
- 238000000034 method Methods 0.000 claims abstract description 50
- 238000012545 processing Methods 0.000 claims abstract description 35
- 230000009467 reduction Effects 0.000 claims description 12
- 230000003247 decreasing effect Effects 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 10
- 230000003993 interaction Effects 0.000 description 6
- 238000004590 computer program Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 239000013585 weight reducing agent Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/803—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/14—Travel agencies
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/778—Active pattern-learning, e.g. online learning of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Tourism & Hospitality (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Image Processing (AREA)
Abstract
本发明提供一种基于可拓展模型的文旅数据处理方法及系统,包括:在判断用户输入模型拓展数据后,提取模型拓展数据中的第一图像拓展信息和第二图像选中信息,根据所述第二图像选中信息在预设数据库内选中第二文旅图像信息;提取模型拓展数据中的第一图像融合方式,遍历可拓展模型中的所有预设图像融合方式;向可拓展模型内输入第一训练图像、第二训练图像以及融合训练图像,将所述第一训练图像、第二训练图像分别与融合训练图像进行比对得到第一图像提取信息和第二图像提取信息;可拓展模型根据所述第二图像融合方式将所述第一图像拓展信息、第二文旅图像信息进行融合得到相对应的文旅图像数据。
Description
技术领域
本发明涉及图像处理技术领域,尤其涉及一种基于可拓展模型的文旅数据处理方法及系统。
背景技术
文化旅游产业是旅游产业的重要组成部分。很多地方的经济支柱都是来自于文旅产业,文旅产业如果要做强大不仅需要特殊的地理景色、景观、文化,还需要结合现代化的技术手段。在文旅产业中,需要通过与游人交互能够实现游人更高的娱乐性,现有技术中,对于文旅交互都是固定的,无法根据可拓展模型对文旅交互过程中的特定交互需求进行数据处理。
发明内容
本发明实施例提供一种基于可拓展模型的文旅数据处理方法及系统,能够根据可拓展模型文旅交互过程中的特定交互需求进行数据处理,使得图像拓展信息和图像选中信息能够按照自定义的方式进行结合,提高游人的娱乐性,使得本发明能够根据需求自定义图像的结合方式。
本发明实施例的第一方面,提供一种基于可拓展模型的文旅数据处理方法,包括:
在判断用户输入模型拓展数据后,提取所述模型拓展数据中的第一图像拓展信息和第二图像选中信息,根据所述第二图像选中信息在预设数据库内选中第二文旅图像信息;
提取所述模型拓展数据中的第一图像融合方式,遍历可拓展模型中的所有预设图像融合方式,若判断第一图像融合方式与所有的预设图像融合方式均不相同,则反馈第一学习信息;
根据所述第一学习信息向可拓展模型内输入第一训练图像、第二训练图像以及融合训练图像,将所述第一训练图像、第二训练图像分别与融合训练图像进行比对得到第一图像提取信息和第二图像提取信息;
可拓展模型根据所述第一图像提取信息和第二图像提取信息生成相对应的第二图像融合方式,根据所述第二图像融合方式将所述第一图像拓展信息、第二文旅图像信息进行融合得到相对应的文旅图像数据。
可选地,在第一方面的一种可能实现方式中,所述提取所述模型拓展数据中的第一图像融合方式,遍历可拓展模型中的所有预设图像融合方式,若判断第一图像融合方式与所有的预设图像融合方式均不相同,则反馈第一学习信息,包括:
提取所述第一图像融合方式中的第一融合标签,遍历可拓展模型中的所有预设图像融合方式中的预设融合标签;
将所述第一融合标签与预设融合标签一一比对,若判断存在与第一融合标签对应的预设融合标签,则判断存在与第一图像融合方式相同的预设图像融合方式;
若判断不存在与第一融合标签对应的预设融合标签,则判断第一图像融合方式与所有的预设图像融合方式均不相同,生成第一学习信息并反馈至训练端。
可选地,在第一方面的一种可能实现方式中,所述根据所述第一学习信息向可拓展模型内输入第一训练图像、第二训练图像以及融合训练图像,将所述第一训练图像、第二训练图像分别与融合训练图像进行比对得到第一图像提取信息和第二图像提取信息,包括:
对所述第一训练图像进行坐标化处理,得到第一训练图像中每个第一训练像素点的第一训练坐标信息,确定每个第一训练像素点的第一训练像素值;
对所述第二训练图像进行坐标化处理,得到第二训练图像中每个第二训练像素点的第二训练坐标信息,确定每个第二训练像素点的第二训练像素值;
对所述融合训练图像进行坐标化处理,得到融合训练图像中每个融合训练像素点的融合训练坐标信息,确定每个融合训练像素点的融合训练像素值;
根据第一训练坐标信息、融合训练坐标信息将相对应的第一训练像素点和融合训练像素点进行比对,若判断第一训练像素点和融合训练像素点的第一训练像素值和融合训练像素值相同,则将相对应的第一训练像素点进行第一标记;
统计相邻的具有第一标记的第一训练像素点的第一数量,若所述第一数量大于第一预设数量,则将添加第一标记的第一训练像素点添加第二标记;
统计所有具有第二标记的第一训练像素点的第一训练坐标信息生成第一坐标集合,根据所述第一坐标集合得到第一图像提取信息。
可选地,在第一方面的一种可能实现方式中,所述根据所述第一学习信息向可拓展模型内输入第一训练图像、第二训练图像以及融合训练图像,将所述第一训练图像、第二训练图像分别与融合训练图像进行比对得到第一图像提取信息和第二图像提取信息,包括:
根据第二训练坐标信息、融合训练坐标信息将相对应的第二训练像素点和融合训练像素点进行比对,若判断第二训练像素点和融合训练像素点的第一训练像素值和融合训练像素值相同,则将相对应的第二训练像素点进行第一标记;
统计相邻的具有第一标记的第二训练像素点的第二数量,若所述第二数量大于第二预设数量,则将添加第二标记的第二训练像素点添加第二标记;
统计所有具有第二标记的第二训练像素点的第二训练坐标信息生成第二坐标集合,根据所述第二坐标集合得到第二图像提取信息。
可选地,在第一方面的一种可能实现方式中,所述可拓展模型根据所述第一图像提取信息和第二图像提取信息生成相对应的第二图像融合方式,根据所述第二图像融合方式将所述第一图像拓展信息、第二文旅图像信息进行融合得到相对应的文旅图像数据,包括:
确定所述第一训练图像的第一分辨率、第二训练图像的第二分辨率以及融合训练图像的融合分辨率;
若判断融合分辨率与第一分辨率和/或第二分辨率中的任意一个相对应,则将相应的第一图像提取信息和第二图像提取信息作为基准图像提取信息,将非基准图像提取信息融入至基准图像提取信息的方式作为第二图像融合方式;
确定作为非基准图像提取信息的第一图像提取信息或第二图像提取信息,将非基准图像提取信息的第一分辨率或第二分辨率与融合分辨率进行比对,得到非基准图像提取信息的提取比例;
根据所述提取比例对第一图像拓展信息、第二文旅图像信息进行融合得到相对应的文旅图像数据。
可选地,在第一方面的一种可能实现方式中,所述根据所述提取比例对第一图像拓展信息、第二文旅图像信息进行融合得到相对应的文旅图像数据,包括:
根据所述第一坐标集合对第一图像拓展信息相对应坐标信息的像素点进行提取,得到第一待融合坐标集合;
根据所述第二坐标集合对第二文旅图像信息相对应坐标信息的像素点进行提取,得到第二待融合坐标集合;
若判断第一图像拓展信息和第二文旅图像信息的分辨率不同,则确定第一待融合坐标集合和第二待融合坐标集合分别为基准融合分辨率和非基准融合分辨率;
将所述基准融合分辨率和非基准融合分辨率进行比对,得到分辨率比对结果,根据所述分辨率比对结果对第一待融合坐标集合或第二待融合坐标集合内的坐标进行增加或减少;
将统一分辨率后的第一待融合坐标集合和第二待融合坐标集合进行融合,得到相对应的文旅图像数据。
可选地,在第一方面的一种可能实现方式中,所述将所述基准融合分辨率和非基准融合分辨率进行比对,得到分辨率比对结果,根据所述分辨率比对结果对第一待融合坐标集合或第二待融合坐标集合内的坐标进行增加或减少,包括:
若所述分辨率比对结果为基准融合分辨率大于所述非基准融合分辨率,则根据所述提取比例第一待融合坐标集合或第二待融合坐标集合内的坐标进行增加处理;
通过以下公式计算与非基准融合分辨率对应的待融合坐标集合内所增加像素点的数量,
确定非基准融合分辨率对应的待融合坐标集合内所有像素点的数量,根据待融合坐标集合内所增加像素点的数量进行计算,得到像素点增加槽位;
根据像素点增加槽位相邻的像素点的像素值进行计算,得到像素点增加槽位所对应的像素点的像素值;
若所述分辨率比对结果为基准融合分辨率小于所述非基准融合分辨率,则根据所述提取比例第一待融合坐标集合或第二待融合坐标集合内的坐标进行减少处理;
通过以下公式计算与非基准融合分辨率对应的待融合坐标集合内所减少像素点的数量,
确定非基准融合分辨率对应的待融合坐标集合内所有像素点的数量,根据待融合坐标集合内所减少像素点的数量进行计算,得到像素点减少槽位;
将像素点减少槽位所对应的像素点由相应待融合坐标集合内删除。
可选地,在第一方面的一种可能实现方式中,所述根据像素点增加槽位相邻的像素点的像素值进行计算,得到像素点增加槽位所对应的像素点的像素值,包括:
确定像素点增加槽位在X轴相邻的像素点的像素值以及Y轴相邻的像素点的像素值;
根据所述X轴相邻的像素点的像素值进行计算得到X轴像素趋势值,对所述X轴像素趋势值进行加权处理;
根据所述Y轴相邻的像素点的像素值进行计算得到Y轴像素趋势值,对所述Y轴像素趋势值进行加权处理;
根据加权处理后的X轴像素趋势值、加权处理后的Y轴像素趋势值进行综合计算,得到像素点增加槽位所对应的像素点的像素值,通过以下公式计算像素点增加槽位所对应的像素点的像素值,
其中,为像素点增加槽位所对应的像素点的像素值,为大于像素点增加槽位
所对应X轴的像素点的像素值,为小于像素点增加槽位所对应X轴的像素点的像素值,
为像素点增加槽位所对应X轴的像素点的数量值,为X轴权重系数,为大于像素点增
加槽位所对应Y轴的像素点的像素值,为小于像素点增加槽位所对应Y轴的像素点的像
素值,为像素点增加槽位所对应Y轴的像素点的数量值,为Y轴权重系数,为X轴和Y轴
所对应像素点之和的数量值,为训练调整系数。
可选地,在第一方面的一种可能实现方式中,若判断用户对像素点增加槽位所对应的像素点的像素值进行调整,则确定相应像素值所进行调整的调整方向;
若判断所述像素值的调整方向为正向,则根据调整后的像素值、调整前的像素值、正向调整权重对训练调整系数进行正向的调整训练得到正向调整因子;
根据调整前的训练调整系数、正向调整因子进行计算,得到正向调整后的训练调整系数;
若判断所述像素值的调整方向为负向,则根据调整后的像素值、调整前的像素值、负向调整权重对训练调整系数进行负向的调整训练得到负向调整因子;
根据调整前的训练调整系数、负向调整因子进行计算,得到负向调整后的训练调整系数;
通过以下公式进行计算,得到正向的调整训练、负向的调整训练后的训练调整系数,
本发明实施例的第二方面,提供一种基于可拓展模型的文旅数据处理系统,包括:
提取模块,用于在判断用户输入模型拓展数据后,提取所述模型拓展数据中的第一图像拓展信息和第二图像选中信息,根据所述第二图像选中信息在预设数据库内选中第二文旅图像信息;
反馈模块,用于提取所述模型拓展数据中的第一图像融合方式,遍历可拓展模型中的所有预设图像融合方式,若判断第一图像融合方式与所有的预设图像融合方式均不相同,则反馈第一学习信息;
比对模块,用于根据所述第一学习信息向可拓展模型内输入第一训练图像、第二训练图像以及融合训练图像,将所述第一训练图像、第二训练图像分别与融合训练图像进行比对得到第一图像提取信息和第二图像提取信息;
生成模块,用于使可拓展模型根据所述第一图像提取信息和第二图像提取信息生成相对应的第二图像融合方式,根据所述第二图像融合方式将所述第一图像拓展信息、第二文旅图像信息进行融合得到相对应的文旅图像数据。
本发明实施例的第三方面,提供一种存储介质,所述存储介质中存储有计算机程序,所述计算机程序被处理器执行时用于实现本发明第一方面及第一方面各种可能设计的所述方法。
本发明提供的一种基于可拓展模型的文旅数据处理方法及系统,能够通过可拓展模型对图像的融合方式进行主动的学习,并且在进行学习后,可以根据所学习到的融合方式对第一图像拓展信息、第二文旅图像信息进行相应的融合,使得融合后的文旅图像数据符合用户的使用、展示需求。
本发明提供的技术方案,在进行训练过程中,会对相应的训练图像进行分解,并且将第一训练图像、第二训练图像分别与融合训练图像进行比对,确定第一训练图像、第二训练图像相对于融合训练图像的第一图像提取信息和第二图像提取信息,通过该种方式,能够得到第一训练图像、第二训练图像在进行融合时所形成的融合的特征,进而使得其后续在对需要进行融合的第一图像拓展信息、第二文旅图像信息进行融合时,符合其融合场景。
本发明在调整分辨率时,会增加或减少相应的像素点,在增加像素点时,本发明会根据每个像素点增加槽位的相邻的像素值进行计算,并且本发明可以对像素点增加槽位所对应的像素点的像素值的计算模型进行持续的训练,使得不同的用户都会具有与其向相匹配的、唯一的计算模型,使得本发明可以根据每个用户不同的使用习惯对增加的像素点的像素值进行计算。
附图说明
图1为基于可拓展模型的文旅数据处理方法的第一种实施方式的流程图;
图2为基于可拓展模型的文旅数据处理系统的第一种实施方式的结构图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。
应当理解,在本发明的各种实施例中,各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
应当理解,在本发明中,“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
应当理解,在本发明中,“多个”是指两个或两个以上。“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。“包含A、B和C”、“包含A、B、C”是指A、B、C三者都包含,“包含A、B或C”是指包含A、B、C三者之一,“包含A、B和/或C”是指包含A、B、C三者中任1个或任2个或3个。
应当理解,在本发明中,“与A对应的B”、“与A相对应的B”、“A与B相对应”或者“B与A相对应”,表示B与A相关联,根据A可以确定B。根据A确定B并不意味着仅仅根据A确定B,还可以根据A和/或其他信息确定B。A与B的匹配,是A与B的相似度大于或等于预设的阈值。
取决于语境,如在此所使用的“若”可以被解释成为“在……时”或“当……时”或“响应于确定”或“响应于检测”。
下面以具体地实施例对本发明的技术方案进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例不再赘述。
本发明提供一种基于可拓展模型的文旅数据处理方法,如图1所示,包括:
步骤S110、在判断用户输入模型拓展数据后,提取所述模型拓展数据中的第一图像拓展信息和第二图像选中信息,根据所述第二图像选中信息在预设数据库内选中第二文旅图像信息。用户在需要进行交互时,会主动输入模型拓展数据,本发明会主动提取模型拓展数据中的第一图像拓展信息和第二图像选中信息,第一图像拓展信息可以看作是用户主动输入的图像,例如自己的头像照片,第二图像选中信息可以是在预设数据库内选中第二文旅图像信息,例如某个旅游地的图像,长城图像、故宫图像等等,此时用户需要将自己的图像与旅游地的图像进行结合。
步骤S120、提取所述模型拓展数据中的第一图像融合方式,遍历可拓展模型中的所有预设图像融合方式,若判断第一图像融合方式与所有的预设图像融合方式均不相同,则反馈第一学习信息。此时,本发明会提取模型拓展数据中的第一图像融合方式,第一图像融合方式可以是用户预先设置的,用户可以是管理员,第一图像融合方式可以是将第一图像拓展信息进行缩小后嵌入至第二文旅图像信息内,也可以是将第二文旅图像信息进行缩小后嵌入至第一文旅图像信息内,也可以是第一图像拓展信息和第二文旅图像信息并排设置等等,对于第一图像融合方式的方式本发明不做任何限定。本发明首先会遍历可拓展模型中的所有预设图像融合方式,在第一图像融合方式与所有的预设图像融合方式均不相同时,则证明没有预先存储相对应的融合方式,所以此时需要向用户反馈第一学习信息,即需要对用户所需要的融合方式进行学习。
本发明提供的技术方案,在一个可能的实施方式中,步骤S120包括:
提取所述第一图像融合方式中的第一融合标签,遍历可拓展模型中的所有预设图像融合方式中的预设融合标签。本发明首先会提取第一图像融合方式中的第一融合标签,第一融合标签、预设融合标签例如是将第一图像拓展信息和第二文旅图像信息横向并排设置,本发明会遍历预设图像融合方式中的预设融合标签。
将所述第一融合标签与预设融合标签一一比对,若判断存在与第一融合标签对应的预设融合标签,则判断存在与第一图像融合方式相同的预设图像融合方式。如果存在与第一融合标签对应的预设融合标签,则用户当前所需要的图像的融合方式是可拓展模型中已经存在的。
若判断不存在与第一融合标签对应的预设融合标签,则判断第一图像融合方式与所有的预设图像融合方式均不相同,生成第一学习信息并反馈至训练端。如果不存在与第一融合标签对应的预设融合标签,则用户当前所需要的图像的融合方式是可拓展模型中还不存在的,此时本发明会生成相对应的第一学习信息并反馈至训练端,训练端可以是用户对可拓展模型进行训练的终端。
通过以上的技术方案,本发明能够在需要将两个图像进行融合时,首先确定是否已经存在相对应的融合方式,如果不存在则对用户进行反馈,并进行主动的学习。
步骤S130、根据所述第一学习信息向可拓展模型内输入第一训练图像、第二训练图像以及融合训练图像,将所述第一训练图像、第二训练图像分别与融合训练图像进行比对得到第一图像提取信息和第二图像提取信息。用户可以在接收到第一学习信息后,向可拓展模型内输入第一训练图像、第二训练图像以及融合训练图像。可以这样理解,第一训练图像即为与第一训练图像所对应的图像,第二训练图像即为与第二文旅图像信息所对应的图像,融合训练图像即为第一训练图像和第二训练图像按照其所需要的融合方式所进行融合生成的图像。本发明会对第一训练图像、第二训练图像分别与融合训练图像进行比对得到第一图像提取信息和第二图像提取信息,第一图像提取信息可以看作是第一训练图像相较于融合训练图像的提取信息,第二图像提取信息可以看作是第二训练图像相较于融合训练图像的提取信息。
本发明提供的技术方案,在一个可能的实施方式中,步骤S130包括:
对所述第一训练图像进行坐标化处理,得到第一训练图像中每个第一训练像素点的第一训练坐标信息,确定每个第一训练像素点的第一训练像素值。本发明会对第一训练图像进行坐标化处理,使得每个第一训练图像内的像素点会具有与其对应的坐标,并且本发明会得到每一个第一训练像素点的第一训练像素值。
对所述第二训练图像进行坐标化处理,得到第二训练图像中每个第二训练像素点的第二训练坐标信息,确定每个第二训练像素点的第二训练像素值。本发明会对第二训练图像进行坐标化处理,使得每个第二训练图像内的像素点会具有与其对应的坐标,并且本发明会得到每一个第二训练像素点的第二训练像素值。
对所述融合训练图像进行坐标化处理,得到融合训练图像中每个融合训练像素点的融合训练坐标信息,确定每个融合训练像素点的融合训练像素值。本发明会对融合训练图像进行坐标化处理,使得每个融合训练图像内的像素点会具有与其对应的坐标,并且本发明会得到每一个融合训练像素点的融合训练像素值。
根据第一训练坐标信息、融合训练坐标信息将相对应的第一训练像素点和融合训练像素点进行比对,若判断第一训练像素点和融合训练像素点的第一训练像素值和融合训练像素值相同,则将相对应的第一训练像素点进行第一标记。本发明首先会以第一训练坐标信息、融合训练坐标信息为基础,将第一训练像素点和融合训练像素点进行比对,在第一训练像素点和融合训练像素点的第一训练像素值和融合训练像素值相同时,则证明相应的融合训练像素点可能是属于第一训练图像,即相应的图像点来自于第一训练图像,此时本发明会对相对应的第一训练像素点进行第一标记。
统计相邻的具有第一标记的第一训练像素点的第一数量,若所述第一数量大于第一预设数量,则将添加第一标记的第一训练像素点添加第二标记。本发明会对相邻的具有第一标记的第一训练像素点的数量进行统计,在第一数量大于第一预设数量时,则证明融合训练图像内相对应的像素点均是来自于第一训练图像。
统计所有具有第二标记的第一训练像素点的第一训练坐标信息生成第一坐标集合,根据所述第一坐标集合得到第一图像提取信息。本发明会对有具有第二标记的第一训练像素点的第一训练坐标信息进行统计,可以这样理解,第一坐标集合内的所有坐标信息即为第一训练图像与融合训练图像相对应的像素点,即融合训练图像中来源于第一训练图像的像素点的坐标的集合。
本发明提供的技术方案,在一个可能的实施方式中,步骤S130包括:
根据第二训练坐标信息、融合训练坐标信息将相对应的第二训练像素点和融合训练像素点进行比对,若判断第二训练像素点和融合训练像素点的第一训练像素值和融合训练像素值相同,则将相对应的第二训练像素点进行第一标记。本发明会以第二训练坐标信息、融合训练坐标信息为基础,将第二训练像素点和融合训练像素点进行比对,在第二训练像素点和融合训练像素点的第二训练像素值和融合训练像素值相同时,则证明相应的融合训练像素点可能是属于第二训练图像,即相应的图像点来自于第二训练图像,此时本发明会对相对应的第二训练像素点进行第一标记。
统计相邻的具有第一标记的第二训练像素点的第二数量,若所述第二数量大于第二预设数量,则将添加第二标记的第二训练像素点添加第二标记。本发明会对相邻的具有第一标记的第二训练像素点的数量进行统计,在第二数量大于第二预设数量时,则证明融合训练图像内相对应的像素点均是来自于第二训练图像。
统计所有具有第二标记的第二训练像素点的第二训练坐标信息生成第二坐标集合,根据所述第二坐标集合得到第二图像提取信息。本发明会对有具有第二标记的第二训练像素点的第二训练坐标信息进行统计,可以这样理解,第二坐标集合内的所有坐标信息即为第二训练图像与融合训练图像相对应的像素点,即融合训练图像中来源于第二训练图像的像素点的坐标的集合。
步骤S140、可拓展模型根据所述第一图像提取信息和第二图像提取信息生成相对应的第二图像融合方式,根据所述第二图像融合方式将所述第一图像拓展信息、第二文旅图像信息进行融合得到相对应的文旅图像数据。可以这样理解,第一图像提取信息和第二图像提取信息即为可拓展模型根据第一训练图像、第二图像以及融合训练图像所学习到的知识(图像组合方式),此时可拓展模型会根据所学习到的知识(图像组合方式),将第一图像拓展信息、第二文旅图像信息进行融合得到相对应的文旅图像数据,此时第一图像拓展信息、第二文旅图像信息融合的方式即为可拓展模型新学会的组合方式。
本发明提供的技术方案,在一个可能的实施方式中,步骤S140包括:
确定所述第一训练图像的第一分辨率、第二训练图像的第二分辨率以及融合训练图像的融合分辨率。在实际的应用场景中,不同的训练图像可能会具有不同的分辨率,所以本发明首先会确定所有训练图像的分辨率。
若判断融合分辨率与第一分辨率和/或第二分辨率中的任意一个相对应,则将相应的第一图像提取信息和第二图像提取信息作为基准图像提取信息,将非基准图像提取信息融入至基准图像提取信息的方式作为第二图像融合方式。在融合分辨率与第一分辨率和/或第二分辨率中的任意一个相对应后,本发明会将与融合分辨率相对应的第一分辨率和/或第二分辨率中的一个作为基准图像提取信息。
可以这样理解,如果融合分辨率与第一分辨率相对应,则此时可能是将第二训练图像嵌入至第一训练图像内,此时可以理解为是将第一图像提取信息作为基准图像提取信息。如果融合分辨率与第二分辨率相对应,则此时可能是将第一训练图像嵌入至第二训练图像内,此时可以理解为是将第二图像提取信息作为基准图像提取信息。如果融合分辨率与第一分辨率、第二分辨率相对应,则此时可能存在多种情况,可能是将第二训练图像嵌入至第一训练图像内,也可能是将第一训练图像嵌入至第二训练图像内,在该种情况下,优选以第二训练图像作为基准图像提取信息。
确定作为非基准图像提取信息的第一图像提取信息或第二图像提取信息,将非基准图像提取信息的第一分辨率或第二分辨率与融合分辨率进行比对,得到非基准图像提取信息的提取比例。本发明会确定非基准图像提取信息的第一图像提取信息或第二图像提取信息,并且将非基准图像提取信息的分辨率与融合分辨率进行比对,确定非基准图像提取信息的提取比例,此时提取比例可能是大于0,也可能是小于0,需要根据第一分辨率或第二分辨率与融合分辨率之间分辨率数值进行确定。
根据所述提取比例对第一图像拓展信息、第二文旅图像信息进行融合得到相对应的文旅图像数据。本发明会根据提取比例对第一图像拓展信息、第二文旅图像信息进行融合,可以这样理解,第一图像拓展信息会具有第一分辨率,第二文旅图像信息会具有第二分辨率。本发明会根据提取比例对第一图像拓展信息、第二文旅图像信息进行融合,使得融合后的文旅图像数据具有统一后的分辨率。
本发明提供的技术方案,在一个可能的实施方式中,所述根据所述提取比例对第一图像拓展信息、第二文旅图像信息进行融合得到相对应的文旅图像数据,包括:
根据所述第一坐标集合对第一图像拓展信息相对应坐标信息的像素点进行提取,得到第一待融合坐标集合。通过该步骤,使得本发明能够对第一图像拓展信息相应的像素点进行提取。第一图像拓展信息可以是整个人的上半身,第一待融合坐标集合内所对应的像素点即可以组成人脸。
根据所述第二坐标集合对第二文旅图像信息相对应坐标信息的像素点进行提取,得到第二待融合坐标集合。通过该步骤,使得本发明能够对第二文旅图像信息相应的像素点进行提取。第二文旅图像信息可以是整个故宫的图像,第二待融合坐标集合内所对应的像素点即可以组成缺少门体的故宫的图像。
若判断第一图像拓展信息和第二文旅图像信息的分辨率不同,则确定第一待融合坐标集合和第二待融合坐标集合分别为基准融合分辨率和非基准融合分辨率。此时,第一图像拓展信息和第二文旅图像信息的分辨率不同,如果需要将两个图像融合,需要进行分辨率的同步处理,所以此时本发明会确定基准融合分辨率和非基准融合分辨率。可以这样理解,如果是将第一图像拓展信息嵌入至第二文旅图像信息内,则此时的第一待融合坐标集合与非基准融合分辨率对应,第二待融合坐标集合与基准融合分辨率对应。
将所述基准融合分辨率和非基准融合分辨率进行比对,得到分辨率比对结果,根据所述分辨率比对结果对第一待融合坐标集合或第二待融合坐标集合内的坐标进行增加或减少。本发明会将基准融合分辨率和非基准融合分辨率进行比对,通过分辨率比对结果对被嵌入的第一待融合坐标集合或第二待融合坐标集合内的坐标进行调整。该分辨率比对结果可以与提取比例相对应。
本发明提供的技术方案,在一个可能的实施方式中,所述将所述基准融合分辨率和非基准融合分辨率进行比对,得到分辨率比对结果,根据所述分辨率比对结果对第一待融合坐标集合或第二待融合坐标集合内的坐标进行增加或减少,包括:
若所述分辨率比对结果为基准融合分辨率大于所述非基准融合分辨率,则根据所述提取比例第一待融合坐标集合或第二待融合坐标集合内的坐标进行增加处理。分辨率一般都是乘法方式表示,例如160×120、320×240、400×240等等。例如基准融合分辨率为320×240,非基准融合分辨率为160×120,此时提取比例可以是1:2,此时需要对第一待融合坐标集合或第二待融合坐标集合内的坐标进行增加处理,即坐标需要增加2倍。
通过以下公式计算与非基准融合分辨率对应的待融合坐标集合内所增加像素点的数量,
其中,为基准融合分辨率,为非基准融合分辨率,为待融合坐标集
合内所增加像素点的数量,为基准融合分辨率所对应待融合坐标集合内像素点的数
量,为像素点增加权重。通过可以得到分辨率之间的比例,例如基准融合分辨率为
320×240,非基准融合分辨率为160×120,为2,则此时即为1,为待融
合坐标集合内像素点的数量,即为1倍的,像素点增加权重可以
设置为1,即为1倍的。
确定非基准融合分辨率对应的待融合坐标集合内所有像素点的数量,根据待融合坐标集合内所增加像素点的数量进行计算,得到像素点增加槽位。本发明会根据待融合坐标集合内所增加像素点的数量进行计算,得到像素点增加槽位,可以这样理解,像素点增加槽位即为非基准融合分辨率所对应图像需要增加像素点的位置。例如非基准融合分辨率为160×120,此时需要将其分辨率调整为320×240,本发明可以在横向、纵向分别添加相对应的点,即横向添加160个像素点、纵向添加120个像素点,此时所添加的像素点可以是间隔添加的。即间隔添加像素点的位置对应像素点增加槽位。
根据像素点增加槽位相邻的像素点的像素值进行计算,得到像素点增加槽位所对应的像素点的像素值。本发明会根据相邻的像素点的像素值进行计算,确定像素点增加槽位所对应的像素点的像素值,该种方式能够保障所增加的像素点与其相邻的像素点的像素值是相对应的,进而使得融合后的图像一致性较好。
本发明提供的技术方案,在一个可能的实施方式中,所述根据像素点增加槽位相邻的像素点的像素值进行计算,得到像素点增加槽位所对应的像素点的像素值,包括:
确定像素点增加槽位在X轴相邻的像素点的像素值以及Y轴相邻的像素点的像素值。本发明首先会进行确定,得到不同方向轴所对应像素点的像素值。
根据所述X轴相邻的像素点的像素值进行计算得到X轴像素趋势值,对所述X轴像素趋势值进行加权处理。本发明会根据X轴相邻的像素点的像素值进行计算,得到X轴像素趋势值。一个像素点增加槽位可能会对应2个X轴相邻的像素点,也可能会对应1个X轴相邻的像素点,所以此时本发明会根据X轴相邻的像素点的像素值进行计算得到X轴像素趋势值,并进行相应的加权处理。
根据所述Y轴相邻的像素点的像素值进行计算得到Y轴像素趋势值,对所述Y轴像素趋势值进行加权处理。本发明会根据Y轴相邻的像素点的像素值进行计算,得到Y轴像素趋势值。一个像素点增加槽位可能会对应2个Y轴相邻的像素点,也可能会对应1个Y轴相邻的像素点,所以此时本发明会根据Y轴相邻的像素点的像素值进行计算得到Y轴像素趋势值,并进行相应的加权处理。
根据加权处理后的X轴像素趋势值、加权处理后的Y轴像素趋势值进行综合计算,得到像素点增加槽位所对应的像素点的像素值。在分别得到X轴像素趋势值、Y轴像素趋势值后,本发明会针对X轴像素趋势值、Y轴像素趋势值进行综合计算,得到像素点增加槽位所对应的、最终的像素点的像素值。
通过以下公式计算像素点增加槽位所对应的像素点的像素值,
其中,为像素点增加槽位所对应的像素点的像素值,为大于像素点增加槽位
所对应X轴的像素点的像素值,为小于像素点增加槽位所对应X轴的像素点的像素值,
为像素点增加槽位所对应X轴的像素点的数量值,为X轴权重系数,为大于像素点增
加槽位所对应Y轴的像素点的像素值,为小于像素点增加槽位所对应Y轴的像素点的像
素值,为像素点增加槽位所对应Y轴的像素点的数量值,为Y轴权重系数,为X轴和Y轴
所对应像素点之和的数量值,为训练调整系数。通过可以得到X轴像素趋势值,
通过可以对X轴像素趋势值进行加权处理,通过可以计算得到Y轴像素趋势值,通
过可以对Y轴像素趋势值进行加权处理,训练调整系数为工作人员预先设置。通过
以上的技术方案,使得本发明能够结合像素点增加槽位所相邻的像素点的像素值进行综合
的计算,得到像素点增加槽位所对应的像素点的像素值,使得像素点增加槽位所对应的像
素点的像素值更相应的图片更加贴合,使得分辨率调整后的图像不具有突兀感,保障像素
点在视觉感官上更加的平滑。
若所述分辨率比对结果为基准融合分辨率小于所述非基准融合分辨率,则根据所述提取比例第一待融合坐标集合或第二待融合坐标集合内的坐标进行减少处理。此时,需要对非基准融合分辨率进行像素点的删除调整,此时本发明会根据第一待融合坐标集合或第二待融合坐标集合内的坐标进行减少处理。
通过以下公式计算与非基准融合分辨率对应的待融合坐标集合内所减少像素点的数量,
其中,为待融合坐标集合内所减少像素点的数量,为像素点减少权重。通
过可以得到分辨率之间的比例,例如基准融合分辨率为160×120,非基准融合分辨率
为320×240,为2,则此时即为1,为待融合坐标集合内像素点的数量,即为1倍的,像素点减少权重可以设置为1,即
为1倍的。
确定非基准融合分辨率对应的待融合坐标集合内所有像素点的数量,根据待融合坐标集合内所减少像素点的数量进行计算,得到像素点减少槽位。本发明会在确定待融合坐标集合内所减少像素点的数量后,进行计算得到像素点减少槽位。例如非基准融合分辨率为320×240,基准融合分辨率为160×120,此时需要将非基准融合分辨率320×240所对应的图像进行像素点的删除处理,此时像素点的减少可以是间隔一个像素点删除一个像素点,即横向删除160个像素点,纵向删除120个像素点,所删除的像素点所对应的位置即为像素点减少槽位。
将像素点减少槽位所对应的像素点由相应待融合坐标集合内删除。本发明通过将像素点减少槽位所对应的像素点删除后,实现对相应图像分辨率的降低调整。
将统一分辨率后的第一待融合坐标集合和第二待融合坐标集合进行融合,得到相对应的文旅图像数据。本发明会在分辨率统一后,将第一待融合坐标集合和第二待融合坐标集合进行融合,得到最终的文旅图像数据。
本发明提供的技术方案,在一个可能的实施方式中,还包括:
若判断用户对像素点增加槽位所对应的像素点的像素值进行调整,则确定相应像素值所进行调整的调整方向。本发明在结合像素点增加槽位相邻的像素点生成相应的像素值后,会对像素点增加槽位所对应的像素点的像素值进行显示,用户可以根据显示效果对相应的像素值进行调整,本发明会在用户对像素点增加槽位所对应的像素点的像素值进行调整后,确定相应像素值所进行调整的调整方向,调整方向可能是正向的,也可能是负向的。
若判断所述像素值的调整方向为正向,则根据调整后的像素值、调整前的像素值、正向调整权重对训练调整系数进行正向的调整训练得到正向调整因子。在调整方向为正向时,则此时本发明会对训练调整系数进行正向的调整训练,并且根据调整后的像素值、调整前的像素值之间的调整幅度对训练调整系数进行成比例的调整。
根据调整前的训练调整系数、正向调整因子进行计算,得到正向调整后的训练调整系数。本发明在得到正向调整因子后,会根据训练调整系数、正向调整因子进行计算,得到最终的训练调整系数。
若判断所述像素值的调整方向为负向,则根据调整后的像素值、调整前的像素值、负向调整权重对训练调整系数进行负向的调整训练得到负向调整因子。在调整方向为负向时,则此时本发明会对训练调整系数进行负向的调整训练,并且根据调整后的像素值、调整前的像素值之间的调整幅度对训练调整系数进行成比例的调整。
根据调整前的训练调整系数、负向调整因子进行计算,得到负向调整后的训练调整系数。本发明在得到负向调整因子后,会根据训练调整系数、正向调整因子进行计算,得到最终的训练调整系数。
通过以下公式进行计算,得到正向的调整训练、负向的调整训练后的训练调整系数,
其中,为像素点增加槽位所对应的像素点调整后的像素值,为正向的调整训
练后的训练调整系数,为正向调整权重,为负向的调整训练后的训练调整系数,为负向调整权重。通过、可以进行计算,可以得到调整后的像素值、调整前
的像素值之间的差值,如果、越大,则训练调整系数的调整幅度就越大。通过可以进行计算,得到正向调整因子,通过可以进行计算,得
到负向调整因子。
通过以上的技术方案,使得本发明的可拓展模型能够根据不同应用场景下不同用户的不同使用习惯、需求,对训练调整系数按照其使用习惯进行训练,使得训练后的训练调整系数更加符合其所需要的计算场景。
为了实现本发明提供的一种基于可拓展模型的文旅数据处理方法,本发明还提供一种基于可拓展模型的文旅数据处理系统,如图2所示,包括
提取模块,用于在判断用户输入模型拓展数据后,提取所述模型拓展数据中的第一图像拓展信息和第二图像选中信息,根据所述第二图像选中信息在预设数据库内选中第二文旅图像信息;
反馈模块,用于提取所述模型拓展数据中的第一图像融合方式,遍历可拓展模型中的所有预设图像融合方式,若判断第一图像融合方式与所有的预设图像融合方式均不相同,则反馈第一学习信息;
比对模块,用于根据所述第一学习信息向可拓展模型内输入第一训练图像、第二训练图像以及融合训练图像,将所述第一训练图像、第二训练图像分别与融合训练图像进行比对得到第一图像提取信息和第二图像提取信息;
生成模块,用于使可拓展模型根据所述第一图像提取信息和第二图像提取信息生成相对应的第二图像融合方式,根据所述第二图像融合方式将所述第一图像拓展信息、第二文旅图像信息进行融合得到相对应的文旅图像数据。
本发明还提供一种存储介质,所述存储介质中存储有计算机程序,所述计算机程序被处理器执行时用于实现上述的各种实施方式提供的方法。
其中,存储介质可以是计算机存储介质,也可以是通信介质。通信介质包括便于从一个地方向另一个地方传送计算机程序的任何介质。计算机存储介质可以是通用或专用计算机能够存取的任何可用介质。例如,存储介质耦合至处理器,从而使处理器能够从该存储介质读取信息,且可向该存储介质写入信息。当然,存储介质也可以是处理器的组成部分。处理器和存储介质可以位于专用集成电路(Application Specific IntegratedCircuits,简称:ASIC)中。另外,该ASIC可以位于用户设备中。当然,处理器和存储介质也可以作为分立组件存在于通信设备中。存储介质可以是只读存储器(ROM)、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
本发明还提供一种程序产品,该程序产品包括执行指令,该执行指令存储在存储介质中。设备的至少一个处理器可以从存储介质读取该执行指令,至少一个处理器执行该执行指令使得设备实施上述的各种实施方式提供的方法。
在上述终端或者服务器的实施例中,应理解,处理器可以是中央处理单元(英文:Central Processing Unit,简称:CPU),还可以是其他通用处理器、数字信号处理器(英文:Digital Signal Processor,简称:DSP)、专用集成电路(英文:Application SpecificIntegrated Circuit,简称:ASIC)等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本发明所公开的方法的步骤可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (10)
1.基于可拓展模型的文旅数据处理方法,其特征在于,包括:
在判断用户输入模型拓展数据后,提取所述模型拓展数据中的第一图像拓展信息和第二图像选中信息,根据所述第二图像选中信息在预设数据库内选中第二文旅图像信息;
提取所述模型拓展数据中的第一图像融合方式,遍历可拓展模型中的所有预设图像融合方式,若判断第一图像融合方式与所有的预设图像融合方式均不相同,则反馈第一学习信息;
根据所述第一学习信息向可拓展模型内输入第一训练图像、第二训练图像以及融合训练图像,将所述第一训练图像、第二训练图像分别与融合训练图像进行比对得到第一图像提取信息和第二图像提取信息;
可拓展模型根据所述第一图像提取信息和第二图像提取信息生成相对应的第二图像融合方式,根据所述第二图像融合方式将所述第一图像拓展信息、第二文旅图像信息进行融合得到相对应的文旅图像数据。
2.根据权利要求1所述的基于可拓展模型的文旅数据处理方法,其特征在于,
所述提取所述模型拓展数据中的第一图像融合方式,遍历可拓展模型中的所有预设图像融合方式,若判断第一图像融合方式与所有的预设图像融合方式均不相同,则反馈第一学习信息,包括:
提取所述第一图像融合方式中的第一融合标签,遍历可拓展模型中的所有预设图像融合方式中的预设融合标签;
将所述第一融合标签与预设融合标签一一比对,若判断存在与第一融合标签对应的预设融合标签,则判断存在与第一图像融合方式相同的预设图像融合方式;
若判断不存在与第一融合标签对应的预设融合标签,则判断第一图像融合方式与所有的预设图像融合方式均不相同,生成第一学习信息并反馈至训练端。
3.根据权利要求2所述的基于可拓展模型的文旅数据处理方法,其特征在于,
所述根据所述第一学习信息向可拓展模型内输入第一训练图像、第二训练图像以及融合训练图像,将所述第一训练图像、第二训练图像分别与融合训练图像进行比对得到第一图像提取信息和第二图像提取信息,包括:
对所述第一训练图像进行坐标化处理,得到第一训练图像中每个第一训练像素点的第一训练坐标信息,确定每个第一训练像素点的第一训练像素值;
对所述第二训练图像进行坐标化处理,得到第二训练图像中每个第二训练像素点的第二训练坐标信息,确定每个第二训练像素点的第二训练像素值;
对所述融合训练图像进行坐标化处理,得到融合训练图像中每个融合训练像素点的融合训练坐标信息,确定每个融合训练像素点的融合训练像素值;
根据第一训练坐标信息、融合训练坐标信息将相对应的第一训练像素点和融合训练像素点进行比对,若判断第一训练像素点和融合训练像素点的第一训练像素值和融合训练像素值相同,则将相对应的第一训练像素点进行第一标记;
统计相邻的具有第一标记的第一训练像素点的第一数量,若所述第一数量大于第一预设数量,则将添加第一标记的第一训练像素点添加第二标记;
统计所有具有第二标记的第一训练像素点的第一训练坐标信息生成第一坐标集合,根据所述第一坐标集合得到第一图像提取信息。
4.根据权利要求3所述的基于可拓展模型的文旅数据处理方法,其特征在于,
所述根据所述第一学习信息向可拓展模型内输入第一训练图像、第二训练图像以及融合训练图像,将所述第一训练图像、第二训练图像分别与融合训练图像进行比对得到第一图像提取信息和第二图像提取信息,包括:
根据第二训练坐标信息、融合训练坐标信息将相对应的第二训练像素点和融合训练像素点进行比对,若判断第二训练像素点和融合训练像素点的第一训练像素值和融合训练像素值相同,则将相对应的第二训练像素点进行第一标记;
统计相邻的具有第一标记的第二训练像素点的第二数量,若所述第二数量大于第二预设数量,则将添加第二标记的第二训练像素点添加第二标记;
统计所有具有第二标记的第二训练像素点的第二训练坐标信息生成第二坐标集合,根据所述第二坐标集合得到第二图像提取信息。
5.根据权利要求4所述的基于可拓展模型的文旅数据处理方法,其特征在于,
所述可拓展模型根据所述第一图像提取信息和第二图像提取信息生成相对应的第二图像融合方式,根据所述第二图像融合方式将所述第一图像拓展信息、第二文旅图像信息进行融合得到相对应的文旅图像数据,包括:
确定所述第一训练图像的第一分辨率、第二训练图像的第二分辨率以及融合训练图像的融合分辨率;
若判断融合分辨率与第一分辨率和/或第二分辨率中的任意一个相对应,则将相应的第一图像提取信息和第二图像提取信息作为基准图像提取信息,将非基准图像提取信息融入至基准图像提取信息的方式作为第二图像融合方式;
确定作为非基准图像提取信息的第一图像提取信息或第二图像提取信息,将非基准图像提取信息的第一分辨率或第二分辨率与融合分辨率进行比对,得到非基准图像提取信息的提取比例;
根据所述提取比例对第一图像拓展信息、第二文旅图像信息进行融合得到相对应的文旅图像数据。
6.根据权利要求5所述的基于可拓展模型的文旅数据处理方法,其特征在于,
所述根据所述提取比例对第一图像拓展信息、第二文旅图像信息进行融合得到相对应的文旅图像数据,包括:
根据所述第一坐标集合对第一图像拓展信息相对应坐标信息的像素点进行提取,得到第一待融合坐标集合;
根据所述第二坐标集合对第二文旅图像信息相对应坐标信息的像素点进行提取,得到第二待融合坐标集合;
若判断第一图像拓展信息和第二文旅图像信息的分辨率不同,则确定第一待融合坐标集合和第二待融合坐标集合分别为基准融合分辨率和非基准融合分辨率;
将所述基准融合分辨率和非基准融合分辨率进行比对,得到分辨率比对结果,根据所述分辨率比对结果对第一待融合坐标集合或第二待融合坐标集合内的坐标进行增加或减少;
将统一分辨率后的第一待融合坐标集合和第二待融合坐标集合进行融合,得到相对应的文旅图像数据。
7.根据权利要求6所述的基于可拓展模型的文旅数据处理方法,其特征在于,
所述将所述基准融合分辨率和非基准融合分辨率进行比对,得到分辨率比对结果,根据所述分辨率比对结果对第一待融合坐标集合或第二待融合坐标集合内的坐标进行增加或减少,包括:
若所述分辨率比对结果为基准融合分辨率大于所述非基准融合分辨率,则根据所述提取比例第一待融合坐标集合或第二待融合坐标集合内的坐标进行增加处理;
通过以下公式计算与非基准融合分辨率对应的待融合坐标集合内所增加像素点的数量,
确定非基准融合分辨率对应的待融合坐标集合内所有像素点的数量,根据待融合坐标集合内所增加像素点的数量进行计算,得到像素点增加槽位;
根据像素点增加槽位相邻的像素点的像素值进行计算,得到像素点增加槽位所对应的像素点的像素值;
若所述分辨率比对结果为基准融合分辨率小于所述非基准融合分辨率,则根据所述提取比例第一待融合坐标集合或第二待融合坐标集合内的坐标进行减少处理;
通过以下公式计算与非基准融合分辨率对应的待融合坐标集合内所减少像素点的数量,
确定非基准融合分辨率对应的待融合坐标集合内所有像素点的数量,根据待融合坐标集合内所减少像素点的数量进行计算,得到像素点减少槽位;
将像素点减少槽位所对应的像素点由相应待融合坐标集合内删除。
8.根据权利要求7所述的基于可拓展模型的文旅数据处理方法,其特征在于,
所述根据像素点增加槽位相邻的像素点的像素值进行计算,得到像素点增加槽位所对应的像素点的像素值,包括:
确定像素点增加槽位在X轴相邻的像素点的像素值以及Y轴相邻的像素点的像素值;
根据所述X轴相邻的像素点的像素值进行计算得到X轴像素趋势值,对所述X轴像素趋势值进行加权处理;
根据所述Y轴相邻的像素点的像素值进行计算得到Y轴像素趋势值,对所述Y轴像素趋势值进行加权处理;
根据加权处理后的X轴像素趋势值、加权处理后的Y轴像素趋势值进行综合计算,得到像素点增加槽位所对应的像素点的像素值,通过以下公式计算像素点增加槽位所对应的像素点的像素值,
9.根据权利要求8所述的基于可拓展模型的文旅数据处理方法,其特征在于,
若判断用户对像素点增加槽位所对应的像素点的像素值进行调整,则确定相应像素值所进行调整的调整方向;
若判断所述像素值的调整方向为正向,则根据调整后的像素值、调整前的像素值、正向调整权重对训练调整系数进行正向的调整训练得到正向调整因子;
根据调整前的训练调整系数、正向调整因子进行计算,得到正向调整后的训练调整系数;
若判断所述像素值的调整方向为负向,则根据调整后的像素值、调整前的像素值、负向调整权重对训练调整系数进行负向的调整训练得到负向调整因子;
根据调整前的训练调整系数、负向调整因子进行计算,得到负向调整后的训练调整系数;
通过以下公式进行计算,得到正向的调整训练、负向的调整训练后的训练调整系数,
10.基于可拓展模型的文旅数据处理系统,其特征在于,包括:
提取模块,用于在判断用户输入模型拓展数据后,提取所述模型拓展数据中的第一图像拓展信息和第二图像选中信息,根据所述第二图像选中信息在预设数据库内选中第二文旅图像信息;
反馈模块,用于提取所述模型拓展数据中的第一图像融合方式,遍历可拓展模型中的所有预设图像融合方式,若判断第一图像融合方式与所有的预设图像融合方式均不相同,则反馈第一学习信息;
比对模块,用于根据所述第一学习信息向可拓展模型内输入第一训练图像、第二训练图像以及融合训练图像,将所述第一训练图像、第二训练图像分别与融合训练图像进行比对得到第一图像提取信息和第二图像提取信息;
生成模块,用于使可拓展模型根据所述第一图像提取信息和第二图像提取信息生成相对应的第二图像融合方式,根据所述第二图像融合方式将所述第一图像拓展信息、第二文旅图像信息进行融合得到相对应的文旅图像数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211330530.3A CN115393685B (zh) | 2022-10-28 | 2022-10-28 | 基于可拓展模型的文旅数据处理方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211330530.3A CN115393685B (zh) | 2022-10-28 | 2022-10-28 | 基于可拓展模型的文旅数据处理方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115393685A true CN115393685A (zh) | 2022-11-25 |
CN115393685B CN115393685B (zh) | 2023-03-28 |
Family
ID=84114914
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211330530.3A Active CN115393685B (zh) | 2022-10-28 | 2022-10-28 | 基于可拓展模型的文旅数据处理方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115393685B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101577010A (zh) * | 2009-06-11 | 2009-11-11 | 清华大学 | 基于图像库的图像合成质量自动评测方法 |
CN105827987A (zh) * | 2016-05-27 | 2016-08-03 | 维沃移动通信有限公司 | 一种图片拍摄方法和移动终端 |
US9779478B1 (en) * | 2016-10-04 | 2017-10-03 | Oculus Vr, Llc | Rendering composite content on a head-mounted display including a high resolution inset |
CN109241905A (zh) * | 2018-08-31 | 2019-01-18 | 北方工业大学 | 一种图像处理方法和装置 |
CN109410220A (zh) * | 2018-10-16 | 2019-03-01 | 腾讯科技(深圳)有限公司 | 图像分割方法、装置、计算机设备及存储介质 |
-
2022
- 2022-10-28 CN CN202211330530.3A patent/CN115393685B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101577010A (zh) * | 2009-06-11 | 2009-11-11 | 清华大学 | 基于图像库的图像合成质量自动评测方法 |
CN105827987A (zh) * | 2016-05-27 | 2016-08-03 | 维沃移动通信有限公司 | 一种图片拍摄方法和移动终端 |
US9779478B1 (en) * | 2016-10-04 | 2017-10-03 | Oculus Vr, Llc | Rendering composite content on a head-mounted display including a high resolution inset |
CN109241905A (zh) * | 2018-08-31 | 2019-01-18 | 北方工业大学 | 一种图像处理方法和装置 |
CN109410220A (zh) * | 2018-10-16 | 2019-03-01 | 腾讯科技(深圳)有限公司 | 图像分割方法、装置、计算机设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN115393685B (zh) | 2023-03-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10803554B2 (en) | Image processing method and device | |
US9245043B2 (en) | Embedded media markers and systems and methods for generating and using them | |
JP5736767B2 (ja) | デジタルメディアの提供方法、印刷媒体及びコンピュータプログラム | |
WO2020238374A1 (zh) | 人脸关键点检测方法、装置、设备及存储介质 | |
JP2003132358A (ja) | 画像処理方法、装置およびシステム | |
WO2021147219A1 (zh) | 基于图像的文本识别方法、装置、电子设备及存储介质 | |
CN114025219B (zh) | 增强现实特效的渲染方法、装置、介质及设备 | |
CN110264545A (zh) | 图片生成方法、装置、电子设备及存储介质 | |
CN109885796B (zh) | 一种基于深度学习的网络新闻配图匹配性检测方法 | |
CN107423689B (zh) | 智能交互式人脸关键点标注方法 | |
WO2019128742A1 (zh) | 图像处理方法、装置、终端及存储介质 | |
CN109309844A (zh) | 视频台词处理方法、视频客户端及服务器 | |
CN111402364A (zh) | 一种图像生成方法、装置、终端设备及存储介质 | |
CN116308530A (zh) | 一种广告植入方法、装置、设备和可读存储介质 | |
CN110428404B (zh) | 一种基于人工智能的辅助培养与辅助鉴赏的制定系统 | |
CN112990009B (zh) | 基于端到端的车道线检测方法、装置、设备及存储介质 | |
WO2021083110A1 (zh) | 载体对象处理和水印嵌入方法、装置及电子设备 | |
CN115393685B (zh) | 基于可拓展模型的文旅数据处理方法及系统 | |
CN116958795A (zh) | 翻拍图像的识别方法、装置、电子设备及存储介质 | |
JP2008282316A (ja) | 動画像比較装置、動画像比較方法、及び動画像比較プログラム | |
CN115082960A (zh) | 图像处理方法、计算机设备及可读存储介质 | |
CN111127310B (zh) | 一种图像处理方法、装置、电子设备及存储介质 | |
CN118502639B (zh) | 姿态差异识别方法、装置、电子设备、介质和程序产品 | |
CN116996707B (zh) | 一种虚拟角色的渲染方法、电子设备及存储介质 | |
CN113989708B (zh) | 一种基于YOLO v4的校园图书馆疫情防控方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |