CN114969408A - 反馈搜索结果的方法、装置及存储介质 - Google Patents
反馈搜索结果的方法、装置及存储介质 Download PDFInfo
- Publication number
- CN114969408A CN114969408A CN202110222937.3A CN202110222937A CN114969408A CN 114969408 A CN114969408 A CN 114969408A CN 202110222937 A CN202110222937 A CN 202110222937A CN 114969408 A CN114969408 A CN 114969408A
- Authority
- CN
- China
- Prior art keywords
- image
- objects
- determining
- search
- score
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 96
- 238000003860 storage Methods 0.000 title claims abstract description 11
- 238000012545 processing Methods 0.000 claims description 82
- 238000001514 detection method Methods 0.000 claims description 34
- 230000000875 corresponding effect Effects 0.000 description 69
- 238000004891 communication Methods 0.000 description 37
- 230000006854 communication Effects 0.000 description 37
- 230000008569 process Effects 0.000 description 33
- 230000006870 function Effects 0.000 description 28
- 239000010410 layer Substances 0.000 description 26
- 230000001976 improved effect Effects 0.000 description 25
- 238000012549 training Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 20
- 238000007726 management method Methods 0.000 description 20
- 230000000007 visual effect Effects 0.000 description 15
- 230000000694 effects Effects 0.000 description 14
- 238000001914 filtration Methods 0.000 description 11
- 238000010295 mobile communication Methods 0.000 description 11
- 230000005236 sound signal Effects 0.000 description 11
- 210000000988 bone and bone Anatomy 0.000 description 10
- 210000004027 cell Anatomy 0.000 description 8
- 238000004590 computer program Methods 0.000 description 6
- 238000012216 screening Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 238000007781 pre-processing Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000009826 distribution Methods 0.000 description 4
- 229920001621 AMOLED Polymers 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 230000036772 blood pressure Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000010009 beating Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 238000013529 biological neural network Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 239000012792 core layer Substances 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 239000010985 leather Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000010349 pulsation Effects 0.000 description 1
- 239000002096 quantum dot Substances 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 230000003238 somatosensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
- G06F16/538—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
- G06F16/535—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5854—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using shape and object relationship
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Library & Information Science (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
Abstract
本申请提供了一种反馈搜索结果的方法、装置及存储介质,涉及终端技术领域。包括:获取包括M个对象的第一图像,对于M个中的N个对象,在N大于或等于2的情况下,确定N个对象的排列顺序。任一个对象的排列顺序基于场景意图权重、置信度评分、物体关系评分中的任一项或多项确定,场景意图权重用于指示在第一图像对应的场景下任一个对象被搜索的概率,置信度评分为任一个对象与图像库中的图像的相似度,物体关系评分用于指示任一个对象在第一图像中的重要程度,根据N个对象的排列顺序,反馈N个对象中的部分对象或者全部对象的搜索结果。将具有良好搜索结果且用户可能感兴趣的对象的搜索结果优先反馈给用户,使得反馈具有一定的针对性。
Description
技术领域
本申请涉及终端技术领域,尤其涉及一种反馈搜索结果的方法、装置及存储介质。
背景技术
视觉搜索是以图像作为搜索输入源进行搜索,以获取图像中的对象的相关图像、文字等多种搜索结果。越来越多的用户在电子设备上通过视觉搜索技术来实现对一些对象的搜索需求。
目前,在视觉搜索过程中,电子设备获取图像,之后,通过对图像进行图像检测处理以确定图像中的一个或多个对象。电子设备对所确定的对象进行搜索,得到搜索结果。电子设备得到搜索结果后,按照每个对象在图像中的位置顺序,向用户反馈每个对象的搜索结果。
然而,上述向用户反馈的搜索结果为第一图像中的每个对象的搜索结果,反馈的针对性较差,导致最终向用户反馈的搜索结果的准确度较低。
发明内容
本申请提供一种反馈搜索结果的方法、装置及存储介质,解决了现有技术中向用户反馈的搜索结果的准确度较低的问题。
为达到上述目的,本申请采用如下技术方案:
第一方面,提供一种反馈搜索结果的方法,所述方法包括:
获取第一图像,所述第一图像包括M个对象,所述M为大于或等于2的整数;
对于所述M个对象中的N个对象,在所述N大于或等于2的情况下,确定所述N个对象的排列顺序,所述N为小于或等于所述M的正整数;
其中,所述N个对象中任一个对象的排列顺序是基于场景意图权重、置信度评分、物体关系评分中的任一项或多项确定的,所述场景意图权重用于指示在所述第一图像对应的场景下所述任一个对象被搜索的概率,所述置信度评分为所述任一个对象与图像库中的图像的相似度,所述物体关系评分用于指示所述任一个对象在所述第一图像中的重要程度;
根据所述N个对象的排列顺序,反馈所述N个对象中的部分对象或者全部对象的搜索结果。
本申请通过根据N个对象的排列顺序对N个对象进行筛选和排序,以将具有良好搜索结果且用户可能感兴趣的对象的搜索结果优先反馈给用户,使得反馈具有一定的针对性,从而达到提高了最终反馈的搜索结果的准确度的效果。
作为本申请的一个示例,所述N个对象中任一个对象的场景意图权重、置信度评分、物体关系评分中的任一项或多项通过如下方式确定:
通过目标检测模型对所述第一图像进行图像检测处理,得到第一对象在所述第一图像中的对象区域和/或所述第一对象的对象类别,所述第一对象为所述N个对象中的任一个对象;
基于所述第一对象在所述第一图像中的对象区域和所述第一对象的对象类别确定所述第一对象的置信度评分,和/或,基于所述第一对象在所述第一图像中的对象区域确定所述第一对象的物体关系评分,和/或,基于所述第一对象的对象类别确定所述第一对象的场景意图权重。
本申请通过目标检测模型对第一图像进行图像检测处理,以得到第一对象在第一图像中的对象区域和/或对象类别,从而基于第一对象的图像区域和/或对象类别,确定第一对象的场景意图权重、置信度评分、物体关系评分中的至少一项,进而利用各个对象的场景意图权重、置信度评分、物体关系评分中的至少一项对第一图像中的对象进行筛选和排序,以准确地向用户反馈用户可能感兴趣的对象。
作为本申请的一个示例,所述基于所述第一对象在所述第一图像中的对象区域和所述第一对象的对象类别确定所述第一对象的置信度评分,包括:
确定与所述第一对象的对象类别对应的图像库;
确定所述第一对象在所述第一图像中的对象区域与所述图像库包括的多个图像中每个图像之间的相似度;
将所确定的多个相似度中的最大相似度作为所述第一对象的置信度评分。
如此,根据置信度评分从第一图像中筛选出搜索对象,使得意图理解与搜索结果相呼应,可以提高意图搜索的准确性。
作为本申请的一个示例,所述第一图像包括多个区域,且所述多个区域中的每个区域具有用于指示所述每个区域的位置重要程度的预设分值,且所述多个区域中的至少两个区域的预设分值不相同;
所述基于所述第一对象在所述第一图像中的对象区域确定所述第一对象的物体关系评分,包括:
基于所述第一对象在所述第一图像中的对象区域内包括的每个区域的预设分值,确定所述第一对象在所述第一图像中的位置重要程度值;
基于所述第一对象的位置重要程度值确定所述第一对象的物体关系评分。
通过确定第一图像中的N个对象在二维空间里的位置重要程度值,基于位置重要程度值确定物体关系评分,根据物体关系评分从第一图像中筛选搜索对象,以便于只对第一图像中较为重要的对象进行意图搜索,从而为用户提供感兴趣的搜索对象的搜索结果,可以提高用户体验。
作为本申请的一个示例,所述基于所述第一对象的位置重要程度值确定所述第一对象的物体关系评分之前,还包括:
当所述第一图像中包括参考对象时,基于所述第一对象在所述第一图像中的对象区域与所述参考对象在所述第一图像中的对象区域,获取所述第一对象与所述参考对象在所述第一图像中的距离作为所述第一对象的附属关系程度值;
所述基于所述第一对象的位置重要程度值确定所述第一对象的物体关系评分,包括:
基于所述第一对象的位置重要程度值和附属关系程度值,确定所述第一对象的物体关系评分。
通过确定第一图像中的N个对象在二维空间里的位置重要程度值,以及确定每个对象与参考对象之间的附属关系程度值,然后基于位置重要程度值和附属关系程度值确定每个对象的物体关系评分,使得对象的搜索意图与对象属性相关联,从而为用户优先推荐用户可能感兴趣的搜索对象的搜索结果,进而提高了用户体验。
作为本申请的一个示例,所述基于所述第一对象的对象类别确定所述第一对象的场景意图权重,包括:
确定所述第一图像的场景类别;
基于所述第一图像的场景类别和所述第一对象的对象类别,以及场景类别、对象类别与场景意图权重之间的对应关系,确定所述第一对象的场景意图权重。
通过确定第一图像的场景类别,然后根据场景类别确定第一图像中的搜索对象的搜索意图排序,根据搜索意图排序展示第一图像中的搜索对象的搜索结果。如此,将搜索结果与场景相结合,使得搜索结果与场景更为贴近,避免搜索结果与第一图像的场景相脱离,使得向用户展示的搜索结果更加符合第一图像的场景,从而为用户优先推荐用户可能感兴趣的搜索结果,进而提高了用户体验。
作为本申请的一个示例,所述N个对象在所述第一图像中的质量评分大于或等于质量评分阈值,所述任一个对象的质量评分是基于所述任一个对象的模糊度和/或完整度确定的。
通过将一些图像质量较差的对象过滤掉,使得意图理解与对象属性相关联,避免对一些与搜索意图不相符的对象进行搜索处理,可以提高搜索的有效性和准确性,从而可以提高用户体验。
作为本申请的一个实例,所述根据所述N个对象的排列顺序,反馈所述N个对象中的部分对象或者全部对象的搜索结果,包括:
获取所述N个对象中的部分对象或者全部对象的搜索结果包括的对象标签;
基于所获取的对象标签,生成所述N个对象中的部分对象或者全部对象对应的问询信息,所述问询信息用于提示是否需要获取与对象标签关联的信息;
根据所述N个对象的排列顺序,展示所述N个对象中的部分对象或者全部对象的问询信息,以反馈所述N个对象中的部分对象或者全部对象的搜索结果。
基于对象标签生成问询信息,并通过问询信息向用户反馈搜索结果,如此可以使得用户快速了解反馈结果,并且可以提高反馈界面的简洁性。
作为本申请的一个示例,所述N个对象包括第二对象和第三对象,所述第二对象的排列顺序位于所述第三对象的排列顺序之前,所述第二对象对应的搜索结果在显示屏上的显示顺序位于所述第三对象对应的搜索结果在显示屏上的显示顺序之前。
将排列顺序位于前列的对象的搜索结果显示在前,也即对排列顺序靠前的对象的搜索结果优先展示,使得用户可以优先查看展示在显示屏的前列的搜索结果,以优先向用户反馈用户可能感兴趣的对象的搜索结果,从而达到了提高用户体验的效果。
第二方面,提供一种反馈搜索结果的装置,所述装置包括:
获取模块,用于获取第一图像,所述第一图像包括M个对象,所述M为大于或等于2的整数;
确定模块,用于对于所述M个对象中的N个对象,在所述N大于或等于2的情况下,确定所述N个对象的排列顺序,所述N为小于或等于所述M的正整数;
其中,所述N个对象中任一个对象的排列顺序是基于场景意图权重、置信度评分、物体关系评分中的任一项或多项确定的,所述场景意图权重用于指示在所述第一图像对应的场景下所述任一个对象被搜索的概率,所述置信度评分为所述任一个对象与图像库中的图像的相似度,所述物体关系评分用于指示所述任一个对象在所述第一图像中的重要程度;
反馈模块,用于根据所述N个对象的排列顺序,反馈所述N个对象中的部分对象或者全部对象的搜索结果。
作为本申请的一个示例,所述确定模块用于:
通过目标检测模型对所述第一图像进行图像检测处理,得到第一对象在所述第一图像中的对象区域和/或所述第一对象的对象类别,所述第一对象为所述N个对象中的任一个对象;
基于所述第一对象在所述第一图像中的对象区域和所述第一对象的对象类别确定所述第一对象的置信度评分,和/或,基于所述第一对象在所述第一图像中的对象区域确定所述第一对象的物体关系评分,和/或,基于所述第一对象的对象类别确定所述第一对象的场景意图权重。
作为本申请的一个示例,所述确定模块用于:
确定与所述第一对象的对象类别对应的图像库;
确定所述第一对象在所述第一图像中的对象区域与所述图像库包括的多个图像中每个图像之间的相似度;
将所确定的多个相似度中的最大相似度作为所述第一对象的置信度评分。
作为本申请的一个示例,所述第一图像包括多个区域,且所述多个区域中的每个区域具有用于指示所述每个区域的位置重要程度的预设分值,且所述多个区域中的至少两个区域的预设分值不相同;所述确定模块用于:
基于所述第一对象在所述第一图像中的对象区域内包括的每个区域的预设分值,确定所述第一对象在所述第一图像中的位置重要程度值;
基于所述第一对象的位置重要程度值确定所述第一对象的物体关系评分。
作为本申请的一个示例,所述确定模块用于:
当所述第一图像中包括参考对象时,基于所述第一对象在所述第一图像中的对象区域与所述参考对象在所述第一图像中的对象区域,获取所述第一对象与所述参考对象在所述第一图像中的距离作为所述第一对象的附属关系程度值;
基于所述第一对象的位置重要程度值和附属关系程度值,确定所述第一对象的物体关系评分。
作为本申请的一个示例,所述确定模块用于:
确定所述第一图像的场景类别;
基于所述第一图像的场景类别和所述第一对象的对象类别,以及场景类别、对象类别与场景意图权重之间的对应关系,确定所述第一对象的场景意图权重。
作为本申请的一个示例,所述N个对象在所述第一图像中的质量评分大于或等于质量评分阈值,所述任一个对象的质量评分是基于所述任一个对象的模糊度和/或完整度确定的。
作为本申请的一个示例,所述反馈模块用于:
获取所述N个对象中的部分对象或者全部对象的搜索结果包括的对象标签;
基于所获取的对象标签,生成所述N个对象中的部分对象或者全部对象对应的问询信息,所述问询信息用于提示是否需要获取与对象标签关联的信息;
根据所述N个对象的排列顺序,展示所述N个对象中的部分对象或者全部对象的问询信息,以反馈所述N个对象中的部分对象或者全部对象的搜索结果。
作为本申请的一个示例,所述N个对象包括第二对象和第三对象,所述第二对象的排列顺序位于所述第三对象的排列顺序之前,所述第二对象对应的搜索结果在显示屏上的显示顺序位于所述第三对象对应的搜索结果在显示屏上的显示顺序之前。
第三方面,提供一种电子设备,所述电子设备的结构中包括处理器和存储器,所述存储器用于存储支持电子设备执行上述第一方面任一所述的反馈搜索结果的方法的程序,以及存储用于实现上述第一方面任一所述的反馈搜索结果的方法所涉及的数据;所述处理器被配置为用于执行所述存储器中存储的程序;所述电子设备还可以包括通信总线,所述通信总线用于在所述处理器与所述存储器之间建立连接。
第四方面,提供一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行如上述第一方面任意一项所述的方法。
第五方面,提供一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述第一方面所述的反馈搜索结果的方法。
上述第二方面、第三方面、第四方面和第五方面所获得的技术效果与上述第一方面中对应的技术手段获得的技术效果近似,在这里不再赘述。
本申请提供的技术方案至少可以带来以下有益效果:
获取第一图像,第一图像包括M个对象,M为大于或等于2的整数。对于M个对象中的N个对象,在N个对象的数量为多个的情况下,确定N个对象的排列顺序,根据N个对象的排列顺序,反馈N个对象中的部分对象或者全部对象的搜索结果。其中,N个对象中任一个对象的排列顺序是基于场景意图权重、置信度评分、物体关系评分中的任一项或多项确定的,场景意图权重用于指示在第一图像对应的场景下任一个对象被搜索的概率,置信度评分为任一个对象与图像库中的图像的相似度,物体关系评分用于指示任一个对象在第一图像中的重要程度。如此,根据N个对象的排列顺序对N个对象进行筛选和排序,以将具有良好搜索结果且用户可能感兴趣的对象的搜索结果优先反馈给用户,使得反馈具有一定的针对性,从而提高了最终反馈的搜索结果的准确度。
附图说明
图1为本申请实施例提供的一种电子设备的结构示意图;
图2为本申请实施例提供的一种电子设备的软件结构框图;
图3为本申请实施例提供的一种手机中运行的浏览器的界面显示图;
图4为本申请实施例提供的一种意图搜索过程的示意图;
图5为本申请实施例提供的一种搜索结果的反馈效果示意图;
图6为本申请实施例提供的另一种搜索结果的反馈效果示意图;
图7为本申请实施例提供的一种反馈搜索结果的系统架构图;
图8为本申请实施例提供的一种反馈搜索结果的实现框架示意图;
图9为本申请实施例提供的一种反馈搜索结果的方法的流程示意图;
图10为本申请实施例提供的一种图像检测过程的示意图;
图11为本申请实施例提供的一种图像处理后得到的对象的区域图像示意图;
图12为本申请实施例提供的一种对象的模糊度和完整度的示意图;
图13为本申请实施例提供的一种对象的置信度评分的示意图;
图14为本申请实施例提供的另一种反馈搜索结果的方法的流程示意图;
图15为本申请实施例提供的一种图像的划分效果示意图;
图16为本申请实施例提供的一种预设分值的高斯分布示意图;
图17为本申请实施例提供的另一种反馈搜索结果的方法的流程示意图;
图18为本申请实施例提供的另一种反馈搜索结果的方法的流程示意图;
图19为本申请实施例提供的一种反馈搜索结果的装置的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
应当理解的是,本申请提及的“多个”是指两个或两个以上。在本申请的描述中,除非另有说明,“/”表示或的意思,例如,A/B可以表示A或B;本文中的“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,为了便于清楚描述本申请的技术方案,采用了“第一”、“第二”等字样对功能和作用基本相同的相同项或相似项进行区分。本领域技术人员可以理解“第一”、“第二”等字样并不对数量和执行次序进行限定,并且“第一”、“第二”等字样也并不限定一定不同。
本申请实施例提供的方法可以应用于电子设备中。在一个实施例中,电子设备可以安装并运行具有视觉搜索功能的应用程序(application,APP),譬如,该APP可以为购物APP、名人搜索APP、浏览器等。作为一种示例,电子设备可以为诸如可穿戴设备、终端设备之类的设备。示例性地,可穿戴设备可以包括但不限于智能手表,智能手环,智能胸针,智能眼罩、智能眼镜。终端设备可以包括但不限于手机、平板电脑、增强现实(augmented reality,AR)/虚拟现实(virtual reality,VR)设备、超级移动个人计算机(ultra-mobile personalcomputer,UMPC)、笔记本电脑、上网本、个人数字助理(personal digital assistant,PDA)。
请参阅图1,图1是本申请实施例提供的一种电子设备的结构示意图。
电子设备100可以包括处理器110,外部存储器接口120,内部存储器121,通用串行总线(universal serial bus,USB)接口130,充电管理模块140,电源管理模块141,电池142,天线1,天线2,移动通信模块150,无线通信模块160,音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,传感器模块180,按键190,马达191,指示器192,摄像头193,显示屏194,以及用户标识模块(subscriber identification module,SIM)卡接口195等。其中传感器模块180可以包括压力传感器180A,陀螺仪传感器180B,气压传感器180C,磁传感器180D,加速度传感器180E,距离传感器180F,接近光传感器180G,指纹传感器180H,温度传感器180J,触摸传感器180K,环境光传感器180L,骨传导传感器180M等。
可以理解的是,本发明实施例示意的结构并不构成对电子设备100的具体限定。在本申请另一些实施例中,电子设备100可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
处理器110可以包括一个或多个处理单元,例如:处理器110可以包括应用处理器(application processor,AP),调制解调处理器,图形处理器(graphics processingunit,GPU),图像信号处理器(image signal processor,ISP),控制器,存储器,视频编解码器,数字信号处理器(digital signal processor,DSP),基带处理器,和/或神经网络处理器(neural-network processing unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。
其中,控制器可以是电子设备100的神经中枢和指挥中心。控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。
处理器110中还可以设置存储器,用于存储指令和数据。在一些实施例中,处理器110中的存储器为高速缓冲存储器。存储器可以保存处理器110刚用过或循环使用的指令或数据。如果处理器110需要再次使用指令或数据,可从所述存储器中直接调用。避免了重复存取,减少了处理器110的等待时间,因而提高了系统的效率。
在一些实施例中,处理器110可以包括一个或多个接口。接口可以包括集成电路(inter-integrated circuit,I2C)接口,集成电路内置音频(inter-integrated circuitsound,I2S)接口,脉冲编码调制(pulse code modulation,PCM)接口,通用异步收发传输器(universal asynchronous receiver/transmitter,UART)接口,移动产业处理器接口(mobile industry processor interface,MIPI),通用输入输出(general-purposeinput/output,GPIO)接口,用户标识模块(subscriber identity module,SIM)接口,和/或通用串行总线(universal serial bus,USB)接口等。
I2C接口是一种双向同步串行总线,包括一根串行数据线(serial data line,SDA)和一根串行时钟线(derail clock line,SCL)。在一些实施例中,处理器110可以包含多组I2C总线。处理器110可以通过不同的I2C总线接口分别耦合触摸传感器180K,充电器,闪光灯,摄像头193等。例如:处理器110可以通过I2C接口耦合触摸传感器180K,使处理器110与触摸传感器180K通过I2C总线接口通信,实现电子设备100的触摸功能。
I2S接口可以用于音频通信。在一些实施例中,处理器110可以包含多组I2S总线。处理器110可以通过I2S总线与音频模块170耦合,实现处理器110与音频模块170之间的通信。在一些实施例中,音频模块170可以通过I2S接口向无线通信模块160传递音频信号,实现通过蓝牙耳机接听电话的功能。
PCM接口也可以用于音频通信,将模拟信号抽样,量化和编码。在一些实施例中,音频模块170与无线通信模块160可以通过PCM总线接口耦合。在一些实施例中,音频模块170也可以通过PCM接口向无线通信模块160传递音频信号,实现通过蓝牙耳机接听电话的功能。所述I2S接口和所述PCM接口都可以用于音频通信。
UART接口是一种通用串行数据总线,用于异步通信。总线可以为双向通信总线。它将要传输的数据在串行通信与并行通信之间转换。在一些实施例中,UART接口通常被用于连接处理器110与无线通信模块160。例如:处理器110通过UART接口与无线通信模块160中的蓝牙模块通信,实现蓝牙功能。在一些实施例中,音频模块170可以通过UART接口向无线通信模块160传递音频信号,实现通过蓝牙耳机播放音乐的功能。
MIPI接口可以被用于连接处理器110与显示屏194,摄像头193等外围器件。MIPI接口包括摄像头串行接口(camera serial interface,CSI),显示屏串行接口(displayserial interface,DSI)等。在一些实施例中,处理器110和摄像头193通过CSI接口通信,实现电子设备100的拍摄功能。处理器110和显示屏194通过DSI接口通信,实现电子设备100的显示功能。
GPIO接口可以通过软件配置。GPIO接口可以被配置为控制信号,也可被配置为数据信号。在一些实施例中,GPIO接口可以用于连接处理器110与摄像头193,显示屏194,无线通信模块160,音频模块170,传感器模块180等。GPIO接口还可以被配置为I2C接口,I2S接口,UART接口,MIPI接口等。
USB接口130是符合USB标准规范的接口,具体可以是Mini USB接口,Micro USB接口,USB Type C接口等。USB接口130可以用于连接充电器为电子设备100充电,也可以用于电子设备100与外围设备之间传输数据。也可以用于连接耳机,通过耳机播放音频。接口还可以用于连接其他电子设备,例如AR设备等。
可以理解的是,本发明实施例示意的各模块间的接口连接关系,只是示意性说明,并不构成对电子设备100的结构限定。在本申请另一些实施例中,电子设备100也可以采用上述实施例中不同的接口连接方式,或多种接口连接方式的组合。
充电管理模块140用于从充电器接收充电输入。其中,充电器可以是无线充电器,也可以是有线充电器。在一些有线充电的实施例中,充电管理模块140可以通过USB接口130接收有线充电器的充电输入。在一些无线充电的实施例中,充电管理模块140可以通过电子设备100的无线充电线圈接收无线充电输入。充电管理模块140为电池142充电的同时,还可以通过电源管理模块141为电子设备供电。
电源管理模块141用于连接电池142,充电管理模块140与处理器110。电源管理模块141接收电池142和/或充电管理模块140的输入,为处理器110,内部存储器121,外部存储器,显示屏194,摄像头193,和无线通信模块160等供电。电源管理模块141还可以用于监测电池容量,电池循环次数,电池健康状态(漏电,阻抗)等参数。在其他一些实施例中,电源管理模块141也可以设置于处理器110中。在另一些实施例中,电源管理模块141和充电管理模块140也可以设置于同一个器件中。
电子设备100的无线通信功能可以通过天线1,天线2,移动通信模块150,无线通信模块160,调制解调处理器以及基带处理器等实现。
天线1和天线2用于发射和接收电磁波信号。电子设备100中的每个天线可用于覆盖单个或多个通信频带。不同的天线还可以复用,以提高天线的利用率。例如:可以将天线1复用为无线局域网的分集天线。在另外一些实施例中,天线可以和调谐开关结合使用。
移动通信模块150可以提供应用在电子设备100上的包括2G/3G/4G/5G等无线通信的解决方案。移动通信模块150可以包括至少一个滤波器,开关,功率放大器,低噪声放大器(low noise amplifier,LNA)等。移动通信模块150可以由天线1接收电磁波,并对接收的电磁波进行滤波,放大等处理,传送至调制解调处理器进行解调。移动通信模块150还可以对经调制解调处理器调制后的信号放大,经天线1转为电磁波辐射出去。在一些实施例中,移动通信模块150的至少部分功能模块可以被设置于处理器110中。在一些实施例中,移动通信模块150的至少部分功能模块可以与处理器110的至少部分模块被设置在同一个器件中。
调制解调处理器可以包括调制器和解调器。其中,调制器用于将待发送的低频基带信号调制成中高频信号。解调器用于将接收的电磁波信号解调为低频基带信号。随后解调器将解调得到的低频基带信号传送至基带处理器处理。低频基带信号经基带处理器处理后,被传递给应用处理器。应用处理器通过音频设备(不限于扬声器170A,受话器170B等)输出声音信号,或通过显示屏194显示图像或视频。在一些实施例中,调制解调处理器可以是独立的器件。在另一些实施例中,调制解调处理器可以独立于处理器110,与移动通信模块150或其他功能模块设置在同一个器件中。
无线通信模块160可以提供应用在电子设备100上的包括无线局域网(wirelesslocal area networks,WLAN)(如无线保真(wireless fidelity,Wi-Fi)网络),蓝牙(bluetooth,BT),全球导航卫星系统(global navigation satellite system,GNSS),调频(frequency modulation,FM),近距离无线通信技术(near field communication,NFC),红外技术(infrared,IR)等无线通信的解决方案。无线通信模块160可以是集成至少一个通信处理模块的一个或多个器件。无线通信模块160经由天线2接收电磁波,将电磁波信号调频以及滤波处理,将处理后的信号发送到处理器110。无线通信模块160还可以从处理器110接收待发送的信号,对其进行调频,放大,经天线2转为电磁波辐射出去。
在一些实施例中,电子设备100的天线1和移动通信模块150耦合,天线2和无线通信模块160耦合,使得电子设备100可以通过无线通信技术与网络以及其他设备通信。所述无线通信技术可以包括全球移动通讯系统(global system for mobile communications,GSM),通用分组无线服务(general packet radio service,GPRS),码分多址接入(codedivision multiple access,CDMA),宽带码分多址(wideband code division multipleaccess,WCDMA),时分码分多址(time-division code division multiple access,TD-SCDMA),长期演进(long term evolution,LTE),BT,GNSS,WLAN,NFC,FM,和/或IR技术等。所述GNSS可以包括全球卫星定位系统(global positioning system,GPS),全球导航卫星系统(global navigation satellite system,GLONASS),北斗卫星导航系统(beidounavigation satellite system,BDS),准天顶卫星系统(quasi-zenith satellitesystem,QZSS)和/或星基增强系统(satellite based augmentation systems,SBAS)。
电子设备100通过GPU,显示屏194,以及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏194和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器110可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
显示屏194用于显示图像,视频等。显示屏194包括显示面板。显示面板可以采用液晶显示屏(liquid crystal display,LCD),有机发光二极管(organic light-emittingdiode,OLED),有源矩阵有机发光二极体或主动矩阵有机发光二极体(active-matrixorganic light emitting diode,AMOLED),柔性发光二极管(flex light-emittingdiode,FLED),Miniled,MicroLed,Micro-oLed,量子点发光二极管(quantum dot lightemitting diodes,QLED)等。在一些实施例中,电子设备100可以包括1个或N个显示屏194,N为大于1的正整数。
电子设备100可以通过ISP,摄像头193,视频编解码器,GPU,显示屏194以及应用处理器等实现拍摄功能。
ISP用于处理摄像头193反馈的数据。例如,拍照时,打开快门,光线通过镜头被传递到摄像头感光元件上,光信号转换为电信号,摄像头感光元件将所述电信号传递给ISP处理,转化为肉眼可见的图像。ISP还可以对图像的噪点,亮度,肤色进行算法优化。ISP还可以对拍摄场景的曝光,色温等参数优化。在一些实施例中,ISP可以设置在摄像头193中。
摄像头193用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(charge coupled device,CCD)或互补金属氧化物半导体(complementary metal-oxide-semiconductor,CMOS)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给ISP转换成数字图像信号。ISP将数字图像信号输出到DSP加工处理。DSP将数字图像信号转换成标准的RGB,YUV等格式的图像信号。在一些实施例中,电子设备100可以包括1个或N个摄像头193,N为大于1的正整数。
数字信号处理器用于处理数字信号,除了可以处理数字图像信号,还可以处理其他数字信号。例如,当电子设备100在频点选择时,数字信号处理器用于对频点能量进行傅里叶变换等。
视频编解码器用于对数字视频压缩或解压缩。电子设备100可以支持一种或多种视频编解码器。这样,电子设备100可以播放或录制多种编码格式的视频,例如:动态图像专家组(moving picture experts group,MPEG)1,MPEG2,MPEG3,MPEG4等。
NPU为神经网络(neural-network,NN)计算处理器,通过借鉴生物神经网络结构,例如借鉴人脑神经元之间传递模式,对输入信息快速处理,还可以不断的自学习。通过NPU可以实现电子设备100的智能认知等应用,例如:图像识别,人脸识别,语音识别,文本理解等。
外部存储器接口120可以用于连接外部存储卡,例如Micro SD卡,实现扩展电子设备100的存储能力。外部存储卡通过外部存储器接口120与处理器110通信,实现数据存储功能。例如将音乐,视频等文件保存在外部存储卡中。
内部存储器121可以用于存储计算机可执行程序代码,所述可执行程序代码包括指令。处理器110通过运行存储在内部存储器121的指令,从而执行电子设备100的各种功能应用以及数据处理。内部存储器121可以包括存储程序区和存储数据区。其中,存储程序区可存储操作系统,至少一个功能所需的应用程序(比如声音播放功能,图像播放功能等)等。存储数据区可存储电子设备100使用过程中所创建的数据(比如音频数据,电话本等)等。此外,内部存储器121可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件,闪存器件,通用闪存存储器(universal flash storage,UFS)等。
电子设备100可以通过音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,以及应用处理器等实现音频功能。例如音乐播放,录音等。
音频模块170用于将数字音频信息转换成模拟音频信号输出,也用于将模拟音频输入转换为数字音频信号。音频模块170还可以用于对音频信号编码和解码。在一些实施例中,音频模块170可以设置于处理器110中,或将音频模块170的部分功能模块设置于处理器110中。
扬声器170A,也称“喇叭”,用于将音频电信号转换为声音信号。电子设备100可以通过扬声器170A收听音乐,或收听免提通话。
受话器170B,也称“听筒”,用于将音频电信号转换成声音信号。当电子设备100接听电话或语音信息时,可以通过将受话器170B靠近人耳接听语音。
麦克风170C,也称“话筒”,“传声器”,用于将声音信号转换为电信号。当拨打电话或发送语音信息时,用户可以通过人嘴靠近麦克风170C发声,将声音信号输入到麦克风170C。电子设备100可以设置至少一个麦克风170C。在另一些实施例中,电子设备100可以设置两个麦克风170C,除了采集声音信号,还可以实现降噪功能。在另一些实施例中,电子设备100还可以设置三个,四个或更多麦克风170C,实现采集声音信号,降噪,还可以识别声音来源,实现定向录音功能等。
耳机接口170D用于连接有线耳机。耳机接口170D可以是USB接口130,也可以是3.5mm的开放移动电子设备平台(open mobile terminal platform,OMTP)标准接口,美国蜂窝电信工业协会(cellular telecommunications industry association of the USA,CTIA)标准接口。
压力传感器180A用于感受压力信号,可以将压力信号转换成电信号。在一些实施例中,压力传感器180A可以设置于显示屏194。压力传感器180A的种类很多,如电阻式压力传感器,电感式压力传感器,电容式压力传感器等。电容式压力传感器可以是包括至少两个具有导电材料的平行板。当有力作用于压力传感器180A,电极之间的电容改变。电子设备100根据电容的变化确定压力的强度。当有触摸操作作用于显示屏194,电子设备100根据压力传感器180A检测所述触摸操作强度。电子设备100也可以根据压力传感器180A的检测信号计算触摸的位置。在一些实施例中,作用于相同触摸位置,但不同触摸操作强度的触摸操作,可以对应不同的操作指令。例如:当有触摸操作强度小于第一压力阈值的触摸操作作用于短消息应用图标时,执行查看短消息的指令。当有触摸操作强度大于或等于第一压力阈值的触摸操作作用于短消息应用图标时,执行新建短消息的指令。
陀螺仪传感器180B可以用于确定电子设备100的运动姿态。在一些实施例中,可以通过陀螺仪传感器180B确定电子设备100围绕三个轴(即,x,y和z轴)的角速度。陀螺仪传感器180B可以用于拍摄防抖。示例性的,当按下快门,陀螺仪传感器180B检测电子设备100抖动的角度,根据角度计算出镜头模组需要补偿的距离,让镜头通过反向运动抵消电子设备100的抖动,实现防抖。陀螺仪传感器180B还可以用于导航,体感游戏场景。
气压传感器180C用于测量气压。在一些实施例中,电子设备100通过气压传感器180C测得的气压值计算海拔高度,辅助定位和导航。
磁传感器180D包括霍尔传感器。电子设备100可以利用磁传感器180D检测翻盖皮套的开合。在一些实施例中,当电子设备100是翻盖机时,电子设备100可以根据磁传感器180D检测翻盖的开合。进而根据检测到的皮套的开合状态或翻盖的开合状态,设置翻盖自动解锁等特性。
加速度传感器180E可检测电子设备100在各个方向上(一般为三轴)加速度的大小。当电子设备100静止时可检测出重力的大小及方向。还可以用于识别电子设备100的姿态,应用于横竖屏切换,计步器等应用。
距离传感器180F,用于测量距离。电子设备100可以通过红外或激光测量距离。在一些实施例中,拍摄场景,电子设备100可以利用距离传感器180F测距以实现快速对焦。
接近光传感器180G可以包括例如发光二极管(LED)和光检测器,例如光电二极管。发光二极管可以是红外发光二极管。电子设备100通过发光二极管向外发射红外光。电子设备100使用光电二极管检测来自附近物体的红外反射光。当检测到充分的反射光时,可以确定电子设备100附近有物体。当检测到不充分的反射光时,电子设备100可以确定电子设备100附近没有物体。电子设备100可以利用接近光传感器180G检测用户手持电子设备100贴近耳朵通话,以便自动熄灭屏幕达到省电的目的。接近光传感器180G也可用于皮套模式,口袋模式自动解锁与锁屏。
环境光传感器180L用于感知环境光亮度。电子设备100可以根据感知的环境光亮度自适应调节显示屏194亮度。环境光传感器180L也可用于拍照时自动调节白平衡。环境光传感器180L还可以与接近光传感器180G配合,检测电子设备100是否在口袋里,以防误触。
指纹传感器180H用于采集指纹。电子设备100可以利用采集的指纹特性实现指纹解锁,访问应用锁,指纹拍照,指纹接听来电等。
温度传感器180J用于检测温度。在一些实施例中,电子设备100利用温度传感器180J检测的温度,执行温度处理策略。例如,当温度传感器180J上报的温度超过阈值,电子设备100执行降低位于温度传感器180J附近的处理器的性能,以便降低功耗实施热保护。在另一些实施例中,当温度低于另一阈值时,电子设备100对电池142加热,以避免低温导致电子设备100异常关机。在其他一些实施例中,当温度低于又一阈值时,电子设备100对电池142的输出电压执行升压,以避免低温导致的异常关机。
触摸传感器180K,也称“触控面板”。触摸传感器180K可以设置于显示屏194,由触摸传感器180K与显示屏194组成触摸屏,也称“触控屏”。触摸传感器180K用于检测作用于其上或附近的触摸操作。触摸传感器可以将检测到的触摸操作传递给应用处理器,以确定触摸事件类型。可以通过显示屏194提供与触摸操作相关的视觉输出。在另一些实施例中,触摸传感器180K也可以设置于电子设备100的表面,与显示屏194所处的位置不同。
骨传导传感器180M可以获取振动信号。在一些实施例中,骨传导传感器180M可以获取人体声部振动骨块的振动信号。骨传导传感器180M也可以接触人体脉搏,接收血压跳动信号。在一些实施例中,骨传导传感器180M也可以设置于耳机中,结合成骨传导耳机。音频模块170可以基于所述骨传导传感器180M获取的声部振动骨块的振动信号,解析出语音信号,实现语音功能。应用处理器可以基于所述骨传导传感器180M获取的血压跳动信号解析心率信息,实现心率检测功能。
按键190包括开机键,音量键等。按键190可以是机械按键。也可以是触摸式按键。电子设备100可以接收按键输入,产生与电子设备100的用户设置以及功能控制有关的键信号输入。
马达191可以产生振动提示。马达191可以用于来电振动提示,也可以用于触摸振动反馈。例如,作用于不同应用(例如拍照,音频播放等)的触摸操作,可以对应不同的振动反馈效果。作用于显示屏194不同区域的触摸操作,马达191也可对应不同的振动反馈效果。不同的应用场景(例如:时间提醒,接收信息,闹钟,游戏等)也可以对应不同的振动反馈效果。触摸振动反馈效果还可以支持自定义。
指示器192可以是指示灯,可以用于指示充电状态,电量变化,也可以用于指示消息,未接来电,通知等。
SIM卡接口195用于连接SIM卡。SIM卡可以通过插入SIM卡接口195,或从SIM卡接口195拔出,实现和电子设备100的接触和分离。电子设备100可以支持1个或N个SIM卡接口,N为大于1的正整数。SIM卡接口195可以支持Nano SIM卡,Micro SIM卡,SIM卡等。同一个SIM卡接口195可以同时插入多张卡。所述多张卡的类型可以相同,也可以不同。SIM卡接口195也可以兼容不同类型的SIM卡。SIM卡接口195也可以兼容外部存储卡。电子设备100通过SIM卡和网络交互,实现通话以及数据通信等功能。在一些实施例中,电子设备100采用eSIM,即:嵌入式SIM卡。eSIM卡可以嵌在电子设备100中,不能和电子设备100分离。
电子设备100的软件系统可以采用分层架构,事件驱动架构,微核架构,微服务架构,或云架构。本发明实施例以分层架构的Android系统为例,示例性说明电子设备100的软件结构。
图2是本申请实施例的电子设备100的软件结构框图。
分层架构将软件分成若干个层,每一层都有清晰的角色和分工。层与层之间通过软件接口通信。在一些实施例中,将Android系统分为四层,从上至下分别为应用程序层,应用程序框架层,安卓运行时(Android runtime)和系统库,以及内核层。
应用程序层可以包括一系列应用程序包。
如图2所示,应用程序包可以包括相机,图库,日历,通话,地图,导航,WLAN,蓝牙,音乐,视频,短信息等应用程序,另外,应用程序包还可以包括具有视觉搜索功能的应用程序。
应用程序框架层为应用程序层的应用程序提供应用编程接口(applicationprogramming interface,API)和编程框架。应用程序框架层包括一些预先定义的函数。
如图2所示,应用程序框架层可以包括窗口管理器,内容提供器,视图系统,电话管理器,资源管理器,通知管理器等。
窗口管理器用于管理窗口程序。窗口管理器可以获取显示屏大小,判断是否有状态栏,锁定屏幕,截取屏幕等。
内容提供器用来存放和获取数据,并使这些数据可以被应用程序访问。所述数据可以包括视频,图像,音频,拨打和接听的电话,浏览历史和书签,电话簿等。
视图系统包括可视控件,例如显示文字的控件,显示图片的控件等。视图系统可用于构建应用程序。显示界面可以由一个或多个视图组成的。例如,包括短信通知图标的显示界面,可以包括显示文字的视图以及显示图片的视图。
电话管理器用于提供电子设备100的通信功能。例如通话状态的管理(包括接通,挂断等)。
资源管理器为应用程序提供各种资源,比如本地化字符串,图标,图片,布局文件,视频文件等等。
通知管理器使应用程序可以在状态栏中显示通知信息,可以用于传达告知类型的消息,可以短暂停留后自动消失,无需用户交互。比如通知管理器被用于告知下载完成,消息提醒等。通知管理器还可以是以图表或者滚动条文本形式出现在系统顶部状态栏的通知,例如后台运行的应用程序的通知,还可以是以对话窗口形式出现在屏幕上的通知。例如在状态栏提示文本信息,发出提示音,电子设备振动,指示灯闪烁等。
Android Runtime包括核心库和虚拟机。Android runtime负责安卓系统的调度和管理。
核心库包含两部分:一部分是java语言需要调用的功能函数,另一部分是安卓的核心库。
应用程序层和应用程序框架层运行在虚拟机中。虚拟机将应用程序层和应用程序框架层的java文件执行为二进制文件。虚拟机用于执行对象生命周期的管理,堆栈管理,线程管理,安全和异常的管理,以及垃圾回收等功能。
系统库可以包括多个功能模块。例如:表面管理器(surface manager),媒体库(Media Libraries),三维图形处理库(例如:OpenGL ES),2D图形引擎(例如:SGL)等。
表面管理器用于对显示子系统进行管理,并且为多个应用程序提供了2D和3D图层的融合。
媒体库支持多种常用的音频,视频格式回放和录制,以及静态图像文件等。媒体库可以支持多种音视频编码格式,例如:MPEG4,H.264,MP3,AAC,AMR,JPG,PNG等。
三维图形处理库用于实现三维图形绘图,图像渲染,合成,和图层处理等。
2D图形引擎是2D绘图的绘图引擎。
内核层是硬件和软件之间的层。内核层至少包含显示驱动,摄像头驱动,音频驱动,传感器驱动。
下面结合捕获拍照场景,示例性说明电子设备100软件以及硬件的工作流程。
当触摸传感器180K接收到触摸操作,相应的硬件中断被发给内核层。内核层将触摸操作加工成原始输入事件(包括触摸坐标,触摸操作的时间戳等信息)。原始输入事件被存储在内核层。应用程序框架层从内核层获取原始输入事件,识别输入事件所对应的控件。以触摸操作是触摸单击操作,单击操作所对应的控件为相机应用图标的控件为例,相机应用调用应用框架层的接口,启动相机应用,进而通过调用内核层启动摄像头驱动,通过摄像头193捕获静态图像或视频。
基于上述图1和图2所示实施例提供的电子设备,接下来对本申请实施例涉及的应用场景进行简单介绍,这里以电子设备是手机为例:
手机获取一张海报。作为一种示例,海报可以是由用户触发手机拍摄得到的,或者,也可以是手机的图库中的一张图像。示例性地,假设手机中安装了具有视觉搜索功能的浏览器,当用户想要基于海报进行视觉搜索时可以点击手机中的浏览器,响应于用户对浏览器的点击操作,手机启动浏览器。作为一种示例,如图3中的(a)图所示,浏览器提供有添加选项31,用户可以触发添加选项31。如图3中的(b)图所示,响应于用户对添加选项31的触发操作,手机展示“拍摄”选项和“相册”选项。在一个实施例中,当用户想要通过手机拍摄海报时可以触发图3中的(b)图中的“拍摄”选项,手机检测到用户对“拍摄”选项的触发操作后开启摄像头,如此就可以通过摄像头拍摄得到海报。在另一个实施例中,当用户想要使用图库中的海报时可以点击(b)图中的“相册”选项,手机检测到用户对“相册”选项的触发操作后打开图库,用户从图库中选择海报,如此手机就可以基于用户的选择获取到海报。
作为一种示例,手机获取海报后可以在展示界面中展示海报,示例性地,海报的展示效果如图4中的(a)图所示。在一个实施例中,该展示界面中还可以提供有“搜索”选项32。用户可以点击“搜索”选项32。手机在检测到用户对“搜索”选项32的触发操作后,基于海报进行视觉搜索,得到海报中的搜索对象的搜索结果。其中,搜索对象为用户在海报中可能感兴趣的对象,搜索对象由手机确定,具体确定过程可以参见下文所述的实施例。在一个实施例中,搜索对象在海报中的特征包括如下(1)-(3)中的至少一项:(1)轮廓清晰,(2)完整度较高,(3)位置靠近海报的中心区域,也即位置比较居中。海报中的搜索对象的数量可能为一个或者多个,譬如图4中的(a)图所示的海报中的搜索对象可能包括人脸B,或者,也可能包括人脸B和手机A。
需要说明的是,这里仅是以在展示界面中提供“搜索”选项32供用户触发手机进行视觉搜索为例。在另一实施例中,用户还可以通过其他方式触发手机进行视觉搜索,示例性地,手机展示海报后,用户还可以“摇一摇”手机,相应地,手机检测到用户的“摇一摇”操作后,基于所获取的海报进行视觉搜索。
得到搜索结果之后,手机向用户反馈搜索结果。作为本申请的一个示例,由于搜索对象的搜索结果内容可能比较多,所以为了在提高展示效果的简洁性的同时使得用户快速、直观地了解搜索结果,手机可以通过问询场景的方式向用户进行反馈。譬如,问询场景可以包括与海报中的搜索对象相关的问询信息,示例性地,假设海报如图4中的(a)图所示,且手机确定海报中的搜索对象包括手机A和人脸B,则问询场景可以包括手机A和人脸B相关的问询信息,如图4中的(b)图所示,手机向用户反馈的问询信息包括“您想了解名人阿星的相关信息吗?”和“您想购买这款手机A吗?”。在一个实施例中,当搜索对象的数量为多个时,手机按照多个搜索对象的优先级从高到低的顺序对多个搜索对象的问询信息进行展示,如图4中的(b)图所示,由于人脸B的优先级高于手机A的优先级,所以人脸B的问询信息展示在手机A的问询信息之前。
作为一种示例,用户可以点击所展示的问询信息中的任意一个,以使得手机展示与用户所点击的问询信息相关的搜索结果中的其他内容。示例性地,当用户想要了解海报中的名人阿星的更多相关信息时,可以点击“您想了解名人阿星的相关信息吗?”这条问询信息,手机检测到对“您想了解名人阿星的相关信息吗?”这条问询信息的触发操作后,可以获取并展示名人阿星的搜索结果中的其他内容,譬如展示名人阿星的介绍信息、发表过的作品等内容,展示结果如图4中的(c)图所示。再如,当用户想要购买海报中的手机A时,可以点击“您想购买这款手机A吗”这条问询信息,在一个实施例中,当手机检测到对“您想购买这款手机A吗”这条问询信息的触发操作后,可以获取并展示手机A的搜索结果中的其他内容,譬如展示手机A的多张图像,展示结果如图4中的(d)图所示。在另一个实施例中,手机检测到对“您想购买这款手机A吗”这条问询信息的点击操作后,若能够获取到手机A的购买地址信息,譬如搜索结果中包括手机A的购买地址信息,则还可以向用户展示购买地址信息。当检测到用户对购买地址信息的触发操作后跳转至购买页面,使得用户可以在购买页面中购买手机A,避免当用户想要购买手机A时需要手动输入手机A的检索信息进行再次搜索,从而可以提高用户体验。
需要说明的是,在上述实施例中仅是以整条问询信息是可触发的为例进行说明。在另一个实施例中,也可以是问询信息中的部分文字是可触发的,譬如,“您想了解名人阿星的相关信息吗?”这条问询信息中的“名人阿星”是可触发的,当用户想要了解名人阿星的更多相关信息时,可以点击“名人阿星”文字,以触发手机展示名人阿星的搜索结果中的其他内容。再如,“您想购买这款手机A吗?”这条问询信息中的“手机A”和/或“购买”是可触发的,当用户想要了解海报中的手机A时,可以点击“手机A”或“购买”以触发手机展示海报中的手机A的搜索结果中的其他内容。
作为本申请的另一个示例,搜索结果的反馈形式还可以如图5所示,也即可以在海报中的一个或者多个搜索对象中的每个搜索对象所在区域标识可触发项,以及在展示界面中除海报之外的其他区域标识每个搜索对象对应的可触发项,作为一种示例,当搜索对象的数量为多个时,可以按照多个搜索对象的优先级从高到低的顺序标识多个搜索对象的可触发项。当用户想要了解与搜索对象相关的更多相关信息时,可以点击搜索对象对应的可触发项,手机检测到用户对可触发项的触发操作后,可以展示搜索对象的搜索结果中的其他内容,示例性地,展示效果如图4中的(c)图或(d)图所示。
作为一种示例,不同搜索对象对应的可触发项可以采用不同颜色和/或不同形状进行标识,譬如,人脸B对应的可触发项可以采用蓝色的圆点进行标识,手机A对应的可触发项可以采用红色的圆点进行标识。再如,人脸B对应的可触发项可以采用圆点进行标识,手机A对应的可触发项可以采用方块进行标识。
值得一提的是,通过可触发项向用户反馈搜索结果,可以提高界面展示的简洁性。
在一个实施例中,在展示界面中除海报之外的其他区域标识的可触发项附近区域还可以展示对应的问询信息,譬如,名人阿星对应的可触发项的后面可以展示“Know aboutstar Xing”问询信息,海报中的手机A对应的可触发项的后面可以展示“Buy this phoneA”问询信息。如此以便于用户可以直观感知可触发项对应的搜索结果,从而可以提高用户体验。
需要说明的是,上述图5仅是以在海报中的每个搜索对象所在区域和其他区域均标识可触发项为例。在另一实施例中,还可以仅在海报中的每个搜索对象所在区域标识可触发项,或者,还可以仅在该其他区域标识可触发项,本申请实施例对此不作限定。
作为本申请的又一个示例,手机还可以通过不同行展示搜索对象的搜索结果,当搜索对象的数量为多个时,手机可以将不同搜索对象的搜索结果按照多个搜索对象的优先级从高到低的顺序通过不同行进行罗列展示,也即将海报中的一个或者多个搜索对象的搜索结果通过不同行分别进行展示。示例性地,请参考图6,手机在第一行展示人脸B的搜索结果,在第二行展示手机A的搜索结果。在一个实施例中,由于每一行能够展示的内容有限,所以一行可能无法展示搜索对象的全部搜索结果,在该种情况下,手机还可以标识搜索对象的可触发项。譬如,在人脸B的面部所在区域标识对应的可触发项,在海报中的手机A所在区域标识对应的可触发项。再如,在搜索对象对应的行内展示可触发项。如此,当用户想要了解更多与搜索对象相关的搜索结果中的其他内容时,可以点击搜索对象对应的可触发项以使得手机展示其他内容。
需要说明的是,上述的搜索结果的几种反馈形式仅是示例性的,在另一个实施例中,手机还可能采用其他方式向用户反馈搜索对象的搜索结果,本申请实施例对此不作限定。
在介绍完本申请实施例涉及的应用场景后,接下来对本申请实施例涉及的系统架构进行介绍。请参阅图7,图7是根据一示例性实施例示出的一种系统架构的示意图,作为本申请的一个示例,系统架构包括端侧和云侧。在一个实施例中,端侧的执行主体为电子设备,云侧的执行主体为服务器,电子设备与服务器之间建立有通信连接。
作为一种示例,如图7所示,电子设备包括意图识别模块、数据关联模块、内容布局与处理模块。在实施中,电子设备获取第一图像,作为一种示例,第一图像可以是通过相机拍摄得到的,或者也可以是从相册中上传的一张图像。意图识别模块用于通过图像检测处理等操作确定第一图像中的搜索对象,通过服务器对第一图像中的搜索对象进行意图搜索,由服务器返回搜索结果。另外,当第一图像中包括多个搜索对象时,意图识别模块还用于确定多个搜索对象的优先级。数据关联模块用于获取服务器返回的搜索结果并展示。在一个实施例中,当搜索对象的数量为多个时,数据关联模块还用于获取意图识别模块所确定的多个搜索对象的优先级,并基于多个搜索对象的优先级对所获得的搜索结果进行排序,这里也可以理解为对多个搜索对象进行排序。内容布局与处理模块用于对排序后的多个搜索结果进行布局并反馈。
可选地,电子设备还可以包括图像预处理模块,图像预处理模块用于对电子设备拍摄或上传的图像进行预处理,示例性地,可以进行尺寸调整、去噪等预处理,得到第一图像。如此,对拍摄或上传的图像进行预处理可以使得得到的第一图像能够更加符合意图识别模块的处理要求,譬如尺寸调整可以解决因相机规格不同导致的图像尺寸不统一问题,再如去噪处理可以提高意图识别模块图像检测处理的准确性,进而可以提高视觉搜索的准确性。
服务器用于确定并返回搜索结果。服务器中设有不同垂域对应的数据库,一种垂域对应一种对象类型,示例性地,不同垂域可以包括但不限于名人垂域、商品垂域、景点垂域。在一个实施例中,每个垂域对应的数据库中包括但不限于图像库、语义信息、作品信息。图像库包括搜索对象的至少一张图像,譬如至少一张图像可以是搜索对象的不同角度的拍摄图像。语义信息为搜索对象的语言描述信息,譬如,可以包括搜索对象的介绍信息。作品信息包括人物发表的文章、发布的视频等作品的信息。数据库中包括的每个搜索对象的至少一张图像、语义信息和作品信息是相互关联的。示例性地,服务器向电子设备返回的搜索结果通常包括搜索对象在图像库中的至少一张图像、以及与至少一张图像相关联的语义信息和作品信息。
在一种可能的实现方式中,某搜索对象的搜索结果可能包括多个数据。该种情况下,服务器将搜索结果反馈给电子设备之前,还可以对该搜索对象的搜索结果中的多个数据进行重排序,以确定该搜索对象的搜索结果中的多个数据的展示顺序,并将重排序后的搜索结果反馈给电子设备。作为一种示例,服务器可以根据预设策略对搜索对象的搜索结果中的多个数据进行排序。其中,预设策略可以根据实际需求预先进行设置,示例性地,若搜索对象的搜索结果包括多张图像,则预设策略可以为按照拍摄角度进行排序,比如正面的图像排于其他角度的图像之前。
在本申请一种可能的实现方式中,意图识别模块通过服务器进行意图搜索的过程中还可能进行初次搜索,也即执行初招操作。在初次搜索时,服务器确定第一图像中的对象与图像库中的图像的相似度,以确定图像库中是否存在与对象相匹配的搜索结果,从而通过初次搜索对第一图像中的对象进行筛选,进而根据筛选结果确定第一图像中的搜索对象,其具体实现可以参见下文所示实施例。在一个实施例中,服务器基于数据库中的图像初招库来确定相似度。其中,图像初招库为对应的图像库的子库,作为一种示例,可以按照某种预设的策略预先从每个垂域对应的图像库中抽取一部分图像,得到每个垂域对应的图像初招库,譬如,对于任一垂域对应的图像库,从图像库中抽取每个对象的一张图像,得到任一垂域对应的图像初招库。如此,在确定相似度时可以避免需要将对象与图像库中的所有图像进行匹配,可以节省服务器的运算量。
值得一提的是,本申请实施例通过电子设备与服务器交互实现,即电子设备通过服务器获取搜索结果及进行初次搜索,如此可以避免需要电子设备中设置不同垂域对应的数据库,从而可以减小电子设备的运行负担,进而提高了电子设备的运行速度。
当然需要说明的是,上述是以本申请实施例提供的方法由端侧与云侧交互实现为例进行说明,在另一实施例中,该方法还可以由端侧单独实现,也即可以由电子设备单独实现。譬如电子设备中设有不同垂域对应的数据库,如此,电子设备在确定搜索结果以及初次搜索时就可以基于自身设置的数据库来执行,避免需要依赖服务器才能实现视觉搜索。在又一个实施例中,该方法还可以由服务器单独实现。
在介绍完本申请实施例涉及的应用场景和系统架构后,接下来对本申请实施例提供的确定搜索意图的方法的具体实现进行介绍,该方法可以应用于上述图7所示的系统架构中。本申请实施例的执行主体可以是电子设备,也可以是服务器。若执行主体是服务器,则涉及的显示过程(譬如图9所示实施例中的步骤905中涉及的显示过程)可以省略,或者显示过程也可以通过其他配有显示装置的设备执行。
下述以执行主体是电子设备为例。作为本申请的一个示例,电子设备中的意图识别模块包括三个分支,每个分支对应一个处理单元,也即意图识别模块包括三个处理单元,分别为第一处理单元、第二处理单元、第三处理单元。请参考图8,第一处理单元用于执行左边虚框对应的分支的操作,第二处理单元用于执行中间虚框对应的分支的操作,第三处理单元用于执行右边虚框对应的分支中的操作。在一个实施例中,该方法中涉及的确定对象的排列顺序的相关过程可以由三个处理单元中的任一个处理单元独立实现。在另一个实施例中,该方法中涉及的确定对象的排列顺序的相关过程可以由三个处理单元中的任意两个处理单元结合实现。在又一个实施例中,该方法中涉及的确定对象的排列顺序的相关过程还可以由三个处理单元结合实现。为了便于理解,接下来,分别通过如下几个实施例对三个处理单元的实现方式进行介绍。
请参考图9,图9是根据一示例性实施例示出的一种搜索结果的反馈方法流程图,这里以该方法中涉及的确定对象的排列顺序的相关过程通过第二处理单元单独实现为例进行介绍,具体可以包括如下部分或者全部内容:
步骤901:获取第一图像。
作为一种示例,第一图像是由电子设备通过相机拍摄得到的,或者,第一图像是从图库中的一张图像。作为另一种示例,第一图像还可以是对拍摄的或上传的图像进行预处理后得到的。获取第一图像的具体实现可以参见前文,这里不再赘述。
其中,第一图像中包括M个对象,M为大于或等于2的整数。
步骤902:确定第一图像包括的N个对象的对象区域和/或N个对象的对象类别。
其中,N为小于或等于M的正整数。
每个对象的对象区域是指每个对象在第一图像中的对象区域。
请参考图8,电子设备通过意图识别模块对第一图像进行图像检测处理,以确定第一图像包括的N个对象中每个对象的对象区域和/或每个对象的对象类别。作为一种示例,意图识别模块包括目标检测模型,如此,通过该目标检测模型对第一图像进行图像检测处理,得到每个对象的对象区域和/或每个对象的对象类别。其中,目标检测模型可以是预先训练好的检测模型,能够用于检测任一图像中的对象在该任一图像中的对象区域和/或对象类别。
示例性地,假设第一图像如图10中的(a)图所示,则将第一图像输入至目标检测模型后,目标检测模型确定第一图像包括的N个对象中每个对象的位置信息和对象类别,位置信息用于指示对象在第一图像中的对象区域。作为一种示例,电子设备根据目标检测模型所确定的位置信息采用对象框将每个对象在第一图像中标注出来,从而得到第二图像。譬如第二图像如图10中的(b)图所示,也即通过图像检测处理后确定第一图像包括的N个对象为人脸、手机和衣服,该N个对象的对象类别分别为人脸、商品和服装。
在一个实施例中,上述目标检测模型可以是预先基于对象检测样本集对待训练的模型进行训练后得到的。作为一种示例,对象检测样本集中的每个对象检测样本为标有对象类别标签的对象图像,譬如,对象检测样本集中可以包括人脸图像样本、衣服图像样本、商品图像样本、地标图像样本、动物图像样本、植物图像样本等。
作为本申请的一个示例,待训练的模型可以为mobilenetV3和单发多框检测器(Single Shot MultiBox Detector,SSD)结合的模型,也即以mobilenetV3作为网络基础,以及使用SSD的结构构成的模型。其中,mobilenetV3的网络结构可以通过表1进行描述。
表1
作为本申请一个示例,电子设备确定第一图像包括的N个对象的对象区域和/或N个对象的对象类别后,可以从第一图像中切割出N个对象中每个对象的对象区域。譬如,对图10中的(b)图所示的第一图像中的每个对象的对象区域进行切割后,得到的每个对象的对象区域如图11所示,其中,图11中的(a)图示出的对象为“手机”,图11中的(b)图示出的对象为“人脸”,图11中的(c)图示出的对象为“衣服”。
在一种可能的实现方式中,第一图像包括的N个对象即为第一图像中的M个对象,也即N等于M。在另一种可能的实现方式中,第一图像包括的N个对象是通过质量筛选后确定的,也即在确定N个对象的对象区域和/或N个对象的对象类别之前,还可以对第一图像中的M个对象进行质量筛选,以确定N个对象。
作为一种示例,N个对象在第一图像中的质量评分大于或等于质量评分阈值,N个对象中的任一个对象的质量评分是基于任一个对象的模糊度和/或完整度确定的。其中,质量评分阈值可以根据实际需求进行设置。在一个实施例中,质量筛选过程可以包括如下(1)-(2)几个子步骤:
(1)确定第一图像包括的M个对象中每个对象的质量评分。
在一实施例中,由于拍摄角度等原因可能使得第一图像中的某个或某些对象的图像质量较差,譬如,第一图像中可能包括路人或者其他物体,路人或者其他物体在第一图像中较为模糊,或者仅出现一小部分,比如第一图像可能仅包括某路人的部分身体。而这类对象大多数情况下不是用户关注的对象。所以,电子设备可以通过第二处理单元确定第一图像包括的M个对象中的每个对象的质量评分,以对第一图像包括的M个对象中的部分对象进行过滤处理,从而过滤掉图像质量较差的对象。
作为一种示例,任一个对象的图像质量可以通过任一个对象的模糊度和/或完整度来进行衡量,也即,第二处理单元确定第一图像包括的M个对象中每个对象的模糊度和/或完整度,从而确定每个对象的质量评分。其中,模糊度可以通过对象的轮廓的清晰度进行描述,也即若某对象的轮廓清晰,则可以确定该对象的模糊度较低,反之,若某对象的轮廓不清晰,则可以确定该对象的模糊度较高。完整度是指对象未被遮挡部分占整体的比例。
在一个实施例中,第二处理单元可以利用拉普拉斯方差算法来确定对象的模糊度。譬如可以使用拉普拉斯掩模对第一图像中的对象所在区域内的像素值做卷积运算,然后计算方差,对方差进行分值映射,得到对象的模糊度。示例性地,可以通过如下代码实现:
frame=cv2.imread(img)
resImg=cv2.resize(frame,(800,900),interpolation=cv2.INTER_CUBIC)
img2gray=cv2.cvtColor(resImg,cv2.COLOR_BGR2GRAY)
res=cv2.Laplacian(img2gray,cv2.CV_64F)
score=res.var()
在上述代码中,读取M个对象中任一个对象的对象区域,然后调整任一个对象所在区域的尺寸至固定尺寸,对尺寸调整后的任一个对象所在区域内的像素值进行灰度处理,即转为单通道灰度图像,基于单通道灰度图像进行拉普拉斯标准差计算,从而得到任一个对象的模糊度。
在一个实施例中,可以通过预先训练好的完整度预测模型来确定M个对象中任一个对象的完整度。示例性地,对于第一图像中包括的M个对象中的任一对象,可以将任一对象的对象区域输入至完整度预测模型中,由完整度预测模型进行预测处理,输出任一对象的完整度。
在一个实施例中,完整度预测模型可以是基于完整度训练样本集对待训练的模型进行训练得到,完整度训练样本集可以包括多个完整度训练样本,每个完整度训练样本包括对象样本图像和对象样本图像的完整度,待训练的模型可以为未训练的mobilenetV3模型。也即电子设备可以预先获取大量不同完整度的对象样本,然后输入至未训练的mobilenetV3模型进行模型训练,得到完整度预测模型。
需要说明的是,完整度预测模型可以为单独的模型,也可以为与上述目标检测模型结合为一体的模型,本申请实施例对此不作限定。
另外需要说明的是,上述仅是以通过完整度预测模型确定对象的完整度为例进行说明,在另一实施例中,第二处理单元还可以通过其他方式来确定对象的完整度。示例性地,可以确定对象被遮挡区域的面积,以及确定对象的对象框所在区域的面积,然后根据所确定的两个面积来确定对象的完整度,本申请实施例对此不作限定。
示例性地,第二处理单元确定第一图像包括的M个对象中每个对象的模糊度和完整度如图12所示。手机的模糊度和完整度如图12中的(a)图所示,分别为0.022和0.86,人脸的模糊度和完整度如图12中的(b)图所示,分别为0.042和0.92,衣服的模糊度和完整度如图12中的(c)图所示,分别为0.037和0.34。
第二处理单元确定第一图像中的每个对象的模糊度和/或完整度之后,基于第一图像中的每个对象的模糊度和/或完整度,确定每个对象的质量评分,该质量评分用于指示对象的图像质量,质量评分与图像质量正相关,也即质量评分越大说明对象的图像质量越好。
作为一种示例,以基于任一个对象的模糊度和完整度确定任一个对象的质量评分为例,第二处理单元可以设置模糊度权重和完整度权重,之后,基于任一个对象的模糊度和完整度,通过如下公式(1)来确定任一个对象的质量评分:
Si=aFi+bIi (1)
其中,Si表示对象i的质量评分,a表示模糊度权重,a为负值,Fi表示对象i的模糊度,b表示完整度权重,Ii表示对象i的完整度。其中,模糊度权重和完整度权重可以根据实际需求进行设置,本申请实施例对此不作限定。
(2)将基于M个对象中每个对象的质量评分从第一图像包括的M个对象中筛选出的对象作为N个对象。
第二处理单元根据质量评分进行过滤处理,譬如,对于第一图像包括的M个对象中的任一对象,当该任一对象的质量评分低于质量评分阈值时,将该任一对象过滤掉。
在另一个实施例中,还可以按照质量评分从高到低的顺序对第一图像包括的M个对象进行排序,然后获取将排序靠前的前N个对象作为N个对象,其中,N为大于1的整数。
需要说明的是,上述质量筛选过程仅是示例性的。在另一实施例中,质量筛选的具体实现可以包括如下方式中的任一种:对于第一图像包括的M个对象中的任一对象,若该任一对象的模糊度高于模糊度阈值,则将该任一对象过滤掉,也即将图像较为模糊的对象过滤掉;或者,若该任一对象的完整度低于完整度阈值,则将该任一对象过滤掉,也即将完整度较低的对象过滤掉;或者,若该任一对象的模糊度高于模糊度阈值且该任一对象的完整度低于完整度阈值,则将该任一对象过滤掉,也即过滤掉既模糊又不完整的对象。另外,将过滤处理后剩余的对象确定为第一图像包括的N个对象。
其中,模糊度阈值可以由用户根据实际需求进行设置,或者,也可以由电子设备默认设置,本申请实施例对此不作限定。
其中,完整度阈值可以由用户根据实际需求进行设置,或者,也可以由电子设备默认设置,本申请实施例对此不作限定。
值得一提的是,本申请实施例将一些图像质量较差的对象过滤掉,使得意图理解与对象属性相关联,避免对一些与搜索意图不相符的对象进行搜索处理,可以提高搜索的有效性和准确性,从而可以提高用户体验。
需要说明的是,若第一图像中的M个对象的质量评分均低于质量评分阈值,则电子设备结束意图搜索。也即若第一图像中包括的M个对象均模糊不清楚或完整度较低,则电子设备不进行意图搜索,譬如可以提示用户第一图像不可用。
步骤903:对第一图像包括的N个对象进行初次搜索。
作为一种示例,第二处理单元向服务器发送初招请求,初招请求中携带N个对象的对象区域和N个对象的对象类别。服务器接收初招请求后对初招请求进行解析,得到N个对象的对象区域和N个对象的对象类别。本实施例以第一对象为例进行说明,第一对象为N个对象中的任意一个对象:服务器根据第一对象的对象类别确定对应的垂域,之后,确定第一对象的对象区域与所确定的垂域的图像初招库中的图像之间的相似度。在实施中,服务器提取第一对象的对象区域中的对象特征,以及获取所确定的垂域对应的图像初招库中各个图像的对象特征,确定所提取的对象特征与所获取的各个图像的对象特征之间的相似度,得到多个相似度。服务器将多个相似度中的最大相似度确定为第一对象的置信度评分。如前文所述,由于图像初招库为图像库的子库,所以,当相似度较大时,说明图像库中存在与第一对象相匹配的图像,或者说,服务器的数据库中存在与第一对象相符的搜索结果,因此,置信度评分为第一对象与图像库中的图像的相似度,能够用于指示第一对象的搜索意图与搜索结果的匹配程度。作为一种示例而非限定,服务器确定最大相似度对应的图像的标签,将该标签作为第一对象的对象标签。服务器将第一对象的置信度评分和对象标签作为初次搜索的结果(或称初招结果)发送给电子设备。其中,对象标签可以用于电子设备后续选择性地展示。
需要说明的是,这里仅是以将对象的对象区域和对象类别发送给服务器,由服务器提取对象的对象特征为例进行说明。在另一实施例中,第二处理单元还可以提取对象区域的对象特征,将对象特征和对象类别发送给服务器,如此可以避免需要服务器对对象区域执行特征提取的操作。
作为另一种示例,电子设备自身设有数据库,此时,可以由第二处理单元确定与第一对象的对象类别对应的图像库,确定第一对象在第一图像中的对象区域与图像库包括的多个图像中每个图像之间的相似度,之后,将所确定的多个相似度中的最大相似度作为第一对象的置信度评分。
步骤904:根据初次搜索的结果确定N个对象的排列顺序。
电子设备根据置信度评分的大小,确定N个对象的排列顺序。其中,N个对象中任一个对象的排列顺序与优先级对应,排列顺序越靠前,优先级越高。
步骤905:根据N个对象的排列顺序,反馈N个对象中的部分对象或者全部对象的搜索结果。
也即是,电子设备可以根据N个对象的排列顺序,反馈N个对象中的全部对象的搜索结果,或者,也可以从N个对象中选择部分对象,并根据N个对象的排列顺序,反馈部分对象的搜索结果。
为了便于描述和理解,将N个对象中待反馈搜索结果的部分对象或者全部对象称为搜索对象。不难理解,搜索对象的数量可能为一个或者多个。也即,搜索对象包括N个对象中的部分对象,在另一个实施例中,搜索对象包括N个对象中的全部对象。
作为一种示例,电子设备从N个对象中选择排序靠前的预设数量个对象作为搜索对象,预设数量可以根据实际需求进行设置,譬如预设数量为2。
作为另一种示例,电子设备还可以根据N个对象的置信度评分确定搜索对象。譬如对于N个对象中的第一对象,电子设备将第一对象的置信度评分与置信度评分阈值进行比较,若第一对象的置信度评分低于置信度评分阈值,说明服务器中可能不存在与第一对象相匹配的搜索结果,因此为了能够提高用户体验,也即为用户提供良好的搜索结果,可以将第一对象过滤掉,即后续可以不对第一对象进行意图搜索。反之,若第一对象的置信度评分高于置信度评分阈值,说明服务器中存在与第一对象相匹配的搜索结果,此时,可以将第一对象确定为搜索对象。
如此,根据置信度评分从第一图像中筛选出搜索对象,使得意图理解与搜索结果相呼应,可以提高意图搜索的准确性。
作为一种示例,电子设备确定搜索对象后向服务器发送搜索请求,搜索请求中携带至少一个搜索对象的对象区域和对象类别。服务器接收到搜索请求后,对搜索请求进行解析,得到至少一个搜索对象的对象区域和对象类别。以一个搜索对象为例进行说明:服务器基于搜索对象的对象类别确定对应的垂域,并基于对象区域从所确定的垂域的数据库中获取搜索对象的搜索结果。在一个实施例中,数据库中包括图像库和关联信息,服务器将搜索对象的对象区域与图像库中的图像进行匹配,从而确定搜索对象的至少一张图像和关联信息。服务器将搜索对象的至少一张图像和关联信息作为搜索对象的搜索结果。之后,服务器向电子设备返回至少一个搜索对象中的每个搜索对象的搜索结果。
需要说明的是,上述是以电子设备进行意图搜索时将至少一个搜索对象的对象区域和对象类别发送给服务器为例进行说明。在另一实施例中,服务器在对初招请求进行解析得到N个对象的对象区域和对象类别之后,可以在本地生成N个对象中的每个对象的索引信息,并建立每个索引信息与每个对象的对象区域和对象类别之间的映射关系。服务器将N个对象中的每个对象的索引信息发送给电子设备。在该种情况下,当电子设备对搜索对象进行意图搜索时,不需要再次将搜索对象的对象区域和对象类别发送给服务器,而是将搜索对象的索引信息发送给服务器,服务器就可以直接基于索引信息,从本地获取搜索对象的对象区域和对象类别。如此,避免需要电子设备再次上传对象区域和对象类别,可以节省流量。
当搜索对象的数量为一个时,电子设备直接向用户反馈搜索对象的搜索结果。
当搜索对象的数量为多个时,按照多个搜索对象的排列顺序,反馈多个搜索对象的搜索结果。也即将优先级较高的搜索对象的搜索结果优先显示。
作为一种示例,按照多个搜索对象的排列顺序,反馈多个搜索对象的搜索结果的具体实现可以包括:获取多个搜索对象中每个搜索对象的搜索结果包括的对象标签,基于每个搜索对象的对象标签,生成每个搜索对象对应的问询信息,问询信息用于提示是否需要获取与对象标签关联的信息,按照多个搜索对象的排列顺序展示多个搜索对象的问询信息,以反馈多个搜索对象的搜索结果。
其中,与每个搜索对象的对象标签关联的信息是指每个搜索对象的搜索结果中包括的除了对象标签之外的其他信息,譬如,包括搜索对象的语义信息、作品信息、图像等。
作为一种示例,N个对象包括第二对象和第三对象,第二对象的排列顺序位于第三对象的排列顺序之前,第二对象对应的搜索结果在显示屏上的显示顺序位于第三对象对应的搜索结果在显示屏上的显示顺序之前。
譬如,假设所获取的搜索结果包括第一图像中的人脸B的搜索结果和手机A的搜索结果,请参阅图13,如图13中的(a)图所示,手机A的置信度评分为0.886,以及如图13中的(b)图所示,人脸B的置信度评分为0.998。人脸B的置信度评分高于手机A的置信度评分,也即人脸B的排列顺序位于手机A的排列顺序之前。则在展示搜索结果的过程中,优先反馈人脸B的搜索结果,譬如可以将人脸B的搜索结果展示在手机A的搜索结果之前,显示结果如图4中的(b)图所示。
在本申请实施例中,对第一图像中的N个对象进行初次搜索,以确定第一图像中的N个对象的置信度评分,然后根据第一图像中的N个对象的置信度评分进行对象筛选,以筛选掉意图理解与搜索结果不匹配的对象,从而可以提高意图搜索的准确性。另外,基于置信度评分对筛选后的对象进行排序展示,使得用户可能感兴趣的对象的搜索结果优先展示,提高了用户体验。
请参考图14,图14是根据一示例性实施例示出的一种搜索结果的反馈方法流程图,这里以该方法中涉及的确定对象的排列顺序的相关过程由第三处理单元单独实现为例进行介绍,具体可以包括如下部分或者全部内容:
步骤1401至步骤1402的具体实现可以参见上述图9实施例中的步骤901至步骤902。
步骤1403:确定第一图像中的N个对象中每个对象的物体关系评分。
N个对象中任一个对象的物体关系评分用于指示任一个对象在第一图像中的重要程度。
作为本申请的一个示例,请参考图15,可以将第一图像划分为多个区域,示例性地,将第一图像划分为N*N个区域,其中,N为大于1的整数,可以根据实际需求进行设置。之后,从中心区域开始为每个区域设置预设分值,每个区域的预设分值用于指示每个区域的位置重要程度,且多个区域中的至少两个区域的预设分值不相同。通常情况下,越靠近中心区域的对象越是用户可能感兴趣的对象,因此在设置预设分值时,中心点的区域的预设分值设置的最高,并且,向周围扩散逐步降低。示例性地,可以按照高斯分布来设置每个区域的预设分值,预设分值的高斯分布情况如图16所示。
电子设备确定N个对象中每个对象的位置重要程度值。以第一对象为例,第一对象为N个对象中的任意一个对象。确定第一对象的对象框内包括的区域的预设分值的平均值,将得到的评分作为第一对象的位置重要程度值。示例性地,假设第一图像中的N个对象包括人脸、手机和衣服,通过计算确定第一图像中的人脸的位置重要程度值为0.78,手机的位置重要程度值为0.7,衣服的位置重要程度值为0.68。
之后,基于每个对象的位置重要程度值确定每个对象的物体关系评分。示例性地,将每个对象的位置重要程度值确定为每个对象的物体关系评分,譬如,将第一对象的位置重要程度值确定为第一对象的物体关系评分。
在本申请一个实施例中,第一图像中还可能包括参考对象,参考对象可以根据实际需求进行设置,譬如参考对象可以为人体。以参考对象是人体为例,当第一图像包括人体时,通常距离人体较近的对象为用户可能感兴趣的对象,而距离人体较远的对象为用户不感兴趣的对象。因此,在确定第一图像中的N个对象的物体关系评分时,若第一图像中包括参考对象,则还可以基于第一对象在第一图像中的对象区域与所述参考对象在第一图像中的对象区域,获取第一对象与参考对象在所述第一图像中的距离作为第一对象的附属关系程度值。示例性地,若参考对象为人体,当确定手机与人体之间的距离为0.42时,确定手机的附属关系程度值为0.42。
作为一种示例,在确定第一对象与参考对象之间的距离时,可以确定第一对象的中心点与参考对象的中心点之间的距离。在一些实施例中,由于当第一图像的尺寸被调整时,第一对象的中心点与参考对象的中心点之间的距离会随之发生变化,所以为了保证针对不同尺寸的第一图像确定的附属关系程度值相同,可以对距离进行归一化处理,譬如可以利用第一图像对角线距离进行归一化处理。
当然,对于参考对象来说其附属关系程度值可以根据实际需求进行设置,譬如可以设置为1,譬如当参考对象为人体时,人脸的附属关系程度值为1。
在一个实施例中,当第一图像中包括多个参考对象时,确定第一对象与每个参考对象在第一图像中的距离,得到多个距离,然后将多个距离中的最小距离作为附属关系程度值。
在一个实施例中,当第一图像包括参考对象(如人体)时,电子设备根据第一对象的位置重要程度值和附属关系程度值确定第一对象的物体关系评分。示例性地,可以分别为位置重要程度值和附属关系程度值设置一定的权重,然后通过等权方式融合,得到第一对象的物体关系评分。其中,位置重要程度值的权重和附属关系程度值的权重均可以根据实际需求进行设置,本申请实施例对此不作限定。
步骤1404:根据第一图像中的N个对象的物体关系评分,确定N个对象的排列顺序。
在实施中,根据N个对象的物体关系评分的大小,确定N个对象的排列顺序。
步骤1405:根据N个对象的排列顺序,反馈N个对象中的部分对象或者全部对象的搜索结果。
在实施中,可以从N个对象中确定搜索对象。在一个实施中,搜索对象包括N个对象中的部分对象,在另一个实施例中,搜索对象包括N个对象中的部分对象。
作为一种示例,可以根据N个对象的排列顺序,从N个对象中选择排序靠前的预设数量个对象作为搜索对象。
作为另一种示例,可以根据物体关系评分确定搜索对象。当物体关系评分较大时,说明对应的对象较为重要,可能是用户感兴趣的对象,反之,当物体关系评分较小时,说明对应的对象不重要,也即可能不是用户感兴趣的对象。因此,电子设备可以将物体关系评分低于评分阈值的对象过滤掉,将物体关系评分高于评分阈值的对象确定为搜索对象。
其中,评分阈值可以由用户根据实际需求进行设置,或者,也可以由电子设备默认设置,本申请实施例对此不作限定。
值得一提的是,本申请实施例根据第一图像中的对象的物体关系评分从第一图像中筛选搜索对象,以便于只对第一图像中较为重要的对象进行意图搜索,从而为用户提供感兴趣的搜索对象的搜索结果,可以提高用户体验。
之后,对搜索对象进行意图搜索,得到搜索结果,并反馈搜索对象的搜索结果。具体实现可以参见图9所示实施例中的步骤905的相关内容。
示例性地,假设第一图像中的搜索对象包括人脸B和手机A,所获取的搜索结果包括人脸B的搜索结果和手机A的搜索结果,若人脸B的物体关系评分大于手机A的物体关系评分,也即人脸B的排列顺序位于手机A的排列顺序之前,则在展示搜索结果的过程中,优先反馈人脸B的搜索结果,譬如可以将人脸B的搜索结果展示在手机A的搜索结果之前。
在本申请实施例中,通过确定第一图像中的N个对象在二维空间里的位置重要程度值,以及确定每个对象与参考对象之间的附属关系程度值,然后基于位置重要程度值和附属关系程度值确定每个对象的物体关系评分,使得对象的搜索意图与对象属性相关联,从而为用户优先推荐用户可能感兴趣的搜索对象的搜索结果,进而提高了用户体验。
请参考图17,图17是根据一示例性实施例示出的一种搜索结果的反馈方法流程图,这里以该方法中涉及的确定对象的排列顺序的相关过程由第一处理单元单独实现为例进行介绍,具体可以包括如下部分或者全部内容:
步骤1701至步骤1702的具体实现可以参见上述图9实施例中的步骤901至步骤902。
步骤1703:对第一图像进行场景识别。
作为一种示例,电子设备通过第一处理单元对第一图像进行场景识别,以确定第一图像对应的场景类别。作为本申请的一个示例,场景类别可以包括但不限于人物海报、酒吧、饭店、咖啡屋、电影院、会议室、室外风景、室外地标。
在本申请一种可能的实现方式中,第一处理单元可以通过场景识别模型对第一图像进行场景识别,场景识别模型可以是预先训练好的且能够基于任一图像确定对应的场景类别的模型。在实施中,可以将第一图像输入至场景识别模型中,由场景识别模型对第一图像进行场景识别,输出第一图像对应的场景类别。譬如,通过场景识别模型确定第一图像对应的场景类别为人物海报。
作为一种示例,场景识别模型的训练过程可以包括:获取场景训练样本集,场景训练样本集包括多个场景训练样本,每个场景训练样本包括标识有场景类别标签的场景图像。将场景训练样本集输入至待训练的模型中进行训练,当满足预设训练条件时训练结束,如此即可得到场景识别模型。
预设训练条件可以根据实际需求进行设置。示例性地,预设训练条件可以是指训练次数达到次数阈值,或者,预设训练条件还可以是指训练后的模型的场景识别准确度达到准确度阈值。
次数阈值可以由用户根据实际需求进行设置,或者,也可以由电子设备默认设置,本申请实施例对此不作限定。
准确度阈值可以由用户根据实际需求进行设置,或者,也可以由电子设备默认设置,本申请实施例对此不作限定。
作为一种示例,待训练的模型可以为分类网络模型,示例性地,分类网络模型可以为mobilenetV3和SSD结合的模型,也即以mobilenetV3作为网络基础,以及使用SSD的结构构成的模型。当然这里仅是以待训练的模型是mobilenetV3和SSD结合的模型为例,在另一实施例中,待训练的模型还可以是其他分类网络模型,本申请实施例对此不作限定。
需要说明的是,场景识别模型的训练可以由电子设备来执行,或者,也可以由其他设备执行,之后,将训练好的场景识别模块存储至电子设备的第一处理单元中。
步骤1704:根据第一图像的场景类别和第一图像中的N个对象的对象类别,确定第一图像中的N个对象的排列顺序。
其中,不同场景对应有至少一种场景意图权重。任一个对象的场景意图权重用于指示在第一图像的场景中任一个对象被搜索的概率,每种场景对应的至少一种场景意图权重可以根据实际需求预先进行设置。示例性地,不同场景对应的至少一种场景意图权重如表2所示:
表2
场景类别 | 场景意图权重1 | 场景意图权重2 | 场景意图权重3 | 场景意图权重n |
人物海报 | 名人1.0 | 购物0.9 | 识物0.8 | ...... |
风景 | 地标1.0 | 识物0.6 | 名人0.5 | ...... |
居家室内 | 购物1.0 | 识物0.6 | 名人0.6 | ...... |
每种搜索意图与一种对象类别对应。电子设备可以根据场景类别确定对应的至少一种场景意图权重,另外,根据第一图像中的N个对象的对象类别确定对应的搜索意图,从而可以确定N个对象中每个对象的场景意图权重。譬如,假设电子设备确定第一图像的场景类别为“人物海报”,第一图像中的N个对象包括人脸、手机和衣服,N个对象的对象类别包括:人物、商品、物品,对应的搜索意图分别为名人、购物和识物,则根据上述表1可以确定各个对象的场景意图权重分别为1.0,0.9和0.8。
之后,可以根据N个对象的场景意图权重的大小,确定N个对象的排列顺序。
步骤1705:根据N个对象的排列顺序,反馈N个对象中的部分对象或者全部对象的搜索结果。
在一个实施例中,电子设备从第一图像中筛选出场景意图权重大于权重阈值的对象,将筛选出的对象确定为搜索对象。
其中,权重阈值可以由用户根据实际需求进行设置,或者,也可以由电子设备默认设置,本申请实施例对此不作限定。
之后,对第一图像中的搜索对象进行意图搜索,得到搜索结果,并反馈搜索对象的搜索结果。具体实现可以参见图9所示实施例中的步骤905的相关内容。
示例性地,电子设备可以根据各个搜索对象的场景意图权重进行搜索意图排序,譬如假设搜索对象包括人脸B和手机A,排序结果为:名人、购物。也即是,第一图像对应的最大可能性的搜索意图是名人搜索,其次是购物,譬如可能是购买第一图像中的手机。由于名人的场景意图权重高于购物的场景意图权重,也即人脸B的排列顺序位于手机A的排列顺序之前,所以在反馈搜索结果的过程中,优先反馈人脸B的搜索结果,譬如可以将人脸B的搜索结果展示在手机A的搜索结果之前。
在本申请实施例中,通过确定第一图像的场景类别,然后根据场景类别确定第一图像中的搜索对象的搜索意图排序,根据搜索意图排序展示第一图像中的搜索对象的搜索结果。如此,将搜索结果与场景相结合,使得搜索结果与场景更为贴近,避免搜索结果与第一图像的场景相脱离,使得向用户展示的搜索结果更加符合第一图像的场景,从而为用户优先推荐用户可能感兴趣的搜索结果,进而提高了用户体验。
需要说明的是,上述各个实施例是以该方法中涉及的确定对象的排列顺序的相关过程由一个处理单元独立实现为例进行说明,如前文所述,在一个实施例中,本申请实施例提供的方法中涉及的确定对象的排列顺序的相关过程由可以由上述三个处理单元中的任意两个结合实现,或者,还可以由上述三个处理单元相互结合实现。接下来以通过三个处理单元结合实现为例对本申请实施例提供的方法的具体实现进行介绍:
请参考图18,图18是本申请实施例提供的一种搜索结果的反馈方法的示意性流程图,该方法可以包括如下部分或者全部内容:
步骤1801至步骤1802可以参见上述图9所示实施例中的步骤901至步骤902。
步骤1803:通过第一处理单元确定N个对象中每个对象的场景意图权重。
场景意图权重用于指示在第一图像的场景下第一对象被搜索的概率,第一对象为N个对象中的任意一个对象。其具体实现可以参见图9所示的实施例。
步骤1804:通过第二处理单元确定N个对象中每个对象的置信度评分。
置信度评分为第一对象与图像库中的图像的相似度。其具体实现可以参见图14所示的实施例。
步骤1805:通过第三处理单元确定N个对象中每个对象的物体关系评分。
物体关系评分用于指示第一对象在第一图像中的重要程度,示例性地,物体关系评分基于位置重要程度值确定,或者基于位置重要程度值和附属关系程度值确定。其具体实现可以参见图17所示的实施例。
需要说明的是,上述步骤第一处理单元、第二处理单元和第三处理单元没有先后执行顺序,在一个实施例中,第一处理单元、第二处理单元和第三处理单元可以并行执行。
步骤1806:基于第一对象的置信度评分、物体关系评分和场景意图权重,确定第一对象的优先级。
其中,第一对象的优先级与第一对象的排序顺序对应,也即第一对象的优先级越高,排列顺序越靠前。
第一对象为N个对象中的任一个对象,也即这里以第一对象为例进行说明,在实施中,基于每个对象的置信度评分、物体关系评分和场景意图权重,确定每个对象的优先级。
示例性地,假设物体关系评分是基于位置重要程度值和附属关系程度值确定的,以S表示场景意图权重,F表示对象的置信度评分,L和H分别表示对象的位置重要程度值和附属关系程度值,则可以通过如下公式(2)来确定每个对象的优先级值,优先级值用于指示优先级:
fn=xFn+yLn+kHn+zSn-c-I (2)
其中,fn表示对象n的优先级值,Fn表示对象n的置信度评分,Ln表示对象n的位置重要程度值,Hn表示对象n的附属关系程度值,Sn-c-I表示对象n的对象类别在第一图像中对应的场景意图权重。x,y,k,z分别为预设值。
步骤1807:基于N个对象的优先级,从第一图像中确定搜索对象。
搜索对象包括第一图像包括的N个对象中的部分对象或者全部对象。
步骤1808:获取搜索对象的搜索结果。
步骤1809:反馈搜索对象的搜索结果。
在本申请实施例中,在基于第一图像进行意图搜索的过程中,确定第一图像的场景类别,确定第一图像中的对象的置信度评分和物体关系评分,然后基于场景类别对应的场景意图权重,以及第一图像中的对象的置信度评分和物体关系评分确定对象的优先级,根据优先级对第一图像中的对象进行排序展示,可以尽可能地展示用户可能感兴趣的对象的搜索结果,提高了意图搜索的准确性,进而提高了用户体验。
应理解,上述实施例中各步骤的序号并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
对应于上文实施例所述的反馈搜索结果的方法,图19是本申请实施例提供的一种反馈搜索结果的装置的结构框图,为了便于说明,仅示出了与本申请实施例相关的部分。
参照图19,装置包括:
获取模块1910,用于获取第一图像,所述第一图像包括M个对象,所述M为大于或等于2的整数;
确定模块1920,用于对于所述M个对象中的N个对象,在所述N大于或等于2的情况下,确定所述N个对象的排列顺序,所述N为小于或等于所述M的正整数;
其中,所述N个对象中任一个对象的排列顺序是基于场景意图权重、置信度评分、物体关系评分中的任一项或多项确定的,所述场景意图权重用于指示在所述第一图像对应的场景下所述任一个对象被搜索的概率,所述置信度评分为所述任一个对象与图像库中的图像的相似度,所述物体关系评分用于指示所述任一个对象在所述第一图像中的重要程度;
反馈模块1930,用于根据所述N个对象的排列顺序,反馈所述N个对象中的部分对象或者全部对象的搜索结果。
作为本申请的一个示例,所述确定模块1920用于:
通过目标检测模型对所述第一图像进行图像检测处理,得到第一对象在所述第一图像中的对象区域和/或所述第一对象的对象类别,所述第一对象为所述N个对象中的任一个对象;
基于所述第一对象在所述第一图像中的对象区域和所述第一对象的对象类别确定所述第一对象的置信度评分,和/或,基于所述第一对象在所述第一图像中的对象区域确定所述第一对象的物体关系评分,和/或,基于所述第一对象的对象类别确定所述第一对象的场景意图权重。
作为本申请的一个示例,所述确定模块1920用于:
确定与所述第一对象的对象类别对应的图像库;
确定所述第一对象在所述第一图像中的对象区域与所述图像库包括的多个图像中每个图像之间的相似度;
将所确定的多个相似度中的最大相似度作为所述第一对象的置信度评分。
作为本申请的一个示例,所述第一图像包括多个区域,且所述多个区域中的每个区域具有用于指示所述每个区域的位置重要程度的预设分值,且所述多个区域中的至少两个区域的预设分值不相同;所述确定模块1920用于:
基于所述第一对象在所述第一图像中的对象区域内包括的每个区域的预设分值,确定所述第一对象在所述第一图像中的位置重要程度值;
基于所述第一对象的位置重要程度值确定所述第一对象的物体关系评分。
作为本申请的一个示例,所述确定模块1920用于:
当所述第一图像中包括参考对象时,基于所述第一对象在所述第一图像中的对象区域与所述参考对象在所述第一图像中的对象区域,获取所述第一对象与所述参考对象在所述第一图像中的距离作为所述第一对象的附属关系程度值;
基于所述第一对象的位置重要程度值和附属关系程度值,确定所述第一对象的物体关系评分。
作为本申请的一个示例,所述确定模块1920用于:
确定所述第一图像的场景类别;
基于所述第一图像的场景类别和所述第一对象的对象类别,以及场景类别、对象类别与场景意图权重之间的对应关系,确定所述第一对象的场景意图权重。
作为本申请的一个示例,所述N个对象在所述第一图像中的质量评分大于或等于质量评分阈值,所述任一个对象的质量评分是基于所述任一个对象的模糊度和/或完整度确定的。
作为本申请的一个示例,所述反馈模块1930用于:
获取所述N个对象中的部分对象或者全部对象的搜索结果包括的对象标签;
基于所获取的对象标签,生成所述N个对象中的部分对象或者全部对象对应的问询信息,所述问询信息用于提示是否需要获取与对象标签关联的信息;
根据所述N个对象的排列顺序,展示所述N个对象中的部分对象或者全部对象的问询信息,以反馈所述N个对象中的部分对象或者全部对象的搜索结果。
作为本申请的一个示例,所述N个对象包括第二对象和第三对象,所述第二对象的排列顺序位于所述第三对象的排列顺序之前,所述第二对象对应的搜索结果在显示屏上的显示顺序位于所述第三对象对应的搜索结果在显示屏上的显示顺序之前。
在本申请实施例中,获取第一图像,第一图像包括M个对象,M为大于或等于2的整数。对于M个对象中的N个对象,在N个对象的数量为多个的情况下,确定N个对象的排列顺序,根据N个对象的排列顺序,反馈N个对象中的部分对象或者全部对象的搜索结果。其中,N个对象中任一个对象的排列顺序是基于场景意图权重、置信度评分、物体关系评分中的任一项或多项确定的,场景意图权重用于指示在第一图像对应的场景下任一个对象被搜索的概率,置信度评分为任一个对象与图像库中的图像的相似度,物体关系评分用于指示任一个对象在第一图像中的重要程度。如此,根据N个对象的排列顺序对N个对象进行筛选和排序,以将具有良好搜索结果且用户可能感兴趣的对象的搜索结果优先反馈给用户,使得反馈具有一定的针对性,从而提高了最终反馈的搜索结果的准确度。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的系统实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质至少可以包括:能够将计算机程序代码携带到电子设备的任何实体或装置、记录介质、计算机存储器、只读存储器(read-only memory,ROM)、随机存取存储器(random access memory,RAM)、电载波信号、电信信号以及软件分发介质。例如U盘、移动硬盘、磁碟或者光盘等。在某些司法管辖区,根据立法和专利实践,计算机可读介质不可以是电载波信号和电信信号。
最后应说明的是:以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何在本申请揭露的技术范围内的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (16)
1.一种反馈搜索结果的方法,其特征在于,所述方法包括:
获取第一图像,所述第一图像包括M个对象,所述M为大于或等于2的整数;
对于所述M个对象中的N个对象,在所述N大于或等于2的情况下,确定所述N个对象的排列顺序,所述N为小于或等于所述M的正整数;
其中,所述N个对象中任一个对象的排列顺序是基于场景意图权重、置信度评分、物体关系评分中的任一项或多项确定的,所述场景意图权重用于指示在所述第一图像对应的场景下所述任一个对象被搜索的概率,所述置信度评分为所述任一个对象与图像库中的图像的相似度,所述物体关系评分用于指示所述任一个对象在所述第一图像中的重要程度;
根据所述N个对象的排列顺序,反馈所述N个对象中的部分对象或者全部对象的搜索结果。
2.如权利要求1所述的方法,其特征在于,所述N个对象中任一个对象的场景意图权重、置信度评分、物体关系评分中的任一项或多项通过如下方式确定:
通过目标检测模型对所述第一图像进行图像检测处理,得到第一对象在所述第一图像中的对象区域和/或所述第一对象的对象类别,所述第一对象为所述N个对象中的任一个对象;
基于所述第一对象在所述第一图像中的对象区域和所述第一对象的对象类别确定所述第一对象的置信度评分,和/或,基于所述第一对象在所述第一图像中的对象区域确定所述第一对象的物体关系评分,和/或,基于所述第一对象的对象类别确定所述第一对象的场景意图权重。
3.如权利要求2所述的方法,其特征在于,所述基于所述第一对象在所述第一图像中的对象区域和所述第一对象的对象类别确定所述第一对象的置信度评分,包括:
确定与所述第一对象的对象类别对应的图像库;
确定所述第一对象在所述第一图像中的对象区域与所述图像库包括的多个图像中每个图像之间的相似度;
将所确定的多个相似度中的最大相似度作为所述第一对象的置信度评分。
4.如权利要求2所述的方法,其特征在于,所述第一图像包括多个区域,且所述多个区域中的每个区域具有用于指示所述每个区域的位置重要程度的预设分值,且所述多个区域中的至少两个区域的预设分值不相同;
所述基于所述第一对象在所述第一图像中的对象区域确定所述第一对象的物体关系评分,包括:
基于所述第一对象在所述第一图像中的对象区域内包括的每个区域的预设分值,确定所述第一对象在所述第一图像中的位置重要程度值;
基于所述第一对象的位置重要程度值确定所述第一对象的物体关系评分。
5.如权利要求4所述的方法,其特征在于,所述基于所述第一对象的位置重要程度值确定所述第一对象的物体关系评分之前,还包括:
当所述第一图像中包括参考对象时,基于所述第一对象在所述第一图像中的对象区域与所述参考对象在所述第一图像中的对象区域,获取所述第一对象与所述参考对象在所述第一图像中的距离作为所述第一对象的附属关系程度值;
所述基于所述第一对象的位置重要程度值确定所述第一对象的物体关系评分,包括:
基于所述第一对象的位置重要程度值和附属关系程度值,确定所述第一对象的物体关系评分。
6.如权利要求2所述的方法,其特征在于,所述基于所述第一对象的对象类别确定所述第一对象的场景意图权重,包括:
确定所述第一图像的场景类别;
基于所述第一图像的场景类别和所述第一对象的对象类别,以及场景类别、对象类别与场景意图权重之间的对应关系,确定所述第一对象的场景意图权重。
7.如权利要求1-6中任一项所述的方法,其特征在于,所述N个对象在所述第一图像中的质量评分大于或等于质量评分阈值,所述任一个对象的质量评分是基于所述任一个对象的模糊度和/或完整度确定的。
8.如权利要求1-7中任一项所述的方法,其特征在于,所述根据所述N个对象的排列顺序,反馈所述N个对象中的部分对象或者全部对象的搜索结果,包括:
获取所述N个对象中的部分对象或者全部对象的搜索结果包括的对象标签;
基于所获取的对象标签,生成所述N个对象中的部分对象或者全部对象对应的问询信息,所述问询信息用于提示是否需要获取与对象标签关联的信息;
根据所述N个对象的排列顺序,展示所述N个对象中的部分对象或者全部对象的问询信息,以反馈所述N个对象中的部分对象或者全部对象的搜索结果。
9.如权利要求1-8中任一项所述的方法,其特征在于,所述N个对象包括第二对象和第三对象,所述第二对象的排列顺序位于所述第三对象的排列顺序之前,所述第二对象对应的搜索结果在显示屏上的显示顺序位于所述第三对象对应的搜索结果在显示屏上的显示顺序之前。
10.一种反馈搜索结果的装置,其特征在于,所述装置包括:
获取模块,用于获取第一图像,所述第一图像包括M个对象,所述M为大于或等于2的整数;
确定模块,用于对于所述M个对象中的N个对象,在所述N大于或等于2的情况下,确定所述N个对象的排列顺序,所述N为小于或等于所述M的正整数;
其中,所述N个对象中任一个对象的排列顺序是基于场景意图权重、置信度评分、物体关系评分中的任一项或多项确定的,所述场景意图权重用于指示在所述第一图像对应的场景下所述任一个对象被搜索的概率,所述置信度评分为所述任一个对象与图像库中的图像的相似度,所述物体关系评分用于指示所述任一个对象在所述第一图像中的重要程度;
反馈模块,用于根据所述N个对象的排列顺序,反馈所述N个对象中的部分对象或者全部对象的搜索结果。
11.如权利要求10所述的装置,其特征在于,所述确定模块用于:
通过目标检测模型对所述第一图像进行图像检测处理,得到第一对象在所述第一图像中的对象区域和/或所述第一对象的对象类别,所述第一对象为所述N个对象中的任一个对象;
基于所述第一对象在所述第一图像中的对象区域和所述第一对象的对象类别确定所述第一对象的置信度评分,和/或,基于所述第一对象在所述第一图像中的对象区域确定所述第一对象的物体关系评分,和/或,基于所述第一对象的对象类别确定所述第一对象的场景意图权重。
12.如权利要求11所述的装置,其特征在于,所述确定模块用于:
确定与所述第一对象的对象类别对应的图像库;
确定所述第一对象在所述第一图像中的对象区域与所述图像库包括的多个图像中每个图像之间的相似度;
将所确定的多个相似度中的最大相似度作为所述第一对象的置信度评分。
13.如权利要求11所述的装置,其特征在于,所述第一图像包括多个区域,且所述多个区域中的每个区域具有用于指示所述每个区域的位置重要程度的预设分值,且所述多个区域中的至少两个区域的预设分值不相同;所述确定模块用于:
基于所述第一对象在所述第一图像中的对象区域内包括的每个区域的预设分值,确定所述第一对象在所述第一图像中的位置重要程度值;
基于所述第一对象的位置重要程度值确定所述第一对象的物体关系评分。
14.如权利要求13所述的装置,其特征在于,所述确定模块用于:
当所述第一图像中包括参考对象时,基于所述第一对象在所述第一图像中的对象区域与所述参考对象在所述第一图像中的对象区域,获取所述第一对象与所述参考对象在所述第一图像中的距离作为所述第一对象的附属关系程度值;
基于所述第一对象的位置重要程度值和附属关系程度值,确定所述第一对象的物体关系评分。
15.一种反馈搜索结果的装置,其特征在于,所述装置包括存储器和处理器;
所述存储器用于存储支持所述装置执行权利要求1-9任一项所述的方法的程序,以及存储用于实现权利要求1-9任一项所述的方法所涉及的数据;
所述处理器被配置为用于执行所述存储器中存储的程序。
16.一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,其特征在于,当其在计算机上运行时,使得计算机执行权利要求1-9任一项所述的方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110222937.3A CN114969408A (zh) | 2021-02-26 | 2021-02-26 | 反馈搜索结果的方法、装置及存储介质 |
EP21927695.3A EP4283491A4 (en) | 2021-02-26 | 2021-12-20 | SEARCH RESULT FEEDBACK METHOD AND DEVICE AND STORAGE MEDIUM |
PCT/CN2021/139762 WO2022179271A1 (zh) | 2021-02-26 | 2021-12-20 | 反馈搜索结果的方法、装置及存储介质 |
US18/548,039 US20240126808A1 (en) | 2021-02-26 | 2021-12-20 | Search result feedback method and apparatus, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110222937.3A CN114969408A (zh) | 2021-02-26 | 2021-02-26 | 反馈搜索结果的方法、装置及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114969408A true CN114969408A (zh) | 2022-08-30 |
Family
ID=82974308
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110222937.3A Pending CN114969408A (zh) | 2021-02-26 | 2021-02-26 | 反馈搜索结果的方法、装置及存储介质 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20240126808A1 (zh) |
EP (1) | EP4283491A4 (zh) |
CN (1) | CN114969408A (zh) |
WO (1) | WO2022179271A1 (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103119593A (zh) * | 2010-08-09 | 2013-05-22 | Sk普兰尼特有限公司 | 集成图像搜索系统及其服务方法 |
CN110825901A (zh) * | 2019-11-11 | 2020-02-21 | 腾讯科技(北京)有限公司 | 基于人工智能的图文匹配方法、装置、设备及存储介质 |
CN112287234A (zh) * | 2020-11-16 | 2021-01-29 | Oppo广东移动通信有限公司 | 信息检索方法、装置及存储介质 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103412938B (zh) * | 2013-08-22 | 2016-06-29 | 成都数之联科技有限公司 | 一种基于图片交互式多目标提取的商品比价方法 |
CN105468628B (zh) * | 2014-09-04 | 2018-11-16 | 阿里巴巴集团控股有限公司 | 一种排序方法及装置 |
US11120070B2 (en) * | 2018-05-21 | 2021-09-14 | Microsoft Technology Licensing, Llc | System and method for attribute-based visual search over a computer communication network |
CN111143543A (zh) * | 2019-12-04 | 2020-05-12 | 北京达佳互联信息技术有限公司 | 一种对象推荐方法、装置、设备及介质 |
-
2021
- 2021-02-26 CN CN202110222937.3A patent/CN114969408A/zh active Pending
- 2021-12-20 EP EP21927695.3A patent/EP4283491A4/en active Pending
- 2021-12-20 US US18/548,039 patent/US20240126808A1/en active Pending
- 2021-12-20 WO PCT/CN2021/139762 patent/WO2022179271A1/zh active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103119593A (zh) * | 2010-08-09 | 2013-05-22 | Sk普兰尼特有限公司 | 集成图像搜索系统及其服务方法 |
CN110825901A (zh) * | 2019-11-11 | 2020-02-21 | 腾讯科技(北京)有限公司 | 基于人工智能的图文匹配方法、装置、设备及存储介质 |
CN112287234A (zh) * | 2020-11-16 | 2021-01-29 | Oppo广东移动通信有限公司 | 信息检索方法、装置及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
EP4283491A4 (en) | 2024-06-05 |
WO2022179271A1 (zh) | 2022-09-01 |
US20240126808A1 (en) | 2024-04-18 |
EP4283491A1 (en) | 2023-11-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110134316B (zh) | 模型训练方法、情绪识别方法及相关装置和设备 | |
WO2020238356A1 (zh) | 界面显示方法、装置、终端及存储介质 | |
WO2020078299A1 (zh) | 一种处理视频文件的方法及电子设备 | |
CN113973173B (zh) | 图像合成方法和电子设备 | |
CN112214636A (zh) | 音频文件的推荐方法、装置、电子设备以及可读存储介质 | |
CN112580400B (zh) | 图像选优方法及电子设备 | |
CN111625670A (zh) | 一种图片分组方法及设备 | |
CN111881315A (zh) | 图像信息输入方法、电子设备及计算机可读存储介质 | |
CN115016869A (zh) | 帧率调整方法、终端设备及帧率调整系统 | |
CN114111704B (zh) | 测量距离的方法、装置、电子设备及可读存储介质 | |
CN116048358B (zh) | 悬浮球的控制方法和相关装置 | |
CN111835904A (zh) | 一种基于情景感知和用户画像开启应用的方法及电子设备 | |
CN115115679A (zh) | 一种图像配准方法及相关设备 | |
WO2021196980A1 (zh) | 多屏交互方法、电子设备及计算机可读存储介质 | |
WO2020062014A1 (zh) | 一种向输入框中输入信息的方法及电子设备 | |
CN114077713A (zh) | 内容推荐方法、电子设备和服务器 | |
CN113536834A (zh) | 眼袋检测方法以及装置 | |
CN114338642B (zh) | 一种文件传输方法和电子设备 | |
WO2022179271A1 (zh) | 反馈搜索结果的方法、装置及存储介质 | |
CN113407300A (zh) | 应用误杀评估方法及相关设备 | |
CN115437601B (zh) | 图像排序方法、电子设备、程序产品及介质 | |
CN115706753B (zh) | 应用程序的管理方法、装置、电子设备以及存储介质 | |
WO2023155746A1 (zh) | 图片搜索方法及相关装置 | |
WO2022222705A1 (zh) | 设备控制方法和电子设备 | |
CN116033063A (zh) | 一种查看消息的方法及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |