CN109844767A - 基于图像分析和预测的可视化搜索 - Google Patents
基于图像分析和预测的可视化搜索 Download PDFInfo
- Publication number
- CN109844767A CN109844767A CN201780063709.8A CN201780063709A CN109844767A CN 109844767 A CN109844767 A CN 109844767A CN 201780063709 A CN201780063709 A CN 201780063709A CN 109844767 A CN109844767 A CN 109844767A
- Authority
- CN
- China
- Prior art keywords
- image
- publication
- group
- signatures
- interest
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000000007 visual effect Effects 0.000 title description 10
- 238000010191 image analysis Methods 0.000 title description 3
- 238000000034 method Methods 0.000 claims abstract description 70
- 239000013598 vector Substances 0.000 claims description 72
- 238000003860 storage Methods 0.000 claims description 46
- 238000009432 framing Methods 0.000 claims description 45
- 230000008520 organization Effects 0.000 claims description 13
- 239000004744 fabric Substances 0.000 claims description 11
- 210000004209 hair Anatomy 0.000 claims description 9
- 239000012141 concentrate Substances 0.000 claims description 5
- 238000004590 computer program Methods 0.000 abstract description 2
- 238000013473 artificial intelligence Methods 0.000 description 36
- 239000010410 layer Substances 0.000 description 36
- 238000010801 machine learning Methods 0.000 description 33
- 230000006870 function Effects 0.000 description 31
- 239000000047 product Substances 0.000 description 29
- 238000004891 communication Methods 0.000 description 24
- 238000013528 artificial neural network Methods 0.000 description 22
- 230000003993 interaction Effects 0.000 description 19
- 230000015654 memory Effects 0.000 description 16
- 230000004044 response Effects 0.000 description 16
- 238000012545 processing Methods 0.000 description 15
- 238000013500 data storage Methods 0.000 description 14
- 230000000875 corresponding effect Effects 0.000 description 12
- 230000000694 effects Effects 0.000 description 12
- 230000005540 biological transmission Effects 0.000 description 10
- 230000015572 biosynthetic process Effects 0.000 description 10
- 238000013527 convolutional neural network Methods 0.000 description 10
- 238000007726 management method Methods 0.000 description 10
- 238000004422 calculation algorithm Methods 0.000 description 9
- 238000001514 detection method Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 238000003786 synthesis reaction Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000010606 normalization Methods 0.000 description 8
- 230000008878 coupling Effects 0.000 description 7
- 238000010168 coupling process Methods 0.000 description 7
- 238000005859 coupling reaction Methods 0.000 description 7
- 238000005259 measurement Methods 0.000 description 7
- 238000007667 floating Methods 0.000 description 6
- 238000012549 training Methods 0.000 description 6
- 230000001413 cellular effect Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000006399 behavior Effects 0.000 description 4
- 230000006872 improvement Effects 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 238000003708 edge detection Methods 0.000 description 3
- 230000007774 longterm Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 238000012163 sequencing technique Methods 0.000 description 3
- 241000719239 Oligoplites altus Species 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- HUTDUHSNJYTCAR-UHFFFAOYSA-N ancymidol Chemical compound C1=CC(OC)=CC=C1C(O)(C=1C=NC=NC=1)C1CC1 HUTDUHSNJYTCAR-UHFFFAOYSA-N 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000003795 chemical substances by application Substances 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 230000008707 rearrangement Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000013179 statistical model Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 210000003423 ankle Anatomy 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 238000010009 beating Methods 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 229910002056 binary alloy Inorganic materials 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000009194 climbing Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 239000012792 core layer Substances 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013479 data entry Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 239000003344 environmental pollutant Substances 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 231100001261 hazardous Toxicity 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000036961 partial effect Effects 0.000 description 1
- 231100000719 pollutant Toxicity 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000008261 resistance mechanism Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
- 238000010977 unit operation Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
- G06F16/532—Query formulation, e.g. graphical querying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
- G06F18/2113—Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/771—Feature selection, e.g. selecting representative features from a multi-dimensional feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Abstract
提出了用于向网络服务添加新特征的方法、系统和计算机程序。方法包括接收描绘感兴趣对象的图像。确定感兴趣对象的类别集并且生成用于图像的图像签名。使用类别集和图像签名,方法识别发布数据库内的一组发布并且指定每个发布的排序。方法使得在从其接收图像的计算设备处呈现发布的排序列表。
Description
优先权声明
本申请要求于2016年10月16日提交的美国申请第15/294,773号的优先权的权益,其全部内容通过引用并入本文中。
技术领域
本文中公开的主题一般涉及利于网络服务内的图像处理和识别的专用机器,包括这样的专用机器的软件配置的计算机化变体以及对这样的变体的改进的技术领域,以及涉及使这样的专用机器与利于基于图像识别、图像签名和类别预测而识别图像的其他专用机器相比得到改进的技术。
背景技术
传统的图像搜索是耗时的,因为当前的搜索工具提供了刚性且有限的搜索用户接口。选择太多并且浏览页面和结果的页面可以浪费太多时间。由于受限于传统工具的技术限制,用户可能难以使用单个图像或一组图像简单地传达用户想要的内容,例如,用户的意图。
当前的解决方案不是针对可用于搜索的文档的规模而设计的,并且经常使用用户提供的术语以便为被提供用于搜索的图像提供上下文和关联。通常会显示不相关的结果,而最佳结果可能隐藏在由数千个搜索结果产生的噪声中。
附图的简要说明
附图中的各个附图仅示出了本公开内容的示例实施方式并且不能被视为限制其范围。
图1是示出根据一些示例实施方式的联网系统的框图。
图2是示出根据一些示例实施方式的智能助理的操作的图。
图3示出了根据一些示例实施方式的人工智能(AI)框架的特征。
图4是示出根据一些示例实施方式的服务架构的图。
图5是根据一些示例实施方式的用于实现AI框架的框图。
图6是根据一些示例实施方式的示例计算机视觉部件的框图。
图7是根据一些示例实施方式的用于基于图像识别、图像签名和类别预测来识别一组图像的方法的流程图。
图8是示出根据一些示例实施方式的智能助理的用户界面屏幕的示例界面图。
图9是示出根据一些示例实施方式的智能助理的用户界面屏幕的示例界面图。
图10是根据一些示例实施方式的用于基于图像识别、图像签名和类别预测来识别一组图像的方法的流程图。
图11是根据一些示例实施方式的用于基于图像识别、图像签名和类别预测来识别一组图像的方法的流程图。
图12是根据一些示例实施方式的用于基于图像识别、图像签名和类别预测来识别一组图像的方法的流程图。
图13是示出根据一些示例实施方式的可以安装在机器上的软件架构的示例的框图。
具体实施方式
示例方法、系统和计算机程序涉及向网络服务添加新特征,例如根据输入图像执行的图像识别、图像签名生成和类别预测。示例仅代表可能的变型。除非另有明确说明,否则部件和功能是可选的并且可以被组合或细分,并且操作可以按顺序变化或者被组合或细分。在以下描述中,出于说明的目的,阐述了多个具体细节以提供对示例实施方式的透彻理解。然而,对于本领域技术人员将明显的是,可以在没有这些具体细节的情况下实践本主题。
通常,使得智能个人助理系统能够包括可缩放的人工智能(AI)框架(也被称为AI架构),该可缩放的人工智能框架渗透到现有消息传送平台的结构中以提供智能在线个人助理(本文中被称为“机器人”)。AI框架在人类用户与智能在线个人助理之间预测轮次的通信中提供智能的、个性化的答案。
协调器部件实现AI架构内的部件的特定集成和交互。协调器充当集成由多个服务提供的功能的指挥者。在一方面,协调器部件决定激活AI框架中的哪个部分(例如,用于图像输入、激活计算机视觉服务以及用于输入语音、激活语音识别)。
一个总体方面包括一种方法,该方法包括由协调器服务器接收用于处理和搜索的输入图像的操作。输入图像可以是单个图像、一组图像或视频流内的一组帧。通过用户设备上的应用访问协调器服务器的用户捕获包括项目(例如,感兴趣对象、感兴趣对象的一部分或产品)的图像或视频流。协调器服务器使用计算机视觉部件处理图像,生成图像签名和用于图像中的项目的一组类别。然后,协调器服务器将图像签名和一组类别与由协调器服务器可访问的一组发布匹配。然后,协调器服务器在用户设备处以有序列表呈现该组发布。协调器服务器可以生成图像签名和一组类别、识别该组发布以及在没有进一步用户交互的情况下自动地将有序列表呈现给用户设备。当图像在视频的一组帧内时,协调器服务器可以生成图像签名和类别集、识别该组发布以及在捕获视频时实时呈现有序列表。
在一些实施方式中,协调器服务器接收用于识别用户与网络服务之间的交互类型的用户活动的序列规范。网络服务包括协调器服务器和一个或更多个服务服务器,并且序列规范包括协调器服务器与来自一个或更多个服务服务器的一组一个或更多个服务服务器之间的用于实现用户活动的交互序列。方法还包括配置协调器服务器以在检测到用户活动时执行序列规范、处理用户输入以检测与该用户输入相关联的用户的意图以及确定用户的意图与用户活动对应。协调器服务器通过调用序列规范的该组一个或更多个服务服务器来执行序列规范,序列规范的执行导致向用户呈现响应于在用户输入中检测到的用户的意图的结果。
一个通常方面包括包含具有指令的存储器和一个或更多个计算机处理器的协调器服务器。指令当由一个或更多个计算机处理器执行时,使一个或更多个计算机处理器执行包括如下的操作:接收用于识别用户与网络服务之间的交互类型的用户活动的序列规范。网络服务包括协调器服务器和一个或更多个服务服务器,并且序列规范包括协调器服务器与来自一个或更多个服务服务器的一组一个或更多个服务服务器之间用于实现用户活动的交互序列。操作还包括配置协调器服务器以在检测到用户活动时执行序列规范、处理用户输入以检测与用户输入相关联的用户的意图以及确定用户的意图与用户活动对应。协调器服务器通过调用序列规范的该组一个或更多个服务服务器来执行序列规范,序列规范的执行导致向用户呈现响应于在用户输入中检测到的用户的意图的结果。
一个通常方面包括包含下述指令的机器可读存储介质,该指令当由机器执行时使机器执行包括如下的操作:由协调器服务器接收用于识别用户与网络服务之间的交互类型的用户活动的序列规范。网络服务包括协调器服务器和一个或更多个服务服务器,并且序列规范包括协调器服务器与来自一个或更多个服务服务器的一组一个或更多个服务服务器之间的用于实现用户活动的交互序列。操作还包括配置协调器服务器以在检测到用户活动时执行序列规范、处理用户输入以检测与用户输入相关联的用户的意图以及确定用户的意图与用户活动对应。协调器服务器通过调用序列规范的该组一个或更多个服务服务器来执行序列规范,序列规范的执行导致向用户呈现响应于在用户输入中检测到的用户的意图的结果。
图1是示出了根据一些示例实施方式的联网系统的框图。参照图1,示出了基于客户端服务器的高级网络架构100的示例实施方式。在基于网络的市场或支付系统的示例形式下,联网系统102经由网络104(例如,因特网或广域网(WAN))向一个或更多个客户端设备110提供服务器侧功能。图1示出了例如在客户端设备110上执行的web客户端112(例如,浏览器,如由华盛顿州雷蒙德市的微软公司开发的因特网浏览器(Internet Explorer))、应用114以及编程客户端116。
客户端设备110可以包括但不限于:移动电话、台式计算机、膝上型电脑、便携式数字助理(PDA)、智能电话、平板电脑、超级本、上网本、笔记本电脑、多处理器系统、基于微处理器或可编程消费电子产品、游戏控制台、机顶盒或用户可以用于访问联网系统102的任何其他通信设备。在一些实施方式中,客户端设备110可以包括显示模块(未示出)以(例如,以用户界面的形式)显示信息。在其他实施方式中,客户端设备110可以包括以下中的一个或更多个:触摸屏、加速度计、陀螺仪、摄像装置、麦克风、全球定位系统(GPS)设备等。客户端设备110可以是用户用于执行涉及联网系统102内的数字项目的交易的设备。在一个实施方式中,联网系统102是下述基于网络的市场,其响应对产品列表的请求、公布包括在基于网络的市场上可用的产品的项目列表的发布以及管理对这些市场交易的支付。一个或更多个用户106可以是人、机器或与客户端设备110交互的其他装置。在实施方式中,用户106不是网络架构100的部分,但是可以经由客户端设备110或其他装置与网络架构100交互。例如,网络104的一个或更多个部分可以是自组织网络、内联网、外联网、虚拟专用网络(VPN)、局域网(LAN)、无线LAN(WLAN)、广域网(WAN)、无线WAN(WWAN)、城域网(MAN)、因特网的一部分、公共交换电话网络(PSTN)的一部分、蜂窝电话网络、无线网络、WiFi网络、WiMax网络、另一类型的网络、或者两个或更多个这样的网络的组合。
客户端设备110中的每一个可以包括一个或更多个应用(也被称为“app”),例如但不限于web浏览器、消息传送应用、电子邮件(email)应用、电子商务站点应用(也被称为市场应用)等。在一些实施方式中,如果电子商务站点应用被包括在客户端设备110中的给定一个中,则该应用被配置成在本地提供用户界面和至少一些功能,其中应用被配置成在根据需要的基础上,针对在本地不可获得的数据或处理能力(例如,访问可供销售的项目的数据库、认证用户、验证支付方法等)与联网系统102进行通信。相反,如果电子商务站点应用没有被包括在客户端设备110中,则客户端设备110可以使用其web浏览器访问在联网系统102上托管的电子商务站点(或其变体)。
一个或更多个用户106可以是人、机器或与客户端设备110交互的其他装置。在示例实施方式中,用户106不是网络架构100的部分,但是可以经由客户端设备110或其他装置与网络架构100交互。例如,用户向客户端设备110提供输入(例如,触摸屏输入或字母数字输入),并且输入经由网络104传送到联网系统102。在该情况下,联网系统102响应于从用户接收输入而经由网络104将要呈现给用户的信息传送到客户端设备110。以该方式,用户可以使用客户端设备110与联网系统102交互。
应用程序接口(API)服务器216和web服务器218耦接至一个或更多个应用服务器140,并且分别向一个或更多个应用服务器140提供编程和web接口。应用服务器140托管包括人工智能框架144的智能个人助理系统142,人工智能框架144中的每一个可以包括一个或更多个模块或应用并且人工智能框架144中的每一个可以体现为硬件、软件、固件或其任何组合。
应用服务器140又被示为耦接至便于访问一个或更多个信息存储库或数据库226的一个或更多个数据库服务器226。在示例实施方式中,数据库226是存储要发布到发布系统242的信息(例如,发布或列表)的存储设备。根据示例实施方式,数据库226还可以存储数字项目信息。
另外,在第三方服务器130上执行的第三方应用132被示为经由API服务器216提供的编程接口对联网系统102进行编程访问。例如,使用从联网系统102检索的信息的第三方应用132支持由第三方托管的网站上的一个或更多个特征或功能。例如,第三方网站提供由联网系统102的相关应用支持的一个或更多个促销、市场或支付功能。
此外,虽然图1中所示的基于客户端服务器的网络架构100采用客户端服务器架构,但是本发明的主题当然不限于这样的架构,并且同样可以很好地在例如分布式或者对等架构系统中找到应用。各种发布系统102和人工智能框架系统144也可以实现为独立的软件程序,其不一定具有联网能力。
web客户端212可以经由web服务器218支持的web接口访问智能个人助理系统142。类似地,编程客户端104经由API服务器216提供的编程接口访问由智能个人助理系统142提供的各种服务和功能。
另外,在(一个或多个)第三方服务器130上执行的(一个或多个)第三方应用132被示为经由API服务器114提供的编程接口对联网系统102进行编程访问。例如,使用从联网系统102检索的信息的第三方应用132可以支持由第三方托管的网站上的一个或更多个特征或功能。例如,第三方网站可以提供由联网系统102的相关应用支持的一个或更多个促销、市场或支付功能。
图2是示出根据一些示例实施方式的智能助理的操作的图。当今的在线购物是非个人化的、单向的,而不是对话的。购买者不能说普通的语言以表达他们的意愿,因此很难传达意图。在商业网站上购物通常比与销售人员或朋友谈论产品更困难,因此经常购买者寻找他们想要的产品有麻烦。
实施方式呈现了个人购物助理(也被称为智能助理),该个人购物助理支持与购物者的双向通信以建立上下文并且理解购物者的意图,从而能够实现递送更好的、个性化购物结果。智能助理具有自然的、类似人的对话,这可以容易地帮助购买者,增加购买者重新使用智能助理进行未来购买的可能性。
人工智能框架144理解用户和可用库存以响应自然语言查询,并且能够在预测和理解客户及其需求方面提供渐进式改进。
人工智能框架(AIF)144包括对话管理器504、自然语言理解(NLU)206、计算机视觉208、语音识别210、搜索218和协调器220。AIF 144能够接收不同种类的输入,例如文本输入212、图像输入214和语音输入216,以生成相关结果222。如本文中所使用的,AIF 144包括由对应的服务器实现的多个服务(例如,NLU 206、计算机视觉208),并且术语服务或服务器可以用于识别服务和对应的服务。
自然语言理解(NLU)206单元处理正式和非正式语言两者的自然语言文本输入212,检测文本的意图,以及提取有用信息,例如感兴趣对象及其属性。因此,可以使用来自附加知识的丰富信息将自然语言用户输入转换为结构化查询以进一步丰富查询。然后,通过协调器220将该信息传递给对话管理器504以用于与用户或整个系统中的其他部件进行进一步的动作。结构化和丰富的查询还由搜索218使用以用于改进的匹配。文本输入可以是对产品的查询、对先前查询的细化、或用于相关对象的其他信息(例如,鞋码)。
计算机视觉208将图像作为输入并且执行图像识别以识别图像的特征(例如,用户想要购买的项目),然后将该特征被传送到NLU 206以进行处理。语音识别210将语音216作为输入并且执行语言识别以将语音转换成文本,然后将该文本传送到NLU以进行处理。
NLU 206确定对象、与对象相关联的方面、如何创建搜索界面输入以及如何生成响应。例如,AIF 144可以向用户询问问题以阐明用户正在寻找什么。这意味着AIF 144不仅生成结果,而且还可以创建一系列交互操作以获得最佳或接近最佳的结果222。
例如,响应于查询,“你能给我找到一双红色耐克鞋吗?”,AIF 144可以产生以下参数:<意图:购物,语句类型:问句,主导对象:鞋子,目标:自身,颜色:红色,品牌:耐克>。对于查询,“我正在为我的妻子寻找一副太阳镜”,NLU可以产生<意图:购物,语句类型:陈述句,主导对象:太阳镜,目标:妻子,目标性别:女性>。
对话管理器504是如下模块,该模块分析用户的查询以提取含义,并且在将查询发送到搜索218之前确定是否存在需要被询问以便细化查询的问题。对话管理器504在用户与人工智能框架144之间的先前通信的上下文下使用当前通信。基于(例如,由知识图提供的)累积的知识和搜索可以从库存中提取的内容的组合来自动生成问题。对话管理器的工作是针对用户创建响应。例如,如果用户说,“你好”,则对话管理器504生成响应,“嗨,我的名字是机器人”。
协调器220协调人工智能框架144内的其他服务之间的交互。下面参照图5提供关于协调器220与其他服务的交互的更多细节。
图3示出了根据一些示例实施方式的人工智能框架(AIF)144的特征。AIF 144能够与若干输入通道304例如本机商务应用、聊天应用、社交网络、浏览器等交互。此外,AIF 144理解用户表达的意图306。例如,意图可以包括用户在寻找好的交易、或者用户在寻找礼物、或者用户在进行购买特定产品的任务、用户在寻找建议等。
此外,AIF 144执行从多个源例如社交网络、电子邮件、日历、新闻、市场趋势等进行的主动数据提取310。AIF 144获知用户细节312,例如用户偏好、期望价格范围、尺寸、亲和力等。AIF 144促进服务网络内的多个服务,例如产品搜索、个性化、推荐、结账特征等。输出308可以包括推荐、结果等。
AIF 144是智能且友好的系统,该系统理解用户的意图(例如,有针对性的搜索、比较、购物、浏览)、强制参数(例如,产品、产品类别、项目)、可选参数(例如,项目的方面、颜色、尺寸、场合),以及隐式信息(例如,地理定位、个人偏好、年龄、性别)。AIF 144以普通语言回应精心设计的响应。
例如,AIF 144可以处理输入查询,例如:“嘿!请问你可以帮我为我女朋友找一双浅粉色的鞋吗?带有高跟。最高200美元。谢谢;”“我最近搜索了带有经典詹姆斯迪安外观的男士皮夹克。想象几乎是新星球大战电影中哈里森福特的皮夹克。然而,我正在寻找200美元至300美元的价格范围内的质量。也许不可能,但是我想看到!”;或者“我正在寻找黑色的北面聚热球(Northface Thermoball)夹克。”
替代硬编码系统,AIF 144提供具有机器学习功能的可配置的、灵活的界面以进行可持续改进。AIF 144支持提供有价值(将用户连接到用户想要的东西)、智能(了解和学习用户以及用户行为以推荐正确的项目)、便利(提供多个用户接口)、易于使用以及有效(节省用户时间和金钱)的商业系统。
图4是示出根据一些实施方式的服务架构400的图。服务架构400呈现服务架构的各种视图以便描述可以如何在各种数据中心或云服务上部署服务架构。架构400表示用于实现本文描述的实施方式的合适环境。
服务架构402表示云架构通常如何对用户、开发者等呈现。架构通常是在图1的其他视图中表示的、实际底层架构实现方式的抽象表示。例如,服务架构402包括多个层,该多个层表示与服务架构402相关联的不同功能和/或服务。
体验服务层404表示从最终顾客的角度来看的服务和特征的逻辑分组,其构建在不同的客户端平台上,例如在平台(移动电话、台式机等)上运行的应用、基于web的呈现(移动web、桌面Web浏览器等),等等。它包括呈现用户界面和向客户端平台提供信息使得可以呈现适当的用户界面、捕获客户端输入等。在市场的上下文中,将驻留在该层中的服务的示例是主页(例如,主视图)、查看项目列表、搜索/查看搜索结果、购物车、购买用户界面和有关服务、销售用户界面和有关服务、售后体验(后交易、反馈等)等。在其他系统的上下文中,体验服务层404将结合由系统实现的这些最终用户服务和体验。
API层406包含允许与业务流程和核心层交互的API。这允许针对服务架构402进行第三方开发并且允许第三方在服务架构402之上开发附加服务。
业务流程服务层408是针对所提供服务的业务逻辑所驻留的位置。在市场的上下文中,这是实现诸如用户注册、用户登录、列表创建和发布、添加到购物车、提供报价、结账、发送发票、打印标签、发货、退货等服务的地方。业务流程服务层408还在各种业务逻辑与数据实体之间进行协调并且因此表示共享服务的组合。该层中的业务流程还可以支持多租户以提高与某些云服务架构的兼容性。
数据实体服务层410强制围绕直接数据访问进行隔离,并且包含更高级别层所依赖的服务。因此,在市场的上下文中,该层可以包括诸如订单管理、金融机构管理、用户帐户服务等的底层服务。该层中的服务通常支持多租户。
基础设施服务层412包括那些不是特定于正在实现的服务架构类型的服务。因此,在市场的上下文中,该层中的服务是不特定于市场或对市场不独特的服务。因此,如加密功能、密钥管理、CAPTCHA、认证和授权、配置管理、日志记录、跟踪、文档和管理等的功能驻留在该层中。
通常将在这些层中的一个或更多个中实现本公开内容的实施方式。具体地,AIF144以及协调器220和AIF 144的其他服务。
数据中心414是各种资源池416及其组成比例单元的表示。该数据中心表示示出了在云计算模型中实现服务架构402所带来的缩放和弹性。资源池416包括服务器(或计算)比例单元420、网络比例单元418和存储比例单元422。比例单元是作为能够在数据中心内部署的最小单元的服务器、网络和/或存储单元。比例单元允许根据需求增加或减少来部署或移除更多容量。
网络比例单元418包含可以部署的一个或更多个网络(例如网络接口单元等)。网络可以包括例如虚拟LAN。计算比例单元420通常包括包含多个处理单元(例如,处理器)的单元(服务器等)。存储比例单元422包含一个或更多个存储设备,例如盘、存储附接网络(SAN)、网络附接存储(NAS)设备等。这些在下面的描述中总体地示出为SAN。每个SAN可以包括一个或更多个卷、盘等。
图1的剩余视图示出了服务架构400的另一示例。该视图更加注重硬件,并且示出了在图1的其他视图中的更加逻辑的架构下的资源。云计算架构通常具有多个服务器或其他系统424、426。这些服务器包括多个真实和/或虚拟服务器。因此服务器424包括服务器1以及虚拟服务器1A、1B、1C等。
服务器连接至一个或更多个网络例如网络A 428和/或网络B 430和/或通过所述一个或更多个网络互连。服务器还连接至多个存储设备,例如SAN 1(436)、SAN 2(438)等。SAN通常通过网络例如SAN访问A 432和/或SAN访问B 434连接至服务器。
计算比例单元420通常是服务器424和/或426的某些方面,如处理器和与其相关联的其他硬件。网络比例单元418通常包括或至少利用所示网络A(428)和B(432)。存储比例单元通常包括SAN 1(436)和/或SAN 2(438)的某些方面。因此,逻辑服务架构402可以被映射到物理架构。
本文中描述的实施方式的服务和其他实现方式将在服务器或虚拟服务器上运行并且利用各种硬件资源来实现所公开的实施方式。
图5是根据一些示例实施方式的用于实现AIF 144的框图。具体地,图2的智能个人助理系统142被示出为包括:前端部件502(FE),智能个人助理系统142通过该前端部件502(FE)与网络架构100内的其他系统(例如,在网络104上)通信。前端部件502可以与现有消息传送系统的结构通信。如本文所使用的,术语消息传送结构是指可以为诸如脸书信使、微软科塔娜(Cortana)和其他“机器人”的第三方平台提供某种能力的API和服务的集合。在一个示例中,消息传送结构可以支持允许用户交流商业意图的在线商务生态系统。前端部件502的输出可以被呈现在作为与智能个人助理的接口的部分的客户端设备(例如,图1中的客户端设备110)的显示器中。
智能个人助理系统142的前端部件502耦接至用于前端的后端部件504(BFF),该后端部件504操作以将前端部件502与AIF 144链接。人工智能框架144包括以下讨论的若干部件。
在一个示例实施方式中,协调器220协调人工智能框架144内部的部件和外部的部件的通信。可以根据计算机视觉部件208、语音识别部件210和可以形成语音识别部件210的部分的文本归一化部件得到AI协调器206的输入模态。计算机视觉部件208可以从视觉输入(例如,图片)中识别对象和属性。语音识别部件210将音频信号(例如,讲出的话语)转换成文本。文本归一化部件操作以进行输入归一化,例如通过将情感符呈现成文本来进行语言归一化。其他归一化是可能的,例如,字形归一化、外语归一化、会话文本归一化等。
人工智能框架144还包括自然语言理解(NLU)部件206,该自然语言理解(NLU)部件206操作以解析和提取用户意图和意图参数(例如强制或可选参数)。NLU部件206被示为包括子部件,例如拼写校正器(拼写器)、解析器、命名实体识别(NER)子部件、知识图和词义检测器(WSD)。
人工智能框架144还包括对话管理器204,该对话管理器204操作以理解(例如诸如搜索查询或话语的输入的)“特异性的完整性”并且决定下一动作类型和参数(例如,“搜索”或“从用户请求更多信息”)。在一个示例中,对话管理器204与上下文管理器518和自然语言生成(NLG)部件512相关联地操作。上下文管理器518管理用户关于在线个人助理(或“机器人”)和助理的相关联的人工智能的上下文和通信。上下文管理器518包括如下两部分:长期历史和短期记忆。例如,这些部分中的一个或两个中的数据条目可以包括通信轮次或机器人交互、给定输入的所有有关结果和所有参数以及相关意图。NLG部件512操作以根据AI消息构造自然语言话语以呈现给与智能机器人交互的用户。
搜索部件218也被包括在人工智能框架144内。如图所示,搜索部件218具有前端和后端单元。后端单元操作以管理项目和产品库存并且提供搜索库存、针对意图和意图参数的特定元组进行优化的功能。身份服务522部件(可以构成或可以不构成人工智能框架144的部分)操作以管理用户简档,例如为用户属性形式的显式信息(例如,“姓名”、“年龄”、“性别”、“地理位置”),而且为例如“信息提炼”形式的隐式信息,例如“用户兴趣”或“相似角色”等。身份服务522包括一组策略、API和服务,该组策略、API和服务很好地集中所有用户信息,从而使得AIF 144能够对用户的意愿具有洞察力。此外,身份服务522保护商业系统及其用户免于被欺诈或恶意使用私人信息。
人工智能框架144的功能可以被设置成多个部分,例如决策制定部分和上下文部分。在一个示例中,决策制定部分包括由以下进行的操作;协调器220、NLU部件206及其子部件、对话管理器204、NLG部件512、计算机视觉部件208和语音识别部件210。AI功能的上下文部分涉及围绕用户的参数(隐式和显式)和传达的意图(例如,针对给定的库存或其他方面)。在一些示例实施方式中,为了随时间推移测量和提高AI质量,可以使用样本查询(例如,开发集)来训练人工智能框架144并且在不同的查询集合(例如,[0001]评估集合)上测试人工智能框架144,该两个集合要由人类策展来开发或来自用户数据。此外,可以在由经验丰富的策展专家或人类控制524定义的交易和交互流程上训练人工智能框架144。在人工智能框架144的各种部件内编码的流程和逻辑定义了由智能助理基于所识别的用户意图进行的后续话语或呈现(例如,问题、结果集)。
智能个人助理系统142试图理解用户的意图(例如,目标搜索、比较、购物,浏览等)、强制参数(例如,产品、产品类别、项目等)以及可选参数(例如,诸如项目/产品的方面、场合等的显式信息)以及隐式信息(例如,地理位置、个人偏好、年龄和性别等)并且通过内容丰富和智能的回应来响应用户。显式输入模态可以包括文本、语音和视觉输入,并且可以利用用户的隐式知识(例如,地理位置、性别、出生地、先前的浏览历史等)来丰富。输出模态可以包括文本(例如,语音或自然语言语句、或产品相关信息)以及智能设备例如客户端设备110的屏幕上的图像。因此输入模态是指用户可以与机器人通信的不同方式。输入模态还可以包括键盘或鼠标导航、触敏姿势等。
关于计算机视觉部件208的模态,照片通常可以表示与文本相比用户更好地寻找的内容。此外,计算机视觉部件208可以用于基于待运送项目的图像形成运送参数。用户可能不知道项目被调用,或者可能很难甚至不可能使用文本来获得仅专家可能知道的精细详细信息,例如服装中的复杂图案或家具中的某种风格。此外,在移动电话上键入复杂的文本查询是不方便的并且长文本查询通常具有较差的查全率(recall)。计算机视觉部件208的关键功能包括对象定位、对象识别、光学字符识别(OCR)以及基于来自图像或视频的视觉线索与库存的匹配。当在具有内置摄像装置的移动设备上运行时,启用具有计算机视觉的机器人是有利的。强大的深度神经网络可以用于实现计算机视觉应用。
参考语音识别部件210,特征提取部件操作以将原始音频波形转换成表示声音的数的一些维度向量。该部件使用深度学习将原始信号投射到高维度语义空间中。声学模型部件操作以托管语音单元的统计模型,例如,音素和异音素。这些可以包括高斯混合模型(GMM),但是也可以使用深度神经网络。语言模型部件使用语法的统计模型来定义词在语句中如何组合在一起。这样的模型可以包括基于n-gram的模型或建立在词嵌入之上的深度神经网络。语音到文本(STT)解码器部件通常以以下方式将语音话语转换为词序列:利用使用隐马尔可夫模型(HMM)框架中的特征提取部件、声学模型部件和语言模型部件从原始信号中导出的特征,以从特征序列得出词序列。在一个示例中,云中的语音到文本服务将这些组件设置在具有API的云框架中,该API允许发布用于语音话语的音频样本以及检索对应的词序列。控制参数可以用于定制或影响语音到文本的处理。
机器学习算法可以用于AIF 144服务的匹配、相关性和最终重新排序。机器学习是使计算机无需被明确编程而能够学习的研究领域。机器学习探索可以从数据中学习和基于数据进行预测的算法的研究和构建。这样的机器学习算法通过从示例输入构建模型来操作以便将数据驱动的预测或决策表达为输出。机器学习算法也可以用于教导如何实现过程。
可以使用深度学习模型、深度神经网络(DNN)、递归神经网络(RNN)、卷积神经网络(CNN)和长短期CNN以及其他ML模型和IR模型。例如,搜索218可以使用n-gram、实体和基于语义向量的查询来进行产品匹配。深度学习的语义向量使得能够直接将产品与非文本输入匹配。多级相关过滤可以使用BM25、预测的查询叶类别+产品叶类别、查询与产品之间的语义向量相似性以及其他模型来选择最终重新排序算法下的前几个候选产品。
预测的点击率和转化率以及GMV构成了最终重新排序式,以针对特定的业务目标、更多的购物参与度、更多的产品购买或更多的GMV轻微调整功能。点击预测和转换预测模型两者将查询、用户、销售者和产品作为输入信号。通过从登录管理(onboarding)、补充管理(sideboarding)和用户行为中学习来丰富用户简档以提高由各个用户的匹配阶段、相关阶段和排序阶段中的每一个所使用的模型的精确度。为了提高模型改进的速度,在在线A/B测试之前使用离线评估管道。
在人工智能框架144的一个示例中,提供了用于语音识别部件210的两个附加部分即扬声器适配部件和LM适配部件。扬声器适配部件允许STT系统的客户端(例如,语音识别部件210)针对每个扬声器定制特征提取部件和声学模型部件。这可能是重要的,因为大多数语音到文本系统都是针对来自目标区域的代表性扬声器集合的数据被训练的,并且通常系统的准确度在很大程度上取决于目标扬声器与训练池中的扬声器匹配的程度如何。扬声器适配部件允许语音识别部件210(并且因此,人工智能框架144)通过不断学习用户的语调、发音、口音和其他语音因素的特质并且将这些特质应用于语音相关部件,例如,特征提取部件和声学模型部件而对扬声器的变化具有鲁棒性。虽然该方法利用要针对每个扬声器创建和保持的非显著尺寸语音简档,但是准确度的潜在益处通常远远超过存储缺点。
语言模型(LM)适配部件操作以使用来自目标域(例如,库存类别或用户角色)的新词和代表性语句定制语言模型部件和语音到文本词汇。该能力允许人工智能框架144是可缩放的,因为新类别和角色被支持。
AIF的目标是针对AI提供可缩放和可扩展的框架,其中可以使用执行特定自然语言处理功能的服务动态地完成新活动(本文中也被称为任务)。添加新服务不需要重新设计整个系统。替代地,如果需要(例如,使用机器学习算法)准备服务,并且协调器被配置有与新活动有关的新序列。下面参照图6至图13提供关于序列配置的更多细节。
本文中呈现的实施方式提供了协调器220的动态配置以学习新意图以及如何响应新意图。在一些示例实施方式中,协调器220通过接收与新活动相关联的新序列的配置来“学习”新技能。序列规范包括协调器220与来自AIF 144的一组一个或更多个服务服务器之间的交互序列。在一些示例实施方式中,序列的每个交互(至少)包括:用于服务服务器的识别、要通过调用而传递至所识别的服务服务器的调用参数定义;以及由所识别的服务服务器返回的响应参数定义。
在一些示例实施方式中,除了协调器220之外,AIF 144内的服务彼此不知道,例如,它们不直接彼此交互。协调器220管理与其他服务器的所有交互。具有中央协调资源简化了其他服务的实现方式,这不需要知道其他服务提供的接口(例如,API)。当然,可能存在在服务对之间可以支持直接接口的一些情况。
图6是示出根据一些示例实施方式的计算机视觉部件208的部件的框图。计算机视觉部件208被示为包括全部被配置成彼此(例如,经由总线、共享存储器或交换器)通信的图像部件610、图像解释部件620、签名匹配部件630、方面排序部件640以及接口部件650。可以使用硬件(例如,机器的一个或更多个处理器)或硬件和软件的组合来实现本文中描述的模块中的任何一个或更多个。例如,本文描述的任何模块可以配置处理器(例如,机器的一个或更多个处理器中的处理器)以执行为该模块设计的操作。此外,这些模块中的任何两个或更多个可以组合成单个模块,并且本文中针对单个模块描述的功能可以在多个模块之间细分。此外,根据各种示例实施方式,本文中描述为在单个机器、(一个或多个)数据库126、或设备(例如,客户端设备110)内实现的模块可以跨多个机器、(一个或多个)数据库126或设备分布。
图7是根据一些示例实施方式的在执行基于图像识别、图像签名和类别预测来识别一组图像的方法700时计算机视觉部件208的操作的流程图。虽然顺序地呈现和描述了该流程图中的各种操作,但是普通技术人员将理解,操作中的一些或全部可以以不同的顺序执行、被组合或省略、或者被并行执行。方法700中的操作可以由计算机视觉部件208使用以上关于图6描述的部件来执行。在一些实施方式中,方法700的操作由计算机视觉部件208的部件和人工智能框架144的部件执行或与其结合地执行。
在操作710中,图像部件610接收描绘感兴趣对象的至少一部分的至少一个图像。在一些实施方式中,图像部件610从与发布系统102(例如,联网系统102)的用户相关联的用户设备接收至少一个图像。例如,用户设备可以是图像捕获设备(例如,摄像装置)、移动计算设备(例如,膝上型电脑、智能电话、平板电脑)、台式计算设备(例如,个人计算机)、或任何其他合适的用户设备。在这些实施方式中,与计算机视觉部件208相关联的应用可以提示至少一个图像的捕获,使得在捕获到静止图像时图像部件610接收图像。在至少一个图像是视频中的一组帧的情况下,用于计算机视觉部件208的应用可以提示至少一个图像的捕获,并且图像部件610在视频正在(例如,实时或接近实时)捕获时接收视频中的一组帧。图像部件610还可以在捕获会话终止之后接收该组帧,使得视频的该组帧被捕获并且由访问部件610接收作为闭合的一组图像而不是视频流。例如,当在用户设备上打开应用时,用户接口元件(例如,图像部件610或接口部件650的应用的用户接口元件)可以访问与用户设备相关联的图像捕获设备并且使得在应用的用户界面内呈现图像捕获设备的视场。与应用的用户界面的交互使得图像捕获设备启动对视场内的一个或更多个图像的捕获,并且使用户设备将一个或更多个图像发送到图像部件610。在这些实例中,通过用户设备上的应用的操作,计算机视觉部件208可以在捕获和传输用于由图像部件610接收的至少一个图像或一组帧中控制或至少部分地控制用户设备。
在一些实施方式中,图像部件610从数据存储设备接收至少一个图像。例如,在打开计算机视觉部件208的应用时,用户接口元件可以使得呈现数据存储设备上的一组图像。数据存储设备可以通过直接连接(例如,诸如硬盘驱动器的板载数据存储设备)或通过远程连接(例如,在服务器、云存储设备或由用户设备可访问的其他机器上实现的数据存储设备)与用户设备相关联。用户接口元件可以通过使用户设备访问数据存储设备并且将该组图像填充到用户接口元件来引起该组图像的呈现。例如,用户接口元件的计算机可执行指令或由图像部件610或接口部件650发送的计算机可执行指令可以使得用户界面访问和打开在用户设备上本地存储的文件夹或一组图像或者访问在远程数据存储位置(例如,云存储设备或基于网络的服务器)内存储的文件夹或一组图像。在访问本地或远程存储的该组图像之后,可执行指令使用户设备在应用的用户界面内呈现该组图像的表示(例如,缩略图、图块或文件名)。
在一些示例实施方式中,图像部件610在来自用户设备的请求下从数据存储设备接收至少一个图像。在这些实例中,一旦打开计算机视觉部件208的应用,就接收要由图像部件610接收的图像的数据存储位置的表示(例如,网络地址)。响应于接收到请求,图像部件610生成请求并且将该请求发送到数据存储设备。来自图像部件610的请求可以包括至少一个图像的标识和数据存储位置。然后,图像部件610可以接收来自数据存储设备的响应于该请求的至少一个图像。
在操作720中,图像解释部件620确定用于感兴趣对象的类别集。在一些实施方式中,图像解释部件620包括一个或更多个机器学习过程以对至少一个图像和在至少一个图像内描绘的感兴趣对象或其部分执行图像分析。在一些实例中,一个或更多个机器学习过程包括神经网络。例如,如下所述,在一些实施方式中,图像解释部件620包括并且使用深度残差网络的多个层来执行图像处理和分析以确定类别集。深度残差网络可以是完全连接的卷积神经网络。
尽管关于深度残差网络进行了描述,但是应当理解,图像解释部件620可以包括任何合适的图像处理和分析功能以执行本文所述的图像解释部件620的功能。例如,图像解释部件620可以包括神经网络、部分连接的神经网络、完全连接的神经网络、卷积神经网络、一组机器学习部件、一组图像识别部件、一组模式识部件、一组计算机视觉部件或能够执行本文所述的图像解释部件620的功能中的一个或更多个的任何其他合适的指令、模块、部件或过程。
在一些实例中,图像解释部件620使用一个或更多个图像识别过程来确定用于感兴趣对象或其部分的类别集。在一些实施方式中,图像识别过程包括图案识别、边缘检测、轮廓识别、文本识别、特征识别或检测、特征提取、特征向量、面部识别、基于机器学习的图像识别、基于神经网络的图像识别以及被配置成识别和表征至少一个图像内的感兴趣对象的其他合适的操作。图像解释部件620可以从图像部件610接收至少一个图像。在一些实施方式中,响应于接收至少一个图像,图像解释部件620对至少一个图像内的感兴趣对象进行识别和分类。图像解释部件620选择用于表示感兴趣对象的识别和分类的类别集的一个或更多个类别。
在一些示例实施方式中,在类别集中包括的类别与发布语料库的一个或更多个发布相关联。类别层次树可以将发布语料库中的每个发布一致地排列成层次。在一些示例实施方式中,然后将发布类别组织成层次(例如,图或树),使得更一般的类别包括更具体的类别。树或图中的每个节点是具有父母类别(例如,与发布类别相关联的更一般类别)并且可能具有一个或更多个孩子类别(例如,与发布类别相关联的窄的或更具体的类别)的发布类别。每个发布类别与特定的静态网页相关联。
根据一些示例实施方式,将多个发布一起分组成发布类别。举例来说,每个类别用字母标记(例如,类别A至类别AJ)。此外,每个发布类别被组织为类别层次的部分。在该示例中,类别A是所有其他发布类别从其派生的一般产品类别。然后将类别A中的发布划分成至少两个不同的发布类别,类别B和类别C。应当注意,每个父母类别(例如,在该情况下,类别A是类别B和类别C两者的父母类别)可以包括大量孩子类别(例如,子类别)。在该示例中,发布类别B和C两者具有子类别(或孩子类别)。例如,如果类别A是服装发布,则类别B可以是男士服装发布并且类别C是女性服装发布。用于类别B的子类别包括类别D、类别E和类别F。取决于由每个子类别所涵盖的发布的具体细节,子类别D、E和F中的每一个具有不同数目的子类别。
例如,如果类别D是运动服装发布、类别E是正式服装发布并且类别F是户外服装发布,则每个子类别包括不同数目和类型的子类别。例如,类别D(该示例中的运动服装发布)包括子类别I和J。(针对该示例)子类别I包括运动鞋发布并且子类别J包括T恤发布。由于这两个子类别之间的差异,子类别I包括四个附加子类别(子类别K至N)以表示不同类型的运动鞋发布(例如,跑鞋发布、篮球鞋发布、攀岩鞋发布和网球鞋发布)。相比之下,子类别J(在该示例中,其用于T恤发布)不包括任何子类别(但是在真实产品数据库中,T恤发布类别可以包括子类别)。因此,每个类别(除了最上面的产品类别以外)具有代表更一般的发布类别的父母类别和一个或更多个孩子类别或子类别(其是在更一般的类别内的更具体的发布类别)。因此,类别E具有两个子类别O和P,并且每个子类别分别具有两个孩子产品类别,即类别Q和R以及类别S和T。类似地,类别F具有三个子类别(U、V和W)。具有类别A作为其父母的产品类别的类别C包括两个附加子类别(G和H)。类别G包括两个孩子(X和AF)。类别X包括子类别Y和Z,并且Y包括AA至AE。类别H包括子类别AG和AH。类别AG包括类别AI和AJ。
在一些实施方式中,发布语料库的发布的代表性图像或发布语料库的发布中包括的所有图像被聚类在类别内。在这些实例中,具有相似图像签名、方面、视觉外观要素、特征、元数据和其他属性的图像被分配或以其他方式聚类在相似类别内。图像群集可以与一个或更多个类别相关联。在一些实例中,图像群集包括子群集,使得分层类别由父母类别的群集内的子群集表示。在一些实施方式中,通过访问图标图像(例如,类别的共同代表图像)将图像聚类在类别内。图像解释部件620确定输入语义向量与用于图标图像的图标语义向量之间的最接近匹配。可以忽略非图标图像以加速处理。响应于最接近的匹配聚类是先前错误分类的图像的聚类,降低输入图像具有该类别的概率。响应于不平衡的聚类,聚类被重新平衡。这可以重复直到聚类平衡或更加平衡,使得可比较数目的图像在每个聚类中。
在一些示例实施方式中,使用一个或更多个子操作来执行操作720。在这些实施方式中,输入图像(例如,至少一个图像)被从用户操作的设备发送。用户可以在发布语料库中搜索发布。用户可以张贴带有发布图像的新发布,并且基于处理流程来帮助提供类别。访问与输入图像对应的输入语义向量。如下面将描述的,输入语义向量可以是用于输入图像或至少一个图像的图像签名。具有输入语义向量的图像解释部件620可以将输入语义向量同与用于发布语料库的发布类别中的每个类别相关联的语义向量进行比较。在一些实施方式中,与每个类别相关联的语义向量是使用与每个类别相关联的一组图像和与每个类别相关联的一组元数据或描述性术语中的一个或更多个生成的代表性语义向量。在一些实例中,输入图像缺少类别元数据。响应于超过最小阈值的类别概率,将丢失的类别元数据添加到输入图像。在另一实施方式中,针对未丢失元数据的输入图像提供至少一个类别概率以双重检查元数据。在图像解释部件620分析按类别和子类别聚类的图像群集内的图像的情况下,输入图像(例如,至少一个图像)与图像群集或针对图像群集选择的图标图像具有高语义相似性,图像解释部件620对输入图像同与图标图像相关联的一个或多个类别有关分配更高的概率。因此图像解释部件620更可能选择图标图像或图像群集的类别作为用于包括在类别集中的类别。
在一些示例实施方式中,可以使用输入图像来训练操作为机器学习模型的图像解释部件620。在这些实例中,将训练图像输入到机器学习模型。利用机器学习模型(例如,图像解释部件620)处理训练图像。从机器学习模型输出训练类别。通过将训练类别输出是否正确反馈到机器学习模型来训练机器学习模型。
在示例实施方式中,机器学习模型用于嵌入给定列表标题的深层潜在语义含义并且将其投影到共享语义向量空间。向量空间可以是指被称为向量的对象集合。向量空间可以通过它们的维度来表征,该维度指定空间中独立方向的数目。语义向量空间可以表示短语和语句并且可以捕获用于图像搜索和图像表征任务的语义。在其他的实施方式中,语义向量空间可以表示音频声音、短语或音乐;视频剪辑;以及图像,并且可以捕获用于图像搜索和图像表征任务的语义。
在各种实施方式中,机器学习用于使源(X)(例如,列表标题)与目标(Y)(搜索查询)之间的相似性最大化。机器学习模型可以基于深度神经网络(DNN)或卷积神经网络(CNN)。DNN是在输入层与输出层之间有多个隐藏的单元层的人工神经网络。DNN可以将深度学习架构应用到递归神经网络。CNN由顶部上具有完全连接的层(例如与典型的人工神经网络匹配的层)的一个或更多个卷积层组成。CNN还使用绑定权重和池化层。DNN和CNN两者可以使用标准的反向传播算法进行训练。
当将机器学习模型应用于映射特定的<源,目标>对时,用于机器学习源模型和机器学习目标模型的参数被优化,使得相关的<源,目标>对具有更近的向量表示距离。以下公式可以用于计算最小距离。
在上述式中,ScrSeq=源序列;TgtSeq=目标序列;SrcMod=源机器学习模型;TgtMod=目标机器学习模型;SrcVec=用于源序列的连续向量表示(也被称为源的语义向量);以及TgtVec=用于目标序列的连续向量表示(也被称为目标的语义向量)。源机器学习模型将源序列编码成连续向量表示。目标机器学习模型将目标序列编码成连续向量表示。在示例实施方式中,向量各自具有大约100个维度。
在其他实施方式中,可以使用任何数目的维度。在示例实施方式中,语义向量的维度被存储在KD树结构中。KD树结构可以被称为用于组织KD空间中的点的空间分割数据结构。KD树可以用于执行最近邻查找。因此,给定空间中的源点,可以使用最近邻查找来识别到源点的最接近点。
如上所述,图像解释部件620可以是机器学习部件。在一些示例实施方式中,图像解释部件620是深度残差网络(例如,神经网络的类型)。在这些实施方式中,图像解释部件620使用一组神经网络层处理至少一个图像。可以使用一个或更多个网络核生成神经网络层。在一些实例中,一个或更多个网络核包括卷积核、池化核、合并核、衍生核、任何其他合适的核或其组合。卷积核可以通过对图像内的一组区域、交叠区域或像素进行交互处理来处理输入图像。卷积核可以充当以下中的一个或更多个的基础:图像滤波、图像识别或其他图像处理。例如,卷积核可以充当以下中的一个或更多个:合并核(例如,模糊图像的至少一部分)、衍生核(例如,支持边缘检测)或任何其他合适的核处理。神经网络的一部分层可以使用卷积核并且可以应用于小区域或单个像素。一部分层可以是池化层。池化层可以对来自图像的值进行子采样以执行非线性下采样。例如,池化层可以将至少一个图像分割为一组区域并且输出每个区域的最大值或平均值。虽然在一些实例中被描述为分割,但是池化层可以接收先前确定的分区的指示,并且使用预定的区域分区来下采样。
操作720包括一个或更多个子操作。在一些示例实施方式中,图像解释部件620识别表示至少一个图像内的感兴趣对象的一个或更多个属性的一组方面。在识别和分类至少一个图像时,图像解释部件620使用以上所述的一个或更多个功能来识别构成感兴趣对象的视觉外观的要素的一个或更多个属性。每个方面与以下中的至少一个对应:属性(例如,视觉外观的要素)和与指定属性相关联的描述性词。例如,图像解释部件620可以将一条红色裤子识别为至少一个图像中的感兴趣对象。图像解释部件620可以将该组方面识别为包括包含如下的属性:预测风格(例如,脚踝长度裤子)、颜色(例如,红色)、样式(例如,结实)、品牌、材料(例如,牛仔布)、季节(例如,一年中适合穿裤子的季节或部分)和衣服类型(例如,休闲服装和“下装”)。每个属性可以由描述性词例如裤子、红色、结实、牛仔布、秋季、休闲服装和下装来表示。在该示例中,每个描述性词是感兴趣对象的视觉外观的要素的表示。
在一些实施方式中,图像解释部件620通过生成与输入图像对应的输入语义向量(例如,一组词、短语、描述性术语、特征或方面)来识别方面。可以通过将图像签名与先前确定的用于类似图像签名的语义向量匹配来识别输入语义向量或其部分。在输入语义向量与表示多个方面的发布图像向量之间识别最接近的匹配。输入语义向量(例如,一组描述性术语)或其部分可以选自被确定为匹配的一个或更多个发布语义向量。机器学习模型可以与XOR运算一起使用,以获得速度。根据XOR运算的公共比特的数量可以用作相似性的度量。在一些实例中,通过找到语义向量空间中的最近邻居来识别输入语义向量与表示多个方面的发布图像向量之间的最接近的匹配。在先前处理中的任一个之后,基于机器学习模型提供多个方面概率,并且基于多个方面概率识别该组方面。例如,可以基于超过概率阈值来选择包括在该组方面中的方面。
在操作720的随后子操作中,图像解释部件620确定包括在类别集中的、与该组方面的至少一个方面相关联的一个或更多个类别。图像解释部件620可以将该组方面与全局类别集进行比较并且选择包括在类别集中的一个或更多个类别。在一些实施方式中,全局类别集中的每个类别与视觉外观的要素或一个或更多个关键字、描述符相关联。图像解释部件620使该组方面同与一个或更多个类别相关联的关键字匹配并且选择包括在类别集中的一个或更多个类别。在一些实例中,图像解释部件620识别在类别集中包括的每个类别的概率。可以使用匹配该组方面的与类别相关联的关键字的数量、被识别为匹配或在语义上与类别的关键字相关的方面的百分比或任何其他合适的方式来确定概率。
在操作730中,图像解释部件620生成用于至少一个图像的图像签名。图像签名包括至少一个图像的向量表示。在一些实施方式中,图像签名是至少一个图像的二进制向量表示,其中向量的每个值是1或0。在图像解释部件620包括神经网络或深度残差网络的情况下,图像解释部件620使用神经网络的散列层来生成图像签名。散列层可以从深度残差神经网络的连接层中的一个或更多个中接收浮点值。散列层可以使用浮点值生成向量表示。在一些实施方式中,浮点值是介于1与0之间的值。在图像签名是二进制散列的情况下,散列层可以将浮点值与阈值进行比较以将浮点值转换为二进制值。例如,向量可以是4096个维度的向量。向量的值可以在1与0之间。在生成向量时,散列层可以将向量转换成二进制向量以生成二进制图像签名。可以将向量的值与阈值例如0.5进行比较。超过阈值的值可以被转换为二进制图像签名中的值1并且低于阈值的值可以被转换为二进制图像签名中的值0。
在操作740中,签名匹配部件630识别发布数据库内的一组发布。签名匹配部件630使用至少一个图像的类别集和图像签名来识别该组发布。在一些实施方式中,签名匹配部件630在从图像解释部件620接收到类别集和图像签名时自动地识别一组发布。签名匹配部件630通过使用类别集和图像签名搜索发布数据库来识别该组发布。在一些实施方式中,发布数据库的发布按类别划分或以其他方式组织。在这些实例中,签名匹配部件630将发布数据库的一个或更多个类别与针对至少一个图像识别的类别集进行匹配。签名匹配部件630可以仅搜索与类别集的类别匹配的一个或更多个类别所关联的发布的子集。
一旦识别了发布的子集,签名匹配部件630就可以识别与发布的子集的发布中包括的图像相关联的发布图像签名。签名匹配部件630将针对至少一个图像生成的图像签名与发布图像签名进行比较。在一些实例中,签名匹配部件630确定至少一个图像的图像签名同与发布的子集的每个发布相关联或包括在其中的图像的每个发布图像签名之间的汉明距离。
在操作750中,签名匹配部件630基于图像签名来指定该组发布中的每个发布的排序。签名匹配部件630使用分配给每个发布的排序来生成发布的排序列表。发布的排序列表包括该组发布的至少一部分。在签名匹配部件630确定至少一个图像的图像签名与每个发布图像签名之间的汉明距离的实施方式中,签名匹配部件630使用每个发布图像签名的经计算的汉明距离作为排序得分。签名匹配部件630基于排序得分(例如,针对每个发布图像签名计算的汉明距离)来指定每个发布的排序,从而按照汉明距离的升序对发布进行排序。在这些实例中,与具有较大汉明距离的发布相比,具有较小汉明距离的发布被放置在发布的排序列表(例如,有序列表)中更高的位置处。
在操作760,接口部件650使得在与用户相关联的计算设备处呈现发布的排序列表。在一些实施方式中,计算设备是从其接收至少一个图像的设备(例如,诸如智能电话的移动计算设备)。接口部件650使得发布的排序列表呈现在计算设备的用户界面内或者对计算设备可访问。在排序列表内呈现的每个发布与图像相关联,其图像签名用于在操作750中将发布与至少一个图像匹配。
在一些实施方式中,使用发布标识(例如,标题或描述性词或短语)以及与用于识别和排序发布的图像签名相关联的图像的表示来呈现发布的排序列表中的每个发布。例如,如图8所示,接口部件650使得呈现在操作710处接收到的至少一个图像810和发布的排序列表820。发布的排序列表在可选择的用户接口元件内呈现,该用户接口元件包括发布的标题(例如,发布标识)和用于发布的代表性图像(例如,与用于匹配和排列发布的图像签名相关联的图像)。对用于排序列表内的发布的用户接口元件的选择可以导致呈现包括发布标识、一个或更多个图像以及发布的附加细节的完整发布。
在一些实施方式中,附加细节包括以下中的一个或更多个:用于发布的一组类别、用于与发布相关联的电子商务系统或网站的项目列表、与发布相关联的位置或任何其他合适细节。在发布是项目列表的情况下,用于发布的附加细节可以包括包含以下中的一个或更多个的信息:项目条件、图案、用于项目的产品标识、品牌、样式、尺寸、销售者标识、颜色、可用数量、价格(例如,标价、销售价格或当前拍卖价格或出价)、先前销售的项目的数量以及与项目列表的销售、购买或交互相关的任何其他合适的信息。
在图8中,在一些示例实施方式中,基于用于发布的代表性图像830呈现发布的排序列表。可以以指示排序列表中包括的发布的相应排序的方式呈现代表性图像。例如,图像可以以如下线性格式呈现:其中具有较高排序的发布被呈现为更靠近列表中的第一位置(例如,最顶部位置或最左侧位置)。在一些实例中,如图9所示,代表性图像910以平铺格式呈现。平铺格式可以代表每个发布的排序。例如,图像的相对位置、图像的尺寸、图像的突出显示、其组合或任何其他合适的呈现方案可以指示发布在排序列表内的相对位置。在这些示例中,发布的排序可以由以下来指示:图像的尺寸(例如,较大图像与较高排序的发布相关联)、图像的相对位置(例如,位置较高或者其他方式更显著的图像与较高排序的图像相关联)或图像的突出显示(例如,由带包围或具有指定颜色编码的图像与更高排序的发布相关联)。
图10是根据一些示例实施方式的在执行基于图像识别、图像签名、类别预测和方面预测来识别一组图像的方法1000时计算机视觉部件208的操作的流程图。虽然顺序地呈现和描述该流程图中的各种操作,但是普通技术人员将理解,操作中的一些或全部可以以不同的顺序执行、被组合或省略,或者被并行执行。方法1000中的操作可以由计算机视觉部件208使用以上关于图6描述的部件来执行。在一些实施方式中,方法1000的操作由计算机视觉部件208的部件和人工智能框架144的部件执行或与其结合地执行。在一些实施方式中,方法1000的操作形成方法1000的部分或子操作。在一些实例中,方法1000的一个或更多个操作被执行为方法1000的一个或更多个操作的部分或其子操作。
在操作1010中,图像解释部件620识别表示至少一个图像内的感兴趣对象的一个或更多个属性的一组方面。在一些实施方式中,感兴趣对象的一个或更多个属性是感兴趣对象的外观的要素。在这些实施方式中,每个方面是与指定属性相关联的描述性词。在一些实施方式中,该组方面由图像解释部件620使用如下中的一个或更多个来确定:边缘检测、对象识别、颜色识别、图案识别和其他合适的计算机视觉处理。例如,图像解释部件620可以使用计算机视觉处理来识别至少一个图像中的感兴趣对象的颜色(例如,红色)、图案(例如,花卉)和对象类型(例如,女装)。颜色、图案和对象类型的描述性术语或其表示可以被包括在该组方面中。在一些实例中,以与上文关于操作720描述的类似或相同的方式确定一组方面。
在操作1020中,针对该组方面的每个方面,图像解释部件620确定在至少一个图像内的感兴趣对象包括指定方面的概率。使用针对每个方面确定的概率,图像解释部件620生成用于每个方面的置信度得分。可以基于至少一个图像的图像签名的匹配部分(例如,与发布签名匹配的图像签名的百分比或者与发布签名的一组比特匹配的图像签名中的一组比特的位置)来确定用于该组方面的每个方面的概率。在一些实例中,基于使用以下中的一个或更多个生成的相似性得分来确定用于每个方面的概率:图像签名、用于至少一个图像的元数据、发布图像签名以及与发布相关联的元数据。概率也可以与上面关于操作720所描述的那样类似或相同地确定。
在操作1030中,针对该组发布的每个发布,方面排序部件640识别一组元数据描述符。元数据描述符是在该组发布的每个发布中或与该组发布的每个发布相关联的隐式描述性术语或显式描述性术语。在一些示例实施方式中,用于发布的元数据描述符是作者提供的术语。在这些示例中,负责发布或与发布相关联的一方或实体(例如,作者、创建者、管理员或销售者)在创建发布期间或其之后生成或以其他方式提供用于发布的元数据描述符。例如,在发布是用于电子商务系统或网站的项目列表的情况下,销售者可以包括类别指定、项目描述信息(例如,品牌、颜色、图案、产品、样式、尺寸或条件指定)或其他描述词、短语或用户界面选择以描述由项目列表所表示的项目。元数据描述符可以是显式的,使得包括该组元数据描述符的术语可由与该发布交互的用户查看。元数据描述符也可以是隐式的,使得术语与发布相关联但不在发布的呈现内呈现。例如,隐式元数据描述符可以被包括在与发布相关联的元数据文件中,或者被包括在发布系统上的发布内所包括的元数据部分中。
在操作1040中,方面排序部件640生成该组发布的每个发布的方面排序得分。通过执行感兴趣对象的该组方面与该组元数据描述符的加权比较来生成方面排序得分。在一些实施方式中,用于每个发布的每个元数据描述符被分配值。将针对至少一个图像识别的该组方面与用于该组发布的每个发布的元数据描述符进行比较。针对与元数据描述符匹配的该组方面中的每个方面,方面排序部件640取回分配给元数据描述符的值。然后,每个发布可以被指定作为与方面匹配的每个元数据描述符的值的组合的方面排序得分。在一些实施方式中,方面排序部件640将用于每个匹配的元数据描述符的值相加,并且将和指定作为发布的方面排序得分。方面排序部件640可以类似地生成和指定该组发布的每个发布的方面排序得分。方面排序部件640可以针对该组发布串行或并行地生成和指定方面排序得分。
在一些实施方式中,针对该组发布的每个发布,方面排序部件640取回用于匹配的元数据描述符的值并且对取回的值进行求和。方面排序部件640识别用于与发布相关联的该组元数据描述符的总值。可以通过将该组元数据描述符内的每个元数据描述符的值相加来计算总值。在这些实施方式中,方面排序部件640将用于匹配的元数据描述符的值的总和除以用于与发布相关联的元数据描述符的总值。由值的总和除以总值得到的商是用于发布的方面排序得分。
在通过加权比较来生成方面排序得分的实施方式中,方面排序部件640检索在操作750中确定的每个发布的排序得分。排序得分充当通过将用于至少一个图像的图像签名与每个发布的代表图像进行比较而生成的外观得分。针对每个发布,方面排序部件640根据加权方案、方面排序得分和外观得分来生成组合得分。在一些实施方式中,排序方案包括用于方面排序得分和外观得分的一个或更多个预定权重。预定权重可以包括用于外观得分的第一权重和用于方面排序得分的第二权重。第一权重可以大于第二权重,使得外观得分比方面排序得分占组合分数的相对更大部分。
在一些实施方式中,加权方案包括一个或更多个动态权重。可以使用一个或更多个机器学习操作来生成动态权重。机器学习操作可以包括监督学习、无监督学习、强化学习、神经网络、深度神经网络、部分连接的神经网络、完全连接的神经网络或任何其他合适的机器学习过程、操作、模型或算法。机器学习操作可以访问用户交互数据以及历史搜索和排序信息。历史搜索和排序信息包括:在多个先前搜索中使用的图像或图像签名;在多个搜索中识别的发布;以及发布的相应排序和用于生成排序的元数据描述符及方面。用户交互数据包括在将发布呈现给执行搜索的指定用户时接收到的用户选择的指示。机器学习算法基于以下来修改一个或更多个动态权重:用户交互给出用于搜索的图像类型的概率;以及针对由搜索检索到的发布而生成的外观得分和方面排序得分。
在操作1050中,方面排序部件640生成根据第二排序顺序组织的发布的经修改的排序列表,该第二排序顺序反映方面排序得分和基于图像签名的排序的组合。在一些实施方式中,方面排序部件640类似于上面关于操作750描述的方式生成经修改的排序列表。方面排序部件640可以通过根据方面排序得分将在操作750中生成的排序列表从第一顺序重新排序成第二顺序来生成经修改的排序列表。在一些示例实施方式中,方面排序部件640根据组合得分生成经修改的排序列表,该组合得分是根据外观得分和方面排序得分的组合或加权组合生成的。
图11是根据一些示例实施方式的在执行基于图像识别、图像签名和类别预测识别一组图像的方法1100时计算机视觉部件208的操作的流程图。虽然顺序地呈现和描述该流程图中的各种操作,但是普通技术人员将理解,操作中的一些或全部可以以不同的顺序执行、被组合或省略,或者被并行执行。方法1100中的操作可以由计算机视觉部件208使用以上关于图6描述的部件来执行。在一些实施方式中,方法1100的操作由计算机视觉部件208的部件和人工智能框架144的部件执行或与其结合执行。在一些实施方式中,方法1100的操作形成操作740的部分或子操作。
在操作1110中,签名匹配部件630选择与类别集中的一个或更多个类别相关联的查询发布。在一些实施方式中,签名匹配部件630可以通过识别与一个或更多个类别相关联的数据结构或群集来选择查询发布。在一些实例中,签名匹配部件630通过执行发布的初始搜索以识别发布内或与发布相关联的元数据中所包含的类别来选择与一个或更多个类别相关联的查询发布。当发布在发布的描述或元数据内包括与类别集的一个或更多个类别匹配的类别的情况下,则选择该发布以包括在搜索中。
在一些示例实施方式中,签名匹配部件630被分布在两个或更多个搜索节点上。搜索节点访问包含可用于搜索的全部数量的发布的发布数据库。每个搜索节点接收包括以下中的至少一个的请求:用于至少一个图像的类别集和图像签名。每个节点被指定为搜索在发布数据库中存储的发布的子集。在接收到请求时,每个节点确定分配给该节点的发布的子集是否被包含在该类别集的至少一个类别内。在分配给节点的发布的子集的一部分被包含在至少一个类别内的情况下,该节点识别发布的子集中的每个发布的图像签名。每个发布的图像签名可以与用于发布的代表性图像相关联。
在操作1120中,签名匹配部件630将用于至少一个图像的图像签名同与查询发布相关联的一组图像签名进行比较以确定一个或更多个相似的图像签名。签名匹配部件630可以将用于查询发布内的每个发布的(例如,代表性图像或代表性图像签名)与至少一个图像的图像签名进行比较。在签名匹配部件630分布在两个或更多个搜索节点上的示例实施方式中,签名匹配部件630的每个节点将至少一个图像的图像签名与被分配给节点并且与类别集的至少一个类别匹配的发布的子集的部分的图像签名进行比较。签名匹配部件630可以与上面在操作740中描述的方式类似或相同地比较图像签名。
在操作1130中,签名匹配部件630将该组发布识别为与一个或更多个相似图像签名相关联的查询发布的子集。在一些实施方式中,签名匹配部件630识别具有至少部分地匹配至少一个图像的图像签名的图像签名的发布。签名匹配部件630以与关于操作750描述的类似或相同的方式来指定发布的排序。在一些实施方式中,签名匹配部件630选择用于包括在发布集合中的具有高于指定阈值的排序得分(例如,外观得分)的发布。指定的阈值可以是预定的或动态的。在阈值是动态的情况下,阈值可以由以下中的一个或更多个来确定:搜索请求中包含的选择、网络流量度量、用户偏好、在操作1120中识别的发布数目的比率或比例、其组合或任何其他合适度量。
图12是根据一些示例实施方式的在执行基于图像识别、图像签名和类别预测来识别一组图像的方法1200时计算机视觉部件208的操作的流程图。虽然顺序地呈现和描述该流程图中的各种操作,但是普通技术人员将理解,操作中的一些或全部可以以不同的顺序执行、被组合或省略,或者被并行执行。方法1200中的操作可以由计算机视觉部件208使用以上关于图6描述的部件来执行。在一些实施方式中,方法1200的操作由计算机视觉部件208的部件和人工智能框架144的部件执行或与其结合地执行。在一些实施方式中,方法1200的操作形成方法700、1000或1100的部分或子操作。
在操作1210中,图像部件610接收包括视频的一组帧。该组帧包括至少一个图像。在一些实施方式中,在由图像捕获设备捕获该组帧期间接收该组帧。在这些实例中,在用户设备上操作的与图像部件610相关联的应用使图像捕获设备(例如,摄像装置)捕获该组帧并且实时或接近实时地将该组帧发送到图像部件610。例如,在打开用户设备上的应用时,应用可以导致呈现一个或更多个用户接口元件,该用户接口元件使得能够访问图像捕获设备并且启动一个或更多个过程以捕获应用内的该组帧。在一些实例中,应用包括以下用户接口元件,该用户接口元件使该组帧在被捕获时呈现该组帧,与此同时将该组帧传输到图像部件610。在一些实例中,在应用的用户界面内的一组帧的捕获和呈现与将该组帧向图像部件610的传输之间存在时间延迟。
在一些实施方式中,图像部件610接收先前捕获的一组帧,使得用户设备上的与图像部件610相关联的应用访问数据存储设备上的该组帧或者在将该组帧传输到图像部件610之前终止对该组帧捕获。例如,应用可以提供一个或更多个用户接口元件,该一个或更多个用户接口元件使得能够从智能手机(例如,用户设备)上的摄像装置相册或从云服务中选择先前捕获的视频。
在操作1220中,图像解释部件620确定用于第一图像中的感兴趣对象的第一类别集和用于第二图像中的感兴趣对象的第二类别集。第一图像和第二图像可以是来自视频的一组帧的各个帧。在一些实施方式中,图像解释部件620以与上面在操作720中的一个或更多个中描述的方式类似或相同地确定第一类别集和第二类别集。尽管参考用于第一图像的第一类别集和用于第二图像的第二类别集进行了描述,但是应当理解的是,图像解释部件620可以确定用于该组帧内包含的任何数目的图像的任何数目的类别集。例如,图像解释部件620可以确定用于高达和包括该组图像的总图像数的多个图像的多个类别集。
尽管关于第一类别集和第二类别集进行了描述,但是在图像部件610接收一组图像的情况下,图像解释部件620确定用于包括该组帧的图像的组合的组合类别集。图像解释部件620可以生成包括该组帧的图像中的两个或更多个的合成图像。合成图像可以包含两个或更多个图像中的每个图像的多个视觉属性、方面和特征。图像解释部件620可以以与上面关于操作720描述的类似或相同的方式确定来自合成图像的合成类别集。
在操作1230中,图像解释部件620生成包括第一图像的第一向量表示的第一图像签名和包括第二图像的第二向量表示的第二图像签名。在一些实施方式中,图像解释部件620以与上面关于操作730描述的类似或相同的方式生成用于第一图像的第一图像签名和用于第二图像的第二图像签名。在图像解释部件620根据该组帧的两个或更多个图像生成合成图像的实施方式中,图像解释部件620生成包括合成图像的向量表示的合成图像签名。在一些实例中,向量表示包括一组值,该组值是第一值(例如,0)与第二值(例如,1)之间的浮点值。在一些实施方式中,向量表示是包括是1或0的一组值的二进制向量表示。在图像解释部件620识别用于该组帧的图像的组合的组合类别集的情况下,图像解释部件620生成用于该组帧中的图像的组合的组合图像签名。在一些示例实施方式中,识别组合类别集的图像解释部件620生成该组帧中的图像的组合中的每个图像的图像签名,使得每个图像可以与独立的并且在一些情况下独特的图像签名相关联。
在一些实施方式中,图像解释部件620识别表示第一图像内的感兴趣对象的一个或更多个属性的一组第一方面和表示第二图像内的感兴趣对象的一个或更多个属性的一组第二方面。在图像解释部件620生成合成图像的情况下,图像解释部件620生成表示合成图像内的感兴趣对象的一个或更多个属性的方面的合成组。图像解释部件620以与关于操作1010(即,识别该组方面)和操作1020(即,识别用于该组方面中的每个方面的概率)描述的类似或相同的方式生成第一方面的组、第二方面的组或方面的合成组。
在操作1240中,签名匹配部件630识别发布数据库内的一组发布。签名匹配部件630使用第一类别集、第二类别集、第一图像签名和第二图像签名来识别该组发布。在图像解释部件620识别组合类别集和组合图像签名的情况下,签名匹配部件630使用用于该组帧中的图像的组合的组合类别集和组合图像签名来识别该组发布。在图像解释部件620识别该组帧中的图像的组合的组合类别集和每个图像的单独图像签名的情况下,签名匹配部件630使用用于图像组合的组合类别集和每个图像的单独的图像签名来识别该组发布。在这些实例中,针对每个图像签名,并且同样针对图像组合中的每个图像识别一组发布。在图像解释部件620生成合成图像、识别合成类别集并且确定合成图像签名的实施方式中,签名匹配部件630使用合成类别集和合成图像签名识别该组发布。在上述实施方式中的一个或更多个中,签名匹配部件630以与上面关于操作740或操作1110至1130描述的类似或相同的方式识别该组发布。
在操作1250中,签名匹配部件630基于第一图像签名和第二图像签名中的一个或更多个来指定该组发布中的每个发布的排序。通过指定每个发布的排序,签名匹配部件630生成发布的排序列表,其中排序列表包括根据发布的指定排序而排序的该组发布的至少一部分。在签名匹配部件630针对组合类别集和组合图像签名识别该组发布的情况下,签名匹配部件630基于组合图像签名来指定每个发布的排序。在签名匹配部件630针对用于图像组合的组合类别和用于每个图像的单独的图像签名识别该组发布的实例中,签名匹配部件630基于用于识别发布和相应的发布组的单独图像签名来指定每个发布的排序。在签名匹配部件630使用合成类别集和合成图像签名识别该组发布的实施方式中,签名匹配部件630使用合成图像签名来指定该组发布中的每个发布的排序。在上述实施方式中的一个或更多个中,签名匹配部件630以与上面关于操作750或操作1130描述的类似或相同的方式来指定每个发布的排序。
在图像解释部件620识别表示该组帧的图像的属性的一组方面的情况下,方面排序部件640识别该组发布中的每个发布的一组元数据描述符;生成每个发布的方面排序得分;以及根据第二排序顺序生成发布的经修改的排序列表,所述第二排序顺序反映了方面排序得分和基于部分地用于识别该组发布的图像签名的排序的组合。在图像解释部件620识别表示第一图像的一组第一方面和表示第二图像的一组第二方面的情况下,方面排序部件640识别针对第一图像和第二图像识别的一组发布中的每个发布的一组元数据描述符;生成每个发布的方面排序得分;以及根据第二排序顺序生成发布的经修改的排序列表,该第二排序顺序反映了方面排序得分和基于部分地用于识别该组发布的图像签名的排序的组合。在图像解释部件620识别表示合成图像的合成组方面的实例中,方面排序部件640识别针对合成图像识别的该组发布中的每个发布的一组元数据描述符;生成每个发布的方面排序得分;以及根据第二排序顺序生成发布的经修改的排序列表,该第二排序顺序反映方面排序得分和基于合成图像签名的排序的组合。在上述实施方式或实例中的一个或更多个中,方面排序部件640以与上面关于操作1030描述的类似或相同的方式识别一组元数据描述符;以与上面关于操作1040描述的类似或相同的方式生成方面排序得分;以及以与关于操作1050描述的类似或相同的方式生成发布的经修改的排序列表。
图13是示出了根据一些示例实施方式的机器1300的部件的框图,机器1300能够从机器可读介质(例如,机器可读存储介质)读取指令并且执行本文中讨论的方法中的任何一种或更多种。具体地,图13示出了以计算机系统的示例形式的机器1300的示意图,在该机器1300中可以执行使机器1300执行本文讨论的方法中的任何一种或更多种的指令1310(例如,软件、程序、应用、小程序、app或其他可执行代码)。例如,指令1310可以使机器1300执行图4、图7、图8和图9的流程图。另外或替选地,指令1310可以实现与图1至图6的服务和部件相关联的服务器等。指令1310将通用的未编程的机器1300转换为被编程成以描述的方式执行所描述的和所示出的功能的特定机器1300。
在替选实施方式中,机器1300操作为独立设备或者可以耦接(例如,联网)至其他机器。在联网部署中,机器1300可以在服务器客户端网络环境中以服务器机器或客户端机器能力进行操作,或者作为对等(或分布式)网络环境中的对等机器进行操作。机器1300可以包括但不限于:交换器、控制器、服务器计算机、客户端计算机、个人计算机(PC)、平板计算机、膝上型计算机、上网本、机顶盒(STB)、个人数字助理(PDA)、娱乐媒体系统、蜂窝电话、智能电话、移动设备、可穿戴设备(例如,智能表)、智能家居设备(例如,智能电器)、其他智能设备、web设备、网络路由器、网络交换机、网络桥接器或者能够顺序地或以其他方式执行指定要由机器1300采取的动作的指令1310的任何机器。此外,虽然仅示出了单个机器1300,但是术语“机器”还应该被理解为包括单独或共同执行指令1310以执行本文中讨论的方法中的任何一种或更多种的机器1300的集合。
机器1300可以包括处理器1304、存储器/存储装置1306和I/O部件1318,这些处理器1304、存储器/存储装置1306和I/O部件1318可以被配置成例如经由总线1302彼此通信。在示例实施方式中,处理器1304(例如,中央处理单元(CPU)、精简指令集计算(RISC)处理器、复杂指令集计算(CISC)处理器、图形处理单元(GPU)、数字信号处理器(DSP)、专用集成电路(ASIC)、射频集成电路(RFIC)、另外的处理器或其任何适当的组合)可以包括例如可以执行指令1310的处理器1308和处理器1312。术语“处理器”旨在包括多核处理器,该多核处理器可以包括可以同时执行指令的两个或更多个独立处理器(有时被称为“核”)。尽管图13示出了多个处理器1304,但是机器1300可以包括具有单个核的单个处理器、具有多个核的单个处理器(例如,多核处理器)、具有单个核的多个处理器、具有多个核的多个处理器或者其任何组合。
存储器/存储装置1306可以包括诸如主存储器或其他存储器存储装置的存储器1314以及存储单元1316,这两者都可由处理器1304例如经由总线1302访问。存储单元1316和存储器1314存储用于实现本文中描述的方法或功能中的任何一个或更多个的指令1310。指令1310还可以在其由机器1300执行期间完全地或部分地驻留在存储器1314内、存储单元1316内、处理器1304中的至少一个内(例如,在处理器的高速缓冲存储器内)或它们的任何合适的组合内。因此,存储器1314、存储单元1316和处理器1304的存储器是机器可读介质的示例。
如本文中使用的,“机器可读存储介质”是指能够临时地或永久地存储指令和数据的设备,并且可以包括但不限于:随机存取存储器(RAM)、只读存储器(ROM)、缓冲存储器、闪速存储器、光学介质、磁性介质、高速缓冲存储器、其他类型的存储装置(例如,可擦除可编程只读存储器(EEPROM))和/或其任何适当的组合。术语“机器可读存储介质”应该被认为包括能够存储指令1310的单个介质或多个介质(例如,集中式或分布式数据库、或者相关联的缓存和服务器)。术语“机器可读存储介质”还应该被认为包括下述任何介质或多个介质的组合,其能够存储由机器(例如,机器1300)执行的指令(例如,指令1310),使得指令当由机器的一个或更多个处理器(例如,处理器1304)执行时,使机器执行本文中描述的方法中的任何一种或更多种。因此,“机器可读存储介质”是指单个存储装置或设备以及包括多个存储装置或设备的“基于云”的存储系统或存储网络。术语“机器可读介质”包括机器可读存储信号。
I/O部件1318可以包括用于接收输入、提供输出、产生输出、传送信息、交换信息、捕获测量等的各种各样的部件。在特定机器中包括的特定I/O部件1318将取决于机器的类型。例如,诸如移动电话的便携式机器可能包括触摸输入设备或其他这样的输入机构,而无头服务器机器可能不包括这样的触摸输入设备。要理解的是,I/O部件1318可以包括图13中未示出的许多其他部件。根据功能对I/O部件1318进行分组仅仅出于简化以下讨论的目的,并且分组决不是限制性的。在各种示例实施方式中,I/O部件1318可以包括输出部件1326和输入部件1328。输出部件1326可以包括视觉部件(例如,诸如等离子显示板(PDP)、发光二极管(LED)显示器、液晶显示器(LCD)、投影仪或阴极射线管(CRT)的显示器)、声学部件(例如,扬声器)、触觉部件(例如,振动马达、阻力机构)、其他信号发生器等。输入部件1328可以包括字母数字输入部件(例如,键盘、被配置成接收字母数字输入的触摸屏、照相光学键盘(photo-opticalkeyboard)或其他字母数字输入部件)、基于点的输入部件(例如,鼠标、触摸板、跟踪球、操纵杆、运动传感器或其他指向仪器)、触感输入部件(例如,物理按钮、提供触摸或触摸姿势的位置和/或力的触摸屏或其他触感输入部件)、音频输入部件(例如,麦克风)等。
在其他的示例实施方式中,I/O部件1318可以包括生物部件1330、运动部件1334、环境部件1336或位置部件1338等各种其他部件。例如,生物部件1330可以包括用于检测表达(例如,手部表达、面部表情、声音表达、身体姿势或眼睛跟踪)、测量生物信号(例如,血压、心率、体温、出汗或脑波)、识别人(例如,语音识别、视网膜识别、面部识别、指纹识别或基于脑电图的识别)等的部件。运动部件1334可以包括加速度传感器部件(例如,加速度计)、重力传感器部件、旋转传感器部件(例如,陀螺仪)等。环境部件1336可以包括例如照明传感器部件(例如,光度计)、温度传感器部件(例如,检测环境温度的一个或更多个温度计)、湿度传感器部件、压力传感器部件(例如,气压计)、声学传感器部件(例如,检测背景噪声的一个或更多个麦克风)、接近度传感器部件(例如,检测附近对象的红外传感器)、气体传感器(例如,用于出于安全而检测危险气体的浓度或者测量大气中的污染物的气体检测传感器)或者可以提供与周围物理环境对应的指示、测量或信号的其他部件。位置部件1338可以包括位置传感器部件(例如,全球定位系统(GPS)接收器部件)、高度传感器部件(例如,检测可以从其得出高度的气压的高度计或气压计)、方位传感器部件(例如,磁力计)等。
可以使用各种技术来实现通信。I/O部件1318可以包括通信部件1340,该通信部件1340可操作成分别经由耦接1324和耦接1322将机器1300耦接至网络1332或设备1320。例如,通信部件1340可以包括网络接口部件或其他合适的设备以与网络1332对接。在其他示例中,通信部件1340可以包括有线通信部件、无线通信部件、蜂窝通信部件、近场通信(NFC)部件、蓝牙部件(例如,蓝牙低功耗)、Wi-Fi部件和经由其他形式提供通信的其他通信部件。设备1320可以是另外的机器或各种各样的外围设备中的任何外围设备(例如,经由USB耦接的外围设备)。
此外,通信部件1340可以检测标识符或者包括可操作成检测标识符的部件。例如,通信部件1340可以包括射频识别(RFID)标签阅读器部件、NFC智能标签检测部件、光学阅读器部件(例如,用于检测诸如通用产品码(UPC)条形码的一维条形码、诸如快速响应(QR)码、Aztec码、数据矩阵、数据符号(Dataglyph)、最大码(MaxiCode)、PDF417、超码(UltraCode)、UCC RSS-2D条形码的多维条形码和其他光学码的光学传感器)或声学检测部件(例如,用于识别标记的音频信号的麦克风)。此外,可以经由通信部件1340得到各种信息,如经由因特网协议(IP)地理位置得到的位置、经由Wi-Fi信号三角测量得到的位置、经由检测可以指示特定位置的NFC信标信号得到的位置等。
在各种示例实施方式中,网络1332的一个或更多个部分可以是自组织网络、内联网、外联网、虚拟专用网络(VPN)、局域网(LAN)、无线LAN(WLAN)、广域网(WAN)、无线WAN(WWAN)、城域网(MAN)、因特网、因特网的一部分、公共交换电话网络(PSTN)的一部分、普通老式电话服务(POTS)网络、蜂窝电话网络、无线网络、Wi-Fi网络、另外类型的网络或者两个或更多个这样的网络的组合。例如,网络1332或网络1332的一部分可以包括无线或蜂窝网络,并且耦接1324可以是码分多址(CDMA)连接、全球移动通信系统(GSM)连接或另外类型的蜂窝或无线耦接。在该示例中,耦接1324可以实现多种类型的数据传输技术中的任何数据传输技术,例如单载波无线电传输技术(1xRTT)、演进数据优化(EVDO)技术、通用分组无线服务(GPRS)技术、增强型数据速率GSM演进(EDGE)技术、包括3G的第三代合作伙伴计划(3GPP)、第四代无线(4G)网络、通用移动通讯系统(UMTS)、高速分组接入(HSPA)、全球微波接入互操作性(WiMAX)、长期演进(LTE)标准、由各种标准设置组织定义的其他数据传输技术、其他长距离协议或其他数据传输技术。
可以经由网络接口设备(例如,包括在通信部件1340中的网络接口部件)使用传输介质并且利用多个公知的传输协议中的任意一种传输协议(例如,超文本传输协议(HTTP))通过网络1332来发送和接收指令1310。类似地,可以经由到设备1320的耦接1322(例如,对等耦接)使用传输介质来发送或接收指令1310。术语“传输介质”应被认为包括能够存储、编码或承载用于由机器1300执行的指令1310的任何无形介质,并且包括数字或模拟通信信号或其他无形介质以利于这样的软件的通信。传输介质是机器可读介质的实施方式。
以下所编号的示例是实施方式。
1.一种方法,包括:由服务器的至少一个处理器接收描绘感兴趣对象的至少一部分的至少一个图像;由至少一个处理器确定用于感兴趣对象的类别集;由至少一个处理器生成用于至少一个图像的图像签名,该图像签名包括至少一个图像的向量表示;由至少一个处理器使用类别集和用于至少一个图像的图像签名,识别发布数据库内的一组发布;基于图像签名来指定该组发布中的每个发布的排序以生成发布的排序列表;以及使得在从其接收至少一个图像的计算设备处呈现发布的排序列表。
2.根据示例1的方法,还包括:由至少一个处理器识别表示至少一个图像内的感兴趣对象的一个或更多个属性的一组方面;以及针对该组方面中的每个方面,确定至少一个图像内的感兴趣对象包括指定方面的概率以生成每个方面的置信度得分。
3.根据示例2的方法,其中一个或更多个属性是感兴趣对象的外观的要素,并且该组方面中的每个方面是与指定属性相关联的描述性词。
4.根据示例2或示例3的方法,其中根据第一排序顺序组织排序列表,该方法还包括:针对该组发布中的每个发布,识别一组元数据描述符;生成该组发布中的每个发布的方面排序得分,该方面排序得分是通过对感兴趣对象的该组方面与该组元数据描述符执行加权比较而生成的;以及生成根据第二排序顺序组织的经修改的发布排序列表,该第二排序顺序反映方面排序得分和基于图像签名的排序的组合。
5.根据示例1至4中任一个的方法,其中确定用于感兴趣对象的类别集还包括:由至少一个处理器识别表示至少一个图像内的感兴趣对象的一个或更多个属性的一组方面;以及确定与该组方面中的至少一个方面相关联的一个或更多个类别以包括在该类别集中。
6.根据示例1至5中任一个的方法,其中使用类别集和图像签名来识别该组发布还包括:选择与该类别集中的一个或更多个类别相关联的查询发布;将用于至少一个图像的图像签名同与查询发布相关联的一组图像签名进行比较以确定一个或更多个相似的图像签名;以及将该组发布识别为与一个或更多个相似的图像签名相关联的查询发布的子集。
7.根据示例1至6中任一个的方法,其中,至少一个图像是包括视频的一组帧,该方法还包括:由至少一个处理器确定用于第一图像中的感兴趣对象的第一类别集和用于第二图像中的感兴趣对象的第二类别集,第一图像和第二图像选自视频的该组帧中;由至少一个处理器生成包括第一图像的第一向量表示的第一图像签名和包括第二图像的第二向量表示的第二图像签名;由至少一个处理器使用第一类别集、第二类别集、第一图像签名和第二图像签名,识别发布数据库内的该组发布;以及基于第一图像签名和第二图像签名中的一个或更多个来指定该组发布中的每个发布的排序,以生成发布的排序列表。
8.一种系统,包括:一个或更多个硬件处理器;以及机器可读存储介质,机器可读存储介质包括指令,该指令当由一个或更多个硬件处理器执行时使一个或更多个硬件处理器执行包括以下的操作:由服务器的一个或更多个处理器接收描绘感兴趣对象的至少一部分的至少一个图像;由一个或更多个处理器确定用于感兴趣对象的类别集;由一个或更多个处理器生成用于至少一个图像的图像签名,该图像签名包括至少一个图像的向量表示;由一个或更多个处理器基于类别集和用于至少一个图像的图像签名,识别发布数据库内的一组发布;基于图像签名来指定该组发布中的每个发布的排序以生成发布的排序列表;以及引起在从其接收至少一个图像的计算设备处呈现发布的排序列表。
9.根据示例8的系统,其中操作还包括:由一个或更多个处理器识别表示至少一个图像内的感兴趣对象的一个或更多个属性的一组方面;以及针对该组方面中的每个方面,确定至少一个图像内的感兴趣对象包括指定方面的概率以生成每个方面的置信度得分。
10.根据示例9的系统,其中一个或更多个属性是感兴趣对象的外观的要素,并且该组方面中的每个方面是与指定属性相关联的描述性词。
11.根据示例9或示例10的系统,其中根据第一排序顺序组织排序列表,操作还包括:针对该组发布中的每个发布,识别一组元数据描述符;生成该组发布中的每个发布的方面排序得分,该方面排序得分是通过对感兴趣对象的该组方面与该组元数据描述符进行加权比较而生成的;以及生成根据第二排序顺序组织的经修改的发布的排序列表,该第二排序顺序反映方面排序得分和基于图像签名的排序的组合。
12.根据示例8至11中任一个的系统,其中确定用于感兴趣对象的类别集还包括:由一个或更多个处理器识别表示至少一个图像内的感兴趣对象的一个或更多个属性的一组方面;以及确定与该组方面的至少一个方面相关联的一个或更多个类别以包括在该类别集中。
13.根据示例8至12中任一个的系统,其中使用类别集和图像签名来识别该组发布还包括:选择与该类别集中的一个或更多个类别相关联的查询发布;将用于至少一个图像的图像签名同与查询发布相关联的一组图像签名进行比较以确定一个或更多个相似的图像签名;以及将该组发布识别为与一个或更多个相似的图像签名相关联的查询发布的子集。
14.根据示例8至13中任一个的系统,其中至少一个图像是包括视频的一组帧,该操作还包括:由一个或更多个处理器确定用于第一图像中的感兴趣对象的第一类别集和用于第二图像中的感兴趣对象的第二类别集,第一图像和第二图像选自视频的该组帧;由一个或更多个处理器生成包括第一图像的第一向量表示的第一图像签名和包括第二图像的第二向量表示的第二图像签名;由一个或更多个处理器使用第一类别集、第二类别集、第一图像签名和第二图像签名,识别发布数据库内的该组发布;以及基于第一图像签名和第二图像签名中的一个或更多个来指定该组发布中的每个发布的排序以生成发布的排序列表。
15.一种机器可读存储介质,该机器可读存储介质包括指令,该指令当由机器的一个或更多个处理器执行时使得该机器执行包括如下的操作:由机器的一个或更多个处理器接收描绘感兴趣对象的至少一部分的至少一个图像;由一个或更多个处理器确定用于感兴趣对象的类别集;由一个或更多个处理器生成用于至少一个图像的图像签名,该图像签名包括至少一个图像的向量表示;由一个或更多个处理器基于类别集和用于至少一个图像的图像签名,识别发布数据库内的一组发布;基于图像签名来指定该组发布中的每个发布的排序以生成发布的排序列表;以及使得在从其接收至少一个图像的计算设备处呈现发布的排序列表。
16.根据示例15的机器可读存储介质,其中操作还包括:由一个或更多个处理器识别表示至少一个图像内的感兴趣对象的一个或更多个属性的一组方面;以及针对该组方面中的每个方面,确定至少一个图像内的感兴趣对象包括指定方面的概率以生成每个方面的置信度得分。
17.根据示例16的机器可读存储介质,其中根据第一排序顺序组织排序列表,操作还包括:针对该组发布中的每个发布,识别一组元数据描述符;生成该组发布中的每个发布的方面排序得分,该方面排序得分是通过对感兴趣对象的该组方面与该组元数据描述符执行加权比较而生成的;以及生成根据第二排序顺序组织的经修改的发布的排序列表,该第二排序顺序反映方面排序得分和基于图像签名的排序的组合。
18.根据示例15至17中任一个的机器可读存储介质,其中确定用于感兴趣对象的类别集还包括:由一个或更多个处理器识别表示至少一个图像内的感兴趣对象的一个或更多个属性的一组方面;以及确定与该组方面的至少一个方面相关联的一个或更多个类别以包括在该类别集中。
19.根据示例15至18中任一个的机器可读存储介质,其中使用类别集和图像签名来识别该组发布还包括:选择与该类别集中的一个或更多个类别相关联的查询发布;将用于至少一个图像的图像签名同与查询发布相关联的一组图像签名进行比较以确定一个或更多个相似的图像签名;以及将该组发布识别为与一个或更多个相似的图像签名相关联的查询发布的子集。
20.根据示例15至19中任一个的机器可读存储介质,其中至少一个图像是包括视频的一组帧,该操作还包括:由一个或更多个处理器确定用于第一图像中的感兴趣对象的第一类别集和用于第二图像中的感兴趣对象的第二类别集,第一图像和第二图像选自视频的该组帧;由一个或更多个处理器生成包括第一图像的第一向量表示的第一图像签名和包括第二图像的第二向量表示的第二图像签名;由一个或更多个处理器使用第一类别集、第二类别集、第一图像签名和第二图像签名,识别发布数据库内的该组发布;以及基于第一图像签名和第二图像签名中的一个或更多个来指定该组发布中的每个发布的排序以生成发布的排序列表。
21.一种机器可读介质,该机器可读介质承载指令,该指令当由机器的一个或更多个处理器执行时,使得机器执行根据示例1至7中任一个的方法。
遍及本说明书,多个实例可以实现被描述为单个实例的部件、操作或结构。虽然一种或更多种方法的各个操作被示出和描述为分立的操作,但是各个操作中的一个或更多个可以同时执行,并且不要求以所示的顺序执行操作。在示例配置中作为分立部件呈现的结构和功能可以实现为组合的结构或部件。类似地,作为单个部件呈现的结构和功能可以被实现为分立的部件。这些和其他变型、修改、添加以及改进落入本文中的主题的范围内。
本文中示出的实施方式被足够详细地描述,以使得本领域技术人员能够实践所公开的教导。其他实施方式可以被使用以及从本文中示出的实施方式得到,使得可以在不偏离本公开内容的范围的情况下进行结构和逻辑替代和改变。因此,详细描述不以限制性意义而被采用,并且各种实施方式的范围仅通过所附权利要求以及这样的权利要求所具有的等同方案的完全范围来限定。
如本文中使用的,术语“或”可以被解释为包含性或排他性意义。此外,可以针对在本文中描述为单个实例的资源、操作或结构提供多个实例。另外,各种资源、操作、模块、引擎和数据存储装置之间的边界在某种程度上是任意的,并且在特定说明性配置的背景下示出了特定操作。功能的其他分配被预见并且可以落入本公开内容的各种实施方式的范围内。通常,在示例配置中呈现为独立资源的结构和功能可以实现为组合的结构或资源。类似地,呈现为单个资源的结构和功能可以实现为独立的资源。这些和其他变型、修改、添加和改进落入如由所附权利要求表示的本公开内容的实施方式的范围内。因此,说明书和附图被认为是说明性的而不是限制性意义的。
Claims (21)
1.一种方法,包括:
由服务器的至少一个处理器接收描绘感兴趣对象的至少一部分的至少一个图像;
由所述至少一个处理器确定用于所述感兴趣对象的类别集;
由所述至少一个处理器生成用于所述至少一个图像的图像签名,所述图像签名包括所述至少一个图像的向量表示;
由所述至少一个处理器使用所述类别集和用于所述至少一个图像的图像签名,识别发布数据库内的一组发布;
基于所述图像签名来指定所述一组发布中的每个发布的排序以生成发布的排序列表;以及
使得在从其接收所述至少一个图像的计算设备处呈现所述发布的排序列表。
2.根据权利要求1所述的方法,还包括:
由所述至少一个处理器识别表示所述至少一个图像内的感兴趣对象的一个或更多个属性的一组方面;以及
针对所述一组方面中的每个方面,确定所述至少一个图像内的感兴趣对象包括指定方面的概率以生成每个方面的置信度得分。
3.根据权利要求2所述的方法,其中,所述一个或更多个属性是所述感兴趣对象的外观的要素,并且所述一组方面中的每个方面是与指定属性相关联的描述性词。
4.根据权利要求2所述的方法,其中,根据第一排序顺序组织所述排序列表,所述方法还包括:
针对所述一组发布中的每个发布,识别一组元数据描述符;
生成所述一组发布中的每个发布的方面排序得分,所述方面排序得分是通过对所述感兴趣对象的所述一组方面与所述一组元数据描述符进行加权比较而生成的;以及
生成根据第二排序顺序组织的经修改的发布的排序列表,所述第二排序顺序反映所述方面排序得分和基于所述图像签名的排序的组合。
5.根据权利要求1所述的方法,其中,确定用于所述感兴趣对象的类别集还包括:
由所述至少一个处理器识别表示所述至少一个图像内的感兴趣对象的一个或更多个属性的一组方面;以及
确定与所述一组方面中的至少一个方面相关联的一个或更多个类别,以包括在所述类别集中。
6.根据权利要求1所述的方法,其中,使用所述类别集和所述图像签名来识别所述一组发布还包括:
选择与所述类别集中的一个或更多个类别相关联的查询发布;
将用于所述至少一个图像的图像签名同与所述查询发布相关联的一组图像签名进行比较,以确定一个或更多个相似的图像签名;以及
将所述一组发布识别为与所述一个或更多个相似的图像签名相关联的所述查询发布的子集。
7.根据权利要求1所述的方法,其中,所述至少一个图像是包括视频的一组帧,所述方法还包括:
由所述至少一个处理器确定用于第一图像中的感兴趣对象的第一类别集和用于第二图像中的感兴趣对象的第二类别集,所述第一图像和所述第二图像选自所述视频的所述一组帧;
由所述至少一个处理器生成包括所述第一图像的第一向量表示的第一图像签名和包括所述第二图像的第二向量表示的第二图像签名;
由所述至少一个处理器使用所述第一类别集、所述第二类别集、所述第一图像签名和所述第二图像签名,识别所述发布数据库内的一组发布;以及
基于所述第一图像签名和所述第二图像签名中的一个或更多个来指定所述一组发布中的每个发布的排序,以生成发布的排序列表。
8.一种系统,包括:
一个或更多个硬件处理器;以及
机器可读存储介质,所述机器可读存储介质包括指令,所述指令当由所述一个或更多个硬件处理器执行时使得所述一个或更多个硬件处理器执行包括如下的操作:
由服务器的一个或更多个处理器接收描绘感兴趣对象的至少一部分的至少一个图像;
由所述一个或更多个处理器确定用于所述感兴趣对象的类别集;
由所述一个或更多个处理器生成用于所述至少一个图像的图像签名,所述图像签名包括所述至少一个图像的向量表示;
由所述一个或更多个处理器基于所述类别集和用于所述至少一个图像的图像签名,识别发布数据库内的一组发布;
基于所述图像签名来指定所述一组发布中的每个发布的排序以生成发布的排序列表;以及
使得在从其接收所述至少一个图像的计算设备处呈现所述发布的排序列表。
9.根据权利要求8所述的系统,其中,所述操作还包括:
由所述一个或更多个处理器识别表示所述至少一个图像内的感兴趣对象的一个或更多个属性的一组方面;以及
针对所述一组方面中的每个方面,确定所述至少一个图像内的感兴趣对象包括指定方面的概率以生成每个方面的置信度得分。
10.根据权利要求9所述的系统,其中,所述一个或更多个属性是所述感兴趣对象的外观的要素,并且所述一组方面中的每个方面是与指定属性相关联的描述性词。
11.根据权利要求9所述的系统,其中,根据第一排序顺序组织所述排序列表,所述操作还包括:
针对所述一组发布中的每个发布,识别一组元数据描述符;
生成所述一组发布中的每个发布的方面排序得分,所述方面排序得分是通过对所述感兴趣对象的所述一组方面与所述一组元数据描述符进行加权比较而生成的;以及
生成根据第二排序顺序组织的经修改的发布的排序列表,所述第二排序顺序反映所述方面排序得分和基于所述图像签名的排序的组合。
12.根据权利要求8所述的系统,其中,确定用于所述感兴趣对象的类别集还包括:
由所述一个或更多个处理器识别表示所述至少一个图像内的感兴趣对象的一个或更多个属性的一组方面;以及
确定与所述一组方面中的至少一个方面相关联的一个或更多个类别,以包括在所述类别集中。
13.根据权利要求8所述的系统,其中,使用所述类别集和所述图像签名来识别所述一组发布还包括:
选择与所述类别集中的一个或更多个类别相关联的查询发布;
将用于所述至少一个图像的图像签名同与所述查询发布相关联的一组图像签名进行比较,以确定一个或更多个相似的图像签名;以及
将所述一组发布识别为与所述一个或更多个相似的图像签名相关联的所述查询发布的子集。
14.根据权利要求8所述的系统,其中,所述至少一个图像是包括视频的一组帧,所述操作还包括:
由所述一个或更多个处理器确定用于第一图像中的感兴趣对象的第一类别集和用于第二图像中的感兴趣对象的第二类别集,所述第一图像和所述第二图像选自所述视频的所述一组帧;
由所述一个或更多个处理器生成包括所述第一图像的第一向量表示的第一图像签名和包括所述第二图像的第二向量表示的第二图像签名;
由所述一个或更多个处理器使用所述第一类别集、所述第二类别集、所述第一图像签名和所述第二图像签名,识别所述发布数据库内的一组发布;以及
基于所述第一图像签名和所述第二图像签名中的一个或更多个来指定所述一组发布中的每个发布的排序以生成发布的排序列表。
15.一种机器可读存储介质,所述机器可读存储介质包括指令,所述指令在由机器的一个或更多个处理器执行时使得所述机器执行包括如下的操作:
由所述机器的一个或更多个处理器接收描绘感兴趣对象的至少一部分的至少一个图像;
由所述一个或更多个处理器确定用于所述感兴趣对象的类别集;
由所述一个或更多个处理器生成用于所述至少一个图像的图像签名,所述图像签名包括所述至少一个图像的向量表示;
由所述一个或更多个处理器基于所述类别集和用于所述至少一个图像的图像签名,识别发布数据库内的一组发布;
基于所述图像签名来指定所述一组发布中的每个发布的排序以生成发布的排序列表;以及
使得在从其接收所述至少一个图像的计算设备处呈现所述发布的排序列表。
16.根据权利要求15所述的机器可读存储介质,其中,所述操作还包括:
由所述一个或更多个处理器识别表示所述至少一个图像内的感兴趣对象的一个或更多个属性的一组方面;以及
针对所述一组方面中的每个方面,确定所述至少一个图像内的感兴趣对象包括指定方面的概率以生成每个方面的置信度得分。
17.根据权利要求16所述的机器可读存储介质,其中,根据第一排序顺序组织所述排序列表,所述操作还包括:
针对所述一组发布中的每个发布,识别一组元数据描述符;
生成所述一组发布中的每个发布的方面排序得分,所述方面排序得分是通过对所述感兴趣对象的所述一组方面与所述一组元数据描述符进行加权比较而生成的;以及
生成根据第二排序顺序组织的经修改的发布的排序列表,所述第二排序顺序反映所述方面排序得分和基于所述图像签名的排序的组合。
18.根据权利要求15所述的机器可读存储介质,其中,确定用于所述感兴趣对象的类别集还包括:
由所述一个或更多个处理器识别表示所述至少一个图像内的感兴趣对象的一个或更多个属性的一组方面;以及
确定与所述一组方面中的至少一个方面相关联的一个或更多个类别以包括在所述类别集中。
19.根据权利要求15所述的机器可读存储介质,其中,使用所述类别集和所述图像签名来识别所述一组发布还包括:
选择与所述类别集中的一个或更多个类别相关联的查询发布;
将用于所述至少一个图像的图像签名同与所述查询发布相关联的一组图像签名进行比较,以确定一个或更多个相似的图像签名;以及
将所述一组发布识别为与所述一个或更多个相似的图像签名相关联的查询发布的子集。
20.根据权利要求15所述的机器可读存储介质,其中,所述至少一个图像是包括视频的一组帧,所述操作还包括:
由所述一个或更多个处理器确定用于第一图像中的感兴趣对象的第一类别集和用于第二图像中的感兴趣对象的第二类别集,所述第一图像和所述第二图像选自所述视频的所述一组帧;
由所述一个或更多个处理器生成包括所述第一图像的第一向量表示的第一图像签名和包括所述第二图像的第二向量表示的第二图像签名;
由所述一个或更多个处理器使用所述第一类别集、所述第二类别集、所述第一图像签名和所述第二图像签名,识别所述发布数据库内的一组发布;以及
基于所述第一图像签名和所述第二图像签名中的一个或更多个来指定所述一组发布中的每个发布的排序以生成发布的排序列表。
21.一种承载指令的机器可读介质,所述指令当由机器的一个或更多个处理器执行时,使得所述机器执行根据权利要求1至7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310694315.XA CN116863129A (zh) | 2016-10-16 | 2017-10-13 | 用于搜索发布的方法、系统和机器可读存储介质 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/294,773 | 2016-10-16 | ||
US15/294,773 US10860898B2 (en) | 2016-10-16 | 2016-10-16 | Image analysis and prediction based visual search |
PCT/US2017/056532 WO2018071779A1 (en) | 2016-10-16 | 2017-10-13 | Image analysis and prediction based visual search |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310694315.XA Division CN116863129A (zh) | 2016-10-16 | 2017-10-13 | 用于搜索发布的方法、系统和机器可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109844767A true CN109844767A (zh) | 2019-06-04 |
CN109844767B CN109844767B (zh) | 2023-07-11 |
Family
ID=61904566
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780063709.8A Active CN109844767B (zh) | 2016-10-16 | 2017-10-13 | 基于图像分析和预测的可视化搜索 |
CN202310694315.XA Pending CN116863129A (zh) | 2016-10-16 | 2017-10-13 | 用于搜索发布的方法、系统和机器可读存储介质 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310694315.XA Pending CN116863129A (zh) | 2016-10-16 | 2017-10-13 | 用于搜索发布的方法、系统和机器可读存储介质 |
Country Status (6)
Country | Link |
---|---|
US (4) | US10860898B2 (zh) |
EP (1) | EP3526678A4 (zh) |
JP (2) | JP6867479B2 (zh) |
KR (1) | KR102241923B1 (zh) |
CN (2) | CN109844767B (zh) |
WO (1) | WO2018071779A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111931854A (zh) * | 2020-08-12 | 2020-11-13 | 北京建筑大学 | 一种提高图像识别模型可移植性能的方法 |
Families Citing this family (41)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180111979A (ko) | 2016-02-11 | 2018-10-11 | 이베이 인크. | 의미론적 카테고리 분류법 |
US11748978B2 (en) | 2016-10-16 | 2023-09-05 | Ebay Inc. | Intelligent online personal assistant with offline visual search database |
US10860898B2 (en) | 2016-10-16 | 2020-12-08 | Ebay Inc. | Image analysis and prediction based visual search |
US11004131B2 (en) | 2016-10-16 | 2021-05-11 | Ebay Inc. | Intelligent online personal assistant with multi-turn dialog based on visual search |
WO2018078590A2 (en) * | 2016-10-27 | 2018-05-03 | Voodoo Manufacturing, Inc. | Automated manufacturing system |
US10970768B2 (en) | 2016-11-11 | 2021-04-06 | Ebay Inc. | Method, medium, and system for image text localization and comparison |
CN108075959B (zh) * | 2016-11-14 | 2021-03-12 | 腾讯科技(深圳)有限公司 | 一种会话消息处理方法和装置 |
US10747994B2 (en) * | 2016-12-28 | 2020-08-18 | Captricity, Inc. | Identifying versions of a form |
US10417524B2 (en) * | 2017-02-16 | 2019-09-17 | Mitsubishi Electric Research Laboratories, Inc. | Deep active learning method for civil infrastructure defect detection |
US10248663B1 (en) * | 2017-03-03 | 2019-04-02 | Descartes Labs, Inc. | Geo-visual search |
US10699295B1 (en) | 2017-05-05 | 2020-06-30 | Wells Fargo Bank, N.A. | Fraudulent content detector using augmented reality platforms |
US20190027141A1 (en) * | 2017-07-21 | 2019-01-24 | Pearson Education, Inc. | Systems and methods for virtual reality-based interaction evaluation |
KR101977174B1 (ko) * | 2017-09-13 | 2019-05-10 | 이재준 | 영상 분석 방법, 장치 및 컴퓨터 프로그램 |
US10685655B2 (en) * | 2018-03-07 | 2020-06-16 | International Business Machines Corporation | Leveraging natural language processing |
US10902051B2 (en) * | 2018-04-16 | 2021-01-26 | Microsoft Technology Licensing, Llc | Product identification in image with multiple products |
US10824909B2 (en) * | 2018-05-15 | 2020-11-03 | Toyota Research Institute, Inc. | Systems and methods for conditional image translation |
JP7091844B2 (ja) * | 2018-05-30 | 2022-06-28 | 沖電気工業株式会社 | 画像処理装置、画像処理方法およびプログラム |
WO2020010691A1 (zh) * | 2018-07-12 | 2020-01-16 | 北京奇虎科技有限公司 | 从图像中提取哈希码的方法、装置及图像检索方法、装置 |
US11698921B2 (en) * | 2018-09-17 | 2023-07-11 | Ebay Inc. | Search system for providing search results using query understanding and semantic binary signatures |
US11501191B2 (en) * | 2018-09-21 | 2022-11-15 | International Business Machines Corporation | Recommending machine learning models and source codes for input datasets |
US11875790B2 (en) | 2019-03-01 | 2024-01-16 | Google Llc | Dynamically adapting assistant responses |
US20220188345A1 (en) * | 2019-03-26 | 2022-06-16 | Nippon Telegraph And Telephone Corporation | Search apparatus, training apparatus, search method, training method, and program |
CN111831844A (zh) * | 2019-04-17 | 2020-10-27 | 京东方科技集团股份有限公司 | 图像检索方法、图像检索装置、图像检索设备及介质 |
CN110458067B (zh) * | 2019-07-31 | 2022-04-22 | 卓尔智联(武汉)研究院有限公司 | 刻画用户画像的方法、计算机装置及可读存储介质 |
WO2021042763A1 (en) * | 2019-09-03 | 2021-03-11 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Image searches based on word vectors and image vectors |
US11687778B2 (en) | 2020-01-06 | 2023-06-27 | The Research Foundation For The State University Of New York | Fakecatcher: detection of synthetic portrait videos using biological signals |
US11915097B1 (en) * | 2020-01-14 | 2024-02-27 | Apple Inc. | Visual marker with user selectable appearance |
US10984305B1 (en) | 2020-01-15 | 2021-04-20 | Capital One Services, Llc | Synthetic clickstream testing using a neural network |
CN113282779A (zh) | 2020-02-19 | 2021-08-20 | 阿里巴巴集团控股有限公司 | 图像搜索方法、装置、设备 |
KR102346705B1 (ko) * | 2020-02-24 | 2022-01-03 | 군산대학교산학협력단 | 이미지 데이터베이스 생성 방법 및 이미지 데이터 검색 방법 |
CN111488476B (zh) * | 2020-04-03 | 2023-06-27 | 北京爱芯科技有限公司 | 图像推送方法、模型训练方法及对应装置 |
US11468491B2 (en) * | 2020-05-01 | 2022-10-11 | Walmart Apollo, Llc | Systems and methods of product identification within an image |
US11379697B2 (en) | 2020-05-20 | 2022-07-05 | Bank Of America Corporation | Field programmable gate array architecture for image analysis |
US11295430B2 (en) | 2020-05-20 | 2022-04-05 | Bank Of America Corporation | Image analysis architecture employing logical operations |
EP3961434A1 (en) * | 2020-08-27 | 2022-03-02 | Samsung Electronics Co., Ltd. | Method and apparatus for concept matching |
TW202223834A (zh) * | 2020-08-28 | 2022-06-16 | 加拿大商光譜優化股份有限公司 | 神經嵌入之攝影機影像視訊處理管道及神經網路訓練系統 |
WO2022088043A1 (zh) * | 2020-10-30 | 2022-05-05 | 京东方科技集团股份有限公司 | 图像识别方法及装置、训练方法、电子设备和存储介质 |
US11803421B2 (en) | 2021-02-09 | 2023-10-31 | International Business Machines Corporation | Monitoring health status of a large cloud computing system |
US20230048742A1 (en) * | 2021-08-10 | 2023-02-16 | Verizon Media Inc. | Search query generation based upon received text |
CN114782881B (zh) * | 2022-06-22 | 2022-09-02 | 青岛恒天翼信息科技有限公司 | Ai影像训练实现船舶识别的方法、系统和设备 |
DE102022121132A1 (de) | 2022-08-22 | 2024-02-22 | Dr. Ing. H.C. F. Porsche Aktiengesellschaft | Verfahren zur Entwicklung eines technischen Bauteils |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090177758A1 (en) * | 2008-01-04 | 2009-07-09 | Sling Media Inc. | Systems and methods for determining attributes of media items accessed via a personal media broadcaster |
US20110235902A1 (en) * | 2010-03-29 | 2011-09-29 | Ebay Inc. | Pre-computing digests for image similarity searching of image-based listings in a network-based publication system |
CN102395966A (zh) * | 2009-04-14 | 2012-03-28 | 高通股份有限公司 | 用于使用移动装置进行图像辨识的系统和方法 |
CN103003814A (zh) * | 2010-05-14 | 2013-03-27 | 数据逻辑Adc公司 | 使用大型数据库进行对象识别的系统及方法 |
WO2014205231A1 (en) * | 2013-06-19 | 2014-12-24 | The Regents Of The University Of Michigan | Deep learning framework for generic object detection |
CN104346370A (zh) * | 2013-07-31 | 2015-02-11 | 阿里巴巴集团控股有限公司 | 图像搜索、获取图像文本信息的方法及装置 |
US20160034514A1 (en) * | 2014-08-04 | 2016-02-04 | Regents Of The University Of Minnesota | Providing search results based on an identified user interest and relevance matching |
US9390315B1 (en) * | 2015-06-25 | 2016-07-12 | A9.Com, Inc. | Image match for featureless objects |
Family Cites Families (159)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS5752245Y2 (zh) | 1978-06-15 | 1982-11-13 | ||
US5579471A (en) | 1992-11-09 | 1996-11-26 | International Business Machines Corporation | Image query system and method |
US6363378B1 (en) | 1998-10-13 | 2002-03-26 | Oracle Corporation | Ranking of query feedback terms in an information retrieval system |
DE59907629D1 (de) | 1999-06-21 | 2003-12-11 | Grapha Holding Ag | Anordnung zum Zwischenlagern von Paketen |
US20090234712A1 (en) | 1999-06-28 | 2009-09-17 | Musicip Corporation | Method and apparatus for automated selection, organization, and recommendation of items based on user preference topography |
US7953671B2 (en) | 1999-08-31 | 2011-05-31 | American Express Travel Related Services Company, Inc. | Methods and apparatus for conducting electronic transactions |
US6901378B1 (en) | 2000-03-02 | 2005-05-31 | Corbis Corporation | Method and system for automatically displaying an image and a product in a page based on contextual interaction and metadata |
WO2001067225A2 (en) | 2000-03-06 | 2001-09-13 | Kanisa Inc. | A system and method for providing an intelligent multi-step dialog with a user |
US20020038299A1 (en) * | 2000-03-20 | 2002-03-28 | Uri Zernik | Interface for presenting information |
US6609005B1 (en) | 2000-03-28 | 2003-08-19 | Leap Wireless International, Inc. | System and method for displaying the location of a wireless communications device wiring a universal resource locator |
US6578022B1 (en) | 2000-04-18 | 2003-06-10 | Icplanet Corporation | Interactive intelligent searching with executable suggestions |
US20030217052A1 (en) | 2000-08-24 | 2003-11-20 | Celebros Ltd. | Search engine method and apparatus |
US7257537B2 (en) | 2001-01-12 | 2007-08-14 | International Business Machines Corporation | Method and apparatus for performing dialog management in a computer conversational interface |
US20030063779A1 (en) * | 2001-03-29 | 2003-04-03 | Jennifer Wrigley | System for visual preference determination and predictive product selection |
US7590642B2 (en) | 2002-05-10 | 2009-09-15 | Oracle International Corp. | Enhanced K-means clustering |
WO2004066201A2 (en) | 2003-01-16 | 2004-08-05 | Schrenk Robert A | Graphical internet search system and methods |
US20050225678A1 (en) * | 2004-04-08 | 2005-10-13 | Andrew Zisserman | Object retrieval |
KR100738069B1 (ko) | 2004-10-04 | 2007-07-10 | 삼성전자주식회사 | 디지털 사진 앨범의 카테고리 기반 클러스터링 방법 및시스템 |
US7657126B2 (en) | 2005-05-09 | 2010-02-02 | Like.Com | System and method for search portions of objects in images and features thereof |
US20080177640A1 (en) | 2005-05-09 | 2008-07-24 | Salih Burak Gokturk | System and method for using image analysis and search in e-commerce |
US7809722B2 (en) | 2005-05-09 | 2010-10-05 | Like.Com | System and method for enabling search and retrieval from image files based on recognized information |
US7660468B2 (en) | 2005-05-09 | 2010-02-09 | Like.Com | System and method for enabling image searching using manual enrichment, classification, and/or segmentation |
US8200687B2 (en) | 2005-06-20 | 2012-06-12 | Ebay Inc. | System to generate related search queries |
US7428516B2 (en) | 2005-06-23 | 2008-09-23 | Microsoft Corporation | Handwriting recognition using neural networks |
US9087049B2 (en) | 2005-10-26 | 2015-07-21 | Cortica, Ltd. | System and method for context translation of natural language |
US20070136140A1 (en) * | 2005-12-13 | 2007-06-14 | Microsoft Corporation | Provision of shopping information to mobile devices |
US8571932B2 (en) * | 2005-12-30 | 2013-10-29 | Google Inc. | Using search query information to determine relevant ads for a landing page of an ad |
US7813561B2 (en) * | 2006-08-14 | 2010-10-12 | Microsoft Corporation | Automatic classification of objects within images |
US8233702B2 (en) | 2006-08-18 | 2012-07-31 | Google Inc. | Computer implemented technique for analyzing images |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US7949191B1 (en) | 2007-04-04 | 2011-05-24 | A9.Com, Inc. | Method and system for searching for information on a network in response to an image query sent by a user from a mobile communications device |
US10320717B2 (en) | 2008-01-24 | 2019-06-11 | Ebay Inc. | System and method of using conversational agent to collect information and trigger actions |
JP2009193532A (ja) | 2008-02-18 | 2009-08-27 | Oki Electric Ind Co Ltd | 対話管理装置、方法及びプログラム、並びに意識抽出システム |
US20090216755A1 (en) | 2008-02-21 | 2009-08-27 | Einav Itamar | Indexing Method For Multimedia Feature Vectors Using Locality Sensitive Hashing |
US8160936B2 (en) | 2008-03-17 | 2012-04-17 | Kamruddin Imtiaz Ali | Patriotic American shopping network |
US8275803B2 (en) | 2008-05-14 | 2012-09-25 | International Business Machines Corporation | System and method for providing answers to questions |
US9734460B1 (en) | 2008-06-13 | 2017-08-15 | Google Inc. | Adjusting participation of content in a selection process |
US8504374B2 (en) | 2009-02-02 | 2013-08-06 | Jerry Lee Potter | Method for recognizing and interpreting patterns in noisy data sequences |
US8719249B2 (en) | 2009-05-12 | 2014-05-06 | Microsoft Corporation | Query classification |
US8341160B2 (en) * | 2009-07-23 | 2012-12-25 | Ebay Inc. | Methods and systems for a closet match search |
US9384214B2 (en) | 2009-07-31 | 2016-07-05 | Yahoo! Inc. | Image similarity from disparate sources |
US8245249B2 (en) | 2009-10-09 | 2012-08-14 | The Nielson Company (Us), Llc | Methods and apparatus to adjust signature matching results for audience measurement |
US9405841B2 (en) | 2009-10-15 | 2016-08-02 | A9.Com, Inc. | Dynamic search suggestion and category specific completion |
US8761512B1 (en) * | 2009-12-03 | 2014-06-24 | Google Inc. | Query by image |
US20120154633A1 (en) * | 2009-12-04 | 2012-06-21 | Rodriguez Tony F | Linked Data Methods and Systems |
US8775424B2 (en) * | 2010-01-26 | 2014-07-08 | Xerox Corporation | System for creative image navigation and exploration |
US20110191336A1 (en) * | 2010-01-29 | 2011-08-04 | Microsoft Corporation | Contextual image search |
US20110246330A1 (en) * | 2010-04-01 | 2011-10-06 | Anup Tikku | System and method for searching content |
US8433142B2 (en) * | 2010-04-05 | 2013-04-30 | The Nielsen Company (Us), Llc | Methods and apparatus to detect differences between images |
US8386495B1 (en) | 2010-04-23 | 2013-02-26 | Google Inc. | Augmented resource graph for scoring resources |
WO2012009832A1 (en) | 2010-07-23 | 2012-01-26 | Ebay Inc. | Instant messaging robot to provide product information |
US9043296B2 (en) * | 2010-07-30 | 2015-05-26 | Microsoft Technology Licensing, Llc | System of providing suggestions based on accessible and contextual information |
US9043232B1 (en) | 2010-08-09 | 2015-05-26 | Amazon Technologies, Inc. | Associating item images with item catalog data |
US8924314B2 (en) * | 2010-09-28 | 2014-12-30 | Ebay Inc. | Search result ranking using machine learning |
US20120084135A1 (en) | 2010-10-01 | 2012-04-05 | Smartslips Inc. | System and method for tracking transaction records in a network |
US8675957B2 (en) * | 2010-11-18 | 2014-03-18 | Ebay, Inc. | Image quality assessment to merchandise an item |
US9229956B2 (en) * | 2011-01-10 | 2016-01-05 | Microsoft Technology Licensing, Llc | Image retrieval using discriminative visual features |
US20120209751A1 (en) * | 2011-02-11 | 2012-08-16 | Fuji Xerox Co., Ltd. | Systems and methods of generating use-based product searching |
US9245056B2 (en) | 2011-02-23 | 2016-01-26 | Novell, Inc. | Structured relevance—a mechanism to reveal why data is related |
US20120232987A1 (en) | 2011-03-10 | 2012-09-13 | Everingham James R | Image-based search interface |
WO2012154216A1 (en) | 2011-05-06 | 2012-11-15 | Sti Medical Systems, Llc | Diagnosis support system providing guidance to a user by automated retrieval of similar cancer images with user feedback |
US8977629B2 (en) | 2011-05-24 | 2015-03-10 | Ebay Inc. | Image-based popularity prediction |
JP5752245B2 (ja) | 2011-05-26 | 2015-07-22 | 株式会社日立製作所 | 情報検索方法、情報検索装置及び記憶媒体 |
US8903198B2 (en) * | 2011-06-03 | 2014-12-02 | International Business Machines Corporation | Image ranking based on attribute correlation |
CA2847187A1 (en) | 2011-08-04 | 2013-02-07 | Krasimir POPOV | Searching for and creating an adaptive content |
GB201113633D0 (en) * | 2011-08-08 | 2011-09-21 | Vision Semantics Ltd | User-primed iterative discovery of object associations in distributed multi-source data |
JP5794036B2 (ja) | 2011-08-22 | 2015-10-14 | セイコーエプソン株式会社 | 画像検索装置、画像検索方法、およびプログラム |
US9495331B2 (en) | 2011-09-19 | 2016-11-15 | Personetics Technologies Ltd. | Advanced system and method for automated-context-aware-dialog with human users |
US9075825B2 (en) | 2011-09-26 | 2015-07-07 | The University Of Kansas | System and methods of integrating visual features with textual features for image searching |
US8737728B2 (en) | 2011-09-30 | 2014-05-27 | Ebay Inc. | Complementary item recommendations using image feature data |
KR20140093957A (ko) | 2011-11-24 | 2014-07-29 | 마이크로소프트 코포레이션 | 상호작용 멀티-모달 이미지 검색 기법 |
US8917910B2 (en) * | 2012-01-16 | 2014-12-23 | Xerox Corporation | Image segmentation based on approximation of segmentation similarity |
US8346563B1 (en) | 2012-04-10 | 2013-01-01 | Artificial Solutions Ltd. | System and methods for delivering advanced natural language interaction applications |
US9223537B2 (en) | 2012-04-18 | 2015-12-29 | Next It Corporation | Conversation user interface |
US9424233B2 (en) | 2012-07-20 | 2016-08-23 | Veveo, Inc. | Method of and system for inferring user intent in search input in a conversational interaction system |
US8756110B2 (en) | 2012-07-25 | 2014-06-17 | Traina Interactive Corp. | Methods of processing information and transactions involving digital content and/or experiences associated with celebrities and networked users |
US9465833B2 (en) | 2012-07-31 | 2016-10-11 | Veveo, Inc. | Disambiguating user intent in conversational interaction system for large corpus information retrieval |
US9390174B2 (en) | 2012-08-08 | 2016-07-12 | Google Inc. | Search result ranking and presentation |
JP5963609B2 (ja) | 2012-08-23 | 2016-08-03 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
US20160321305A9 (en) * | 2012-08-31 | 2016-11-03 | CKS Group, LLC | System and method for tracking items at an event |
US20140083963A1 (en) | 2012-09-27 | 2014-03-27 | Janet Wyner | Lawn Mower Storage Device with Stair Step Storage Area |
KR20140050217A (ko) | 2012-10-18 | 2014-04-29 | 에스케이플래닛 주식회사 | 키워드 연관 관계 시각화 제공 시스템 및 방법과, 이를 지원하는 장치 |
US9798799B2 (en) | 2012-11-15 | 2017-10-24 | Sri International | Vehicle personal assistant that interprets spoken natural language input based upon vehicle context |
US20140152847A1 (en) | 2012-12-03 | 2014-06-05 | Google Inc. | Product comparisons from in-store image and video captures |
US9025811B1 (en) | 2013-01-02 | 2015-05-05 | Google Inc. | Performing image similarity operations using semantic classification |
US20170270159A1 (en) | 2013-03-14 | 2017-09-21 | Google Inc. | Determining query results in response to natural language queries |
US9122681B2 (en) | 2013-03-15 | 2015-09-01 | Gordon Villy Cormack | Systems and methods for classifying electronic information using advanced active learning techniques |
US9153231B1 (en) | 2013-03-15 | 2015-10-06 | Amazon Technologies, Inc. | Adaptive neural network speech recognition models |
US9336277B2 (en) | 2013-05-31 | 2016-05-10 | Google Inc. | Query suggestions based on search data |
CN104346622A (zh) | 2013-07-31 | 2015-02-11 | 富士通株式会社 | 卷积神经网络分类器及其分类方法和训练方法 |
US9594983B2 (en) * | 2013-08-02 | 2017-03-14 | Digimarc Corporation | Learning systems and methods |
ES2530687B1 (es) * | 2013-09-04 | 2016-08-19 | Shot & Shop. S.L. | Método implementado por ordenador para recuperación de imágenes por contenido y programa de ordenador del mismo |
US9519859B2 (en) | 2013-09-06 | 2016-12-13 | Microsoft Technology Licensing, Llc | Deep structured semantic model produced using click-through data |
US10489842B2 (en) | 2013-09-30 | 2019-11-26 | Ebay Inc. | Large-scale recommendations for a dynamic inventory |
US9792301B2 (en) | 2014-09-26 | 2017-10-17 | Conduent Business Services, Llc | Multi-query privacy-preserving parking management system and method |
CN103559504B (zh) | 2013-11-04 | 2016-08-31 | 北京京东尚科信息技术有限公司 | 图像目标类别识别方法及装置 |
US10482139B2 (en) | 2013-11-05 | 2019-11-19 | Google Llc | Structured user graph to support querying and predictions |
US9189742B2 (en) | 2013-11-20 | 2015-11-17 | Justin London | Adaptive virtual intelligent agent |
US20150142804A1 (en) | 2013-11-21 | 2015-05-21 | Here Global B.V. | Methods, apparatuses and computer program products for utilizing subtyping to support evolution of data types |
US9129191B2 (en) | 2013-12-16 | 2015-09-08 | Adobe Systems Incorporated | Semantic object selection |
US9524449B2 (en) | 2013-12-16 | 2016-12-20 | Adobe Systems Incorporated | Generation of visual pattern classes for visual pattern recognition |
PL3066591T3 (pl) * | 2014-02-10 | 2020-04-30 | Geenee Gmbh | Systemy i sposoby rozpoznawania oparte na obrazie |
US9477782B2 (en) | 2014-03-21 | 2016-10-25 | Microsoft Corporation | User interface mechanisms for query refinement |
US9384422B2 (en) | 2014-04-04 | 2016-07-05 | Ebay Inc. | Image evaluation |
US9830631B1 (en) | 2014-05-02 | 2017-11-28 | A9.Com, Inc. | Image recognition result culling |
CA2948922C (en) | 2014-05-16 | 2023-05-09 | Nextwave Software Inc. | Method and system for conducting ecommerce transactions in messaging via search, discussion and agent prediction |
US10726831B2 (en) | 2014-05-20 | 2020-07-28 | Amazon Technologies, Inc. | Context interpretation in natural language processing using previous dialog acts |
US20150363660A1 (en) | 2014-06-12 | 2015-12-17 | Asap54.Com Ltd | System for automated segmentation of images through layout classification |
KR101761999B1 (ko) | 2014-06-12 | 2017-07-28 | 경희대학교 산학협력단 | 관계 유형을 고려한 코칭 방법 및 시스템 |
US10290125B2 (en) | 2014-07-02 | 2019-05-14 | Microsoft Technology Licensing, Llc | Constructing a graph that facilitates provision of exploratory suggestions |
US9826133B2 (en) | 2014-07-23 | 2017-11-21 | Orcam Technologies Ltd. | Wearable apparatus with wide viewing angle image sensor |
US9740963B2 (en) | 2014-08-05 | 2017-08-22 | Sri International | Multi-dimensional realization of visual content of an image collection |
US9558268B2 (en) | 2014-08-20 | 2017-01-31 | Mitsubishi Electric Research Laboratories, Inc. | Method for semantically labeling an image of a scene using recursive context propagation |
US20160071182A1 (en) | 2014-09-10 | 2016-03-10 | Microsoft Corporation | Multimedia recommendation based on artist similarity |
US20160092556A1 (en) * | 2014-09-30 | 2016-03-31 | Apple Inc. | Generation of data for a dendrogrammatic tree data structure |
US10540347B2 (en) | 2014-10-27 | 2020-01-21 | Nuance Communications, Inc. | Contextual search disambiguation |
US10387773B2 (en) | 2014-10-27 | 2019-08-20 | Ebay Inc. | Hierarchical deep convolutional neural network for image classification |
US9569700B1 (en) | 2014-12-17 | 2017-02-14 | Amazon Technologies, Inc. | Identification of item attributes using artificial intelligence |
US9858484B2 (en) | 2014-12-30 | 2018-01-02 | Facebook, Inc. | Systems and methods for determining video feature descriptors based on convolutional neural networks |
US20160189034A1 (en) | 2014-12-30 | 2016-06-30 | Cirrus Shakeri | Computer automated learning management systems and methods |
US20160217157A1 (en) | 2015-01-23 | 2016-07-28 | Ebay Inc. | Recognition of items depicted in images |
US9922271B2 (en) | 2015-03-20 | 2018-03-20 | Netra, Inc. | Object detection and classification |
CN115795147A (zh) * | 2015-05-20 | 2023-03-14 | 电子湾有限公司 | 用于进行搜索的方法和系统 |
US20160350336A1 (en) | 2015-05-31 | 2016-12-01 | Allyke, Inc. | Automated image searching, exploration and discovery |
KR20160144665A (ko) | 2015-06-09 | 2016-12-19 | 에스케이플래닛 주식회사 | 객체 인식 및 데이터베이스 매칭 결과를 표시하는 사용자 장치, 그의 제어 방법 및 컴퓨터 프로그램이 기록된 기록매체 |
FR3037691B1 (fr) | 2015-06-16 | 2018-04-20 | Solystic | Appariement d'images d'articles postaux avec des descripteurs de singularites du champ de gradient |
US10586156B2 (en) | 2015-06-25 | 2020-03-10 | International Business Machines Corporation | Knowledge canvassing using a knowledge graph and a question and answer system |
CN108431829A (zh) | 2015-08-03 | 2018-08-21 | 奥兰德股份公司 | 用于在目录中搜索产品的系统和方法 |
US20170060867A1 (en) * | 2015-08-31 | 2017-03-02 | Adfamilies Publicidade, SA | Video and image match searching |
US10157333B1 (en) | 2015-09-15 | 2018-12-18 | Snap Inc. | Systems and methods for content tagging |
US10664757B2 (en) | 2015-09-16 | 2020-05-26 | International Business Machines Corporation | Cognitive operations based on empirically constructed knowledge graphs |
US20170083963A1 (en) | 2015-09-18 | 2017-03-23 | Rovi Guides, Inc. | Methods and systems for providing gift recommendations |
US10387915B2 (en) * | 2015-10-29 | 2019-08-20 | Flipboard, Inc. | Digital magazine recommendations by topic |
US20170124618A1 (en) * | 2015-10-30 | 2017-05-04 | DirectBuy, Inc. | Methods and Systems for Image-Based Searching of Product Inventory |
US20170193074A1 (en) | 2015-12-30 | 2017-07-06 | Yahoo! Inc. | Finding Related Articles for a Content Stream Using Iterative Merge-Split Clusters |
US11113714B2 (en) | 2015-12-30 | 2021-09-07 | Verizon Media Inc. | Filtering machine for sponsored content |
US10417346B2 (en) | 2016-01-23 | 2019-09-17 | Microsoft Technology Licensing, Llc | Tool for facilitating the development of new language understanding scenarios |
US9424494B1 (en) | 2016-01-28 | 2016-08-23 | International Business Machines Corporation | Pure convolutional neural network localization |
US20170262583A1 (en) * | 2016-03-11 | 2017-09-14 | International Business Machines Corporation | Image processing and text analysis to determine medical condition |
US10489410B2 (en) | 2016-04-18 | 2019-11-26 | Google Llc | Mapping images to search queries |
US20170344711A1 (en) | 2016-05-31 | 2017-11-30 | Baidu Usa Llc | System and method for processing medical queries using automatic question and answering diagnosis system |
US10762548B1 (en) | 2016-06-14 | 2020-09-01 | Salesforce.Com, Inc. | Digital data processing methods and apparatus for personalized user interface generation through personalized sorting |
US10402643B2 (en) * | 2016-06-15 | 2019-09-03 | Google Llc | Object rejection system and method |
US20170372398A1 (en) * | 2016-06-24 | 2017-12-28 | Ebay Inc. | Vector representation of descriptions and queries |
US10133958B2 (en) * | 2016-08-16 | 2018-11-20 | Ebay Inc. | Determining an item that has confirmed characteristics |
US20180052842A1 (en) | 2016-08-16 | 2018-02-22 | Ebay Inc. | Intelligent online personal assistant with natural language understanding |
US20180052913A1 (en) | 2016-08-16 | 2018-02-22 | Ebay Inc. | Selecting next user prompt types in an intelligent online personal assistant multi-turn dialog |
US20180052885A1 (en) | 2016-08-16 | 2018-02-22 | Ebay Inc. | Generating next user prompts in an intelligent online personal assistant multi-turn dialog |
US20180052884A1 (en) | 2016-08-16 | 2018-02-22 | Ebay Inc. | Knowledge graph construction for intelligent online personal assistant |
US10512937B2 (en) | 2016-09-14 | 2019-12-24 | Nidec Seimitsu Corporation | Vibration motor |
US20180081880A1 (en) * | 2016-09-16 | 2018-03-22 | Alcatel-Lucent Canada Inc. | Method And Apparatus For Ranking Electronic Information By Similarity Association |
US20180107682A1 (en) | 2016-10-16 | 2018-04-19 | Ebay Inc. | Category prediction from semantic image clustering |
US11004131B2 (en) | 2016-10-16 | 2021-05-11 | Ebay Inc. | Intelligent online personal assistant with multi-turn dialog based on visual search |
US11748978B2 (en) * | 2016-10-16 | 2023-09-05 | Ebay Inc. | Intelligent online personal assistant with offline visual search database |
US10860898B2 (en) | 2016-10-16 | 2020-12-08 | Ebay Inc. | Image analysis and prediction based visual search |
US11392598B2 (en) * | 2016-10-19 | 2022-07-19 | Ebay Inc. | Applying a quantitative range for qualitative terms |
US10970768B2 (en) | 2016-11-11 | 2021-04-06 | Ebay Inc. | Method, medium, and system for image text localization and comparison |
US10503775B1 (en) | 2016-12-28 | 2019-12-10 | Shutterstock, Inc. | Composition aware image querying |
US10521691B2 (en) | 2017-03-31 | 2019-12-31 | Ebay Inc. | Saliency-based object counting and localization |
-
2016
- 2016-10-16 US US15/294,773 patent/US10860898B2/en active Active
-
2017
- 2017-10-13 CN CN201780063709.8A patent/CN109844767B/zh active Active
- 2017-10-13 JP JP2019520457A patent/JP6867479B2/ja active Active
- 2017-10-13 CN CN202310694315.XA patent/CN116863129A/zh active Pending
- 2017-10-13 WO PCT/US2017/056532 patent/WO2018071779A1/en active Application Filing
- 2017-10-13 EP EP17860463.3A patent/EP3526678A4/en not_active Ceased
- 2017-10-13 KR KR1020197013953A patent/KR102241923B1/ko active IP Right Grant
-
2020
- 2020-11-06 US US17/091,851 patent/US11604951B2/en active Active
-
2021
- 2021-04-08 JP JP2021065950A patent/JP2021108188A/ja active Pending
-
2022
- 2022-09-21 US US17/949,953 patent/US11914636B2/en active Active
-
2023
- 2023-07-31 US US18/228,328 patent/US20240004920A1/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090177758A1 (en) * | 2008-01-04 | 2009-07-09 | Sling Media Inc. | Systems and methods for determining attributes of media items accessed via a personal media broadcaster |
CN102395966A (zh) * | 2009-04-14 | 2012-03-28 | 高通股份有限公司 | 用于使用移动装置进行图像辨识的系统和方法 |
US20110235902A1 (en) * | 2010-03-29 | 2011-09-29 | Ebay Inc. | Pre-computing digests for image similarity searching of image-based listings in a network-based publication system |
CN103003814A (zh) * | 2010-05-14 | 2013-03-27 | 数据逻辑Adc公司 | 使用大型数据库进行对象识别的系统及方法 |
WO2014205231A1 (en) * | 2013-06-19 | 2014-12-24 | The Regents Of The University Of Michigan | Deep learning framework for generic object detection |
CN104346370A (zh) * | 2013-07-31 | 2015-02-11 | 阿里巴巴集团控股有限公司 | 图像搜索、获取图像文本信息的方法及装置 |
US20160034514A1 (en) * | 2014-08-04 | 2016-02-04 | Regents Of The University Of Minnesota | Providing search results based on an identified user interest and relevance matching |
US9390315B1 (en) * | 2015-06-25 | 2016-07-12 | A9.Com, Inc. | Image match for featureless objects |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111931854A (zh) * | 2020-08-12 | 2020-11-13 | 北京建筑大学 | 一种提高图像识别模型可移植性能的方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109844767B (zh) | 2023-07-11 |
US11914636B2 (en) | 2024-02-27 |
JP6867479B2 (ja) | 2021-04-28 |
US20180107902A1 (en) | 2018-04-19 |
WO2018071779A1 (en) | 2018-04-19 |
US20210166086A1 (en) | 2021-06-03 |
KR102241923B1 (ko) | 2021-04-19 |
EP3526678A1 (en) | 2019-08-21 |
CN116863129A (zh) | 2023-10-10 |
US10860898B2 (en) | 2020-12-08 |
US11604951B2 (en) | 2023-03-14 |
US20230018383A1 (en) | 2023-01-19 |
EP3526678A4 (en) | 2019-08-21 |
JP2019537120A (ja) | 2019-12-19 |
US20240004920A1 (en) | 2024-01-04 |
JP2021108188A (ja) | 2021-07-29 |
KR20190067870A (ko) | 2019-06-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109844767A (zh) | 基于图像分析和预测的可视化搜索 | |
US11423636B2 (en) | Saliency-based object counting and localization | |
CN110073347A (zh) | 锚定搜索 | |
US11775844B2 (en) | Visual aspect localization presentation | |
CN108701118B (zh) | 语义类别分类 | |
US11704926B2 (en) | Parallel prediction of multiple image aspects | |
US20180107682A1 (en) | Category prediction from semantic image clustering | |
CN109716334A (zh) | 选择下一用户提示类型 | |
CN110692048A (zh) | 会话中任务改变的检测 | |
US10606873B2 (en) | Search index trimming | |
US20180053233A1 (en) | Expandable service architecture with configurable orchestrator | |
CN110175297A (zh) | 馈送中的个性化的每成员模型 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |