CN108491555B - 显示装置及其显示方法、计算机可读存储介质 - Google Patents
显示装置及其显示方法、计算机可读存储介质 Download PDFInfo
- Publication number
- CN108491555B CN108491555B CN201810350488.9A CN201810350488A CN108491555B CN 108491555 B CN108491555 B CN 108491555B CN 201810350488 A CN201810350488 A CN 201810350488A CN 108491555 B CN108491555 B CN 108491555B
- Authority
- CN
- China
- Prior art keywords
- display
- display device
- category
- environment
- pictures
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/809—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/24323—Tree-organised classifiers
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本公开涉及一种显示装置及其显示方法、计算机可读存储介质。显示装置包括:图像传感器,被配置为感测所述显示装置所处环境的图像,作为环境图像;处理器,被配置为获取所述环境图像,识别所述环境图像的类别,并从图片库中确定与所述类别匹配的一个或多个图片;和显示器,被配置为显示所述一个或多个图片。
Description
技术领域
本公开涉及智能系统领域,特别涉及一种显示装置及其显示方法、计算机可读存储介质。
背景技术
随着图像处理技术和显示技术的发展,作为画作等艺术作品的显示装置,电子画框受到了越来越多的关注。
相关技术的电子画框根据用户的浏览历史推荐相应的画作。
发明内容
发明人发现:相关技术的电子画框在推荐画作时并未考虑其所处的环境,因此推荐的画作常常与其所处的环境不匹配。
为此,本公开提出一种环境自适应的技术方案,能够根据显示装置所在的环境推荐匹配的作品,并且以例如图片的形式显示。
根据本公开实施例的第一方面,提供了一种显示装置,包括:图像传感器,被配置为感测所述显示装置所处环境的环境图像;处理器,被配置为获取所述环境图像,识别所述环境图像的类别,并从图片库中确定与所述类别匹配的一个或多个图片;和显示器,被配置为显示所述一个或多个图片。
可选地,所述类别包括所述环境的装修风格、装修色调、家具类型中的至少一种。
可选地,所述处理器被配置为利用基于深度学习的图像识别模型来识别所述环境图像的类别。
可选地,所述处理器被配置为利用决策树模型来确定与所述类别匹配的一个或多个图片。
可选地,所述处理器被配置为根据所述类别的优先级来确定与所述类别匹配的一个或多个图片,所述类别的优先级排序为装修风格>装修色调>家具类型。
可选地,所述显示器还被配置为显示所述一个或多个图片的列表。
可选地,所述显示装置包括电子画框。
根据本公开实施例的第二方面,提供了一种显示方法,包括:获取显示装置所处环境的环境图像;识别所述环境图像的类别;从图片库中确定与所述类别匹配的一个或多个图片;和使所述显示装置显示所述一个或多个图片。
可选地,所述类别包括所述环境的装修风格、装修色调、家具类型中的至少一种。
可选地,利用基于深度学习的图像识别模型来识别所述环境图像的类别。
可选地,利用决策树模型来确定与所述类别匹配的一个或多个图片。
可选地,根据所述类别的优先级来确定与所述类别匹配的一个或多个图片,所述类别的优先级排序为装修风格>装修色调>家具类型。
根据本公开实施例的第三方面,提供了一种显示装置,包括:存储器;和耦接至所述存储器的处理器,所述处理器被配置为基于存储在所述存储器中的指令,执行如前述任一实施例所述的显示方法。
根据本公开实施例的第四方面,提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如前述任一实施例所述的显示方法。
在上述实施例中,根据显示装置所在的环境显示匹配的作品,从而显示的作品与环境更协调。
通过以下参照附图对本公开的示例性实施例的详细描述,本公开的其它特征及其优点将会变得清楚。
附图说明
构成说明书的一部分的附图描述了本公开的实施例,并且连同说明书一起用于解释本公开的原理。
参照附图,根据下面的详细描述,可以更加清楚地理解本公开,其中:
图1是示意性地示出根据本公开一些实施例的显示装置的框图;
图2是示意性地示出根据本公开一些实施例的VGG网络的示意图;
图3是示意性地示出根据本公开一些实施例的决策过程的示意图;
图4是示意性地示出根据本公开一些实施例的显示方法的流程图;
图5是示意性地示出根据本公开另一些实施例的显示装置的框图;
图6是示意性地示出根据本公开又一些实施例的显示装置的框图。
应当明白,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。此外,相同或类似的参考标号表示相同或类似的构件。
具体实施方式
现在将参照附图来详细描述本公开的各种示例性实施例。对示例性实施例的描述仅仅是说明性的,决不作为对本公开及其应用或使用的任何限制。本公开可以以许多不同的形式实现,不限于这里所述的实施例。提供这些实施例是为了使本公开透彻且完整,并且向本领域技术人员充分表达本公开的范围。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置和数值应被解释为仅仅是示例性的,而不是作为限制。
本公开中使用的“包括”或者“包含”等类似的词语意指在该词前的要素涵盖在该词后列举的要素,并不排除也涵盖其他要素的可能。
本公开使用的所有术语(包括技术术语或者科学术语)与本公开所属领域的普通技术人员理解的含义相同,除非另外特别定义。还应当理解,在诸如通用字典中定义的术语应当被解释为具有与它们在相关技术的上下文中的含义相一致的含义,而不应用理想化或极度形式化的意义来解释,除非这里明确地这样定义。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
图1是示意性地示出根据本公开一些实施例的显示装置的框图。
如图1所示,显示装置10包括图像传感器110、处理器120和显示器130。
图像传感器110被配置为感测显示装置所处环境的环境图像。在一些实施例中,图像传感器是搭载在显示装置上的摄像头,例如广角摄像头或可旋转摄像头等,能够从各个角度获取所处环境的环境图像。通过这样的摄像头获得的环境图像能够更充分地反映显示装置所处环境的特征。
处理器120被配置为从图像传感器110获取环境图像,识别环境图像的类别,并从图片库中确定与该类别匹配的一个或多个图片。
在一些实施例中,处理器120被配置为利用基于深度学习的图像识别模型来识别环境图像的类别。图像识别模型可以预先训练。例如可以选择基于caffe(卷积神经网络框架,Convolutional Architecture for Fast Feature Embedding)的VGG网络来实现图像识别模型的训练。当然,也可以使用其他图像识别模型,例如ResNetin、GoogLeNet等。
图2示出根据本公开一些实施例的VGG网络的示意图。
如图2所示,VGG网络包括卷积层(Conv)、激励层(Relu)、池化层(pool)、全连接层(Fc)、丢弃层(drop)和输出层(Soft-max)。
作为示例,如图2所示,VGG网络可以包括5个卷积层(即,
Conv1、Conv2、Conv3、Conv4、Conv5)、2个全连接层(即,Fc6、Fc7)和输出层(即,Soft-max)。每一个卷积层又分为两个子层,例如Conv1包括Conv1_1和Conv1_2。
每一个卷积层相当于图像处理中的一个滤波器,用于提取一类图像特征,例如边缘、颜色等等。利用卷积层可以提取图像中最基础的特征。全连接层用于把卷积层所提取的特征综合起来。输出层用于根据全连接层的输出,对输入图像进行类别的概率预测。
如图2所示,每一卷积层和全连接层之后都跟着一个激励层,用于对卷积层或全连接层的输出结果做非线性映射。例如卷积层Conv1_1之后跟着激励层Relu1_1,全连接层Fc6之后跟着激励层Relu6。在全连接层的激励层之后还跟着一个丢弃层,用于在训练时随机丢弃部分节点的数据,以防止模型过拟合。例如激励层Relu6跟着丢弃层drop6。
从图2还可以看出,在卷积层之间、卷积层与全连接层之间、以及全连接层与输出层之间还分别包括一个池化层,用于压缩数据量并且防止模型过拟合。例如,卷积层Conv1与Conv2之间具有池化层pool1,卷积层Conv5与全连接层Fc6之间具有池化层pool5,全连接层Fc7与输出层Soft-max之间具有池化层pool6。
针对环境图像的不同类别,可以选择对应的输入图像进行识别模型的训练。例如,环境图像的类别可以包括环境的装修风格、装修色调、家具类型中的至少一种。对此,可以采集大量相应的环境图像,分别反映不同的装修风格、装修色调和家具类型,以便输入到识别模型中用于学习。
另外,为了提高学习效率,可以采用监督式学习。即,对每个输入图像分别按照装修风格、装修色调、家具类型进行类别标注,并将输出层预测的类别与标注的类别进行比较,并将比较的结果反馈给识别模型。在反馈的帮助下,可以训练识别模型更快且更准确地识别出输入图像的类别。下面的表1示出不同类别的环境图像的一些示例。
表1:不同类别环境图像的一些示例
这里,类别标注可以根据需要采用不同的方式。例如,不同的类别可以用不同的标签进行标注。下面示出对N个输入图像Image1-ImageN进行类别标注的一些示例:
Image1.label 1
Image2.label 2 6
Image3.label 7
Image4.label 3 7 9
Image4.label 10
…
ImageN.label m
其中,label 1-label m分别表示不同的类别标签,m为类别标签的种类数。例如,装修风格可以用标签label 1-label 5分别标注中式、美式、欧式、日式装修风格,装修色调可以用标签label 6-label 7分别标注冷、暖色调,家具类型可以用标签label 8-label 10分别标注餐厅家具、起居室家具、客厅家具。
在上述示例中,有些输入图像采用单标签标注,还有些图像采用多标签批注。对于一个输入图像,可以仅标注装修风格、装修色调和家具类型中的任一种,例如Image1.label1、Image3.label 7和Image4.label 10分别标注了中式装修风格、暖色调和客厅家具。也可以既标注装修风格又标注装修色调,例如Image2.label 2 6标注了美式装修风格和冷色调。输入图像中具有家具的,还可以标注家具类型,例如Image4.label 3 7 9标注了欧式装修风格、暖色调和起居室家具。
在一些实施例中,考虑到不同家具可能对应同一空间环境,例如餐桌、餐椅等都对应餐厅,对于输入图像中包括同一类家具的情形,还可以采用子标签来进一步标注不同的家具。例如,餐桌、餐椅在采用标签label 10表示都为餐厅家具的同时,还可以进一步采用子标签a、b来表示不同家具。
上述标注的图像不仅可以用于图像识别模型的训练,还可以用于决策模型的构建和训练。
图3示出根据本公开一些实施例的决策过程的示意图。
下面以环境图像的类别包括装修风格、装修色调、家具类型为例,描述怎样进行决策。首先,可以将标注的输入图像按照装修风格、装修色调、家具类型分成3个图像集,即图像集1、图像集2、图像集3。其次,可以针对每个图像集分别训练一个分类器。最后,决策模块根据这些分类器投票表决的结果进行决策。
装修风格主要帮助决策例如中式水墨画与中式的装修风格更加匹配,与环境更协调。装修色调主要帮助决策作品的色调与环境的色调是否匹配。家具类型主要帮助判断显示装置所处的空间,如客厅、起居室等,以便决策在不同的空间显示不同类型的作品。
在一些实施例中,决策模块可以选择决策树模型,即,可以利用决策树模型来确定与所识别的环境图像的类别相匹配的图片。
在决策树模型的构建阶段,首先,可以根据装修风格、装修色调、家具类型的类别标注,以及匹配图片的选择设置,构建训练数据集DB;然后,可以根据训练数据集构建决策树模型。由此,可以建立类别与训练数据集之间的映射,即,Class=DecisonTree(DB)。
在决策阶段,可以从决策树的根节点开始,按照不同类别逐层向下划分,直到叶子节点,从而获得决策结果。由此,可以建立匹配图片与环境图像的类别之间的映射,即Y=DecisonTree(x),其中,x为根据3个分类器所确定的环境图像的类别,Y为与所确定的类别相匹配的图片。
在一些实施例中,利用决策树进行决策时不同类别可以具有不同的优先级。即,可以根据不同类别的优先级来确定与所确定的类别匹配的图片。例如,不同类别的优先级排序可以为装修风格>装修色调>家具类型。
在这种情况下,利用决策树进行决策的过程可以包括如下步骤:首先,判断环境图像属于哪种装修风格,例如是中式还是美式;其次,判断属于哪种装修色调,例如是冷色调还是暖色调;然后,判断环境中的家具属于哪种家具类型,例如是沙发、茶几等对应客厅的家具类型,还是床、床头柜等对应起居室的家具类型。
经过上述一系列的判断之后,可以确定与环境相匹配的图片。例如,对于美式风格、暖色调,家具类型有沙发、茶几等的环境,可以将现代风景油画等作品确定为匹配的图片。根据这样的优先级来确定匹配的图片,可以使得决策更高效且结果更准确。
显示器130被配置为显示与环境相匹配的图片,匹配的图片可以是一个或多个。显示器130可以随机显示匹配的图片中的任一个。显示器130也可以按一定时间间隔依次显示多个匹配的图片。显示器130还可以显示匹配的图片的列表,供用户选择显示哪些图片。这样的显示可以兼顾环境的协调和用户的需求。
在一些实施例中,显示装置为电子画框。当使用电子画框时,通过画框携带的摄像头可以获取所在环境的环境图像。基于训练好的图像识别模型,可以根据环境图像确定所处环境的装修风格、装修色调、家具类型等类别。基于训练好的决策模型,又可以根据所确定的类别推荐与环境匹配的画作。显示这样推荐的画作,电子画框作为家庭装饰的一部分,与环境更加协调。
图4示意性地示出根据本公开一些实施例的显示方法的流程图。
如图4所示,显示方法包括步骤S1-S4。
在步骤S1,获取显示装置所处环境的环境图像。环境图像可以通过图像传感器来感测。如前所述,可以通过例如搭载在显示装置上的广角摄像头来从各个角度获取所处环境的环境图像,以便更充分地反映显示装置所处环境的特征。
在步骤S2,识别环境图像的类别。在一些实施例中,利用基于深度学习的图像识别模型来识别环境图像的类别。如前所述,图像识别模型可以选择例如VGG网络预先训练,并且针对环境图像的不同类别,可以选择对应的输入图像进行识别模型的训练。
例如,环境图像的类别可以包括装修风格、装修色调、家具类型等。对此,可以采集大量相应的环境图像,分别反映不同的装修风格、装修色调和家具类型,以便输入到识别模型中用于学习。
利用这样的图像识别模型可以准确地识别出环境图像的类别,例如属于哪种装修风格,哪种装修色调,环境中的家具属于哪种家具类型。
在步骤S3,从图片库中确定与环境图像的类别相匹配的一个或多个图片。如前所述,可以利用决策树模型来确定与环境图像的类别相匹配的图片。
在一些实施例中,利用决策树进行决策时不同类别的优先级不同。例如,在优先级排序为装修风格>装修色调>家具类型的情况下,决策时先判断环境图像属于哪种装修风格,再判断属于哪种装修色调,最后判断环境中的家具属于哪种家具类型。
基于决策树的一系列的判断结果,可以确定与环境相匹配的图片。例如,对于中式风格、冷色调,家具类型有床、床头柜等的环境,可以将中式水墨画等作品确定为匹配的图片。
在步骤S4,使显示装置显示与环境相匹配的图片,即,在步骤S3确定的一个或多个图片。如前所述,可以随机显示匹配的图片中的任一个。也可以按一定时间间隔依次显示多个匹配的图片。还可以显示匹配的图片的列表,即,向用户推荐一些匹配的图片,以便用户选择显示哪个图片。
在上述实施例中,根据显示装置所在的环境显示匹配的作品,从而显示的作品与环境更协调。
本领域内的技术人员应当明白,可以许多方式来实现本公开的方法和装置。例如,可通过软件、硬件、固件或者软件、硬件、固件的任何组合来实现本公开的方法和装置。
图5是示意性地示出根据本公开另一些实施例的显示装置的框图。
如图5所示,显示装置50包括存储器510和处理器520。存储器510例如可以包括磁盘、闪存或其它任何非易失性存储介质。存储器510用于存储显示方法的对应实施例中的指令。处理器520耦接至存储器510,可以作为一个或多个集成电路来实施,例如微处理器或微控制器。处理器520用于执行存储器510中存储的指令,执行前述任一实施例的显示方法。
图6是示意性地示出根据本公开又一些实施例的显示装置的框图。
如图6所示,在显示装置60中,处理器620通过BUS总线630耦接至存储器610。显示装置60还可以通过存储接口660连接至外部存储装置650以便调用外部数据,还可以通过网络接口660连接至网络或者另外一台计算机系统(未标出)。此处不再进行详细介绍。
在一些实施例中,通过存储器610存储数据指令,再通过处理器620处理上述指令,能够实现前述任一实施例的显示方法。
此外,在一些实施例中,本公开还可采用在一个或多个其中包含有计算机可用程序代码的计算机可用非瞬时性存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。记录在记录介质中的计算机程序包括用于实现根据本公开的方法的机器可读指令,被处理器执行时实现如前述任一实施例所述的显示方法。
至此,已经详细描述了根据本公开的显示装置及其显示方法、计算机可读存储介质。为了避免遮蔽本公开的构思,没有描述本领域所公知的一些细节。本领域技术人员根据上面的描述,完全可以明白如何实施这里公开的技术方案。
虽然已经通过示例对本公开的一些特定实施例进行了详细说明,但是本领域的技术人员应该理解,以上示例仅是为了进行说明,而不是为了限制本公开的范围。本领域的技术人员应该理解,可在不脱离本公开的范围和精神的情况下,对以上实施例进行修改或者对部分技术特征进行等同替换。本公开的范围由所附权利要求来限定。
Claims (12)
1.一种显示装置,包括:
图像传感器,被配置为感测所述显示装置所处环境的环境图像;
处理器,被配置为获取所述环境图像,识别所述环境图像的类别,并利用决策树模型从图片库中确定与所述类别匹配的一个或多个图片,所述类别包括所述环境的装修风格、装修色调和家具类型;和
显示器,被配置为显示所述一个或多个图片,
其中,所述处理器还被配置为:
根据装修风格、装修色调、家具类型的类别标注,以及匹配图片的选择设置,构建训练数据集;
根据训练数据集构建决策树模型,以建立类别与训练数据集之间的映射。
2.根据权利要求1所述的显示装置,其中,所述处理器被配置为:
按照装修风格、装修色调、家具类型的类别标注,将标注的输入图像分成三个训练数据集;
针对每个训练数据集分别训练一个分类器;
根据分类器投票表决的结果进行决策。
3.根据权利要求2所述的显示装置,其中,所述处理器被配置为从决策树模型的根节点开始,按照不同类别逐层向下划分,直到叶子节点,从而获得决策结果。
4.根据权利要求3所述的显示装置,其中,所述处理器被配置为根据所述类别的优先级来确定与所述类别匹配的一个或多个图片,所述类别的优先级排序为装修风格>装修色调>家具类型。
5.根据权利要求1所述的显示装置,其中,所述显示器还被配置为显示所述一个或多个图片的列表。
6.根据权利要求1至5中任一项所述的显示装置,其中,所述显示装置包括电子画框。
7.一种显示方法,包括:
获取显示装置所处环境的环境图像;
识别所述环境图像的类别,所述类别包括所述环境的装修风格、装修色调和家具类型;
利用决策树模型从图片库中确定与所述类别匹配的一个或多个图片;和
使所述显示装置显示所述一个或多个图片,
其中,所述显示方法还包括:
根据装修风格、装修色调、家具类型的类别标注,以及匹配图片的选择设置,构建训练数据集;
根据训练数据集构建决策树模型,以建立类别与训练数据集之间的映射。
8.根据权利要求7所述的显示方法,其中:
按照装修风格、装修色调、家具类型的类别标注,将标注的输入图像分成三个训练数据集;
针对每个训练数据集分别训练一个分类器;
根据分类器投票表决的结果进行决策。
9.根据权利要求8所述的显示方法,其中,根据分类器投票表决的结果进行决策包括:从决策树模型的根节点开始,按照不同类别逐层向下划分,直到叶子节点,从而获得决策结果。
10.根据权利要求9所述的显示方法,其中,根据所述类别的优先级来确定与所述类别匹配的一个或多个图片,所述类别的优先级排序为装修风格>装修色调>家具类型。
11.一种显示装置,包括:
存储器;和
耦接至所述存储器的处理器,所述处理器被配置为基于存储在所述存储器中的指令,执行如7-10中任一项所述的显示方法。
12.一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如7-10中任一项所述的显示方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810350488.9A CN108491555B (zh) | 2018-04-18 | 2018-04-18 | 显示装置及其显示方法、计算机可读存储介质 |
US16/204,193 US10990800B2 (en) | 2018-04-18 | 2018-11-29 | Display device and display method thereof, electronic picture frame computer readable storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810350488.9A CN108491555B (zh) | 2018-04-18 | 2018-04-18 | 显示装置及其显示方法、计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108491555A CN108491555A (zh) | 2018-09-04 |
CN108491555B true CN108491555B (zh) | 2021-08-27 |
Family
ID=63313590
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810350488.9A Active CN108491555B (zh) | 2018-04-18 | 2018-04-18 | 显示装置及其显示方法、计算机可读存储介质 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10990800B2 (zh) |
CN (1) | CN108491555B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111078917A (zh) * | 2019-11-14 | 2020-04-28 | 珠海格力电器股份有限公司 | 一种智能推送图画的控制方法、显示装置及家电 |
CN112685581B (zh) * | 2021-03-17 | 2021-08-31 | 深圳市火乐科技发展有限公司 | 投影内容的推荐方法、装置、存储介质及电子设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103366186A (zh) * | 2012-03-29 | 2013-10-23 | 中国科学院计算技术研究所 | 动态变换终端背景的方法及装置 |
CN106204165A (zh) * | 2016-08-11 | 2016-12-07 | 广州出益信息科技有限公司 | 一种广告投放方法及装置 |
CN107016163A (zh) * | 2017-03-07 | 2017-08-04 | 北京小米移动软件有限公司 | 植物种类推荐方法及装置 |
CN107172337A (zh) * | 2017-06-29 | 2017-09-15 | 京东方科技集团股份有限公司 | 一种智能画框及其中的图像采集装置的切换方法 |
CN107424019A (zh) * | 2017-08-15 | 2017-12-01 | 京东方科技集团股份有限公司 | 基于情绪识别的艺术品推荐方法、装置、介质和电子设备 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9082015B2 (en) * | 2013-03-15 | 2015-07-14 | State Farm Mutual Automobile Insurance Company | Automatic building assessment |
US9396493B2 (en) * | 2013-03-20 | 2016-07-19 | Ebay Inc. | System and method for recommending home décor items based on an image of a room |
US10185934B2 (en) * | 2013-07-09 | 2019-01-22 | Qualcomm Incorporated | Real-time context aware recommendation engine based on a user internet of things environment |
US9639957B2 (en) * | 2014-06-12 | 2017-05-02 | A9.Com, Inc. | Recommendations utilizing visual image analysis |
US10475103B2 (en) * | 2016-10-31 | 2019-11-12 | Adobe Inc. | Method, medium, and system for product recommendations based on augmented reality viewpoints |
US10956967B2 (en) * | 2018-06-11 | 2021-03-23 | Adobe Inc. | Generating and providing augmented reality representations of recommended products based on style similarity in relation to real-world surroundings |
US10482674B1 (en) * | 2018-06-27 | 2019-11-19 | Beijing Jingdong Shangke Information Technology Co., Ltd. | System and method for mobile augmented reality |
-
2018
- 2018-04-18 CN CN201810350488.9A patent/CN108491555B/zh active Active
- 2018-11-29 US US16/204,193 patent/US10990800B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103366186A (zh) * | 2012-03-29 | 2013-10-23 | 中国科学院计算技术研究所 | 动态变换终端背景的方法及装置 |
CN106204165A (zh) * | 2016-08-11 | 2016-12-07 | 广州出益信息科技有限公司 | 一种广告投放方法及装置 |
CN107016163A (zh) * | 2017-03-07 | 2017-08-04 | 北京小米移动软件有限公司 | 植物种类推荐方法及装置 |
CN107172337A (zh) * | 2017-06-29 | 2017-09-15 | 京东方科技集团股份有限公司 | 一种智能画框及其中的图像采集装置的切换方法 |
CN107424019A (zh) * | 2017-08-15 | 2017-12-01 | 京东方科技集团股份有限公司 | 基于情绪识别的艺术品推荐方法、装置、介质和电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN108491555A (zh) | 2018-09-04 |
US10990800B2 (en) | 2021-04-27 |
US20190325196A1 (en) | 2019-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108351986B (zh) | 学习系统及装置和方法、训练数据生成装置及生成方法 | |
US9367756B2 (en) | Selection of representative images | |
AU2008264197B2 (en) | Image selection method | |
AU2011253982B2 (en) | Method, system and apparatus for determining a subject and a distractor in an image | |
CN109189991A (zh) | 重复视频识别方法、装置、终端及计算机可读存储介质 | |
US10891019B2 (en) | Dynamic thumbnail selection for search results | |
CN106980867A (zh) | 将嵌入空间中的语义概念建模为分布 | |
WO2021088417A1 (zh) | 移动状态信息展示方法与装置、电子设备及存储介质 | |
CN109711399A (zh) | 基于图像的店铺识别方法、装置,电子设备 | |
US20190179848A1 (en) | Method and system for identifying pictures | |
CN107330452B (zh) | 聚类方法和装置 | |
CN111143613A (zh) | 选择视频封面的方法、系统、电子设备与存储介质 | |
CN110188217A (zh) | 图像查重方法、装置、设备和计算机可读储存介质 | |
CN108491555B (zh) | 显示装置及其显示方法、计算机可读存储介质 | |
JP2007094679A (ja) | 画像分析装置、画像分析プログラム、および画像分析プログラム記憶媒体 | |
JP2007317077A (ja) | 画像分類装置および方法ならびにプログラム | |
CN111506755A (zh) | 图片集的分类方法和装置 | |
CN110162645A (zh) | 基于索引的图像检索方法、装置及电子设备 | |
CN114880514A (zh) | 图像检索方法、装置以及存储介质 | |
CN114820292A (zh) | 图像合成方法、装置、设备及存储介质 | |
CN110209916B (zh) | 一种兴趣点图像推荐方法及装置 | |
Wang et al. | Predicting the attractiveness of real-estate images by pairwise comparison using deep learning | |
CN108763440A (zh) | 一种图片搜索方法、装置、终端和存储介质 | |
JPH09114846A (ja) | ブラウジング表示方法および画像表示システム | |
CN108229263B (zh) | 目标对象的识别方法和装置、机器人 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |