CN110765525B - 生成场景图片的方法、装置、电子设备及介质 - Google Patents

生成场景图片的方法、装置、电子设备及介质 Download PDF

Info

Publication number
CN110765525B
CN110765525B CN201910991485.8A CN201910991485A CN110765525B CN 110765525 B CN110765525 B CN 110765525B CN 201910991485 A CN201910991485 A CN 201910991485A CN 110765525 B CN110765525 B CN 110765525B
Authority
CN
China
Prior art keywords
scene image
target
scene
generalized
feature vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910991485.8A
Other languages
English (en)
Other versions
CN110765525A (zh
Inventor
杨宇尘
金珂
李姬俊男
马标
蒋燚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority to CN201910991485.8A priority Critical patent/CN110765525B/zh
Publication of CN110765525A publication Critical patent/CN110765525A/zh
Application granted granted Critical
Publication of CN110765525B publication Critical patent/CN110765525B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods

Abstract

本申请公开了一种生成场景图片的方法、装置、电子设备及介质。其中,本申请中,在获取针对目标区域的第一场景图像之后,可以基于第一场景图像以及预设的归纳策略,得到与第一场景图像相匹配的目标场景图像。通过应用本申请的技术方案,可以在接收到用户生成的在目标区域下,包含待归纳物品的场景图像后,从数据库中查找与该目标区域相类似,且包含整理规范的各待归纳物品的样本场景图像,以使用户根据该样本场景图像,实现将待归纳物品合理摆放在目标区域的目的。进而可以避免相关技术中在用户整理物品时出现的无法合理运用目标区域空间利用率的问题。

Description

生成场景图片的方法、装置、电子设备及介质
技术领域
本申请中涉及图像处理技术,尤其是一种生成场景图片的方法、装置、电子设备及介质
背景技术
在用户对某个区域内的物品进行归纳摆放时,为了提高空间的利用率,通常需要根据空间的尺寸及物品的尺寸来确定物品的摆放位置。
进一步的,在对待摆放物品进行摆放的过程中,一般是由用户根据主观的视觉感受对待摆放物品及目标空间的尺寸进行估算,从而确定待摆放物品是否可以摆放至目标空间。然而,在用户实际进行物品的整理时,由于每个物品的形状大小各不相同,从而会出现待摆放物品的尺寸与目标空间不匹配的问题,进而造成目标区域的空间利用率较低的问题。
发明内容
本申请实施例提供一种生成场景图片的方法、装置、电子设备及介质。
其中,根据本申请实施例的一个方面,提供的一种生成场景图片的方法,其特征在于,包括:
获取针对目标区域的第一场景图像,第一场景图像包括目标区域中的待归纳对象;
基于第一场景图像以及预设的归纳策略,得到目标场景图像,目标场景图像为与目标区域相匹配的场景图像,目标场景图像中包含以预设方式归纳的物品对象,物品对象对应于待归纳对象。
根据本申请实施例的另一个方面,提供的一种生成场景图片的方装置,包括:
获取模块,被设置为获取针对目标区域的第一场景图像,第一场景图像包括目标区域中的待归纳对象;
生成模块,被设置为基于第一场景图像以及预设的归纳策略,得到目标场景图像,目标场景图像为与目标区域相匹配的场景图像,目标场景图像中包含以预设方式归纳的物品对象,物品对象对应于待归纳对象。
根据本申请实施例的又一个方面,提供的一种电子设备,包括:
存储器,用于存储可执行指令;以及
显示器,用于与存储器显示以执行可执行指令从而完成上述任一生成场景图片的方法的操作。
根据本申请实施例的还一个方面,提供的一种计算机可读存储介质,用于存储计算机可读取的指令,指令被执行时执行上述任一生成场景图片的方法的操作。
本申请中,在获取针对目标区域的第一场景图像之后,可以基于第一场景图像以及预设的归纳策略,得到与第一场景图像相匹配的目标场景图像。通过应用本申请的技术方案,可以在接收到用户生成的在目标区域下,包含待归纳物品的场景图像后,从数据库中查找与该目标区域相类似,且包含整理规范的各待归纳物品的样本场景图像,以使用户根据该样本场景图像,实现将待归纳物品合理摆放在目标区域的目的。进而可以避免相关技术中在用户整理物品时出现的无法合理运用目标区域空间利用率的问题。
下面通过附图和实施例,对本申请的技术方案做进一步的详细描述。
附图说明
构成说明书的一部分的附图描述了本申请的实施例,并且连同描述一起用于解释本申请的原理。
参照附图,根据下面的详细描述,可以更加清楚地理解本申请,其中:
图1为本申请视整理物品的系统架构示意图;
图2为本申请提出的一种生成场景图片的方法的示意图;
图3a-3b为本申请提出的一种第一场景图像的示意图;
图4为本申请提出的一种生成场景图片的方法的示意图;
图5a-5b为本申请提出的第一场景图像的示意图;
图6为本申请生成场景图片的方装置的结构示意图;
图7为本申请显示电子设备结构示意图。
具体实施方式
现在将参照附图来详细描述本申请的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本申请的范围。
同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,不作为对本申请及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
另外,本申请各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本申请要求的保护范围之内。
需要说明的是,本申请实施例中所有方向性指示(诸如上、下、左、右、前、后……)仅用于解释在某一特定姿态(如附图所示)下各部件之间的相对位置关系、运动情况等,如果该特定姿态发生改变时,则该方向性指示也相应地随之改变。
下面结合图1-图5来描述根据本申请示例性实施方式的用于进行生成场景图片的方法。需要注意的是,下述应用场景仅是为了便于理解本申请的精神和原理而示出,本申请的实施方式在此方面不受任何限制。相反,本申请的实施方式可以应用于适用的任何场景。
图1示出了可以应用本申请实施例的视频处理方法或视频处理装置的示例性系统架构100的示意图。
如图1所示,系统架构100可以包括终端设备101、102、103中的一种或多种,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。比如服务器105可以是多个服务器组成的服务器集群等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103可以是具有显示屏的各种电子设备,包括但不限于智能手机、平板电脑、便携式计算机和台式计算机等等。
本申请中的终端设备101、102、103可以为提供各种服务的终端设备。例如用户通过终端设备103(也可以是终端设备101或102)获取针对目标区域的第一场景图像,所述第一场景图像包括所述目标区域中的待归纳对象;基于所述第一场景图像以及预设的归纳策略,得到目标场景图像,所述目标场景图像为与所述第一场景图像相匹配的场景图像;显示所述目标场景图像,所述目标场景图像用于提示用户按照所述目标场景图像整理所述待归纳对象。
在此需要说明的是,本申请实施例所提供的视频处理方法可以由终端设备101、102、103中的一个或多个,和/或,服务器105执行,相应地,本申请实施例所提供的视频处理装置一般设置于对应终端设备中,和/或,服务器105中,但本申请不限于此。
本申请还提出一种生成场景图片的方法、装置、目标终端及介质。
图2示意性地示出了根据本申请实施方式的一种生成场景图片的方法的流程示意图。如图2所示,该方法应用于移动终端,包括:
S101,获取针对目标区域的第一场景图像,第一场景图像包括目标区域中的待归纳对象。
需要说明的是,本申请中不对获取第一场景图像的设备做具体限定,例如可以为智能设备,也可以为服务器。其中,智能设备可以是PC(Personal Computer,个人电脑),也可以是智能手机、平板电脑、电子书阅读器、MP3(Moving Picture Experts GroupAudioLayer III,动态影像专家压缩标准音频层面3)整理物品的器。MP4(Moving PictureExpertsGroup Audio Layer IV,动态影像专家压缩标准音频层面4)整理物品的器、又或便携计算机等具有显示功能的可移动式终端设备等等。
其中,本申请不对第一场景图像的生成方式做具体限定,例如可以由用户针对目标区域拍摄得到,也可以由终端在每隔预设时间段后自动获取目标区域的第一场景图像。例如,第一场景图像可以由用户针对自身的卧室区域拍摄得到,第一场景图像可以由用户针对自身的办公区域拍摄得到。
另外,本申请中的第一场景图像中包含有待归纳对象。其中,本申请不对待归纳对象做具体限定。且也不限定待归纳对象的数量,例如可以有一个,也可以有多个。
进一步的,本申请中的待归纳对象可以为任意物品。例如杯子,衣服,书籍,餐具,桌椅,植物等等。另外,待归纳对象也可以存在于其他待归纳对象的内部。例如箱子里的零食等等。本申请中的待归纳物品可以由用户自行标定,也可以由终端根据第一场景图像识别得到。
S102,基于第一场景图像以及预设的归纳策略,得到目标场景图像,目标场景图像为与目标区域相匹配的场景图像,目标场景图像中包含以预设方式归纳的物品对象,物品对象对应于待归纳对象。
其中,本申请中在获取到第一场景图像之后,可以基于预设的归纳策略,得到与第一场景图像相匹配的目标场景图像。其中,该目标场景图像可以为与第一场景图像中的目标区域具有相似场景的图像。且目标场景图像中也具有与第一场景图像中的待归纳物品相似的摆放物品。可以理解的,该目标场景图像中的摆放物品为已经摆放好的物品。以使在用户看到该目标场景图像后,可以根据摆放物品的摆放位置来整理待归纳物品。
进一步的,本申请不对预设的归纳策略做具体限定,例如归纳策略可以为数据库中预先生成的策略。归纳策略也可以为根据该用户的历史摆放习惯而生成的策略。归纳策略也可以为根据其他用户的摆放场景而生成的策略。归纳策略的具体变化并不会影响本申请的保护范围。
另外,本申请中在基于归纳策略,得到目标场景图像之后,可以将该目标场景图像进行显示。以使用户在看到该目标场景图像后,可以根据其显示的各物品的摆放位置,将第一场景图像中的各归纳物品进行对应归纳。以达到目标区域的空间利用率利用最大的目的。
例如,如图3a所示,其为由用户拍摄的,针对其10平米卧室生成的第一场景图像,且该第一场景图像中包含有床,柜台,植物,枕头,台灯,被单等等。进一步的,在接收到第一场景图像后,可以基于该第一场景图像对应的目标区域(10平米卧室)以及该待归纳物品(床,柜台,植物,枕头,台灯,被单等物品),从数据库中获取到与其相匹配的目标场景图像。如图3b所示,可以理解的,该目标场景图像中应当为针对相似的区域(即同样针对面积为10平米的卧室)拍摄的场景图像,且该场景图像中应当包含相似数量及类型的物品(即床,柜台,植物,枕头,台灯,被单等物品)。再进一步的,在获取到该目标场景图像后,可以将其显示在移动终端的显示屏幕上。以使用户利用终端摆放其卧室的各待归纳物品。
本申请中,在获取针对目标区域的第一场景图像之后,可以基于第一场景图像以及预设的归纳策略,得到与第一场景图像相匹配的目标场景图像。通过应用本申请的技术方案,可以在接收到用户生成的在目标区域下,包含待归纳物品的场景图像后,从数据库中查找与该目标区域相类似,且包含整理规范的各待归纳物品的样本场景图像,以使用户根据该样本场景图像,实现将待归纳物品合理摆放在目标区域的目的。进而可以避免相关技术中在用户整理物品时出现的无法合理运用目标区域空间利用率的问题。
可选的,在本申请一种可能的实施方式中,在本申请S102(基于第一场景图像以及预设的归纳策略,得到目标场景图像)中,可以通过以下方式生成得到:
解析第一场景图像,得到第一场景图像对应的点云信息;
基于点云信息以及预设的分割深度学习框架,获取第一场景图像对应的第一特征向量。
进一步的,本申请中,可以在获取第一场景图像后,可以利用交替建模仿真系统(Simultaneous Localization and Mapping SLAM)等对第一场景图像进行建图。以获得该场景图像对应的场景点云信息。需要说明的,本申请不对得到第一场景图像对应的点云信息的方式做具体限定。例如可以使用视觉和惯性传感器相结合的SLAM系统进行建图。
其中,SLAM系统是指同步定位与地图构建,最早在机器人领域提出,其可以在运动过程中通过重复观测到的环境特征定位自身位置和姿态,再根据自身位置构建周围环境的增量式地图,从而达到同时定位和地图构建的目的。进一步的,SLAM系统分为前端和后端,前端完成数据关联研究帧与帧之间变换关系,主要完成实时的位姿跟踪,对输入的图像进行处理,计算姿态变化,同时也检测并处理闭环,当有状态信息时,也可以参与融合计算;后端主要对前端的输出结果进行优化,利用滤波理论或者优化理论进行树或图的优化,得到最优的位姿估计和地图。本申请中,可以利用SLAM系统获得第一场景图像对应的点云信息。
其中,分割深度学习框架(PointNet++)网络是针对立体视觉领域的点云分类和分割任务的,并在各个主流数据库中取得不错的成绩。该算法设计的出发点是解决点云数据无序性问题。在初始阶段,每个点的处理都是相同且独立的,并且在基本设置中,每个点都由它的三个坐标组成。该方法的关键是使用了编码参数作为对称函数,使得提取的特征向量可以忽略点云数据的无序性。
可选的,本申请中在基于点云信息以及预设的分割深度学习框架,获取第一场景图像对应的第一特征向量的过程中,可以通过以下方式得到:
基于点云信息以及分割深度学习框架,获取第一场景图像中,待归纳对象的向量参数,向量参数包括待归纳对象的数量信息以及尺寸信息;
基于待归纳对象的向量参数,获取第一场景图像对应的第一特征向量。
进一步的,在获得第一场景图像对应的点云信息之后,然后我们用预训练好的分割深度学习框架PointNet++网络对生成的点云进行处理。已达到对场景图像中的各待归纳物品的试别和分割。并且,本申请中的PointNet++网络可以使用包含40类计算机辅助设计(Computer Aided Design CAD)模型的数据集进行训练,从而获得物体的类别信息以及大小信息。需要说明的是,为了将物品更加清晰的展示,本申请可以根据待归纳物品的类别信息以及大小信息,生成对应的特征向量。例如该特征向量可以表示为X=(x0,x1,...,xn)。其中,每一维的xi对应于第一图像场景中的一种待归纳物品。需要说明的是,每一种待归纳物品均可以根据其的数量信息以及尺寸信息生成对应的向量参数。
在本申请的一种实施方式中,可以基于第一特征向量与归纳策略,得到目标场景图像。
可选的,获取第一特征向量对应的第一欧式距离;
将第一欧式距离与特征数据库中的,各待比对特征向量对应的欧式距离进行一一比对,得到目标数量的目标特征向量;
基于目标特征向量,得到目标场景图像。
其中,本申请中,可以预先选择多种不同场景图像并分别计算其对应的待比对特征向量后,建立各场景图像与其对应待比对特征向量的映射关系。并将该多种映射关系存储至特征数据库中。需要说明的是,在建立各场景图像与其对应的待比对特征向量时,可以与本申请中获取第一特征向量的方式相同。也即将各个场景图像依旧利用SLAM系统,对各个场景图像进行扫描,获取其对应的点云信息。再用PointNet++对各点云信息进行分割和分类,得到该场景图像中对应物品的种类和数量,进而生成描述当前场景的待比对特征向量。
进一步的,为了得到与第一场景图像相匹配的场景图像,本申请可以根据各个场景图像对应的特征向量进行一一比对。具体而言,则可以首先第一特征向量对应的第一欧式距离(例如为R1),并进一步的获取特征数据库中的,各待比对特征向量对应的欧式距离(例如第一待比对特征向量对应的欧式距离为R1’、第二待比对特征向量对应的欧式距离为R2’、第三待比对特征向量对应的欧式距离为R3’)。并且,将RI分别与R1’、R2’以及R3’进行一一比对。进而得出与R1欧式距离最小的2个待比对特征向量,并分别为R2’以及R3’。则可以理解的,待比对特征向量R2’对应的场景图像以及待比对特征向量R3’对应的场景图像即为目标场景图像。
需要说明的是,欧氏距离(euclidean metric)是一个通常采用的距离定义,指在m维空间中两个点之间的真实距离,或者向量的自然长度(即该点到原点的距离)。在二维和三维空间中的欧氏距离就是两点之间的实际距离。本申请通过计算各特征向量直接的欧氏距离,可以得到各特征向量之间的相似程度。可以理解的,各特征向量之间的相似程度越近,其之间的欧氏距离数值越小。
另外需要说明的是,本申请不对目标数量做具体限定,例如可以为1个,也可以为5个。
获取目标数量的目标特征向量对应的待选择场景图像;
可选的,基于目标数量的待选择场景图像,生成提示消息,提示消息用于提示用户选择待选择场景图像;
基于提示消息,得到目标场景图像。
本申请中,在基于目标特征向量,得到目标数量的待选择场景图像之后,为了避免待选择场景图像的数量较多所导致的用户体验不高的问他。本申请中还可以生成用于提示用户选取待选择场景图像的提示消息。可以理解的,该提示消息中可以并列显示有该多个待选择场景图像,以供用户根据自身的喜好选取其中最感兴趣的一张待选择场景图像作为目标场景图像。
在本申请又一种可能的实施方式中,在本申请S102(基于第一场景图像以及预设的归纳策略,得到目标场景图像)中,本申请还可以通过以下两种方式得到目标场景图像:
第一种方式:
解析第一场景图像,获取待归纳对象的属性信息,属性信息包括重量信息、材质信息、形态信息的至少一种信息;
基于待归纳对象的属性信息以及归纳策略,得到目标场景图像。
本申请中,在基于第一场景图像得到目标场景图像的过程中。为了提高目标场景图像与第一场景图像的匹配率。本申请还可以进一步的获取第一场景图像中的待归纳对象的属性信息。需要说明的是,该属性信息可以包括待归纳对象的重量信息、材质信息、形态信息的任意一种或多种信息。可以理解的,重量信息即为待归纳对象对应的重量数值,材质信息即为待归纳对象对应的构成材料,形态信息即为待归纳对象对应的形状信息。
本申请中,可以基于待归纳对象的重量信息、材质信息、形态信息的任意一种或多种信息。进一步的从数据库中获取对应的与其匹配的物品对象。例如,当检测到第一场景图像中存在有杯子类的待归纳对象时,可以进一步的检测该杯子的材质信息为玻璃材质还是塑料材质或是纸类材质等。并在确定该杯子为玻璃杯时,根据该待归纳对象的材质信息,从数据库中查找包含玻璃杯子的目标场景图像。以避免目标场景图像中的物品对象与待归纳对象的材质不同而导致的归纳方式不一致的问题(例如多个纸杯可以放在叠加放置而玻璃杯子不可以)。
又或,当检测到第一场景图像中存在有箱体类的待归纳对象时,可以进一步的检测该箱体的材质信息为金属材质还是塑料材质或是纸类材质等。并在确定该箱体为塑料箱体时,根据该待归纳对象的材质信息,从数据库中查找包含塑料箱体的目标场景图像。以避免出现目标场景图像中的物品对象与待归纳对象的材质不同而导致的归纳方式不一致的问题(例如塑料箱体可以放在桌子上而金属箱体不可以)。
第二种方式:
解析第一场景图像,获取目标区域的场景参数,场景参数中包含色彩参数以及光照参数;
获取待归纳对象的色彩参数;
基于目标区域的场景参数以及待归纳对象的色彩参数,利用归纳策略,得到目标场景图像。
本申请中,在基于第一场景图像得到目标场景图像的过程中。同样为了提高目标场景图像与第一场景图像的匹配率。本申请还可以进一步的获取第一场景图像中的待归纳对象的场景参数。需要说明的是,该场景参数可以包括色彩参数以及光照参数。需要说明的是,该色彩参数以及光照参数可以对应为目标区域的参数,也可以对应为待归纳物品的参数。
本申请中,可以基于第一场景图像的色彩参数以及光照参数。进一步的从数据库中获取对应的与其匹配的物品对象。例如,当检测到第一场景图像中存在有杯子,书包,书本等三种待归纳物品时,可以进一步的检测该三种待归纳物品对应的色彩信息。并在确定杯子对应的色彩信息为红色,书包对应的色彩信息为黄色,书本对应的色彩信息为白色时,根据该待归纳对象的色彩参数,从数据库中查找包含黄色书本,红色杯子以及白色书本的目标场景图像。以避免目标场景图像中的物品对象与待归纳对象的颜色不同而导致的整理效果存在差异的问题。
又或,当检测到第一场景图像为针对卧室生成的场景图像时,可以进一步获取该卧室对应的光照参数。例如可以确定为明亮场景图像,或昏暗场景图像。并根据该目标区域的光照参数,从数据库中查找与其光照参数相同的目标场景图像。以避免目标场景图像中的光照参数与目标区域的光照参数不同而导致的整理效果存在差异的问题。
可选的,在本申请一种可能的实施方式中,在本申请S102(基于第一场景图像以及预设的归纳策略,得到目标场景图像)中,如图4所示,还包括一种生成场景图片的方法:
S201,获取针对目标区域的第一场景图像。
S202,基于第一场景图像以及预设的归纳策略,得到目标场景图像。
S203,识别目标场景图像中的可容纳物品对象,可容纳物品对象为可容纳其他物品的物品对象;
S204,在目标场景图像中添加选择标签,选择标签用于提示用户查看可容纳物品对象;
进一步的,本申请中可以首先识别第一场景图像中的可容纳物品对象以及非可容纳对象。其中,可容纳物品对象即为可容纳其他物品的物品对象。由于当可容纳物品对象中容纳了其他物品时,用户无法从目标场景图像中获知对应的被容纳物品。因此,本申请可以在目标场景图像中对应的可容纳物品对象区域添加一个提示用户查看可容纳物品对象的选择标签。可以理解的,当用户点击该选择标签后,即可查看该可容纳物品对象内部的物品。
例如图5a所示,为用户针对餐厅拍摄的第一场景图像,由图5a可以看出,在桌子上包含有2个杯子(即2011、2012)。进一步的,在得到基于第一场景图像生成的目标场景图像时,目标场景图像中将2个杯子放入至了可容纳物品对象抽屉2013中。以使用户根据该目标场景图像,将餐厅中的2个杯子对应进行整理至抽屉中。可以理解的,为了避免用户无法从目标场景图像中获知杯子被整理至抽屉中。因此,如图5b所示,本申请可以在目标场景图像中的抽屉2013附近显示一个预设图案的选择标签(即标签2014).以使用户看见该标签2014后,点击该标签即可查看抽屉中收纳的物品。
S205,显示添加了选择标签的目标场景图像。
进一步可选的,在显示添加了选择标签的目标场景图像之后,还可以实施下述步骤:
获取针对目标区域的第二场景图像,第二场景图像为用户基于目标场景图像生成的场景图像;
基于第二场景图像,生成第二场景图像对应的第二特征向量;
将第二特征向量存储至归纳策略中。
本申请中,为了进一步完善整理策略。可以在用户根据目标场景图像,整理目标区域的待归纳物品完毕后,可以进一步的采集整理后的,针对目标区域的第二场景图像。可以理解的,用户完成收纳后,再次扫描整个场景,用和学习收纳得好的样本相同的方法,对生成的点云进行分割、分类。再获取物体和物体之间的联系信息。然后再放到收纳得好的数据集中,作为以后的推荐场景之一。
其中,本申请同样可以将第二场景图像利用SLAM系统,对各个场景图像进行扫描,获取其对应的点云信息。再用PointNet++对各点云信息进行分割和分类,得到第二场景图像中对应物品的种类和数量,进而生成描述第二场景图像的第二特征向量,并将该第二特征向量存储至归纳策略中,以使后续用户再次生成基于目标区域的第一场景图像后,将该第二场景图像推荐给用户。
本申请中,在获取针对目标区域的第一场景图像之后,可以基于第一场景图像以及预设的归纳策略,得到与第一场景图像相匹配的目标场景图像,并显示该用于提示用户按照目标场景图像整理述待归纳对象的目标场景图像。通过应用本申请的技术方案,可以在接收到用户生成的在目标区域下,包含待归纳物品的场景图像后,从数据库中查找与该目标区域相类似,且包含整理规范的各待归纳物品的样本场景图像,以使用户根据该样本场景图像,实现将待归纳物品合理摆放在目标区域的目的。进而可以避免相关技术中在用户整理物品时出现的无法合理运用目标区域空间利用率的问题。
在本申请的另外一种实施方式中,如图6所示,本申请还提供一种生成场景图片的方装置。其中,该装置包括获取模块301,生成模块302,显示模块303,其中:
获取模块301,被设置为获取针对目标区域的第一场景图像,所述第一场景图像包括所述目标区域中的待归纳对象;
生成模块302,被设置为基于所述第一场景图像以及预设的归纳策略,得到目标场景图像,所述目标场景图像为与所述目标区域相匹配的场景图像,所述目标场景图像中包含以预设方式归纳的物品对象,所述物品对象对应于所述待归纳对象。
本申请中,在获取针对目标区域的第一场景图像之后,可以基于第一场景图像以及预设的归纳策略,得到与第一场景图像相匹配的目标场景图像。通过应用本申请的技术方案,可以在接收到用户生成的在目标区域下,包含待归纳物品的场景图像后,从数据库中查找与该目标区域相类似,且包含整理规范的各待归纳物品的样本场景图像,以使用户根据该样本场景图像,实现将待归纳物品合理摆放在目标区域的目的。进而可以避免相关技术中在用户整理物品时出现的无法合理运用目标区域空间利用率的问题。
在本申请的另一种实施方式中,生成模块302,还包括:
生成模块302,被配置为解析所述第一场景图像,得到所述第一场景图像对应的点云信息;
生成模块302,被配置为基于所述点云信息以及预设的分割深度学习框架,获取所述第一场景图像对应的第一特征向量;
生成模块302,被配置为基于所述第一特征向量与所述归纳策略,得到所述目标场景图像。
在本申请的另一种实施方式中,生成模块302,还包括:
生成模块302,被配置为基于所述点云信息以及所述分割深度学习框架,获取所述第一场景图像中,所述待归纳对象的向量参数,所述向量参数包括所述待归纳对象的数量信息以及尺寸信息;
生成模块302,被配置为基于所述待归纳对象的所述向量参数,获取所述第一场景图像对应的第一特征向量。
在本申请的另一种实施方式中,生成模块302,还包括:
生成模块302,被配置为获取所述第一特征向量对应的第一欧式距离;
生成模块302,被配置为将所述第一欧式距离与特征数据库中的,各待比对特征向量对应的欧式距离进行一一比对,得到目标数量的目标特征向量;
生成模块302,被配置为基于所述目标特征向量,得到所述目标场景图像。
在本申请的另一种实施方式中,生成模块303,还包括:
生成模块303,被配置为获取所述目标数量的目标特征向量对应的待选择场景图像;
生成模块303,被配置为基于所述目标数量的待选择场景图像,生成提示消息,所述提示消息用于提示用户选择所述待选择场景图像;
生成模块303,被配置为基于所述提示消息,得到所述目标场景图像。
在本申请的另一种实施方式中,生成模块302,还包括:
生成模块302,被配置为解析所述第一场景图像,获取所述待归纳对象的属性信息,所述属性信息包括重量信息、材质信息、形态信息的至少一种信息;
生成模块302,被配置为基于所述待归纳对象的属性信息以及所述归纳策略,得到所述目标场景图像。
在本申请的另一种实施方式中,生成模块302,还包括:
生成模块302,被配置为解析所述第一场景图像,获取所述目标区域的场景参数,所述场景参数中包含色彩参数以及光照参数;
生成模块302,被配置为获取所述待归纳对象的色彩参数;
生成模块302,被配置为基于所述目标区域的场景参数以及所述待归纳对象的色彩参数,利用所述归纳策略,得到所述目标场景图像。
在本申请的另一种实施方式中,显示模块303,还包括:
显示模块303,被配置为识别所述目标场景图像中的可容纳物品对象,所述可容纳物品对象为可容纳其他物品的物品对象;
显示模块303,被配置为在所述目标场景图像中添加选择标签,所述选择标签用于提示用户查看所述可容纳物品对象;
显示模块303,被配置为显示添加了所述选择标签的目标场景图像。
在本申请的另一种实施方式中,还包括,存储模块304,其中:
存储模块304,被配置为获取针对所述目标区域的第二场景图像,所述第二场景图像为用户基于所述目标场景图像生成的场景图像;
存储模块304,被配置为基于所述第二场景图像,生成所述第二场景图像对应的第二特征向量;
存储模块304,被配置为将所述第二特征向量存储至所述归纳策略中。
图7是根据一示例性实施例示出的一种电子设备的逻辑结构框图。例如,电子设备400可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图7,电子设备400可以包括以下一个或多个组件:处理器401和存储器402。
处理器401可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器401可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器401也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器401可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器401还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器402可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器402还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器402中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器401所执行以实现本申请中方法实施例提供的互动特效标定方法。
在一些实施例中,电子设备400还可选包括有:外围设备接口403和至少一个外围设备。处理器401、存储器402和外围设备接口403之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口403相连。具体地,外围设备包括:射频电路404、触摸显示屏405、摄像头406、音频电路407、定位组件408和电源409中的至少一种。
外围设备接口403可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器401和存储器402。在一些实施例中,处理器401、存储器402和外围设备接口403被集成在同一芯片或电路板上;在一些其他实施例中,处理器401、存储器402和外围设备接口403中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路404用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路404通过电磁信号与通信网络以及其他通信设备进行通信。射频电路404将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路404包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路404可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:城域网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路404还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏405用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏405是触摸显示屏时,显示屏405还具有采集在显示屏405的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器401进行处理。此时,显示屏405还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏405可以为一个,设置电子设备400的前面板;在另一些实施例中,显示屏405可以为至少两个,分别设置在电子设备400的不同表面或呈折叠设计;在再一些实施例中,显示屏405可以是柔性显示屏,设置在电子设备400的弯曲表面上或折叠面上。甚至,显示屏405还可以设置成非矩形的不规则图形,也即异形屏。显示屏405可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件406用于采集图像或视频。可选地,摄像头组件406包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件406还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路407可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器401进行处理,或者输入至射频电路404以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在电子设备400的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器401或射频电路404的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路407还可以包括耳机插孔。
定位组件408用于定位电子设备400的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件408可以是基于美国的GPS(GlobalPositioning System,全球定位系统)、中国的北斗系统、俄罗斯的格雷纳斯系统或欧盟的伽利略系统的定位组件。
电源409用于为电子设备400中的各个组件进行供电。电源409可以是交流电、直流电、一次性电池或可充电电池。当电源409包括可充电电池时,该可充电电池可以支持有线充电或无线充电。该可充电电池还可以用于支持快充技术。
在一些实施例中,电子设备400还包括有一个或多个传感器410。该一个或多个传感器410包括但不限于:加速度传感器411、陀螺仪传感器412、压力传感器413、指纹传感器414、光学传感器415以及接近传感器416。
加速度传感器411可以检测以电子设备400建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器411可以用于检测重力加速度在三个坐标轴上的分量。处理器401可以根据加速度传感器411采集的重力加速度信号,控制触摸显示屏405以横向视图或纵向视图进行用户界面的显示。加速度传感器411还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器412可以检测电子设备400的机体方向及转动角度,陀螺仪传感器412可以与加速度传感器411协同采集用户对电子设备400的3D动作。处理器401根据陀螺仪传感器412采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器413可以设置在电子设备400的侧边框和/或触摸显示屏405的下层。当压力传感器413设置在电子设备400的侧边框时,可以检测用户对电子设备400的握持信号,由处理器401根据压力传感器413采集的握持信号进行左右手识别或快捷操作。当压力传感器413设置在触摸显示屏405的下层时,由处理器401根据用户对触摸显示屏405的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器414用于采集用户的指纹,由处理器401根据指纹传感器414采集到的指纹识别用户的身份,或者,由指纹传感器414根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器401授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、整理物品的及更改设置等。指纹传感器414可以被设置电子设备400的正面、背面或侧面。当电子设备400上设置有物理按键或厂商Logo时,指纹传感器414可以与物理按键或厂商Logo集成在一起。
光学传感器415用于采集环境光强度。在一个实施例中,处理器401可以根据光学传感器415采集的环境光强度,控制触摸显示屏405的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏405的显示亮度;当环境光强度较低时,调低触摸显示屏405的显示亮度。在另一个实施例中,处理器401还可以根据光学传感器415采集的环境光强度,动态调整摄像头组件406的拍摄参数。
接近传感器416,也称距离传感器,通常设置在电子设备400的前面板。接近传感器416用于采集用户与电子设备400的正面之间的距离。在一个实施例中,当接近传感器416检测到用户与电子设备400的正面之间的距离逐渐变小时,由处理器401控制触摸显示屏405从亮屏状态切换为息屏状态;当接近传感器416检测到用户与电子设备400的正面之间的距离逐渐变大时,由处理器401控制触摸显示屏405从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图7中示出的结构并不构成对电子设备400的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器404,上述指令可由电子设备400的处理器420执行以完成上述生成场景图片的方法,该方法包括:基于所述第一场景图像以及预设的归纳策略,得到目标场景图像,所述目标场景图像为与所述目标区域相匹配的场景图像,所述目标场景图像中包含以预设方式归纳的物品对象,所述物品对象对应于所述待归纳对象。可选地,上述指令还可以由电子设备400的处理器420执行以完成上述示例性实施例中所涉及的其他步骤。可选地,上述指令还可以由电子设备400的处理器420执行以完成上述示例性实施例中所涉及的其他步骤。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
在示例性实施例中,还提供了一种应用程序/计算机程序产品,包括一条或多条指令,该一条或多条指令可以由电子设备400的处理器420执行,以完成上述生成场景图片的方法,该方法包括:获取针对目标区域的第一场景图像,所述第一场景图像包括所述目标区域中的待归纳对象;基于所述第一场景图像以及预设的归纳策略,得到目标场景图像,所述目标场景图像为与所述目标区域相匹配的场景图像,所述目标场景图像中包含以预设方式归纳的物品对象,所述物品对象对应于所述待归纳对象。可选地,上述指令还可以由电子设备400的处理器420执行以完成上述示例性实施例中所涉及的其他步骤。本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由下面的权利要求指出。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求来限制。

Claims (11)

1.一种生成场景图片的方法,其特征在于,包括:
获取针对目标区域的第一场景图像,所述第一场景图像包括所述目标区域中的待归纳对象;
基于所述第一场景图像以及预设的归纳策略,得到目标场景图像,所述目标场景图像为与所述目标区域相匹配的场景图像,所述目标场景图像中包含以预设方式归纳的物品对象,所述物品对象对应于所述待归纳对象;
其中,所述基于所述第一场景图像以及预设的归纳策略,得到目标场景图像,包括:
解析所述第一场景图像,得到所述第一场景图像对应的点云信息;
基于所述点云信息以及预设的分割深度学习框架,获取所述第一场景图像对应的第一特征向量;
基于所述第一特征向量与所述归纳策略,得到所述目标场景图像。
2.如权利要求1所述的方法,其特征在于,所述基于所述点云信息以及分割深度学习框架,获取所述第一场景图像对应的第一特征向量,包括:
基于所述点云信息以及所述分割深度学习框架,获取所述第一场景图像中,所述待归纳对象的向量参数,所述向量参数包括所述待归纳对象的数量信息以及尺寸信息;
基于所述待归纳对象的所述向量参数,获取所述第一场景图像对应的第一特征向量。
3.如权利要求1或2所述的方法,其特征在于,所述基于所述第一特征向量与所述归纳策略,得到所述目标场景图像,包括:
获取所述第一特征向量对应的第一欧式距离;
将所述第一欧式距离与特征数据库中的,各待比对特征向量对应的欧式距离进行一一比对,得到目标数量的目标特征向量;
基于所述目标特征向量,得到所述目标场景图像。
4.如权利要求3所述的方法,其特征在于,所述基于所述目标特征向量,得到所述目标场景图像,包括:
获取所述目标数量的目标特征向量对应的待选择场景图像;
基于所述目标数量的待选择场景图像,生成提示消息,所述提示消息用于提示用户选择所述待选择场景图像;
基于所述提示消息,得到所述目标场景图像。
5.如权利要求1所述的方法,其特征在于,所述基于所述第一场景图像以及预设的归纳策略,得到目标场景图像,包括:
解析所述第一场景图像,获取所述待归纳对象的属性信息,所述属性信息包括重量信息、材质信息、形态信息的至少一种信息;
基于所述待归纳对象的属性信息以及所述归纳策略,得到所述目标场景图像。
6.如权利要求1或5所述的方法,其特征在于,所述基于所述第一场景图像以及预设的归纳策略,得到目标场景图像,包括:
解析所述第一场景图像,获取所述目标区域的场景参数,所述场景参数中包含色彩参数以及光照参数;
获取所述待归纳对象的色彩参数;
基于所述目标区域的场景参数以及所述待归纳对象的色彩参数,利用所述归纳策略,得到所述目标场景图像。
7.如权利要求1所述的方法,其特征在于,在所述基于所述第一场景图像以及预设的归纳策略,得到目标场景图像之后,还包括:
识别所述目标场景图像中的可容纳物品对象,所述可容纳物品对象为可容纳其他物品的物品对象;
在所述目标场景图像中添加选择标签,所述选择标签用于提示用户查看所述可容纳物品对象;
显示添加了所述选择标签的目标场景图像。
8.如权利要求7所述的方法,其特征在于,所述显示添加了所述选择标签的目标场景图像之后,还包括:
获取针对所述目标区域的第二场景图像,所述第二场景图像为用户基于所述目标场景图像生成的场景图像;
基于所述第二场景图像,生成所述第二场景图像对应的第二特征向量;
将所述第二特征向量存储至所述归纳策略中。
9.一种生成场景图片的装置,其特征在于,包括:
获取模块,被设置为获取针对目标区域的第一场景图像,所述第一场景图像包括所述目标区域中的待归纳对象;
生成模块,被设置为基于所述第一场景图像以及预设的归纳策略,得到目标场景图像,所述目标场景图像为与所述目标区域相匹配的场景图像,所述目标场景图像中包含以预设方式归纳的物品对象,所述物品对象对应于所述待归纳对象;
显示模块,被设置为显示所述目标场景图像,所述目标场景图像用于提示用户按照所述目标场景图像整理所述待归纳对象;
其中,所述生成模块具体被设置为:
解析所述第一场景图像,得到所述第一场景图像对应的点云信息;
基于所述点云信息以及预设的分割深度学习框架,获取所述第一场景图像对应的第一特征向量;
基于所述第一特征向量与所述归纳策略,得到所述目标场景图像。
10.一种电子设备,其特征在于,包括:
存储器,用于存储可执行指令;以及,
处理器,用于与所述存储器显示以执行所述可执行指令从而完成权利要求1-8中任一所述生成场景图片的方法的操作。
11.一种计算机可读存储介质,用于存储计算机可读取的指令,其特征在于,所述指令被执行时执行权利要求1-8中任一所述生成场景图片的方法的操作。
CN201910991485.8A 2019-10-18 2019-10-18 生成场景图片的方法、装置、电子设备及介质 Active CN110765525B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910991485.8A CN110765525B (zh) 2019-10-18 2019-10-18 生成场景图片的方法、装置、电子设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910991485.8A CN110765525B (zh) 2019-10-18 2019-10-18 生成场景图片的方法、装置、电子设备及介质

Publications (2)

Publication Number Publication Date
CN110765525A CN110765525A (zh) 2020-02-07
CN110765525B true CN110765525B (zh) 2023-11-10

Family

ID=69332675

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910991485.8A Active CN110765525B (zh) 2019-10-18 2019-10-18 生成场景图片的方法、装置、电子设备及介质

Country Status (1)

Country Link
CN (1) CN110765525B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111507207A (zh) * 2020-03-30 2020-08-07 宇龙计算机通信科技(深圳)有限公司 物品收纳方法、装置、存储介质及终端
CN111612837B (zh) * 2020-05-27 2024-03-08 常州节卡智能装备有限公司 物料整理方法及物料整理设备
CN112200844A (zh) * 2020-10-10 2021-01-08 深圳壹账通智能科技有限公司 生成图像的方法、装置、电子设备及介质
CN114371632A (zh) * 2021-12-29 2022-04-19 达闼机器人有限公司 智能设备控制方法、装置、服务器和存储介质

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105868772A (zh) * 2016-03-23 2016-08-17 百度在线网络技术(北京)有限公司 图像识别方法及装置
CN106903706A (zh) * 2017-03-13 2017-06-30 广东工业大学 一种工作台物品整理系统及方法
CN106954036A (zh) * 2016-01-07 2017-07-14 宁波舜宇光电信息有限公司 基于3d深度视觉的监控系统和监控路灯及其监控方法
CN107240151A (zh) * 2017-07-05 2017-10-10 常州赞云软件科技有限公司 一种基于父子约束的场景布局保存与再现方法
CN108376159A (zh) * 2018-02-10 2018-08-07 中山市太力家庭用品制造有限公司 一种收纳容器智能管理方法
CN108491177A (zh) * 2018-03-21 2018-09-04 北京小米移动软件有限公司 空间评估方法及装置
CN108596052A (zh) * 2018-04-09 2018-09-28 Oppo广东移动通信有限公司 一种物品查找方法、系统及终端设备
CN108805103A (zh) * 2018-06-29 2018-11-13 Oppo广东移动通信有限公司 图像处理方法和装置、电子设备、计算机可读存储介质
CN108846351A (zh) * 2018-06-08 2018-11-20 Oppo广东移动通信有限公司 图像处理方法、装置、电子设备和计算机可读存储介质
CN108960359A (zh) * 2018-06-06 2018-12-07 北京银鞍技术有限公司 个人物品管理方法及系统
CN109685900A (zh) * 2018-12-19 2019-04-26 努比亚技术有限公司 基于双摄像头的家具适配方法、装置、终端及存储介质
WO2019101021A1 (zh) * 2017-11-23 2019-05-31 腾讯科技(深圳)有限公司 图像识别方法、装置及电子设备
CN109886129A (zh) * 2019-01-24 2019-06-14 北京明略软件系统有限公司 提示信息生成方法和装置,存储介质及电子装置
CN109920052A (zh) * 2019-03-16 2019-06-21 淄博职业学院 一种三维虚拟室内设计方案的生成方法
CN110232743A (zh) * 2019-06-11 2019-09-13 珠海格力电器股份有限公司 一种通过增强现实技术展示物品的方法和装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180078961A (ko) * 2016-12-30 2018-07-10 삼성전자주식회사 이미지 촬상 장치 및 이의 구동 방법
CN108037863B (zh) * 2017-12-12 2021-03-30 北京小米移动软件有限公司 一种显示图像的方法和装置

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106954036A (zh) * 2016-01-07 2017-07-14 宁波舜宇光电信息有限公司 基于3d深度视觉的监控系统和监控路灯及其监控方法
CN105868772A (zh) * 2016-03-23 2016-08-17 百度在线网络技术(北京)有限公司 图像识别方法及装置
CN106903706A (zh) * 2017-03-13 2017-06-30 广东工业大学 一种工作台物品整理系统及方法
CN107240151A (zh) * 2017-07-05 2017-10-10 常州赞云软件科技有限公司 一种基于父子约束的场景布局保存与再现方法
WO2019101021A1 (zh) * 2017-11-23 2019-05-31 腾讯科技(深圳)有限公司 图像识别方法、装置及电子设备
CN108376159A (zh) * 2018-02-10 2018-08-07 中山市太力家庭用品制造有限公司 一种收纳容器智能管理方法
CN108491177A (zh) * 2018-03-21 2018-09-04 北京小米移动软件有限公司 空间评估方法及装置
CN108596052A (zh) * 2018-04-09 2018-09-28 Oppo广东移动通信有限公司 一种物品查找方法、系统及终端设备
CN108960359A (zh) * 2018-06-06 2018-12-07 北京银鞍技术有限公司 个人物品管理方法及系统
CN108846351A (zh) * 2018-06-08 2018-11-20 Oppo广东移动通信有限公司 图像处理方法、装置、电子设备和计算机可读存储介质
CN108805103A (zh) * 2018-06-29 2018-11-13 Oppo广东移动通信有限公司 图像处理方法和装置、电子设备、计算机可读存储介质
CN109685900A (zh) * 2018-12-19 2019-04-26 努比亚技术有限公司 基于双摄像头的家具适配方法、装置、终端及存储介质
CN109886129A (zh) * 2019-01-24 2019-06-14 北京明略软件系统有限公司 提示信息生成方法和装置,存储介质及电子装置
CN109920052A (zh) * 2019-03-16 2019-06-21 淄博职业学院 一种三维虚拟室内设计方案的生成方法
CN110232743A (zh) * 2019-06-11 2019-09-13 珠海格力电器股份有限公司 一种通过增强现实技术展示物品的方法和装置

Also Published As

Publication number Publication date
CN110765525A (zh) 2020-02-07

Similar Documents

Publication Publication Date Title
CN111652678B (zh) 物品信息显示方法、装置、终端、服务器及可读存储介质
CN110765525B (zh) 生成场景图片的方法、装置、电子设备及介质
US11402871B1 (en) Keyboard movement changes virtual display orientation
CN111541907B (zh) 物品显示方法、装置、设备及存储介质
CN110163066B (zh) 多媒体数据推荐方法、装置及存储介质
CN110675412B (zh) 图像分割方法、图像分割模型的训练方法、装置及设备
CN111368116B (zh) 图像分类方法、装置、计算机设备及存储介质
CN113569614A (zh) 虚拟形象生成方法、装置、设备及存储介质
CN111104402A (zh) 查找数据的方法、装置、电子设备及介质
CN110827195B (zh) 虚拟物品添加方法、装置、电子设备及存储介质
CN112150560B (zh) 确定消失点的方法、装置及计算机存储介质
US20230343046A1 (en) Augmented reality environment enhancement
CN110675473B (zh) 生成gif动态图的方法、装置、电子设备及介质
CN110622218A (zh) 一种图像显示方法、装置、存储介质和终端
CN111192072A (zh) 用户分群方法及装置、存储介质
CN112860046B (zh) 选择运行模式的方法、装置、电子设备及介质
CN110853124B (zh) 生成gif动态图的方法、装置、电子设备及介质
CN111753813A (zh) 图像处理方法、装置、设备及存储介质
CN113613028B (zh) 直播数据处理方法、装置、终端、服务器及存储介质
CN109388732B (zh) 音乐地图的生成和显示方法、装置及存储介质
CN112907702A (zh) 图像处理方法、装置、计算机设备及存储介质
CN111445439A (zh) 图像分析方法、装置、电子设备及介质
CN113409235B (zh) 一种灭点估计的方法及装置
CN112989198B (zh) 推送内容的确定方法、装置、设备及计算机可读存储介质
CN111506758B (zh) 物品名称确定方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant