CN112258267A - 一种用于ai商品识别训练的数据采集方法 - Google Patents
一种用于ai商品识别训练的数据采集方法 Download PDFInfo
- Publication number
- CN112258267A CN112258267A CN202011097770.4A CN202011097770A CN112258267A CN 112258267 A CN112258267 A CN 112258267A CN 202011097770 A CN202011097770 A CN 202011097770A CN 112258267 A CN112258267 A CN 112258267A
- Authority
- CN
- China
- Prior art keywords
- commodity
- database
- shopping
- model
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0641—Shopping interfaces
- G06Q30/0643—Graphical representation of items or shoppers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/21—Design, administration or maintenance of databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/245—Query processing
- G06F16/2455—Query execution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/067—Enterprise or organisation modelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Abstract
本发明公开了一种用于AI商品识别训练的数据采集方法,涉及AI商品识别技术领域,包括以下步骤:建立购物场景数据库、商品模型数据库和模型人数据库;获取相机视图背景,并对从商品模型数据库中调取的商品模型进行组合得到至少一种组合,再由虚拟相机采集每种组合在相机视图背景中的图像得到商品数据集;在购物场景数据库的任意3D购物场景中摆放商品,并设置至少一个虚拟相机,形成虚拟购物场景;控制模型人数据库中多个模型人在虚拟购物场景中模拟购物行为,并通过虚拟相机捕获视野图像,生成数据集;本发明解决了现有技术AI商品识别训练采集数据过程复杂、需要耗费大量人工劳动力和精力,成本高且采集效率较低的问题。
Description
技术领域
本发明涉及AI商品识别技术领域,具体涉及一种用于AI商品识别训练的数据采集方法。
背景技术
随着电子支付技术、身份识别技术及商品识别技术极大地发展,在零售行业用出现了越来越多的无人售货机、无人零售店、无人超市等。其中,运用AI技术对商品进行深度学习与训练,精确识别图片中每个商品及其相关信息的AI商品识别技术是无人售货机、无人零售店、无人超市的重点技术之一,也是目前发展的主要趋势。
当前AI商品识别的训练方法主要有两种,一种是需要在真实实验场地,以不同角度或不同方向摆放各种商品,或者人为地以不同姿势拿取商品,并尽可能多地获取到不同状况下的商品状态,然后利用真实物理相机对这些状态进行捕捉,采集数据集后,给AI进行商品识别训练;另一种是将真实商店里面的商品逐个拍照,对商品进行抠图形成透明背景的商品图后,结合COCO背景图生成图片数据,对图片数据进行人工标注整合到数据集后,再给AI进行商品识别训练。
其中,数据集作为训练的基础,用来估计模型中的参数,使模型能够反映现实,进而预测未来或其他未知的信息,采集的数据量越大、越全面,训练的结果就越准确,因此,采集数据是AI商品识别训练中至关重要的一步骤,但目前使用上述的两种数据采集方法都比较传统,需要耗费大量人工劳动力和精力,无法高效获取到在任意环境下的大量训练数据,采集数据周期较长,人力成本高昂且采集效率较低。
因此,针对上述问题,有必要提供一种更高效的用于AI商品识别训练的数据采集方法。
发明内容
本发明的目的在于:针对现有技术中的缺陷,本发明提供一种用于AI商品识别训练的数据采集方法,以解决现有技术AI商品识别训练采集数据过程复杂、需要耗费大量人工劳动力和精力,成本高且采集效率较低的问题。
本发明采用的技术方案如下:
一种用于AI商品识别训练的数据采集方法,包括以下步骤:
分别建立购物场景数据库、商品模型数据库和模型人数据库;
获取相机视图背景,并对从所述商品模型数据库中调取的商品模型进行组合得到至少一种组合,再由虚拟相机采集每种组合在相机视图背景中的图像得到商品数据集;
在所述购物场景数据库的任意3D购物场景中摆放所述商品数据集中的商品,并在其中设置至少一个虚拟相机,形成虚拟购物场景;
控制所述模型人数据库中多个模型人在虚拟购物场景中模拟购物行为,并通过所述至少一个虚拟相机捕获视野图像,生成数据集。
优选地,所述的分别建立购物场景数据库、商品模型数据库和模型人数据库,包括以下步骤:
构建或收集3D购物场景建立购物场景数据库;
构建或收集多种商品模型建立商品模型数据库;
构建或收集真实购物者行为信息建立模型人数据库。
优选地,所述的构建3D购物场景建立购物场景数据库包括以下步骤:
在建模软件中根据真实的购物场景构建室内场景;
将室内场景导入到Unity引擎或直接在Unity引擎中使用内置基础模型构建得到3D购物场景建立购物场景数据库。
优选地,所述的获取相机视图背景,并对从所述商品模型数据库中调取的商品模型进行组合得到至少一种组合,再由虚拟相机采集每种组合在相机视图背景中的图像得到商品数据集,包括以下步骤:
从分割和字幕数据集中随机获取一个背景图作为相机视图背景;
从所述商品模型数据库中随机调取多个商品模型;
按照不同位置、方向、运动模糊程度和变形效果对所述多个商品模型进行组合,组合成至少一种组合;
动态创建一个相机模型作为虚拟相机;
将所述至少一种组合与所述相机视图背景融合为对应的至少一种图像;
将所述至少一种图像放置在所述虚拟相机的视锥体内,所述虚拟相机采集所述至少一种图像后得到商品数据集。
优选地,所述的在所述购物场景数据库的任意3D购物场景中摆放所述商品数据集中的商品,并在其中设置至少一个虚拟相机,形成虚拟购物场景,包括以下步骤:
从所述购物场景数据库中任意调取一个3D购物场景,并在3D购物场景中导入虚拟货架;
在所述虚拟货架上摆放所述商品数据集中的所有商品;
在所述3D购物场景中设置至少一个虚拟相机,形成虚拟购物场景。
优选地,所述的控制所述模型人数据库中多个模型人在虚拟购物场景中模拟购物行为,并通过所述至少一个虚拟相机捕获视野图像,生成数据集,包括以下步骤:
在虚拟购物场景中标记目标商品;
从所述模型人数据库中任意调取多个模型人,根据自动寻路法让模型人自动寻找路线去拿取目标商品;
在模型人拿取目标商品的过程中,通过所述至少一个虚拟相机捕获模型人不同运动模糊程度和形变程度的视野图像,生成数据集。
优选地,所述方法还包括:
使用OpenCV技术标注数据集的所有视野图像中的每个商品的标注信息,进行文本补充。
优选地,所述商品的标注信息包括商品的轮廓和外接矩形中的至少一种。
优选地,所述的使用OpenCV技术标注数据集的所有视野图像中每个商品的标注信息,进行文本补充包括:
逐一读取数据集的每一张视野图像;
对读取到的视野图像进行阀值处理;
提取视野图像中模型人和商品的轮廓图;
对模型人和商品的轮廓图进行二值化处理,得到二值图;
在二值图中识别目标商品的边缘轮廓,得到目标商品的轮廓和外接矩形。
本发明的有益效果体现在:
1.本发明的一种用于AI商品识别训练的数据采集方法,脱离现实的约束,直接从数据库中获取信息实现在虚拟世界模拟真实世界,不需要雇佣专人到真实的场地去做这些行为,不需要人为地来来回回购物再提取数据,而是直接通过模型人在虚拟购物场景中模拟购物行为,可实现更多的可能性和不同状况,再通过虚拟相机捕获视野图像,生成数据集,降低了成本,减少了提取数据的时间,可以更高效的提取到更全面的数据。
2.本发明的一种用于AI商品识别训练的数据采集方法,可以模拟出各种情况下的商品状态,创造无限的可能去生成数据,相比现有技术能有效降低人力成本并且可以做到在短时间内更高效的批量生成超大容量的数据。
3.本发明的一种用于AI商品识别训练的数据采集方法,通过分类建立购物场景数据库、商品模型数据库和模型人数据库,方便按任意训练需求直接从数据库中提取出对应数据进行组合。
4.本发明的一种用于AI商品识别训练的数据采集方法,还包括使用OpenCV技术标注数据集的所有视野图像中每个商品的标注信息,可以进一步提高收集到的数据集的准确度,从而使AI商品识别训练的结果更准确。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍。在所有附图中,类似的元件或部分一般由类似的附图标记标识。附图中,各元件或部分并不一定按照实际的比例绘制。
图1为本发明一种用于AI商品识别训练的数据采集方法的流程示意图。
图2为本发明一种用于AI商品识别训练的数据采集方法的另一流程示意图。
具体实施方式
下面将结合附图对本发明技术方案的实施例进行详细的描述。以下实施例仅用于更加清楚地说明本发明的技术方案,因此只作为示例,而不能以此来限制本发明的保护范围。
需要注意的是,除非另有说明,本申请使用的技术术语或者科学术语应当为本发明所属领域技术人员所理解的通常意义。
实施例一
本实施例提供了一种用于AI商品识别训练的数据采集方法,包括以下步骤:
步骤1:分别建立购物场景数据库、商品模型数据库和模型人数据库,方便按任意训练需求直接从数据库中提取出对应数据进行组合;
步骤1.1:构建或收集3D购物场景建立购物场景数据库;
步骤1.1.1:根据训练需求,在专业的建模软件中根据真实的购物场景和/或光照环境构建室内场景;
本实施例中,如果有明确场景需求则首先根据真实的购物场景构建室内场景,再将室内场景导入到Unity引擎,在Unity引擎中模拟光照环境到室内场景;如果没有明确场景需求,则可以直接在Unity引擎中模拟光照环境作为室内场景;
步骤1.1.2:将步骤1.1.1的室内场景导入到Unity引擎或直接在Unity引擎中使用内置基础模型构建得到3D购物场景,建立购物场景数据库;
步骤1.2:构建或收集多种商品模型建立商品模型数据库;
步骤1.3:构建或收集真实购物者行为信息建立模型人数据库。
步骤2:获取相机视图背景,并对从所述商品模型数据库中调取的商品模型进行组合得到至少一种组合,再由虚拟相机采集每种组合在相机视图背景中的图像得到商品数据集;
步骤2.1:从分割和字幕数据集中随机获取一个背景图作为相机视图背景;
步骤2.2:从所述商品模型数据库中随机调取多个商品模型;
步骤2.3:按照不同位置、方向、运动模糊程度和变形效果对所述多个商品模型进行组合,组合成至少一种组合;
步骤2.4:动态创建一个相机模型作为虚拟相机;
步骤2.5:将所述至少一种组合与所述相机视图背景融合为对应的至少一种图像;
步骤2.6:将所述至少一种图像放置在所述虚拟相机的视锥体内,所述虚拟相机采集所述至少一种图像后得到商品数据集。
步骤3:在所述购物场景数据库的任意3D购物场景中摆放所述商品数据集中的商品,并在其中设置至少一个虚拟相机,形成虚拟购物场景;
本实施例中,3D购物场景为纯3D的虚拟空间,可以指一个无限的三维空间,也可以表示具体的一个3D虚拟室内环境;商品和模型人是可以在这个场景里动态增删的对象,可以按训练需求进行控制,虚拟相机相当于数据采集过程中的眼睛,也可以根据训练需求被控制;
步骤3.1:从所述购物场景数据库中任意调取一个3D购物场景,并在3D购物场景中导入虚拟货架;
步骤3.2:在所述虚拟货架上摆放所述商品数据集中的所有商品;
步骤3.3:根据训练需求,在所述3D购物场景中设置至少一个虚拟相机或根据不同高度和不同视野设置多个虚拟相机,形成虚拟购物场景;
比如,训练要求使用场景1,在场景1中导入多个虚拟货架,在每个虚拟货架上摆放所述商品数据集中的所有商品,再在每个虚拟货架正上方摆放一个上下视角的虚拟相机,形成虚拟购物场景1。
步骤4:控制所述模型人数据库中多个模型人在虚拟购物场景中模拟购物行为,并通过所述至少一个虚拟相机捕获视野图像,生成数据集;
步骤4.1:在虚拟购物场景中标记目标商品;
步骤4.2:从所述模型人数据库中任意调取多个模型人,根据自动寻路法让模型人自动寻找路线去拿取目标商品;
步骤4.3:在模型人拿取目标商品的过程中,通过所述至少一个虚拟相机或多个虚拟相机捕获模型人不同运动模糊程度和形变程度的视野图像,生成数据集;
比如,在虚拟购物场景1中标记前50个商品为目标商品后,从所述模型人数据库中调取前150个模型人在虚拟购物场景1内进行购物行为,拿取标记的目标商品,然后每个虚拟相机捕获该模型人在1个小时内以不同运动模糊程度和形变程度拿取目标商品的视野图像作为数据集。
本实施例提供的一种用于AI商品识别训练的数据采集方法,脱离现实的约束,直接从数据库中获取信息实现在虚拟世界模拟真实世界,不需要雇佣专人到真实的场地去做这些行为,不需要人为地来来回回购物再提取数据,而是直接通过模型人在虚拟购物场景中模拟购物行为,可实现更多的可能性和不同状况,再通过虚拟相机捕获视野图像,生成数据集,降低了成本,减少了提取数据的时间,可以更高效的提取到更全面的数据;同时,还可以模拟出各种情况下的商品状态,创造无限的可能去生成数据,相比现有技术能有效降低人力成本并且可以做到在短时间内更高效的批量生成超大容量的数据。
实施例二
在上述实施例的基础上,提供一种用于AI商品识别训练的数据采集方法,为进一步更好地实施本发明,所述方法还包括以下步骤:
步骤5:使用OpenCV技术标注数据集的所有视野图像中的每个商品的标注信息,进行文本补充,其中,所述商品的标注信息包括商品的轮廓和外接矩形中的至少一种;
本实施例中,标注是对生成的数据集的文本补充信息,属于数据集中的一部分,可以根据训练需求决定是否进行商品信息标注;
步骤5.1:逐一读取数据集的每一张视野图像;
步骤5.2:对读取到的视野图像进行阀值处理;
步骤5.3:提取视野图像中模型人和商品的轮廓图;
步骤5.4:对模型人和商品的轮廓图进行二值化处理,得到二值图,所述二值图为黑色背景、白色前景的图;
步骤5.5:在二值图中识别目标商品的边缘轮廓,得到目标商品的轮廓和外接矩形。
本实施例提供的一种用于AI商品识别训练的数据采集方法,在实施例一的基础上,可以进一步提高收集到的数据集的准确度,从而使AI商品识别训练的结果更准确。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围,其均应涵盖在本发明的权利要求和说明书的范围当中。
Claims (9)
1.一种用于AI商品识别训练的数据采集方法,其特征在于,包括以下步骤:
分别建立购物场景数据库、商品模型数据库和模型人数据库;
获取相机视图背景,并对从所述商品模型数据库中调取的商品模型进行组合得到至少一种组合,再由虚拟相机采集每种组合在相机视图背景中的图像得到商品数据集;
在所述购物场景数据库的任意3D购物场景中摆放所述商品数据集中的商品,并在其中设置至少一个虚拟相机,形成虚拟购物场景;
控制所述模型人数据库中多个模型人在虚拟购物场景中模拟购物行为,并通过所述至少一个虚拟相机捕获视野图像,生成数据集。
2.根据权利要求1所述的用于AI商品识别训练的数据采集方法,其特征在于,所述的分别建立购物场景数据库、商品模型数据库和模型人数据库,包括以下步骤:
构建或收集3D购物场景建立购物场景数据库;
构建或收集多种商品模型建立商品模型数据库;
构建或收集真实购物者行为信息建立模型人数据库。
3.根据权利要求2所述的用于AI商品识别训练的数据采集方法,其特征在于,所述的构建3D购物场景建立购物场景数据库包括以下步骤:
在建模软件中根据真实的购物场景构建室内场景;
将室内场景导入到Unity引擎或直接在Unity引擎中使用内置基础模型构建得到3D购物场景建立购物场景数据库。
4.根据权利要求1所述的用于AI商品识别训练的数据采集方法,其特征在于,所述的获取相机视图背景,并对从所述商品模型数据库中调取的商品模型进行组合得到至少一种组合,再由虚拟相机采集每种组合在相机视图背景中的图像得到商品数据集,包括以下步骤:
从分割和字幕数据集中随机获取一个背景图作为相机视图背景;
从所述商品模型数据库中随机调取多个商品模型;
按照不同位置、方向、运动模糊程度和变形效果对所述多个商品模型进行组合,组合成至少一种组合;
动态创建一个相机模型作为虚拟相机;
将所述至少一种组合与所述相机视图背景融合为对应的至少一种图像;
将所述至少一种图像放置在所述虚拟相机的视锥体内,所述虚拟相机采集所述至少一种图像后得到商品数据集。
5.根据权利要求1所述的用于AI商品识别训练的数据采集方法,其特征在于,所述的在所述购物场景数据库的任意3D购物场景中摆放所述商品数据集中的商品,并在其中设置至少一个虚拟相机,形成虚拟购物场景,包括以下步骤:
从所述购物场景数据库中任意调取一个3D购物场景,并在3D购物场景中导入虚拟货架;
在所述虚拟货架上摆放所述商品数据集中的所有商品;
在所述3D购物场景中设置至少一个虚拟相机,形成虚拟购物场景。
6.根据权利要求1所述的用于AI商品识别训练的数据采集方法,其特征在于,所述的控制所述模型人数据库中多个模型人在虚拟购物场景中模拟购物行为,并通过所述至少一个虚拟相机捕获视野图像,生成数据集,包括以下步骤:
在虚拟购物场景中标记目标商品;
从所述模型人数据库中任意调取多个模型人,根据自动寻路法让模型人自动寻找路线去拿取目标商品;
在模型人拿取目标商品的过程中,通过所述至少一个虚拟相机捕获模型人不同运动模糊程度和形变程度的视野图像,生成数据集。
7.根据权利要求1所述的用于AI商品识别训练的数据采集方法,其特征在于,所述方法还包括:
使用OpenCV技术标注数据集的所有视野图像中的每个商品的标注信息,进行文本补充。
8.根据权利要求7所述的用于AI商品识别训练的数据采集方法,其特征在于,所述商品的标注信息包括商品的轮廓和外接矩形中的至少一种。
9.根据权利要求8所述的用于AI商品识别训练的数据采集方法,其特征在于,所述的使用OpenCV技术标注数据集的所有视野图像中每个商品的标注信息,进行文本补充包括:
逐一读取数据集的每一张视野图像;
对读取到的视野图像进行阀值处理;
提取视野图像中模型人和商品的轮廓图;
对模型人和商品的轮廓图进行二值化处理,得到二值图;
在二值图中识别目标商品的边缘轮廓,得到目标商品的轮廓和外接矩形。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011097770.4A CN112258267A (zh) | 2020-10-14 | 2020-10-14 | 一种用于ai商品识别训练的数据采集方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011097770.4A CN112258267A (zh) | 2020-10-14 | 2020-10-14 | 一种用于ai商品识别训练的数据采集方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112258267A true CN112258267A (zh) | 2021-01-22 |
Family
ID=74243723
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011097770.4A Withdrawn CN112258267A (zh) | 2020-10-14 | 2020-10-14 | 一种用于ai商品识别训练的数据采集方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112258267A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116311225A (zh) * | 2023-05-18 | 2023-06-23 | 四川新迎顺信息技术股份有限公司 | 一种基于图像识别的大数据采集方法、数据管理方法及系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060277117A1 (en) * | 1998-06-24 | 2006-12-07 | Lewis Morris E | Method, apparatus and processes for real-time interactive online ordering and re-ordering and over the counter purchasing with rebate, saving, and investing processes |
US20160026253A1 (en) * | 2014-03-11 | 2016-01-28 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
CN106530028A (zh) * | 2015-09-09 | 2017-03-22 | 爱题埃克斯M2M株式会社 | 使用虚拟相机的个性化购物商场系统 |
CN108520453A (zh) * | 2018-03-28 | 2018-09-11 | 中兴云购科技发展有限公司 | 一种基于实体商业的线上全景购物方法及系统 |
CN110428388A (zh) * | 2019-07-11 | 2019-11-08 | 阿里巴巴集团控股有限公司 | 一种图像数据生成方法及装置 |
CN111274927A (zh) * | 2020-01-17 | 2020-06-12 | 北京三快在线科技有限公司 | 一种训练数据的生成方法、装置、电子设备和存储介质 |
CN111754414A (zh) * | 2019-03-29 | 2020-10-09 | 搜狗(杭州)智能科技有限公司 | 一种图像处理方法、装置和用于图像处理的装置 |
-
2020
- 2020-10-14 CN CN202011097770.4A patent/CN112258267A/zh not_active Withdrawn
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060277117A1 (en) * | 1998-06-24 | 2006-12-07 | Lewis Morris E | Method, apparatus and processes for real-time interactive online ordering and re-ordering and over the counter purchasing with rebate, saving, and investing processes |
US20160026253A1 (en) * | 2014-03-11 | 2016-01-28 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
CN106530028A (zh) * | 2015-09-09 | 2017-03-22 | 爱题埃克斯M2M株式会社 | 使用虚拟相机的个性化购物商场系统 |
CN108520453A (zh) * | 2018-03-28 | 2018-09-11 | 中兴云购科技发展有限公司 | 一种基于实体商业的线上全景购物方法及系统 |
CN111754414A (zh) * | 2019-03-29 | 2020-10-09 | 搜狗(杭州)智能科技有限公司 | 一种图像处理方法、装置和用于图像处理的装置 |
CN110428388A (zh) * | 2019-07-11 | 2019-11-08 | 阿里巴巴集团控股有限公司 | 一种图像数据生成方法及装置 |
CN111274927A (zh) * | 2020-01-17 | 2020-06-12 | 北京三快在线科技有限公司 | 一种训练数据的生成方法、装置、电子设备和存储介质 |
Non-Patent Citations (1)
Title |
---|
严翔等: "基于虚拟现实技术的列车网络实时控制可视化", 《铁道机车车辆》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116311225A (zh) * | 2023-05-18 | 2023-06-23 | 四川新迎顺信息技术股份有限公司 | 一种基于图像识别的大数据采集方法、数据管理方法及系统 |
CN116311225B (zh) * | 2023-05-18 | 2023-07-21 | 四川新迎顺信息技术股份有限公司 | 一种基于图像识别的大数据采集方法、数据管理方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210326597A1 (en) | Video processing method and apparatus, and electronic device and storage medium | |
CN106033435B (zh) | 物品识别方法和装置,室内地图生成方法和装置 | |
CN107683165B (zh) | 用于生成计算机模型的技术以及利用它们的设备、系统和方法 | |
US20220366578A1 (en) | Item identification and tracking system | |
CN109614983A (zh) | 训练数据的生成方法、装置及系统 | |
CN110807808A (zh) | 一种基于物理引擎和深度全卷积网络的商品识别方法 | |
CN111667005B (zh) | 一种采用rgbd视觉传感的人体交互系统 | |
CN106663196A (zh) | 视频中的计算机显著人物识别 | |
CN111160261A (zh) | 用于自动售货柜的样本图像标注方法、装置及存储介质 | |
CN110211222B (zh) | 一种ar沉浸式旅游导览方法、装置、存储介质及终端设备 | |
CN109977983A (zh) | 获得训练图像的方法及装置 | |
CN109754009A (zh) | 物品识别方法、装置、售货系统和存储介质 | |
CN110516707B (zh) | 一种图像标注方法及其装置、存储介质 | |
CN112149690A (zh) | 一种基于生物图像特征识别的溯源方法和溯源系统 | |
CN109816634A (zh) | 检测方法、模型训练方法、装置及设备 | |
CN109166172B (zh) | 服装模型的构建方法、装置、服务器和存储介质 | |
CN112258267A (zh) | 一种用于ai商品识别训练的数据采集方法 | |
CN114218692A (zh) | 基于深度学习与模型仿真的相似零件识别系统、介质和方法 | |
Zhao et al. | Arkittrack: a new diverse dataset for tracking using mobile RGB-D data | |
CN113570615A (zh) | 一种基于深度学习的图像处理方法、电子设备及存储介质 | |
CN111797704A (zh) | 一种基于相关物体感知的动作识别方法 | |
CN116630538A (zh) | 面向餐桌场景的仿真数据集生成方法与装置 | |
CN108898188A (zh) | 一种图像数据集辅助标记系统及方法 | |
CN111459050B (zh) | 一种基于双网互联的智慧仿真型护理教学系统及教学方法 | |
Khadka et al. | Synthetic crowd and pedestrian generator for deep learning problems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20210122 |
|
WW01 | Invention patent application withdrawn after publication |