CN111582418A - 一种ar虚拟说明书的滑动展示方法 - Google Patents
一种ar虚拟说明书的滑动展示方法 Download PDFInfo
- Publication number
- CN111582418A CN111582418A CN202010431739.3A CN202010431739A CN111582418A CN 111582418 A CN111582418 A CN 111582418A CN 202010431739 A CN202010431739 A CN 202010431739A CN 111582418 A CN111582418 A CN 111582418A
- Authority
- CN
- China
- Prior art keywords
- product
- mobile terminal
- angle area
- picture
- visual angle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K17/00—Methods or arrangements for effecting co-operative working between equipments covered by two or more of main groups G06K1/00 - G06K15/00, e.g. automatic card files incorporating conveying and reading operations
- G06K17/0022—Methods or arrangements for effecting co-operative working between equipments covered by two or more of main groups G06K1/00 - G06K15/00, e.g. automatic card files incorporating conveying and reading operations arrangements or provisious for transferring data to distant stations, e.g. from a sensing device
- G06K17/0025—Methods or arrangements for effecting co-operative working between equipments covered by two or more of main groups G06K1/00 - G06K15/00, e.g. automatic card files incorporating conveying and reading operations arrangements or provisious for transferring data to distant stations, e.g. from a sensing device the arrangement consisting of a wireless interrogation device in combination with a device for optically marking the record carrier
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
- G06F16/538—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Library & Information Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Multimedia (AREA)
- Architecture (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明一种AR虚拟说明书的滑动展示方法,属于AR虚拟说明书应用技术领域;所要解决的技术问题为:提供一种AR虚拟说明书的滑动展示方法的改进;解决该技术问题采用的技术方案为:将产品周边划分为若干视角区域,在每个视角区域内采集产品照片并上传,在AR说明图片内定义边界框,使边界框与该产品视角区域建立映射关系;使用移动终端摄像头采集到的产品识别码,从服务器端下载该产品对应的目标分类模型和一张AR说明图片,使用移动终端摄像头采集产品的视频图像,通过目标分类模型对视频图像中出现的产品视角区域进行实时分类;根据映射关系将AR说明图片上与实时分类结果对应的边界框部分滑动到展示窗口;本发明应用于AR虚拟说明书展示场所。
Description
技术领域
本发明一种AR虚拟说明书的滑动展示方法,属于AR虚拟说明书应用技术领域。
背景技术
目前商户向客户推销产品主要采用传统的线下销售方式,需要由促销员全程跟随客户挑选产品,并针对产品的功能、优点、价格等信息进行讲解,传统销售过程较为枯燥,容易使客户产生厌倦,无法激发购买欲望;随着时代科技的发展,依靠AR视听觉增强技术,出现了新的销售与展示方法。
新的销售展示方法要求在服务器端预存储产品互动内容,对产品某一视角下的图片进行图像处理以获得该图片中的某一种特征描述符,用于目标检测,另外在移动终端下载并保存该产品的特征描述符,然后通过移动终端摄像头预览获得视频流,并对视频流中的一帧图片或者照片进行图像处理以获得该特征描述符,与已保存的特征描述符进行比较,通过匹配特征描述符进行目标检测和目标跟踪,定位该产品出现在视频流或者照片中的平面位置,并在该平面位置上同步展示相应的产品信息给用户。
基于上述检测方式,现有的AR虚拟说明书展示方式主要通过目标检测模型和目标跟踪模型定位产品的位置和姿态,但训练目标检测模型后生成的结果文件较大,移动终端下载时间长,占用存储空间大;
另外实时目标检测和目标跟踪对移动终端设备性能的要求较高,这导致已有的AR虚拟说明书展示方案依赖在移动终端安装额外的指定应用软件,以及对移动终端设备性能有较高的要求。若通过移动终端设备的浏览器打开摄像头提供AR虚拟说明书服务,则无法保证目标检测和目标跟踪的实时性。
发明内容
本发明为了克服现有技术中存在的不足,所要解决的技术问题为:提供一种AR虚拟说明书的滑动展示方法的改进。
为了解决上述技术问题,本发明采用的技术方案为:一种AR虚拟说明书的滑动展示方法,包括如下步骤:
步骤一:在服务器端,商家上传一张AR说明图片作为产品的说明书,用以展示说明;
步骤二:在服务器端,商家将产品周边划分为若干视角区域,在每个视角区域内采集一张或多张产品照片并上传;
步骤三:在服务器端,商家根据说明需求,在AR说明图片内定义一个边界框,同时根据步骤二划分的视角区域指定一个对应的产品视角区域,使该定义的边界框与该产品视角区域建立映射关系;
步骤四:在服务器端,由步骤三建立多个映射关系,商家在每个映射关系中的产品视角区域内为产品拍多张照片,照片将作为该产品视角区域类别的图片样本并上传;
步骤五:在服务器端,由步骤四为各个产品视角区域收集图片样本构成训练数据集,所述训练数据集中的图片样本根据所属的产品视角区域进行分组,用于训练新的目标分类模型,所述目标分类模型将用于对图片中的产品视角区域进行分类;
步骤六:在移动终端,使用移动终端摄像头采集到的产品识别码,从服务器端下载该产品对应的目标分类模型和一张AR说明图片,此时移动终端的展示窗口显示AR说明图片的默认位置;
步骤七:在移动终端,使用移动终端摄像头采集产品的视频图像,并通过目标分类模型对视频图像中出现的产品视角区域进行实时分类;
步骤八:在移动终端,根据下载目标分类模型中的映射关系,将AR说明图片上与实时分类结果对应的边界框部分滑动到展示窗口,同时对AR说明图片进行缩放操作使边界框与展示窗口大小相匹配;
步骤九:在移动终端,移动或转动产品,若目标分类模型的实时分类结果未发生变化,即视频流中的产品视角区域未发生变化,则移动终端对实时提取的部分特征描述符的移动轨迹数据进行数据处理,数据处理结果用于控制AR说明图片在同一视角区域内做同步平面移动,无需缩放操作,将AR说明图片相应位置滑动到展示窗口,展示给用户;
若目标分类模型的实时分类结果发生变化,即视频流中的产品视角区域发生改变,则跳转至步骤八。
所述步骤二中采集的产品照片具体为产品局部照片,或为产品整体照片。
所述步骤二中若干视角区域具体为将产品所有视角划分为若干组,每一组代表一个产品视角区域。
所述步骤三中定义的边界框具体为在AR说明图片的大小范围内定义一个长宽任意的矩形框。
所述步骤五中的目标分类模型为机器学习模型中分类模型的一种,具体为支持向量机图像分类模型或卷积神经网络图像分类模型。
所述步骤五中的产品识别码具体为产品上的条形码或者二维码。
所述步骤五中AR说明图片的默认位置具体为与包含产品识别码的产品视角区域相映射的一个边界框位置,或者为位于AR说明图片中心的一个边界框位置。
所述移动终端具体为智能手机、产品展示装置或AR眼镜。
本发明相对于现有技术具备的有益效果为:本发明提供一种在移动终端滑动展示AR虚拟说明书的方法,移动终端下载所述产品对应的的目标分类模型和一张说明书图片,主要根据目标分类模型判断商品在视频流中出现的产品视角情况,将说明书图片上与分类结果映射的边界框部分滑动到展示窗口,并通过缩放操作使边界框部分与展示窗口大小匹配。如果视频流的产品视角未发生变化,则移动终端对实时提取的部分特征描述符的移动轨迹进行数据处理,将数据处理结果用于控制AR说明图片在同一视角区域内做同步平面移动,无需缩放操作,将AR说明图片其他位置滑动到展示窗口,展示给用户;
相较于传统的目标检测模型和目标跟踪模型,该方法无需额外定位商品在视频流中的平面位置,使用的目标分类模型文件数据量较小,下载与识别过程快,实时目标分类的数据处理对移动终端设备性能的要求低,适合在移动终端的浏览器部署AR虚拟说明书服务,用户无需在移动终端下载并安装额外的应用软件,使用更加方便,更易推广;相较于传统的目标检测模型和目标跟踪模型,视频流中实时提取的特征描述符不用于目标检测和目标跟踪,所以无需进行特征描述符的匹配操作,只对实时提取的部分特征描述符的移动轨迹进行综合,综合结果用于控制说明书图片在同一视角区域内做同步平面移动。
附图说明
下面结合附图对本发明做进一步说明:
图1为本发明实施例中AR说明图片的示意图;
图2为本发明实施例中产品视角与AR说明图片内的边界框建立映射关系的示意图;
图3为本发明实施例中采集的数据(照片)根据产品视角区域分组构成训练数据集的示意图;
图4为本发明实施例中移动终端通过展示窗口显示AR说明图片局部的展示图;
图5为本发明实施例中移动终端的实时分类结果发生变化时的展示图;
图6为本发明实施例中移动终端的实时分类结果未发生变化时根据部分特征描述符的位移情况同步移动AR说明图片的展示图。
具体实施方式
本发明将一张较大的图片处理为AR虚拟说明书图片,并通过移动终端上较小的展示窗口将AR说明图片中局部信息展示给用户,用户可以通过移动或转动产品以改变产品在预览界面中的视角范围后同步移动AR说明图片上所映射的边界框部分到展示窗口;若产品视角区域未改变,移动终端则通过部分特征描述符的位移情况同步控制AR说明图片的移动,从而展示AR说明图片的不同位置给用户,实现AR的进一步交互。
为实现上述功能,本发明主要采用的方法步骤为:
1、在服务器端,商家上传一张AR说明图片作为产品的说明书,用以展示说明;
2、在服务器端,商家将产品周边划分为若干视角区域,在每个视角区域内采集一张或多张产品照片并上传;
3、在服务器端,商家根据说明需求,在AR说明图片内定义一个边界框,同时根据步骤二划分的视角区域指定一个对应的产品视角区域,使该定义的边界框与该产品视角区域建立映射关系;
4、在服务器端,由步骤三建立多个映射关系,商家在每个映射关系中的产品视角区域内为产品拍多张照片,照片将作为该产品视角区域类别的图片样本并上传;
5、在服务器端,由步骤四为各个产品视角区域收集图片样本构成训练数据集,所述训练数据集中的图片样本根据所属的产品视角区域进行分组,用于训练新的目标分类模型,所述目标分类模型将用于对图片中的产品视角区域进行分类;
6、在移动终端,使用移动终端摄像头采集到的产品识别码,从服务器端下载该产品对应的目标分类模型和一张AR说明图片,此时移动终端的展示窗口显示AR说明图片的默认位置;
7、在移动终端,使用移动终端摄像头采集产品的视频图像,并通过目标分类模型对视频图像中出现的产品视角区域进行实时分类;
8、在移动终端,根据下载目标分类模型中的映射关系,将AR说明图片上与实时分类结果对应的边界框部分滑动到展示窗口,同时对AR说明图片进行缩放操作使边界框与展示窗口大小相匹配;
9、在移动终端,移动或转动产品,若目标分类模型的实时分类结果未发生变化,即视频流中的产品视角区域未发生变化,则移动终端对实时提取的部分特征描述符的移动轨迹数据进行数据处理,数据处理结果用于控制AR说明图片在同一视角区域内做同步平面移动,无需缩放操作,将AR说明图片相应位置滑动到展示窗口,展示给用户;
若目标分类模型的实时分类结果发生变化,即视频流中的产品视角区域改变,则根据映射关系,将AR说明图片上的实时分类结果对应的边界框部分滑动到展示窗口,并通过对AR说明图片的缩放操作使边界框与展示窗口大小相匹配。
本发明主要根据目标分类模型判断商品在视频流中出现的产品视角,无需定位商品在视频流中的平面位置,相较于传统的目标检测模型和目标跟踪模型,目标分类模型的文件数据量通常较小,移动终端下载过程快,且实时目标分类对移动终端设备性能的要求较低;视频流中实时提取的特征描述符不用于目标检测和目标跟踪,所以无需进行特征描述符的匹配操作,降低了移动终端实时数据处理的负载,只对实时提取的部分特征描述符的移动轨迹进行综合,综合结果用于控制AR说明图片在同一产品视角区域内做同步平面移动;本发明适合在移动终端浏览器提供AR服务,使消费者无需在移动终端下载并安装额外的应用软件。
本发明实施例将结合说明书附图做进一步详细的说明:
如图1所示,具体为商家在服务器端上传的一张包含商品说明信息的图片,将该图片作为AR说明图片存入服务器端。
如图2所示,具体为商家在服务器端指定AR说明图片内的三个边界框,每个边界框与该产品在视频流中的某个视角区域建立映射关系,图中将产品周边划分为A区、B区、C区三个视角区域,分别对应AR说明图片内的框一、框二、框三。
如图3所示,具体为商家将产品周边划分为A区、B区、C区三个视角区域,每个视角区域内采集三张产品照片作为该视角区域类别的图片样本,构成训练数据集。
如图4所示,用户(消费者)通过移动终端摄像头预览商品外观,由移动终端通过目标分类模型识别出该商品外观图像为产品视角二的图像,则移动终端通过展示窗口仅显示AR说明图片在框二所指定的范围。
如图5所示,当用户(消费者)移动或转动商品时,目标分类模型的实时分类结果由产品视角B变为产品视角A,移动终端的展示窗口显示的内容将发生变化,AR说明图片内由视角B所映射的框二滑动到视角A所映射的框一。
如图6所示,当用户(消费者)在同一产品视角区域内移动或转动商品时,移动终端对摄像头预览界面中实时提取的部分特征描述符的移动轨迹进行综合(部分特征描述符的移动向量求平均)得到移动向量综合结果,如图中轨迹变化的平均结果为向右上方向发生位移,则同步控制AR说明图片向右上方向移动,移动终端的展示窗口在AR说明图片相应的显示范围内向左下方向移动。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (8)
1.一种AR虚拟说明书的滑动展示方法,其特征在于:包括如下步骤:
步骤一:在服务器端,商家上传一张AR说明图片作为产品的说明书,用以展示说明;
步骤二:在服务器端,商家将产品周边划分为若干视角区域,在每个视角区域内采集一张或多张产品照片并上传;
步骤三:在服务器端,商家根据说明需求,在AR说明图片内定义一个边界框,同时根据步骤二划分的视角区域指定一个对应的产品视角区域,使该定义的边界框与该产品视角区域建立映射关系;
步骤四:在服务器端,由步骤三建立多个映射关系,商家在每个映射关系中的产品视角区域内为产品拍多张照片,照片将作为该产品视角区域类别的图片样本并上传;
步骤五:在服务器端,由步骤四为各个产品视角区域收集图片样本构成训练数据集,所述训练数据集中的图片样本根据所属的产品视角区域进行分组,用于训练新的目标分类模型,所述目标分类模型将用于对图片中的产品视角区域进行分类;
步骤六:在移动终端,使用移动终端摄像头采集到的产品识别码,从服务器端下载该产品对应的目标分类模型和一张AR说明图片,此时移动终端的展示窗口显示AR说明图片的默认位置;
步骤七:在移动终端,使用移动终端摄像头采集产品的视频图像,并通过目标分类模型对视频图像中出现的产品视角区域进行实时分类;
步骤八:在移动终端,根据下载目标分类模型中的映射关系,将AR说明图片上与实时分类结果对应的边界框部分滑动到展示窗口,同时对AR说明图片进行缩放操作使边界框与展示窗口大小相匹配;
步骤九:在移动终端,移动或转动产品,若目标分类模型的实时分类结果未发生变化,即视频流中的产品视角区域未发生变化,则移动终端对实时提取的部分特征描述符的移动轨迹数据进行数据处理,数据处理结果用于控制AR说明图片在同一视角区域内做同步平面移动,无需缩放操作,将AR说明图片相应位置滑动到展示窗口,展示给用户;
若目标分类模型的实时分类结果发生变化,即视频流中的产品视角区域发生改变,则跳转至步骤八。
2.根据权利要求1所述的一种AR虚拟说明书的滑动展示方法,其特征在于:所述步骤二中采集的产品照片具体为产品局部照片,或为产品整体照片。
3.根据权利要求1所述的一种AR虚拟说明书的滑动展示方法,其特征在于:所述步骤二中若干视角区域具体为将产品所有视角划分为若干组,每一组代表一个产品视角区域。
4.根据权利要求1所述的一种AR虚拟说明书的滑动展示方法,其特征在于:所述步骤三中定义的边界框具体为在AR说明图片的大小范围内定义一个长宽任意的矩形框。
5.根据权利要求1所述的一种AR虚拟说明书的滑动展示方法,其特征在于:所述步骤五中的目标分类模型为机器学习模型中分类模型的一种,具体为支持向量机图像分类模型或卷积神经网络图像分类模型。
6.根据权利要求1所述的一种AR虚拟说明书的滑动展示方法,其特征在于:所述步骤五中的产品识别码具体为产品上的条形码或者二维码。
7.根据权利要求1所述的一种AR虚拟说明书的滑动展示方法,其特征在于:所述步骤五中AR说明图片的默认位置具体为与包含产品识别码的产品视角区域相映射的一个边界框位置,或者为位于AR说明图片中心的一个边界框位置。
8.根据权利要求1所述的一种AR虚拟说明书的滑动展示方法,其特征在于:所述移动终端具体为智能手机、产品展示装置或AR眼镜。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010431739.3A CN111582418B (zh) | 2020-05-20 | 2020-05-20 | 一种ar虚拟说明书的滑动展示方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010431739.3A CN111582418B (zh) | 2020-05-20 | 2020-05-20 | 一种ar虚拟说明书的滑动展示方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111582418A true CN111582418A (zh) | 2020-08-25 |
CN111582418B CN111582418B (zh) | 2022-03-08 |
Family
ID=72112274
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010431739.3A Active CN111582418B (zh) | 2020-05-20 | 2020-05-20 | 一种ar虚拟说明书的滑动展示方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111582418B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113489963A (zh) * | 2021-07-08 | 2021-10-08 | 宁波宝贝第一母婴用品有限公司 | 推车安装引导方法和装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106776732A (zh) * | 2016-11-21 | 2017-05-31 | 湖南拓视觉信息技术有限公司 | 虚拟电子说明书的实现方法及装置 |
CN107301378A (zh) * | 2017-05-26 | 2017-10-27 | 上海交通大学 | 图像中多分类器集成的行人检测方法和系统 |
CN108009176A (zh) * | 2016-10-28 | 2018-05-08 | 百度在线网络技术(北京)有限公司 | 基于ar技术的说明书展示方法、装置及设备 |
CN110313021A (zh) * | 2017-03-06 | 2019-10-08 | Line 株式会社 | 用于提供增强现实的方法和设备以及计算机程序 |
-
2020
- 2020-05-20 CN CN202010431739.3A patent/CN111582418B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108009176A (zh) * | 2016-10-28 | 2018-05-08 | 百度在线网络技术(北京)有限公司 | 基于ar技术的说明书展示方法、装置及设备 |
CN106776732A (zh) * | 2016-11-21 | 2017-05-31 | 湖南拓视觉信息技术有限公司 | 虚拟电子说明书的实现方法及装置 |
CN110313021A (zh) * | 2017-03-06 | 2019-10-08 | Line 株式会社 | 用于提供增强现实的方法和设备以及计算机程序 |
CN107301378A (zh) * | 2017-05-26 | 2017-10-27 | 上海交通大学 | 图像中多分类器集成的行人检测方法和系统 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113489963A (zh) * | 2021-07-08 | 2021-10-08 | 宁波宝贝第一母婴用品有限公司 | 推车安装引导方法和装置 |
CN113489963B (zh) * | 2021-07-08 | 2024-02-23 | 宁波宝贝第一母婴用品有限公司 | 推车安装引导方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111582418B (zh) | 2022-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Liu et al. | Semantic-aware implicit neural audio-driven video portrait generation | |
Wang et al. | Movie2comics: Towards a lively video content presentation | |
CN109614983B (zh) | 训练数据的生成方法、装置及系统 | |
US11164362B1 (en) | Virtual reality user interface generation | |
CN110136229A (zh) | 一种用于实时虚拟换脸的方法与设备 | |
EP3433816A1 (en) | Apparatus, systems, and methods for integrating digital media content into other digital media content | |
Yu et al. | A deep ranking model for spatio-temporal highlight detection from a 360◦ video | |
CN109690617A (zh) | 用于数字化妆镜的系统和方法 | |
CN108596940A (zh) | 一种视频分割方法和装置 | |
US11262906B2 (en) | In-place scrolling for a user in interface | |
CN109740571A (zh) | 图像采集的方法、图像处理的方法、装置和电子设备 | |
EP3681144B1 (en) | Video processing method and apparatus based on augmented reality, and electronic device | |
CN111491187A (zh) | 视频的推荐方法、装置、设备及存储介质 | |
KR102007432B1 (ko) | 3차원 콘텐츠 영상 생성 및 제공 시스템 | |
CN108228072B (zh) | 量子传输云智能交互橱窗流媒管理系统和方法 | |
CN111582418B (zh) | 一种ar虚拟说明书的滑动展示方法 | |
WO2023197780A1 (zh) | 图像处理方法、装置、电子设备及存储介质 | |
WO2021098310A1 (zh) | 视频生成方法、装置、终端以及存储介质 | |
Caspi et al. | Dynamic stills and clip trailers | |
CN114266621A (zh) | 图像处理方法、图像处理系统及电子设备 | |
Li et al. | Predicting user visual attention in virtual reality with a deep learning model | |
CN110647374A (zh) | 全息展示窗的交互方法、装置以及电子设备 | |
CN113709544B (zh) | 视频的播放方法、装置、设备及计算机可读存储介质 | |
CN112509152A (zh) | 一种基于ar技术的看车方法、系统、设备及可读介质 | |
Liu et al. | Towards perceptual video cropping with curve fitting |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |