CN111582418A - 一种ar虚拟说明书的滑动展示方法 - Google Patents

一种ar虚拟说明书的滑动展示方法 Download PDF

Info

Publication number
CN111582418A
CN111582418A CN202010431739.3A CN202010431739A CN111582418A CN 111582418 A CN111582418 A CN 111582418A CN 202010431739 A CN202010431739 A CN 202010431739A CN 111582418 A CN111582418 A CN 111582418A
Authority
CN
China
Prior art keywords
product
mobile terminal
angle area
picture
visual angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010431739.3A
Other languages
English (en)
Other versions
CN111582418B (zh
Inventor
郝杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN202010431739.3A priority Critical patent/CN111582418B/zh
Publication of CN111582418A publication Critical patent/CN111582418A/zh
Application granted granted Critical
Publication of CN111582418B publication Critical patent/CN111582418B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K17/00Methods or arrangements for effecting co-operative working between equipments covered by two or more of main groups G06K1/00 - G06K15/00, e.g. automatic card files incorporating conveying and reading operations
    • G06K17/0022Methods or arrangements for effecting co-operative working between equipments covered by two or more of main groups G06K1/00 - G06K15/00, e.g. automatic card files incorporating conveying and reading operations arrangements or provisious for transferring data to distant stations, e.g. from a sensing device
    • G06K17/0025Methods or arrangements for effecting co-operative working between equipments covered by two or more of main groups G06K1/00 - G06K15/00, e.g. automatic card files incorporating conveying and reading operations arrangements or provisious for transferring data to distant stations, e.g. from a sensing device the arrangement consisting of a wireless interrogation device in combination with a device for optically marking the record carrier
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • G06F16/538Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Library & Information Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Architecture (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明一种AR虚拟说明书的滑动展示方法,属于AR虚拟说明书应用技术领域;所要解决的技术问题为:提供一种AR虚拟说明书的滑动展示方法的改进;解决该技术问题采用的技术方案为:将产品周边划分为若干视角区域,在每个视角区域内采集产品照片并上传,在AR说明图片内定义边界框,使边界框与该产品视角区域建立映射关系;使用移动终端摄像头采集到的产品识别码,从服务器端下载该产品对应的目标分类模型和一张AR说明图片,使用移动终端摄像头采集产品的视频图像,通过目标分类模型对视频图像中出现的产品视角区域进行实时分类;根据映射关系将AR说明图片上与实时分类结果对应的边界框部分滑动到展示窗口;本发明应用于AR虚拟说明书展示场所。

Description

一种AR虚拟说明书的滑动展示方法
技术领域
本发明一种AR虚拟说明书的滑动展示方法,属于AR虚拟说明书应用技术领域。
背景技术
目前商户向客户推销产品主要采用传统的线下销售方式,需要由促销员全程跟随客户挑选产品,并针对产品的功能、优点、价格等信息进行讲解,传统销售过程较为枯燥,容易使客户产生厌倦,无法激发购买欲望;随着时代科技的发展,依靠AR视听觉增强技术,出现了新的销售与展示方法。
新的销售展示方法要求在服务器端预存储产品互动内容,对产品某一视角下的图片进行图像处理以获得该图片中的某一种特征描述符,用于目标检测,另外在移动终端下载并保存该产品的特征描述符,然后通过移动终端摄像头预览获得视频流,并对视频流中的一帧图片或者照片进行图像处理以获得该特征描述符,与已保存的特征描述符进行比较,通过匹配特征描述符进行目标检测和目标跟踪,定位该产品出现在视频流或者照片中的平面位置,并在该平面位置上同步展示相应的产品信息给用户。
基于上述检测方式,现有的AR虚拟说明书展示方式主要通过目标检测模型和目标跟踪模型定位产品的位置和姿态,但训练目标检测模型后生成的结果文件较大,移动终端下载时间长,占用存储空间大;
另外实时目标检测和目标跟踪对移动终端设备性能的要求较高,这导致已有的AR虚拟说明书展示方案依赖在移动终端安装额外的指定应用软件,以及对移动终端设备性能有较高的要求。若通过移动终端设备的浏览器打开摄像头提供AR虚拟说明书服务,则无法保证目标检测和目标跟踪的实时性。
发明内容
本发明为了克服现有技术中存在的不足,所要解决的技术问题为:提供一种AR虚拟说明书的滑动展示方法的改进。
为了解决上述技术问题,本发明采用的技术方案为:一种AR虚拟说明书的滑动展示方法,包括如下步骤:
步骤一:在服务器端,商家上传一张AR说明图片作为产品的说明书,用以展示说明;
步骤二:在服务器端,商家将产品周边划分为若干视角区域,在每个视角区域内采集一张或多张产品照片并上传;
步骤三:在服务器端,商家根据说明需求,在AR说明图片内定义一个边界框,同时根据步骤二划分的视角区域指定一个对应的产品视角区域,使该定义的边界框与该产品视角区域建立映射关系;
步骤四:在服务器端,由步骤三建立多个映射关系,商家在每个映射关系中的产品视角区域内为产品拍多张照片,照片将作为该产品视角区域类别的图片样本并上传;
步骤五:在服务器端,由步骤四为各个产品视角区域收集图片样本构成训练数据集,所述训练数据集中的图片样本根据所属的产品视角区域进行分组,用于训练新的目标分类模型,所述目标分类模型将用于对图片中的产品视角区域进行分类;
步骤六:在移动终端,使用移动终端摄像头采集到的产品识别码,从服务器端下载该产品对应的目标分类模型和一张AR说明图片,此时移动终端的展示窗口显示AR说明图片的默认位置;
步骤七:在移动终端,使用移动终端摄像头采集产品的视频图像,并通过目标分类模型对视频图像中出现的产品视角区域进行实时分类;
步骤八:在移动终端,根据下载目标分类模型中的映射关系,将AR说明图片上与实时分类结果对应的边界框部分滑动到展示窗口,同时对AR说明图片进行缩放操作使边界框与展示窗口大小相匹配;
步骤九:在移动终端,移动或转动产品,若目标分类模型的实时分类结果未发生变化,即视频流中的产品视角区域未发生变化,则移动终端对实时提取的部分特征描述符的移动轨迹数据进行数据处理,数据处理结果用于控制AR说明图片在同一视角区域内做同步平面移动,无需缩放操作,将AR说明图片相应位置滑动到展示窗口,展示给用户;
若目标分类模型的实时分类结果发生变化,即视频流中的产品视角区域发生改变,则跳转至步骤八。
所述步骤二中采集的产品照片具体为产品局部照片,或为产品整体照片。
所述步骤二中若干视角区域具体为将产品所有视角划分为若干组,每一组代表一个产品视角区域。
所述步骤三中定义的边界框具体为在AR说明图片的大小范围内定义一个长宽任意的矩形框。
所述步骤五中的目标分类模型为机器学习模型中分类模型的一种,具体为支持向量机图像分类模型或卷积神经网络图像分类模型。
所述步骤五中的产品识别码具体为产品上的条形码或者二维码。
所述步骤五中AR说明图片的默认位置具体为与包含产品识别码的产品视角区域相映射的一个边界框位置,或者为位于AR说明图片中心的一个边界框位置。
所述移动终端具体为智能手机、产品展示装置或AR眼镜。
本发明相对于现有技术具备的有益效果为:本发明提供一种在移动终端滑动展示AR虚拟说明书的方法,移动终端下载所述产品对应的的目标分类模型和一张说明书图片,主要根据目标分类模型判断商品在视频流中出现的产品视角情况,将说明书图片上与分类结果映射的边界框部分滑动到展示窗口,并通过缩放操作使边界框部分与展示窗口大小匹配。如果视频流的产品视角未发生变化,则移动终端对实时提取的部分特征描述符的移动轨迹进行数据处理,将数据处理结果用于控制AR说明图片在同一视角区域内做同步平面移动,无需缩放操作,将AR说明图片其他位置滑动到展示窗口,展示给用户;
相较于传统的目标检测模型和目标跟踪模型,该方法无需额外定位商品在视频流中的平面位置,使用的目标分类模型文件数据量较小,下载与识别过程快,实时目标分类的数据处理对移动终端设备性能的要求低,适合在移动终端的浏览器部署AR虚拟说明书服务,用户无需在移动终端下载并安装额外的应用软件,使用更加方便,更易推广;相较于传统的目标检测模型和目标跟踪模型,视频流中实时提取的特征描述符不用于目标检测和目标跟踪,所以无需进行特征描述符的匹配操作,只对实时提取的部分特征描述符的移动轨迹进行综合,综合结果用于控制说明书图片在同一视角区域内做同步平面移动。
附图说明
下面结合附图对本发明做进一步说明:
图1为本发明实施例中AR说明图片的示意图;
图2为本发明实施例中产品视角与AR说明图片内的边界框建立映射关系的示意图;
图3为本发明实施例中采集的数据(照片)根据产品视角区域分组构成训练数据集的示意图;
图4为本发明实施例中移动终端通过展示窗口显示AR说明图片局部的展示图;
图5为本发明实施例中移动终端的实时分类结果发生变化时的展示图;
图6为本发明实施例中移动终端的实时分类结果未发生变化时根据部分特征描述符的位移情况同步移动AR说明图片的展示图。
具体实施方式
本发明将一张较大的图片处理为AR虚拟说明书图片,并通过移动终端上较小的展示窗口将AR说明图片中局部信息展示给用户,用户可以通过移动或转动产品以改变产品在预览界面中的视角范围后同步移动AR说明图片上所映射的边界框部分到展示窗口;若产品视角区域未改变,移动终端则通过部分特征描述符的位移情况同步控制AR说明图片的移动,从而展示AR说明图片的不同位置给用户,实现AR的进一步交互。
为实现上述功能,本发明主要采用的方法步骤为:
1、在服务器端,商家上传一张AR说明图片作为产品的说明书,用以展示说明;
2、在服务器端,商家将产品周边划分为若干视角区域,在每个视角区域内采集一张或多张产品照片并上传;
3、在服务器端,商家根据说明需求,在AR说明图片内定义一个边界框,同时根据步骤二划分的视角区域指定一个对应的产品视角区域,使该定义的边界框与该产品视角区域建立映射关系;
4、在服务器端,由步骤三建立多个映射关系,商家在每个映射关系中的产品视角区域内为产品拍多张照片,照片将作为该产品视角区域类别的图片样本并上传;
5、在服务器端,由步骤四为各个产品视角区域收集图片样本构成训练数据集,所述训练数据集中的图片样本根据所属的产品视角区域进行分组,用于训练新的目标分类模型,所述目标分类模型将用于对图片中的产品视角区域进行分类;
6、在移动终端,使用移动终端摄像头采集到的产品识别码,从服务器端下载该产品对应的目标分类模型和一张AR说明图片,此时移动终端的展示窗口显示AR说明图片的默认位置;
7、在移动终端,使用移动终端摄像头采集产品的视频图像,并通过目标分类模型对视频图像中出现的产品视角区域进行实时分类;
8、在移动终端,根据下载目标分类模型中的映射关系,将AR说明图片上与实时分类结果对应的边界框部分滑动到展示窗口,同时对AR说明图片进行缩放操作使边界框与展示窗口大小相匹配;
9、在移动终端,移动或转动产品,若目标分类模型的实时分类结果未发生变化,即视频流中的产品视角区域未发生变化,则移动终端对实时提取的部分特征描述符的移动轨迹数据进行数据处理,数据处理结果用于控制AR说明图片在同一视角区域内做同步平面移动,无需缩放操作,将AR说明图片相应位置滑动到展示窗口,展示给用户;
若目标分类模型的实时分类结果发生变化,即视频流中的产品视角区域改变,则根据映射关系,将AR说明图片上的实时分类结果对应的边界框部分滑动到展示窗口,并通过对AR说明图片的缩放操作使边界框与展示窗口大小相匹配。
本发明主要根据目标分类模型判断商品在视频流中出现的产品视角,无需定位商品在视频流中的平面位置,相较于传统的目标检测模型和目标跟踪模型,目标分类模型的文件数据量通常较小,移动终端下载过程快,且实时目标分类对移动终端设备性能的要求较低;视频流中实时提取的特征描述符不用于目标检测和目标跟踪,所以无需进行特征描述符的匹配操作,降低了移动终端实时数据处理的负载,只对实时提取的部分特征描述符的移动轨迹进行综合,综合结果用于控制AR说明图片在同一产品视角区域内做同步平面移动;本发明适合在移动终端浏览器提供AR服务,使消费者无需在移动终端下载并安装额外的应用软件。
本发明实施例将结合说明书附图做进一步详细的说明:
如图1所示,具体为商家在服务器端上传的一张包含商品说明信息的图片,将该图片作为AR说明图片存入服务器端。
如图2所示,具体为商家在服务器端指定AR说明图片内的三个边界框,每个边界框与该产品在视频流中的某个视角区域建立映射关系,图中将产品周边划分为A区、B区、C区三个视角区域,分别对应AR说明图片内的框一、框二、框三。
如图3所示,具体为商家将产品周边划分为A区、B区、C区三个视角区域,每个视角区域内采集三张产品照片作为该视角区域类别的图片样本,构成训练数据集。
如图4所示,用户(消费者)通过移动终端摄像头预览商品外观,由移动终端通过目标分类模型识别出该商品外观图像为产品视角二的图像,则移动终端通过展示窗口仅显示AR说明图片在框二所指定的范围。
如图5所示,当用户(消费者)移动或转动商品时,目标分类模型的实时分类结果由产品视角B变为产品视角A,移动终端的展示窗口显示的内容将发生变化,AR说明图片内由视角B所映射的框二滑动到视角A所映射的框一。
如图6所示,当用户(消费者)在同一产品视角区域内移动或转动商品时,移动终端对摄像头预览界面中实时提取的部分特征描述符的移动轨迹进行综合(部分特征描述符的移动向量求平均)得到移动向量综合结果,如图中轨迹变化的平均结果为向右上方向发生位移,则同步控制AR说明图片向右上方向移动,移动终端的展示窗口在AR说明图片相应的显示范围内向左下方向移动。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

Claims (8)

1.一种AR虚拟说明书的滑动展示方法,其特征在于:包括如下步骤:
步骤一:在服务器端,商家上传一张AR说明图片作为产品的说明书,用以展示说明;
步骤二:在服务器端,商家将产品周边划分为若干视角区域,在每个视角区域内采集一张或多张产品照片并上传;
步骤三:在服务器端,商家根据说明需求,在AR说明图片内定义一个边界框,同时根据步骤二划分的视角区域指定一个对应的产品视角区域,使该定义的边界框与该产品视角区域建立映射关系;
步骤四:在服务器端,由步骤三建立多个映射关系,商家在每个映射关系中的产品视角区域内为产品拍多张照片,照片将作为该产品视角区域类别的图片样本并上传;
步骤五:在服务器端,由步骤四为各个产品视角区域收集图片样本构成训练数据集,所述训练数据集中的图片样本根据所属的产品视角区域进行分组,用于训练新的目标分类模型,所述目标分类模型将用于对图片中的产品视角区域进行分类;
步骤六:在移动终端,使用移动终端摄像头采集到的产品识别码,从服务器端下载该产品对应的目标分类模型和一张AR说明图片,此时移动终端的展示窗口显示AR说明图片的默认位置;
步骤七:在移动终端,使用移动终端摄像头采集产品的视频图像,并通过目标分类模型对视频图像中出现的产品视角区域进行实时分类;
步骤八:在移动终端,根据下载目标分类模型中的映射关系,将AR说明图片上与实时分类结果对应的边界框部分滑动到展示窗口,同时对AR说明图片进行缩放操作使边界框与展示窗口大小相匹配;
步骤九:在移动终端,移动或转动产品,若目标分类模型的实时分类结果未发生变化,即视频流中的产品视角区域未发生变化,则移动终端对实时提取的部分特征描述符的移动轨迹数据进行数据处理,数据处理结果用于控制AR说明图片在同一视角区域内做同步平面移动,无需缩放操作,将AR说明图片相应位置滑动到展示窗口,展示给用户;
若目标分类模型的实时分类结果发生变化,即视频流中的产品视角区域发生改变,则跳转至步骤八。
2.根据权利要求1所述的一种AR虚拟说明书的滑动展示方法,其特征在于:所述步骤二中采集的产品照片具体为产品局部照片,或为产品整体照片。
3.根据权利要求1所述的一种AR虚拟说明书的滑动展示方法,其特征在于:所述步骤二中若干视角区域具体为将产品所有视角划分为若干组,每一组代表一个产品视角区域。
4.根据权利要求1所述的一种AR虚拟说明书的滑动展示方法,其特征在于:所述步骤三中定义的边界框具体为在AR说明图片的大小范围内定义一个长宽任意的矩形框。
5.根据权利要求1所述的一种AR虚拟说明书的滑动展示方法,其特征在于:所述步骤五中的目标分类模型为机器学习模型中分类模型的一种,具体为支持向量机图像分类模型或卷积神经网络图像分类模型。
6.根据权利要求1所述的一种AR虚拟说明书的滑动展示方法,其特征在于:所述步骤五中的产品识别码具体为产品上的条形码或者二维码。
7.根据权利要求1所述的一种AR虚拟说明书的滑动展示方法,其特征在于:所述步骤五中AR说明图片的默认位置具体为与包含产品识别码的产品视角区域相映射的一个边界框位置,或者为位于AR说明图片中心的一个边界框位置。
8.根据权利要求1所述的一种AR虚拟说明书的滑动展示方法,其特征在于:所述移动终端具体为智能手机、产品展示装置或AR眼镜。
CN202010431739.3A 2020-05-20 2020-05-20 一种ar虚拟说明书的滑动展示方法 Active CN111582418B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010431739.3A CN111582418B (zh) 2020-05-20 2020-05-20 一种ar虚拟说明书的滑动展示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010431739.3A CN111582418B (zh) 2020-05-20 2020-05-20 一种ar虚拟说明书的滑动展示方法

Publications (2)

Publication Number Publication Date
CN111582418A true CN111582418A (zh) 2020-08-25
CN111582418B CN111582418B (zh) 2022-03-08

Family

ID=72112274

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010431739.3A Active CN111582418B (zh) 2020-05-20 2020-05-20 一种ar虚拟说明书的滑动展示方法

Country Status (1)

Country Link
CN (1) CN111582418B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113489963A (zh) * 2021-07-08 2021-10-08 宁波宝贝第一母婴用品有限公司 推车安装引导方法和装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106776732A (zh) * 2016-11-21 2017-05-31 湖南拓视觉信息技术有限公司 虚拟电子说明书的实现方法及装置
CN107301378A (zh) * 2017-05-26 2017-10-27 上海交通大学 图像中多分类器集成的行人检测方法和系统
CN108009176A (zh) * 2016-10-28 2018-05-08 百度在线网络技术(北京)有限公司 基于ar技术的说明书展示方法、装置及设备
CN110313021A (zh) * 2017-03-06 2019-10-08 Line 株式会社 用于提供增强现实的方法和设备以及计算机程序

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108009176A (zh) * 2016-10-28 2018-05-08 百度在线网络技术(北京)有限公司 基于ar技术的说明书展示方法、装置及设备
CN106776732A (zh) * 2016-11-21 2017-05-31 湖南拓视觉信息技术有限公司 虚拟电子说明书的实现方法及装置
CN110313021A (zh) * 2017-03-06 2019-10-08 Line 株式会社 用于提供增强现实的方法和设备以及计算机程序
CN107301378A (zh) * 2017-05-26 2017-10-27 上海交通大学 图像中多分类器集成的行人检测方法和系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113489963A (zh) * 2021-07-08 2021-10-08 宁波宝贝第一母婴用品有限公司 推车安装引导方法和装置
CN113489963B (zh) * 2021-07-08 2024-02-23 宁波宝贝第一母婴用品有限公司 推车安装引导方法和装置

Also Published As

Publication number Publication date
CN111582418B (zh) 2022-03-08

Similar Documents

Publication Publication Date Title
Liu et al. Semantic-aware implicit neural audio-driven video portrait generation
Wang et al. Movie2comics: Towards a lively video content presentation
CN109614983B (zh) 训练数据的生成方法、装置及系统
US11164362B1 (en) Virtual reality user interface generation
CN110136229A (zh) 一种用于实时虚拟换脸的方法与设备
EP3433816A1 (en) Apparatus, systems, and methods for integrating digital media content into other digital media content
Yu et al. A deep ranking model for spatio-temporal highlight detection from a 360◦ video
CN109690617A (zh) 用于数字化妆镜的系统和方法
CN108596940A (zh) 一种视频分割方法和装置
US11262906B2 (en) In-place scrolling for a user in interface
CN109740571A (zh) 图像采集的方法、图像处理的方法、装置和电子设备
EP3681144B1 (en) Video processing method and apparatus based on augmented reality, and electronic device
CN111491187A (zh) 视频的推荐方法、装置、设备及存储介质
KR102007432B1 (ko) 3차원 콘텐츠 영상 생성 및 제공 시스템
CN108228072B (zh) 量子传输云智能交互橱窗流媒管理系统和方法
CN111582418B (zh) 一种ar虚拟说明书的滑动展示方法
WO2023197780A1 (zh) 图像处理方法、装置、电子设备及存储介质
WO2021098310A1 (zh) 视频生成方法、装置、终端以及存储介质
Caspi et al. Dynamic stills and clip trailers
CN114266621A (zh) 图像处理方法、图像处理系统及电子设备
Li et al. Predicting user visual attention in virtual reality with a deep learning model
CN110647374A (zh) 全息展示窗的交互方法、装置以及电子设备
CN113709544B (zh) 视频的播放方法、装置、设备及计算机可读存储介质
CN112509152A (zh) 一种基于ar技术的看车方法、系统、设备及可读介质
Liu et al. Towards perceptual video cropping with curve fitting

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant