WO2017167032A1 - 目标对象展示方法和装置 - Google Patents

目标对象展示方法和装置 Download PDF

Info

Publication number
WO2017167032A1
WO2017167032A1 PCT/CN2017/077042 CN2017077042W WO2017167032A1 WO 2017167032 A1 WO2017167032 A1 WO 2017167032A1 CN 2017077042 W CN2017077042 W CN 2017077042W WO 2017167032 A1 WO2017167032 A1 WO 2017167032A1
Authority
WO
WIPO (PCT)
Prior art keywords
interpretation data
target object
image
image interpretation
stored
Prior art date
Application number
PCT/CN2017/077042
Other languages
English (en)
French (fr)
Inventor
杨若虚
Original Assignee
腾讯科技(深圳)有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 腾讯科技(深圳)有限公司 filed Critical 腾讯科技(深圳)有限公司
Priority to KR1020187025999A priority Critical patent/KR102118000B1/ko
Publication of WO2017167032A1 publication Critical patent/WO2017167032A1/zh
Priority to US16/112,486 priority patent/US10832086B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • A63F13/655Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/69Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor by enabling or updating specific game elements, e.g. unlocking hidden features, items, levels or versions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/413Classification of content, e.g. text, photographs or tables
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/028Multiple view windows (top-side-front-sagittal-orthogonal)

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computer Graphics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Hardware Design (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

一种目标对象展示方法和装置。所述方法包括:利用摄像头对实体卡片进行拍摄,获取该摄像头视角内摄取到的印刷在该实体卡片上的目标识别图像(101);获取目标识别图像的图像解释数据,该图像解释数据用于反映目标识别图像的特征(102);将图像解释数据与预存的图像解释数据进行匹配(103);获取存储的与该图像解释数据匹配的预存的图像解释数据所对应的目标对象,在电子设备的显示屏上展示该目标对象,该目标对象为虚拟的二维模型或虚拟的三维模型(104)。

Description

目标对象展示方法和装置
本申请要求于2016年3月29日提交中国专利局、申请号为201610188631.X、发明名称为“目标对象展示方法和装置”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
技术领域
本申请涉及计算机技术领域,特别涉及一种目标对象展示方法和装置。
发明背景
随着网络技术的发展,较多的场景中需要展示目标对象,比如游戏中的目标对象、人员管理系统中的人员模型、交通领域中的交通路况模型等。
当后台有较多的目标对象,而用户想要观看应用程序提供的某个目标对象时,则需要按照应用程序的打开方式打开应用程序的相应界面,用户在相应界面中输入与目标对象相关的参数,应用程序根据该参数匹配得出对应的目标对象并进行展示。用户在查看应用程序中的某个目标对象时,需要较复杂的操作,因此展示效率较低。
发明内容
为了解决相关技术中用户在查看应用程序中的某个目标对象时,需要较复杂的操作,从而导致展示效率较低的问题,本申请实施例提供了一种目标对象展示方法和装置。所述技术方案如下:
本申请实施例提供了一种目标对象展示方法,应用于包含有摄像头和显示屏的电子设备中,所述方法包括:
利用所述摄像头对实体卡片进行拍摄,获取所述摄像头视角内摄取到的印刷在所述实体卡片上的目标识别图像;
获取所述目标识别图像的图像解释数据,所述图像解释数据用于反映所述目标识别图像的特征;
将所述图像解释数据与预存的图像解释数据进行匹配;
获取存储的与所述图像解释数据匹配的预存的图像解释数据所对应的目标对象,在所述显示屏上展示所述目标对象,所述目标对象为虚拟的二维模型或虚拟的三维模型。
本申请实施例提供了一种目标对象展示装置,应用于包含有摄像头和显示屏的电子设备中,所述装置包括:
第一获取模块,用于利用所述摄像头对实体卡片进行拍摄,获取所述摄像头视角内摄取到的印刷在所述实体卡片上的目标识别图像;
第二获取模块,用于获取所述第一获取模块获取到的目标识别图像的图像解释数据,所述图像解释数据用于反映所述第一获取模块获取到的目标识别图像的特征;
匹配模块,用于将所述第二获取模块获取到的图像解释数据与预存的图像解释数据进行匹配;
展示模块,用于获取存储的与所述图像解释数据匹配的预存的图像解释数据所对应的目标对象,在所述显示屏上展示所述目标对象,所述目标对象为虚拟的二维模型或虚拟的三维模型。
在本申请实施例提供的上述技术方案中,通过获取实体卡片上印刷的目标识别图像,得到与该目标识别图像对应的虚拟的目标对象,并在电子设备的显示屏上展示该目标对象。由于只需将摄像头视角对准实体卡片上的目标识别图像,即可自动命中虚拟的目标对象并进行展示,不需要用户执行复杂的操作,因此解决了相关技术中用户在查看应用程序 中的某个目标对象时,需要较复杂的操作,从而导致展示效率较低的技术问题。利用本申请实施例提供的技术方案,可以降低操作的复杂性,提高展示效率。
附图简要说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一个实施例提供的目标对象展示方法的流程图;
图2A是本申请另一个实施例提供的目标对象展示方法的流程图;
图2B是本申请一个实施例提供的将图像解释数据与预存的图像解释数据进行匹配的方法的流程图;
图3A是本申请另一个实施例提供的目标对象展示方法的流程图;
图3B是本申请一个实施例提供的将展示动画的一个图像帧作为预存图像的方法的流程图;
图4是本申请一个实施例提供的目标对象展示装置的结构示意图;
图5是本申请另一个实施例提供的目标对象展示装置的结构示意图。
图6是本申请另一个实施例提供的实现目标对象展示方法的电子设备的硬件结构示意图。
实施本发明的方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。文中所讲的“电子设备”可以包括 智能手机、平板电脑、智能电视、电子书阅读器、多媒体播放器、膝上型便携计算机和台式计算机等等。
请参考图1,其示出了本申请一个实施例提供的目标对象展示方法的流程图。该方法应用于包含摄像头和显示屏的电子设备中,该目标对象展示方法可以包括如下步骤:
步骤101,利用摄像头对实体卡片进行拍摄,获取该摄像头视角内摄取到的印刷在该实体卡片上的目标识别图像。
实体卡片可以独立于通电后的电子设备存在,这里的实体卡片可以为纸质、塑胶材质等材质的卡片。
卡片上印刷的图像可以是三维实体在投影方向上产生的图像,并被印刷在卡片上的;也可以是虚拟二维图像被印刷在卡片上的;也可以是虚拟三维模型在投影方向上产生的图像,并被印刷在卡片上的。
比如,游戏公司设计的三维英雄模型,在该三维英雄模型的各个投影方向上产生的图像,并被印刷在卡片上,发布给用户;还比如,房产公司从房子实体的不同角度拍摄得到的图像,并印刷在卡片上,发布给用户;还比如,广告公司设计的二维海报,并将该海报印刷在卡片上并发布。
当卡片上的图像被电子设备的摄像头拍摄并需要对其识别时,该卡片上的图像则被称为目标识别图像。
步骤102,获取目标识别图像的图像解释数据,该图像解释数据用于反映目标识别图像的特征。
通常来讲,同一个三维模型在不同投影方向上会产生多个图像,这些图像的图像解释数据是相近的,也即这些图像中任两个图像的图像解释数据的差值小于预定差值阈值。
步骤103,将图像解释数据与预存的图像解释数据进行匹配。
步骤104,获取存储的与该图像解释数据匹配的预存的图像解释数据所对应的目标对象,在电子设备的显示屏上展示该目标对象,该目标对象为虚拟的二维模型或虚拟的三维模型。
这里的目标对象即为在形成实体卡片上的图像时所基于的虚拟模型(即上述的虚拟二维图像或虚拟三维模型),或者为在形成实体卡片上的图像时所基于的三维实体所对应的虚拟模型。
举例来讲,当印刷在卡片上的图像是通过三维实体得到的时,则目标对象为该三维实体对应的虚拟的二维模型或虚拟的三维模型;当印刷在卡片上的图像是通过虚拟二维图像得到的时,则目标对象为该虚拟二维图像或为该虚拟二维图像所对应的虚拟三维模型;当印刷在卡片上的图像是通过虚拟三维模型得到的时,则目标对象为该虚拟三维模型或该虚拟三维模型在预定投影方向形成的虚拟二维图像。
综上所述,在本实施例提供的目标对象展示方法中,通过获取实体卡片上印刷的目标识别图像,得到与该目标识别图像对应的虚拟的目标对象,并在电子设备的显示屏上展示该目标对象。由于只需将摄像头视角对准实体卡片上的目标识别图像,即可自动命中虚拟的目标对象并进行展示,不需要用户执行复杂的操作,因此解决了相关技术中用户在查看应用程序中的某个目标对象时,需要较复杂的操作,从而导致展示效率较低的技术问题。利用本实施例提供的目标对象展示方法,可以降低操作的复杂性,提高展示效率。
请参考图2A,其示出了本申请另一个实施例提供的目标对象展示方法的流程图,该方法应用于包含摄像头和显示屏的电子设备中,该目标对象展示方法可以包括如下步骤:
步骤201,获取目标对象所对应的预存图像。
目标对象是虚拟的二维模型或虚拟的三维模型。在本申请实施例中, 目标对象可以是静态的虚拟模型,也可以是动态的虚拟模型。这里的虚拟模型可以理解为:虚拟模型需要通过通电的电子设备才能被显示,比如通过通电的电子设备的显示屏显示目标对象,或者通过通电的电子设备的投影功能将目标对象进行二维或三维的投影显示。
目标对象为静态的虚拟模型,在确定与目标对象对应的预存图像时,可以根据目标对象的类型,通过如下两种方式实现:
第一种实现中,当目标对象为虚拟的二维模型时,目标对象所对应的预存图像即为该二维模型所对应的图像;
第二种实现中,当目标对象为虚拟的三维模型时,目标对象所对应的预存图像即为该三维模型在预定投影方向上形成的图像。很显然,目标对象所对应的预存图像为电子图像。
举例来讲,目标对象为一个虚拟的三维沙发模型,系统开发人员可以将该虚拟的三维沙发模型的侧视图、主视图、后视图、平面图等电子图像作为该虚拟的三维沙发模型的预存图像。
在本申请实施例中,目标对象上的某些元素可以改变,此时可以根据元素被改变后的目标对象,确定与目标对象对应的预存图像。确定与目标对象对应的预存图像的实现方式可以参考上述的两种实现,这里就不再赘述。
举例来讲,目标对象为一个游戏的虚拟角色(比如战斗英雄),游戏开发人员可将虚拟角色的各个不同形象的电子图像作为该虚拟角色的预存图像,这里所讲的不同的形象可以是指穿戴的不相同服饰(也即改变服饰元素)的虚拟角色。还可以将虚拟角色的各个不同视角的投影图像等电子图像作为该虚拟角色的预存图像。
如果目标对象为动态的虚拟模型,在获取目标对象所对应的预存图像时,可以将动态的虚拟模型所展示的各帧图像中的任一帧图像或任一 关键帧图像作为该目标对象的预存图像。
在实际设计时,预存图像由系统开发人员预先设定,且目标对象与预存图像的对应关系也由系统开发人员设定。比如,目标对象为一个游戏的虚拟英雄,系统开发人员可以选择多个预存图像与该虚拟英雄进行对应。本实施例对目标对象与预存图像的对应关系的设定方式不作具体限定,可根据实际情况进行设置。
在实际实现时,可以将预存图像直接通过打印或刻录的方式印刷在实体卡片上,以使得后续利用电子设备的摄像头可以对该实体卡片即兴拍摄,获取印刷在该卡片上的图像。
步骤202,对预存图像进行处理生成图像解释数据,该图像解释数据用于反映预存图像的特征。
在本申请实施例中,电子设备可以将预存图像上传至软件工具开发包,例如扩增实境软件(例如:Vuforia)开发工具包中,生成该预存图像的图像解释数据。其中,该图像解释数据用于反映该预存图像的特征,比如,图像解释数据用于反映该预存图像的像素、颜色、灰度值等中的至少一种。当两个图像解释数据的相似度越高,说明这两个图像解释数据所对应的图像的相似度越高;当两个图像解释数据完全相同,说明这两个图像解释数据所对应的图像相同。
步骤203,将该图像解释数据与目标对象作为一组对应关系进行存储。
一种实现中,在获取到图像解释数据后,可以获取与预存图像对应的目标对象,然后将该图像解释数据与该目标对象作为一组对应关系进行存储。
另一种实现中,也可以根据系统开发人员下发的配对指令,将图像解释数据与目标对象作为一组对应关系,然后进行存储。
以目标对象为虚拟的沙发模型,沙发模型的主视图为预存图像为例,系统开发人员将该沙发模型的主视图的图像解释数据与该虚拟的沙发模型作为一组对应关系进行存储。
系统开发人员将图像解释数据与目标对象进行对应,使得在步骤205和步骤206中电子设备或者服务器可根据该待识别图像的解释数据确定待识别图像所对应的目标对象。
步骤204,利用摄像头对实体卡片进行拍摄,获取该摄像头视角内摄取到的位于该实体卡片上的目标识别图像。
举例来讲,将实体卡片作为待识别目标,用户将电子设备的摄像头视角对准实体卡片,电子设备将获取该实体卡片上印刷的目标识别图像。在本申请实施例中,摄像头在拍摄得到一张图像后,电子设备对图像进行前景识别,得到该目标识别图像。在本实施例中,目标识别图像对应的像素为图像的前景。
步骤205,获取该目标识别图像的图像解释数据。
通常来讲,电子设备可以将目标识别图像上传至服务器,由服务器根据目标识别图像生成图像解释数据,使得服务器能够在数据库中检索与生成的图像解释数据相匹配的图像解释数据。
在本申请实施例中,电子设备直接根据目标识别图像生成图像解释数据,将图像解释数据发送至服务器,使得服务器能够在数据库中检索与接收到的图像解释数据相匹配的图像解释数据。
在本申请实施例中,电子设备根据目标识别图像生成解释数据,电子设备在本地数据库中检索与生成的图像解释数据相匹配的图像解释数据。
生成目标图像的图像解释数据的方式可参考步骤202。
步骤206,将图像解释数据与预存的图像解释数据进行匹配,获取 存储的与图像解释数据匹配的预存的图像解释数据所对应的目标对象,在电子设备的显示屏上展示该目标对象,该目标对象为虚拟的二维模型或虚拟的三维模型。
具体的,在本步骤中将图像解释数据与预存的图像解释数据进行匹配可以通过如图2B所示的几个子步骤实现,图2B是本申请一个实施例提供的实现将图像解释数据与预存的图像解释数据进行匹配的方法的流程图。
步骤206a,计算图像解释数据与各个预存的图像解释数据之间的相似度。
步骤206b,将相似度最大的预存的图像解释数据确定为与图像解释数据匹配成功的预存的图像解释数据。
在本申请实施例中,为了提高图像解释数据与预存的图像解释数据进行匹配的准确率,将相似度大于预定阈值的预存的图像解释数据确定为与图像解释数据匹配成功的预存的图像解释数据。
此外,在由服务器检索与生成与图像解释数据相匹配的图像解释数据的情况下,服务器根据预存的图像解释数据与目标对象的对应关系,确定出服务器存储的与图像解释数据相匹配的预存的图像解释数据所对应的目标对象,并将目标对象发送给电子设备。电子设备接收该目标对象,并在电子设备的显示屏上对该目标对象进行展示。
在本申请实施例中,在由电子设备在本地数据库中检索与生成与图像解释数据相匹配的图像解释数据的情况下,电子设备根据预存的图像解释数据与目标对象的对应关系,确定出本地存储的与图像解释数据相匹配的预存的图像解释数据所对应的目标对象,并在电子设备的显示屏上对该目标图像进行展示。
举例来讲,用户需要在电子设备上展示一个虚拟的三维沙发模型, 系统开发人员在确定与该虚拟的三维沙发模型对应的预存图像时,将该三维沙发实体的主视图作为预存图像,存储该预存图像与虚拟的三维沙发模型的对应关系,并将该预存图像印制在实体卡片上。电子设备上还存储了该三维沙发实体的主视图的图像解释数据与该虚拟的三维沙发模型的对应关系。
当用户想要在电子设备上展示该沙发模型时,将电子设备的摄像头对准该实体卡片,经过在数据库中进行检索匹配,最终会在电子设备上对该虚拟的三维沙发模型进行展示。
再举例来讲,用户在游戏中进行英雄选择时,可将电子设备的摄像头对准英雄卡片,获取该英雄卡片上的目标识别图像以及该识别图像的图像解释数据。服务器在数据库中检索与该识别图像的图像解释数据匹配的预存的图像解释数据,确定存储的与该图像解释数据匹配的预存的图像解释数据所对应的目标对象,将该目标对象发送给电子设备,也即将与英雄卡片对应的虚拟英雄发送至电子设备,电子设备对该虚拟英雄进行展示。
综上所述,在本实施例提供的目标对象展示方法中,通过获取实体卡片上印刷的目标识别图像,得到与该目标识别图像对应的虚拟的目标对象,并在电子设备的显示屏上展示该目标对象。由于只需将摄像头视角对准实体卡片上的目标识别图像,即可自动命中虚拟的目标对象并进行展示,不需要用户执行复杂的操作,因此解决了相关技术中用户在查看应用程序中的某个目标对象时,需要较复杂的操作,从而导致展示效率较低的技术问题。利用本实施例提供的目标对象展示方法,可以降低操作的复杂性,提高展示效率。
请参考图3A,其示出了本申请另一个实施例提供的目标对象展示方法的流程图,该方法应用于包含摄像头和显示屏的电子设备中,该目标 对象展示方法可以包括如下步骤:
步骤301,利用摄像头对实体卡片进行拍摄,获取该摄像头视角内摄取到的位于该实体卡片上的目标识别图像。
步骤302,获取该目标识别图像的图像解释数据。
步骤303,将图像解释数据与预存的图像解释数据进行匹配,获取存储的与图像解释数据匹配的预存的图像解释数据所对应的目标对象。
步骤301至步骤303可分别对应参见图2A中所示的步骤204至步骤206中的解释,本实施例不再赘述。
步骤304,在电子设备的显示屏上按照与该图像解释数据对应的展示动画,展示该目标对象,该目标对象为虚拟的二维模型或虚拟的三维模型。
系统开发人员还可以设定在展示目标对象时播放的展示动画,也即系统开发人员将每个图像解释数据、与该图像解释数据对应的目标对象以及与该图像解释数据对应的展示动画作为一组对应关系进行存储。
由于图像解释数据与展示动画存在对应关系,当电子设备在展示目标对象时,获取图像解释数据对应的展示动画,按照该展示动画展示目标对象。
综上所述,在本实施例提供的目标对象展示方法中,通过获取实体卡片上印刷的目标识别图像,得到与该目标识别图像对应的虚拟的目标对象,并在电子设备的显示屏上展示该目标对象。由于只需将摄像头视角对准实体卡片上的目标识别图像,即可自动命中虚拟的目标对象并进行展示,不需要用户执行复杂的操作,因此解决了相关技术中用户在查看应用程序中的某个目标对象时,需要较复杂的操作,从而导致展示效率较低的技术问题。利用本实施例提供的目标对象展示方法,可以降低操作的复杂性,提高展示效率。
为了增强展示动画与预存的图像的相关性,通常将展示动画中的一个图像帧作为预存图像。具体地,可参见如图3B所示的几个步骤实现,图3B是本申请一个实施例提供的将展示动画的一个图像帧作为预存图像的方法的流程图。
步骤305,获取目标对象的展示动画中的一个图像帧。
对于同一个目标对象在进行展示时,可以以多种展示动画展示该目标对象。举例来讲,用户在游戏中选择英雄进行展示时,该英雄可以以英雄跳跃动画的方式进行展示,也可以以英雄奔跑动画的方式进行展示。
系统开发人员可以将英雄跳跃动画的一个图像帧作为预存图像,使得用户通过电子设备的摄像头对准该预存图像对应的实体卡片后,经过在数据库中的检索与匹配,电子设备上最终会以英雄跳跃动画展示该英雄。系统开发人员还可以将英雄奔跑动画的一个图像帧作为预存图像。这里的图像帧中的每帧图像均以目标对象对应的像素为图像的前景。在本申请实施例中,图像帧中前景的区域大于背景的区域;或者图像帧中背景的区域的灰度值均为(255,255),也即图像帧的背景区域为白色。
步骤306,对图像帧进行处理生成图像解释数据,该图像解释数据用于反映图像帧的特征。
具体地,电子设备可以将预存图像上传至软件工具开发包,例如扩增实境软件(例如:Vuforia)开发工具包中,生成该预存图像的图像解释数据。其中,该图像解释数据用于反映该预存图像的特征。当两个图像解释数据的相似度越高,说明这两个图像解释数据所对应的图像的相似度越高;当两个图像解释数据完全相同,说明该这两个图像解释数据所对应的图像完全相同。
步骤307,将图像解释数据、目标对象、展示动画作为一组对应关 系进行存储。
一般来讲,由系统开发人员设定图像解释数据、目标对象以及展示动画的对应关系。系统将每个图像解释数据、与该图像解释数据对应的目标对象以及与该图像解释数据对应的展示动画作为一组对应关系存储在数据库中,以使得在步骤303和步骤304中电子设备能够根据图像解释数据和与该图像解释数据对应的展示动画展示目标对象。
举例来讲,开发人员将英雄跳跃动画的一个图像帧作为预存图像,将该图像帧印刷在一张英雄卡片上,并在服务器中存储该图像帧的图像解释数据与该英雄以及英雄跳跃动画的对应关系。使得当用户使用电子设备的摄像头对准该英雄卡片时,电子设备经过在数据中进行检索与匹配,最终电子设备会在显示屏中以英雄跳跃动画来展示该英雄。
请参考图4,其示出了本申请一个实施例提供的目标对象展示装置的结构示意图,该目标对象展示装置应用于包含摄像头和显示屏的电子设备中,该目标对象展示装置可以包括:第一获取模块410、第二获取模块420、匹配模块430和展示模块440。
第一获取模块410,用于利用摄像头对实体卡片进行拍摄,获取该摄像头视角内摄取到的印刷在该实体卡片上的目标识别图像;
第二获取模块420,用于获取第一获取模块410获取到的目标识别图像的图像解释数据,该图像解释数据用于反映第一获取模块410获取到的目标识别图像的特征。
匹配模块430,用于将第二获取模块420获取到的图像解释数据与预存的图像解释数据进行匹配。
展示模块440,用于获取存储的与图像解释数据匹配的预存的图像解释数据所对应的目标对象,在显示屏上展示该目标对象,该目标对象为虚拟的二维模型或虚拟的三维模型。
综上所述,本实施例提供的目标对象展示装置可以通过获取实体卡片上印刷的目标识别图像,得到与该目标识别图像对应的虚拟的目标对象,并在电子设备的显示屏上展示该目标对象。由于只需将摄像头视角对准实体卡片上的目标识别图像,即可自动命中虚拟的目标对象并进行展示,不需要用户执行复杂的操作,因此解决了相关技术中用户在查看应用程序中的某个目标对象时,需要较复杂的操作,从而导致展示效率较低的技术问题。利用本实施例提供的目标对象展示装置,可以降低操作的复杂性,提高展示效率。
请参考图5,其示出了本申请另一个实施例提供的目标对象展示装置的结构示意图,该目标对象展示装置应用于包含摄像头和显示屏的电子设备中,该目标对象展示装置可以包括:第一获取模块501、第二获取模块502、匹配模块503和展示模块504。
第一获取模块501,用于利用摄像头对实体卡片进行拍摄,获取该摄像头视角内摄取到的印刷在该实体卡片上的目标识别图像;
第二获取模块502,用于获取第一获取模块501获取到的目标识别图像的图像解释数据,该图像解释数据用于反映第一获取模块501获取到的目标识别图像的特征。
匹配模块503,用于将第二获取模块502获取到的图像解释数据与预存的图像解释数据进行匹配。
展示模块504,用于获取存储的与图像解释数据匹配的预存的图像解释数据所对应的目标对象,在显示屏上展示该目标对象,该目标对象为虚拟的二维模型或虚拟的三维模型。
在本申请实施例中,该目标对象展示装置,还包括:第三获取模块505、第一处理模块506和第一存储模块507。
第三获取模块505,用于获取目标对象所对应的预存图像;
第一处理模块506,用于对第三获取模块505获取到的预存图像进行处理生成图像解释数据。
第一存储模块507,用于将第一处理模块506生成的图像解释数据与目标对象作为一组对应关系进行存储。
在本申请实施例中,该目标对象展示装置,还包括:第四获取模块508、第二处理模块509和第二存储模块510。
第四获取模块508,用于获取目标对象的展示动画中的一个图像帧。
第二处理模块509,用于对第四获取模块508获取到的图像帧进行处理生成图像解释数据;
第二存储模块510,用于将图像解释数据、目标对象、展示动画作为一组对应关系进行存储。
在本申请实施例中,展示模块504,还用于按照与目标对象对应的展示动画,在显示屏上展示该目标对象。
在本申请实施例中,匹配模块503,还包括:计算单元503a和确定单元503b。
计算单元503a,用于计算图像解释数据与各个预存的图像解释数据之间的相似度。
确定单元503b,用于将计算单元503a计算得到的相似度最大的图像解释数据确定为与图像解释数据匹配成功的预存的图像解释数据。
综上所述,本实施例提供的目标对象展示装置可以通过获取实体卡片上印刷的目标识别图像,得到与该目标识别图像对应的虚拟的目标对象,并在电子设备的显示屏上展示该目标对象。由于只需将摄像头视角对准实体卡片上的目标识别图像,即可自动命中虚拟的目标对象并进行展示,不需要用户执行复杂的操作,因此解决了相关技术中用户在查看应用程序中的某个目标对象时,需要较复杂的操作,从而导致展示效率 较低的技术问题。利用本实施例提供的目标对象展示方法,可以降低操作的复杂性,提高展示效率。
上述实施例中提供的目标对象展示装置在进行目标对象展示时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将电子设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的目标对象展示装置与目标对象展示方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
请参考图6,其示出了本申请另一个实施例提供的实现目标对象展示方法的电子设备的硬件结构示意图。
如图6所示,电子设备包括处理器601、存储器602、系统总线603、摄像头604、显示屏605和网络接口606。包括存储器120和处理器110在内的各种组件将连接到系统总线130上。处理器601是一个用于通过计算机系统中基本的算术和逻辑运算来执行计算机程序指令的硬件。存储器602是一个用于临时或永久性存储计算机程序或数据的物理设备,例如为易失性或非易失性存储器。网络接口606用于在该电子设备与服务器或其它设备之间传输数据。
在本申请实施例中,处理器601可以通过系统总线603与摄像头604通信,以指令摄像头604对实体卡片进行拍摄;处理器601还可以通过系统总线603与存储器602通信,以执行存储器602中存储的机器可读指令,所述机器可读指令包括第一获取指令、第二获取指令、匹配指令和展示指令;处理器601还可以通过系统总线603与显示屏605通信,以指令显示屏605显示目标对象。
在本申请实施例中,处理器601用于读取存储器602中存储的第一获取指令、第二获取指令、匹配指令和展示指令,以执行图1所示的目 标对象展示方法中的步骤和图4所示的目标对象展示装置中各模块的功能。
进一步地,所述计算机可读指令还包括可以由处理器601执行的第三获取指令、第一处理指令和第一存储指令。处理器601用于读取存储器602中存储的上述指令,以执行图2A所示的目标对象展示方法中的步骤201-203和图5所示的目标对象展示装置中第三获取模块505、第一处理模块506和第一存储模块507的功能。
进一步地,所述计算机可读指令还包括可以由处理器601执行的第四获取指令、第二处理指令和第二存储指令。处理器601用于读取存储器602中存储的上述指令,以执行图3B所示的将展示动画的一个图像帧作为预存图像的方法中的步骤和图5所示的目标对象展示装置中第四获取模块508、第二处理模块509和第二存储模块510的功能。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本申请的较佳实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (10)

  1. 一种目标对象展示方法,其特征在于,应用于包含有摄像头和显示屏的电子设备中,所述方法包括:
    利用所述摄像头对实体卡片进行拍摄,获取所述摄像头视角内摄取到的印刷在所述实体卡片上的目标识别图像;
    获取所述目标识别图像的图像解释数据,所述图像解释数据用于反映所述目标识别图像的特征;
    将所述图像解释数据与预存的图像解释数据进行匹配;
    获取存储的与所述图像解释数据匹配的预存的图像解释数据所对应的目标对象,在所述显示屏上展示所述目标对象,所述目标对象为虚拟的二维模型或虚拟的三维模型。
  2. 根据权利要求1所述的方法,其特征在于,所述方法还包括:
    获取所述目标对象所对应的预存图像;
    对所述预存图像进行处理生成图像解释数据;
    将所述图像解释数据与所述目标对象作为一组对应关系进行存储。
  3. 根据权利要求1所述的方法,其特征在于,所述方法还包括:
    获取所述目标对象的展示动画中的一个图像帧;
    对所述图像帧进行处理生成图像解释数据;
    将所述图像解释数据、所述目标对象、所述展示动画作为一组对应关系进行存储。
  4. 根据权利要求1所述的方法,其特征在于,所述在所述显示屏上展示所述目标对象,包括:
    按照与所述目标对象对应的展示动画,在所述显示屏上展示所述目标对象。
  5. 根据权利要求1至4中任一所述的方法,其特征在于,所述将所述图像解释数据与预存的图像解释数据进行匹配,包括:
    计算所述图像解释数据与所述各个预存的图像解释数据之间的相似度;
    将相似度最大的图像解释数据确定为与所述图像解释数据匹配成功的预存的图像解释数据。
  6. 一种目标对象展示装置,其特征在于,应用于包含有摄像头和显示屏的电子设备中,所述装置包括:
    第一获取模块,用于利用所述摄像头对实体卡片进行拍摄,获取所述摄像头视角内摄取到的印刷在所述实体卡片上的目标识别图像;
    第二获取模块,用于获取所述第一获取模块获取到的目标识别图像的图像解释数据,所述图像解释数据用于反映所述第一获取模块获取到的目标识别图像的特征;
    匹配模块,用于将所述第二获取模块获取到的图像解释数据与预存的图像解释数据进行匹配;
    展示模块,用于获取存储的与所述图像解释数据匹配的预存的图像解释数据所对应的目标对象,在所述显示屏上展示所述目标对象,所述目标对象为虚拟的二维模型或虚拟的三维模型。
  7. 根据权利要求6所述的装置,其特征在于,所述装置还包括:
    第三获取模块,用于获取所述目标对象所对应的预存图像;
    第一处理模块,用于对所述第三获取模块获取到的预存图像进行处理生成图像解释数据;
    第一存储模块,用于将所述第一处理模块生成的图像解释数据与所述目标对象作为一组对应关系进行存储。
  8. 根据权利要求6所述的装置,其特征在于,所述装置还包括:
    第四获取模块,用于获取所述目标对象的展示动画中的一个图像帧;
    第二处理模块,用于对所述第四获取模块获取到的图像帧进行处理生成图像解释数据;
    第二存储模块,用于将所述图像解释数据、所述目标对象、所述展示动画作为一组对应关系进行存储。
  9. 根据权利要求6所述的装置,其特征在于,所述展示模块,还用于按照与所述目标对象对应的展示动画,在所述显示屏上展示所述目标对象。
  10. 根据权利要求6至9中任一所述的装置,其特征在于,所述匹配模块,包括:
    计算单元,用于计算所述图像解释数据与所述各个预存的图像解释数据之间的相似度;
    确定单元,用于将所述计算单元计算得到相似度最大的图像解释数据确定为与所述图像解释数据匹配成功的预存的图像解释数据。
PCT/CN2017/077042 2016-03-29 2017-03-17 目标对象展示方法和装置 WO2017167032A1 (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020187025999A KR102118000B1 (ko) 2016-03-29 2017-03-17 타겟 대상 표시 방법 및 디바이스
US16/112,486 US10832086B2 (en) 2016-03-29 2018-08-24 Target object presentation method and apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201610188631.XA CN105869216A (zh) 2016-03-29 2016-03-29 目标对象展示方法和装置
CN201610188631.X 2016-03-29

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/112,486 Continuation-In-Part US10832086B2 (en) 2016-03-29 2018-08-24 Target object presentation method and apparatus

Publications (1)

Publication Number Publication Date
WO2017167032A1 true WO2017167032A1 (zh) 2017-10-05

Family

ID=56626427

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2017/077042 WO2017167032A1 (zh) 2016-03-29 2017-03-17 目标对象展示方法和装置

Country Status (4)

Country Link
US (1) US10832086B2 (zh)
KR (1) KR102118000B1 (zh)
CN (1) CN105869216A (zh)
WO (1) WO2017167032A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109993192A (zh) * 2018-01-03 2019-07-09 北京京东尚科信息技术有限公司 目标对象识别方法及装置、电子设备、存储介质

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105869216A (zh) 2016-03-29 2016-08-17 腾讯科技(深圳)有限公司 目标对象展示方法和装置
WO2017200527A1 (en) * 2016-05-16 2017-11-23 Hewlett-Packard Development Company, L.P. Generating a shape profile for a 3d object
CN106355153B (zh) * 2016-08-31 2019-10-18 上海星视度科技有限公司 一种基于增强现实的虚拟对象显示方法、装置以及系统
CN106454229A (zh) * 2016-09-27 2017-02-22 成都理想境界科技有限公司 一种监测方法、摄像装置和图像处理设备和监测系统
CN106791789A (zh) * 2016-11-28 2017-05-31 深圳哈乐派科技有限公司 一种3d影像展示方法及一种机器人
CN107085592A (zh) * 2017-03-02 2017-08-22 深圳市创想天空科技股份有限公司 基于认知卡片的早教方法及装置
CN108764135B (zh) * 2018-05-28 2022-02-08 北京微播视界科技有限公司 图像生成方法、装置,及电子设备
CN108871314B (zh) * 2018-07-18 2021-08-17 江苏实景信息科技有限公司 一种定位定姿方法及装置
CN109492607B (zh) * 2018-11-27 2021-07-09 Oppo广东移动通信有限公司 一种信息推送方法、信息推送装置及终端设备
CN112231186B (zh) * 2019-07-15 2024-03-15 深圳市腾讯网域计算机网络有限公司 一种性能数据的处理方法、装置、电子设备及介质
CN110456901A (zh) * 2019-08-16 2019-11-15 上海电气集团股份有限公司 展会中对象展示的控制方法、系统、电子设备和存储介质
CN110827333B (zh) * 2019-10-31 2022-05-03 国网河北省电力有限公司电力科学研究院 一种继电保护的压板拼接识别方法、系统及介质
CN111062435A (zh) * 2019-12-13 2020-04-24 北京奇艺世纪科技有限公司 图像分析方法、装置及电子设备
CN111638793B (zh) * 2020-06-04 2023-09-01 浙江商汤科技开发有限公司 飞行器的展示方法、装置、电子设备及存储介质
CN111694164B (zh) * 2020-06-24 2022-05-20 重庆电子工程职业学院 智能文物展示系统
CN113140028A (zh) * 2021-04-08 2021-07-20 广州三七互娱科技有限公司 虚拟物体渲染方法、装置及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103294918A (zh) * 2013-05-30 2013-09-11 佛山电视台南海分台 一种在现实图像中进行虚拟游戏的方法和系统
CN103310099A (zh) * 2013-05-30 2013-09-18 佛山电视台南海分台 一种利用图像捕获和识别技术实现增强现实的方法和系统
CN105260409A (zh) * 2015-09-23 2016-01-20 惠州Tcl移动通信有限公司 智能终端的图片搜索方法以及智能终端
CN105869216A (zh) * 2016-03-29 2016-08-17 腾讯科技(深圳)有限公司 目标对象展示方法和装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120010041A (ko) * 2010-07-23 2012-02-02 세종대학교산학협력단 이동 단말 환경에서 증강 현실 콘텐츠를 저작하는 방법 및 시스템
US20120092329A1 (en) * 2010-10-13 2012-04-19 Qualcomm Incorporated Text-based 3d augmented reality
JP6283168B2 (ja) * 2013-02-27 2018-02-21 任天堂株式会社 情報保持媒体および情報処理システム
CN103929597B (zh) * 2014-04-30 2018-02-09 杭州摩图科技有限公司 一种辅助拍摄的方法及其装置
CN104463055A (zh) * 2014-12-29 2015-03-25 重庆甲虫网络科技有限公司 基于无线智能标签的增强现实系统及其控制方法
CN105405168A (zh) * 2015-11-19 2016-03-16 青岛黑晶信息技术有限公司 一种实现三维增强现实的方法及装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103294918A (zh) * 2013-05-30 2013-09-11 佛山电视台南海分台 一种在现实图像中进行虚拟游戏的方法和系统
CN103310099A (zh) * 2013-05-30 2013-09-18 佛山电视台南海分台 一种利用图像捕获和识别技术实现增强现实的方法和系统
CN105260409A (zh) * 2015-09-23 2016-01-20 惠州Tcl移动通信有限公司 智能终端的图片搜索方法以及智能终端
CN105869216A (zh) * 2016-03-29 2016-08-17 腾讯科技(深圳)有限公司 目标对象展示方法和装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109993192A (zh) * 2018-01-03 2019-07-09 北京京东尚科信息技术有限公司 目标对象识别方法及装置、电子设备、存储介质

Also Published As

Publication number Publication date
CN105869216A (zh) 2016-08-17
KR20180111970A (ko) 2018-10-11
KR102118000B1 (ko) 2020-06-02
US20180365518A1 (en) 2018-12-20
US10832086B2 (en) 2020-11-10

Similar Documents

Publication Publication Date Title
WO2017167032A1 (zh) 目标对象展示方法和装置
US10789622B2 (en) Generating and providing augmented reality representations of recommended products based on style compatibility in relation to real-world surroundings
US10580148B2 (en) Graphical coordinate system transform for video frames
US10186084B2 (en) Image processing to enhance variety of displayable augmented reality objects
US11816926B2 (en) Interactive augmented reality content including facial synthesis
US20220319127A1 (en) Facial synthesis in augmented reality content for third party applications
US20180182171A1 (en) Systems and Methods for Real-time Multimedia Augmented Reality
US20220254143A1 (en) Method and apparatus for determining item name, computer device, and storage medium
US20230353520A1 (en) Providing post-capture media overlays for post-capture processing in a messaging system
US20220319231A1 (en) Facial synthesis for head turns in augmented reality content
WO2022212171A1 (en) Facial synthesis in augmented reality content for advertisements
US20220321804A1 (en) Facial synthesis in overlaid augmented reality content
US11657568B2 (en) Methods and systems for augmented reality tracking based on volumetric feature descriptor data
Molyneaux et al. Projected interfaces: enabling serendipitous interaction with smart tangible objects
US10248306B1 (en) Systems and methods for end-users to link objects from images with digital content
Zhao et al. 3D model enhanced face recognition
Cho et al. Real‐time recognition and tracking for augmented reality books
TW201603567A (zh) 即時視訊串流中字元辨識技術
CN108628914B (zh) 移动装置及其操作方法、非挥发性计算机可读取记录媒体
CN111556338B (zh) 视频中区域的检测方法、信息融合方法、装置和存储介质
US20170228915A1 (en) Generation Of A Personalised Animated Film
US20200051533A1 (en) System and method for displaying content in association with position of projector
Pagani Modeling reality for camera registration in augmented reality applications
Habib et al. Magic mirror using kinect
TW202247105A (zh) 立體圖像呈現系統、裝置與方法

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 20187025999

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 1020187025999

Country of ref document: KR

NENP Non-entry into the national phase

Ref country code: DE

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17773062

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 17773062

Country of ref document: EP

Kind code of ref document: A1