CN110673767A - 一种信息显示方法及装置 - Google Patents

一种信息显示方法及装置 Download PDF

Info

Publication number
CN110673767A
CN110673767A CN201910765181.XA CN201910765181A CN110673767A CN 110673767 A CN110673767 A CN 110673767A CN 201910765181 A CN201910765181 A CN 201910765181A CN 110673767 A CN110673767 A CN 110673767A
Authority
CN
China
Prior art keywords
image
information
social
data
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910765181.XA
Other languages
English (en)
Inventor
杨少波
郝墨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201910765181.XA priority Critical patent/CN110673767A/zh
Publication of CN110673767A publication Critical patent/CN110673767A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/117Biometrics derived from hands

Abstract

本发明实施例公开了一种信息显示方法及装置,方法包括:针对用户所在社交范围采集图像,提取图像中社交对象的图像特征,将提取的图像特征与用户所在社交范围中的社交对象的资料信息匹配,社交对象的资料信息中包括:社交对象的特征数据及属性信息;针对匹配成功的图像特征和资料信息,将该资料信息中的属性信息显示在该图像特征对应至图像中的位置;这样,对于用户来说,图像中标识出了其所在社交范围中各社交对象的属性信息,用户可以直接将场景中的人员与图像对应起来,得到各人员的属性信息,可见,本方案减少了人员之间的交流障碍。

Description

一种信息显示方法及装置
技术领域
本发明涉及增强现实技术领域,特别是指一种信息显示方法及装置。
背景技术
一些场景中,人员之间需要进行交流,但由于人员较多,或者人员之间不太熟悉,或者其他因素影响,导致人员之间存在一些交流障碍。比如,在会议、展览等社交场景中,人员较多,而且人员之间并不熟悉,需要交换名片、阅读对方的名片之后,才能开始交流。再比如,在教学场景中,学生数量较多,老师虽然有学生的名单,但并不能将名单与教室里的学生对应起来。
现有一些方案中,人员可以将自己的身份证件,比如工牌、学生证等佩戴在胸前,以便与其他人员进行交流,但是这种方案中,其他人员需要仔细观察对方的证件才能获取到对方的信息,这样仍存在较大的交流障碍。
发明内容
有鉴于此,本发明的目的在于提出一种信息显示方法及装置,以减少人员之间的交流障碍。
基于上述目的,本发明实施例提供了一种信息显示方法,应用于电子设备,所述方法包括:
获取用户的位置信息,作为待处理位置信息;
基于社交对象的位置信息与资料信息的对应关系,确定所述待处理位置信息所在社交范围中的社交对象的资料信息,作为待匹配资料信息;其中,社交对象的资料信息中包括:社交对象的特征数据及属性信息;
获取所述用户所在场景的图像,并提取所述图像中的社交对象的图像特征,作为待匹配图像特征;
将所述待匹配资料信息与所述待匹配图像特征进行匹配,针对匹配成功的图像特征和资料信息,将该资料信息中的属性信息显示在该图像特征对应至所述图像中的位置。
可选的,所述获取用户的位置信息,作为待处理位置信息,包括:
通过基于短距离通信的定位算法,获取用户的位置信息,作为待处理位置信息;
或者,通过室内定位算法,获取用户的位置信息,作为待处理位置信息;
或者,通过全球定位系统,获取用户的位置信息,作为待处理位置信息;
或者,通过基站定位,获取用户的位置信息,作为待处理位置信息;
所述提取所述图像中的社交对象的图像特征,作为待匹配图像特征,包括:
识别所述图像中的社交对象;
针对识别到的社交对象,提取该社交对象的以下任意一项或多项特征,作为该社交对象的待匹配图像特征:人脸特征、背影特征、步态特征、肤色特征、体形特征。
可选的,所述电子设备为增强现实眼镜,所述增强现实眼镜包括图像采集模块和图像显示模块;
所述获取所述用户所在场景的图像,包括:通过所述图像采集模块,针对所述用户所在场景采集图像;
所述方法还包括:通过所述图像显示模块,显示所采集的图像;
所述将该资料信息中的属性信息显示在该图像特征对应至所述图像中的位置,包括:
在所述图像显示模块显示的图像中,确定该图像特征对应的位置,作为显示位置;将该资料信息中的属性信息显示在所述显示位置。
可选的,所述增强现实眼镜还包括语音采集模块;所述方法还包括:
通过所述语音采集模块,采集所述用户所在场景中的语音数据,并对所述语音数据进行特征提取,得到待匹配语音特征;
确定所述待匹配语音特征与所述图像中的社交对象的对应关系;
将所述待匹配语音特征与所述待匹配资料信息相匹配,针对匹配成功的语音特征和资料信息,将该资料信息中的属性信息显示在该语音特征对应的社交对象在所述图像中的位置。
可选的,采用如下步骤获取社交对象的位置信息与资料信息的对应关系:
获取社交对象上传的多媒体数据和属性信息;其中,所述多媒体数据包括:图像和语音数据;
对所述多媒体数据进行特征提取,得到特征数据,所述特征数据包括:图像特征和语音特征;
将提取得到的特征数据与社交对象的标识对应存储为社交对象的资料信息;
获取到社交对象的位置信息后,基于社交对象的标识,建立社交对象的位置信息与资料信息的对应关系。
可选的,在所述通过所述图像显示模块,显示所采集的图像之后,还包括:
通过所述图像采集模块,识别用户针对所显示图像的第一选择手势;
根据所述第一选择手势,在所述图像中包括的社交对象中,确定候选社交对象;
所述提取所述图像中的社交对象的图像特征,作为待匹配图像特征,包括:提取所述候选社交对象的图像特征,作为待匹配图像特征。
可选的,所述属性信息中包括社交对象的社交账户信息;在所述将该资料信息中的属性信息显示在所述显示位置之后,还包括:
通过所述图像采集模块,识别用户针对所显示图像的第二选择手势;
根据所述第二选择手势,在所述图像中包括的社交对象中,确定待交互社交对象;
基于所述待交互社交对象的社交账户信息,与所述待交互社交对象进行交互。
可选的,所述方法还包括:
将所述图像采集模块显示的图像发送至所述增强现实眼镜绑定的终端设备进行展示;
所述通过所述图像采集模块,识别用户针对所显示图像的第一选择手势;根据所述第一选择手势,在所述图像中包括的社交对象中,确定候选社交对象;包括:
检测用户在所述终端设备展示的图像中的点击操作;
根据所述点击操作,确定候选社交对象。
可选的,所述方法还包括:
确定所述图像中的社交对象的位置信息;
所述针对匹配成功的图像特征和资料信息,将该资料信息中的属性信息显示在该图像特征对应至所述图像中的位置,包括:
针对匹配成功的图像特征和资料信息,判断该图像特征所属社交对象的位置信息与所述资料信息所对应的社交对象的位置信息是否匹配成功;
如果匹配成功,将该资料信息中的属性信息显示在该图像特征对应至所述图像中的位置。
可选的,所述针对匹配成功的图像特征和资料信息,将该资料信息中的属性信息显示在该图像特征对应至所述图像中的位置,包括:
针对每对匹配成功的图像特征和资料信息,基于该图像特征识别社交对象的外表信息,判断所述外表信息是否满足预设第一过滤条件,如果不满足,则将该资料信息中的属性信息显示在该图像特征对应至所述图像中的位置;
或者,针对每对匹配成功的图像特征和资料信息,判断该资料信息中的属性信息是否满足预设第二过滤条件,如果不满足,则将该资料信息中的属性信息显示在该图像特征对应至所述图像中的位置;
或者,针对每对匹配成功的图像特征和资料信息,基于该图像特征识别社交对象的外表信息,判断所述外表信息是否满足预设第一过滤条件,以及判断该资料信息中的属性信息是否满足预设第二过滤条件;如果均不满足,则将该资料信息中的属性信息显示在该图像特征对应至所述图像中的位置。
基于上述目的,本发明实施例还提供了一种信息显示装置,应用于电子设备,所述装置包括:
第一获取模块,用于获取用户的位置信息,作为待处理位置信息;
确定模块,用于基于社交对象的位置信息与资料信息的对应关系,确定所述待处理位置信息所在社交范围中的社交对象的资料信息,作为待匹配资料信息;其中,社交对象的资料信息中包括:社交对象的特征数据及属性信息;
第二获取模块,用于获取所述用户所在场景的图像;
提取模块,用于提取所述图像中的社交对象的图像特征,作为待匹配图像特征;
匹配模块,用于将所述待匹配资料信息与所述待匹配图像特征进行匹配;
显示模块,用于针对匹配成功的图像特征和资料信息,将该资料信息中的属性信息显示在该图像特征对应至所述图像中的位置。
应用本发明所示实施例,针对用户所在社交范围采集图像,提取图像中社交对象的图像特征,将提取的图像特征与用户所在社交范围中的社交对象的资料信息匹配,社交对象的资料信息中包括:社交对象的特征数据及属性信息;针对匹配成功的图像特征和资料信息,将该资料信息中的属性信息显示在该图像特征对应至图像中的位置;这样,对于用户来说,图像中标识出了其所在社交范围中各社交对象的属性信息,用户可以直接将场景中的人员与图像对应起来,得到各人员的属性信息,可见,本方案减少了人员之间的交流障碍。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的信息显示方法的第一种流程示意图;
图2为本发明实施例提供的信息显示方法的第二种流程示意图;
图3为本发明实施例提供的一种应用场景示意图;
图4为本发明实施例提供的一种信息显示装置的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。
需要说明的是,本发明实施例中所有使用“第一”和“第二”的表述均是为了区分两个相同名称非相同的实体或者非相同的参量,可见“第一”“第二”仅为了表述的方便,不应理解为对本发明实施例的限定,后续实施例对此不再一一说明。
为了解决上述技术问题,本发明实施例提供了一种信息显示方法及装置,该方法及装置可以应用于增强现实(Augmented Reality)设备,比如AR眼镜等,或者也可以应用于具有显示功能的穿戴设备,或者也可以应用于手机、平板电脑等终端设备,等等,具体不做限定。下面首先对发明实施例提供的信息显示方法进行介绍,为了方便描述,以下内容中将执行主体称为电子设备。
图1为本发明实施例提供的信息显示方法的第一种流程示意图,包括:
S101:获取用户的位置信息,作为待处理位置信息。
这里所说的用户即为使用本电子设备(执行主体)的人员,以执行主体为AR眼镜为例来说,用户即为佩戴AR眼镜的人员。一种情况下,AR眼镜可以获取到自身的位置信息,将该位置信息作为用户的位置信息。另一种情况下,AR眼镜可以与用户携带的其他设备如手机进行绑定,手机获取位置信息,并将该位置信息发送到AR眼镜,AR眼镜将接收到的位置信息作为用户的位置信息。
一种实施方式中,S101可以包括:通过GPS(Global Positioning System,全球定位系统)或者基站定位,获取用户的位置信息,作为待处理位置信息。
另一种实施方式中,S101可以包括:通过基于短距离通信的定位算法,获取用户的位置信息,作为待处理位置信息。
举例来说,短距离通信可以包括:近场通信(Near Field Communication)、ZigBee(紫蜂)、WiFi(无线上网)、蓝牙等通信方式,可以基于这些通信方式进行定位。以蓝牙通信为例来说,可以在场景中设置多台蓝牙设备,这些蓝牙设备均与本电子设备相连接,每台蓝牙设备确定自身与该电子设备之间的距离,以蓝牙设备为圆心,该距离为半径画圆,各圆的交点即为本电子设备的位置。
另一种实施方式中,S101可以包括:通过室内定位算法,获取用户的位置信息,作为待处理位置信息。
举例来说,这种实施方式中,可以通过扫描用户周围场景,确定用户在该场景中的相对位置。或者,也可以通过5G(The 5th Generation,第五代移动通信技术)边缘计算(Mobile Edge Computing,MEC)算法,确定用户在该场景中的相对位置。
在一些信号较差情况下,比如基站的信号不能覆盖的区域中,或者在一些高速移动的场景中,比如高铁车厢内,或者一些室内场景中,可以通过基于短距离通信的定位算法、或者室内定位算法,获取用户的位置信息,提高了定位的准确性。为了方便描述,将获取到的用户的位置信息称为待处理位置信息。
一种情况下,位置信息可以为二维地理坐标,或者,另一种情况下,位置信息也可以为包括高度的三维坐标,比如,可以通过气压计或者海拔计获取高度值,这样可以区分平面坐标相同而高度不同的人员。
S102:基于社交对象的位置信息与资料信息的对应关系,确定待处理位置信息所在社交范围中的社交对象的资料信息,作为待匹配资料信息;其中,社交对象的资料信息中包括:社交对象的特征数据及属性信息。
一种情况下,本电子设备中可以存储社交对象的位置信息与资料信息的对应关系,这样S102中可以直接在本地查找该对应关系,得到待匹配资料信息。另一种情况下,该对应关系可以存储于服务器中,本电子设备读取服务器中存储的对应关系,得到待匹配资料信息。
一种实施方式中,可以采用如下步骤获取社交对象的位置信息与资料信息的对应关系:
获取社交对象上传的多媒体数据和属性信息;其中,所述多媒体数据包括:图像和语音数据;
对所述多媒体数据进行特征提取,得到特征数据,所述特征数据包括:图像特征和语音特征;
将提取得到的特征数据与社交对象的标识对应存储为社交对象的资料信息;
获取到社交对象的位置信息后,基于社交对象的标识,建立社交对象的位置信息与资料信息的对应关系。
为了方便描述,将使用本电子设备的人员称为用户,将可能与用户存在社交关系的人员称为社交对象。用户及社交对象均可以将自身的多媒体数据和属性信息上传至服务器。多媒体数据可以为包含人员的图像、或视频,还可以包括人员的音频数据,该多媒体数据可以用于识别不同的人员。一种情况下,属性信息可以包括人员的名称、职务、个人简介等信息,这样,该属性信息有助于快速了解该人员;另一种情况下,属性信息可以包括人员的电话号码、微信二维码、邮箱等联系方式,这样,该属性信息可以用于人员之间的信息交互。
如上所述,多媒体数据可以包括图像,这样,对多媒体数据进行特征提取,得到的特征数据包括图像特征;多媒体数据还可以包括音频数据,这样,对多媒体数据进行特征提取,得到的特征数据包括语音特征。为上传数据的人员分配一个唯一标识,比如ID号,将提取得到的特征数据与该标识对应存储,作为人员的资料信息。这一过程可以理解为人员的注册过程,在人员注册之后,可以获取人员的位置信息,将该位置信息与人员的资料信息对应存储。一种情况下,可以周期性地对人员进行定位,假设执行主体为AR眼镜,可以在用户佩戴AR眼镜后,每隔一段时间对用户进行定位,或者,也可以在用户开启AR眼镜上的启动按钮后,开始对用户进行定位。
可见,本实施方式中,人员的位置信息可以是动态更新的,而并不是在注册过程中,由人员填写一个固定的地理位置,这样,即使人员位置发生变化,也能通过本方案进行有效社交。
举例来说,可以确定待处理位置信息所在的社交范围。比如,将与待处理位置信息距离小于预设阈值的范围确定为社交范围,该预设阈值可以根据实际情况设定,具体数值不做限定。再比如,在室内场景或者高铁车厢等封闭场景中,可以将该场景确定为社交范围。在上述对应关系中查找该社交范围内的位置信息,为了方便描述,将查找到的位置信息对应的资料信息称为待匹配资料信息。
S103:获取用户所在场景的图像,并提取该图像中的社交对象的图像特征,作为待匹配图像特征。
S101-S102与S103之间的执行顺序不做限定。举例来说,假设执行主体为AR眼镜,用户佩戴AR眼镜后,AR眼镜可以持续采集用户所在场景的图像,并且周期性地获取用户的位置信息。AR眼镜中可以包括图像采集模块,可以通过该图像采集模块,针对所述用户所在场景采集图像。
一种实施方式中,可以识别所述图像中的社交对象;针对识别到的社交对象,提取该社交对象的以下任意一项或多项特征,作为该社交对象的待匹配图像特征:人脸特征、背影特征、步态特征、肤色特征、体形特征。
一些情况下,采集场景图像时,未能捕捉到社交对象的人脸,这些情况下,可以提取社交对象的背影特征、步态特征、肤色特征、体形特征。
举例来说,可以采用边缘识别算法、或者通过模型匹配的方式,识别图像中的人员,作为识别到的社交对象。一种情况下,可以针对识别到的每个社交对象,提取该社交对象的人脸特征、背影特征、步态特征、肤色特征、体形特征等等。或者,另一种情况下,用户可以选择部分社交对象,仅对这些社交对象进行特征提取。举例来说,一些情况下,场景中的人员较多,而用户仅对其中部分人员感兴趣,这种情况下,用户可以选择感兴趣的人员作为候选社交对象,这样,S103中可以提取候选社交对象的图像特征,作为待匹配图像特征。
假设执行主体为AR眼镜,AR眼镜中还可以包括图像显示模块,图像显示模块可以显示图像采集模块采集的图像,这样,用户佩戴AR眼镜后,可以看到与场景一致的图像。一种实施方式中,用户可以针对显示的图像,隔空点选感兴趣的社交对象作为候选社交对象,AR眼镜通过所述图像采集模块,识别用户针对所显示图像的第一选择手势;根据所述第一选择手势,在所述图像中包括的社交对象中,确定候选社交对象。为了与后续内容中的选择手势相区分,将这里的选择手势称为第一选择手势。
或者,另一种实施方式中,AR眼镜可以将图像采集模块显示的图像发送至AR眼镜绑定的终端设备进行展示;这种实施方式中,可以检测用户在所述终端设备展示的图像中的点击操作;根据所述点击操作,确定候选社交对象。
该终端设备可以为用户的手机、平板电脑或者其他触摸屏设备,具体不做限定。提取候选社交对象的图像特征,作为待匹配图像特征。
S104:将待匹配资料信息与待匹配图像特征进行匹配,针对匹配成功的图像特征和资料信息,将该资料信息中的属性信息显示在该图像特征对应至该图像中的位置。
如上所述,资料信息中包括社交对象的特征数据及属性信息,该特征数据可以包括图像特征,一种情况下,如果待匹配图像特征与待匹配资料信息中的图像特征满足预设相似度条件,则表示待匹配资料信息与待匹配图像特征匹配成功。
一种实施方式中,针对每对匹配成功的图像特征和资料信息,都可以将该资料信息中的属性信息显示在该图像特征对应至该图像中的位置。
另一种实施方式中,可以对匹配成功的图像特征和资料信息进行过滤,仅针对剩余的匹配成功的图像特征和资料信息,将该资料信息中的属性信息显示在该图像特征对应至该图像中的位置。
再一种实施方式中,可以对匹配成功的图像特征和资料信息进行筛选,仅针对通过筛选的匹配成功的图像特征和资料信息,将该资料信息中的属性信息显示在该图像特征对应至该图像中的位置。
过滤与筛选情况类似,下面仅对过滤的情况进行举例说明。
一种情况下,可以针对每对匹配成功的图像特征和资料信息,基于该图像特征识别社交对象的外表信息,判断所述外表信息是否满足预设第一过滤条件,如果不满足,则将该资料信息中的属性信息显示在该图像特征对应至所述图像中的位置。
举例来说,外表信息可以包括:性别、年龄等信息。预设第一过滤条件可以根据实际情况进行设定,比如,用户对年龄大于50岁的社交对象不感兴趣,则第一过滤条件可以包括:年龄大于50岁,再比如,用户对男性社交对象不感兴趣,则第一过滤条件可以包括:男性,等等,具体不做限定。
另一种情况下,可以针对每对匹配成功的图像特征和资料信息,判断该资料信息中的属性信息是否满足预设第二过滤条件,如果不满足,则将该资料信息中的属性信息显示在该图像特征对应至所述图像中的位置。
举例来说,属性信息中可以包括:职务、学历等信息,预设第二过滤条件可以根据实际情况进行设定,比如,用户对学历低于本科的社交对象不感兴趣,则第二过滤条件可以包括:学历低于本科,等等,具体不做限定。
再一种情况下,可以针对每对匹配成功的图像特征和资料信息,基于该图像特征识别社交对象的外表信息,判断所述外表信息是否满足预设第一过滤条件,以及判断该资料信息中的属性信息是否满足预设第二过滤条件;如果均不满足,则将该资料信息中的属性信息显示在该图像特征对应至所述图像中的位置。
这种情况下,可以结合上述针对外表信息和属性信息两方面的过滤,仅针对两次过滤后剩余的匹配成功的图像特征和资料信息,将该资料信息中的属性信息显示在该图像特征对应至该图像中的位置。
假设待匹配图像特征X与待匹配资料信息Y中的图像特征满足预设相似度条件,则可以将资料信息Y中的属性信息显示在图像特征X在图像中的位置。比如,图像特征X对应到图像中为人员区域,可以将属性信息显示在人员区域中,或者也可以显示在人员区域的附近。
举例来说,如果执行主体为AR眼镜,AR眼镜可以将待匹配资料信息和待匹配图像特征发送至其他计算能力更强的设备进行匹配,或者,也可以由AR眼镜自身进行匹配,具体的匹配方式不做限定。
如上所述,一种实施方式中,AR眼镜包括图像显示模块,这样,可以在图像显示模块显示的图像中,确定该图像特征对应的位置,作为显示位置;将该资料信息中的属性信息显示在所述显示位置。该显示位置可以为人员区域中,也可以为人员区域附近的位置。这样,用户佩戴AR眼镜后,可以看到与场景一致的图像,并且该图像中显示有社交对象的属性信息,用户可以基于看到的属性信息进行社交,减少了交流障碍。
一种实施方式中,该特征数据还包括语音特征,AR眼镜中还包括语音采集模块,可以通过所述语音采集模块,采集所述用户所在场景中的语音数据,并对所述语音数据进行特征提取,得到待匹配语音特征;确定所述待匹配语音特征与所述图像中的社交对象的对应关系;将所述待匹配语音特征与所述待匹配资料信息相匹配,针对匹配成功的语音特征和资料信息,将该资料信息中的属性信息显示在该语音特征对应的社交对象在所述图像中的位置。
举例来说,一些情况下,社交对象可能并未正对用户佩戴的AR眼镜,这样,该社交对象在图像中的清晰度较差,仅基于图像特征进行匹配,准确度较低。本实施方式中,还基于社交对象的语音特征进行匹配,提高了匹配准确度。
比如,假设语音采集模块在A时刻-B时刻采集到一段语音数据,对该语音数据进行特征提取,为了方便描述,将提取到的特征称为待匹配语音特征。可以在A时刻-B时刻图像采集模块采集的图像中,识别正在说话的社交对象,待匹配语音特征与识别到的社交对象存在对应关系,或者说,可以认为待匹配语音特征为该社交对象的语音特征。上述对应关系中的特征数据中包括语音特征,如果待匹配语音特征进行匹配与待匹配资料信息中的语音特征满足预设相似度条件,则表示待匹配资料信息与待匹配语音特征匹配成功。
假设待匹配语音特征Z与待匹配资料信息Y中的语音特征满足预设相似度条件,则可以将资料信息Y中的属性信息显示在语音特征Z对应的社交对象在图像中的位置。比如,语音特征X对应社交对象1,可以将属性信息显示在社交对象1对应的图像区域中,或者也可以显示在该区域的附近。
如上所述,一种实施方式中,AR眼镜包括图像显示模块,这样,可以确定该语音特征对应的社交对象在图像显示模块显示的图像中的位置,作为显示位置;将该资料信息中的属性信息显示在所述显示位置。该显示位置可以为社交对象所在的图像区域中,也可以为区域附近的位置。这样,用户佩戴AR眼镜后,可以看到与场景一致的图像,并且该图像中显示有社交对象的属性信息,用户可以基于看到的属性信息进行社交,减少了交流障碍。
一种实施方式中,可以确定所述图像中的社交对象的位置信息;这种实施方式中,S104可以包括:针对匹配成功的图像特征和资料信息,判断该图像特征所属社交对象的位置信息与所述资料信息所对应的社交对象的位置信息是否匹配成功;如果匹配成功,将该资料信息中的属性信息显示在该图像特征对应至所述图像中的位置。
上述实施方式中,基于图像特征、语音特征匹配资料信息,本实施方式中,还基于位置信息匹配资料信息,基于多个方面进行匹配,可以提高匹配准确度。
如上所述,S101中获取到的用户的位置信息可以为用户在该场景中的相对位置;这种情况下,本实施方式中,也可以通过场景图像确定社交对象在场景中的相对位置,上述存储的对应关系中包括社交对象在场景中的相对位置,这样,便可以将“通过场景图像确定出的位置信息”与“基于该对应关系确定出的位置信息”进行匹配。
假设待处理位置信息所在社交范围中的社交对象的资料信息有三份,分别为:资料信息P1、P2和P3,假设针对用户所在场景进行图像采集,识别出图像中存在三个社交对象:Q1、Q2和Q3,提取Q1的图像特征F1,提取Q2的图像特征F2,提取Q3的图像特征F3。分别将图像特征F1、F2、F3与资料信息P1、P2和P3进行匹配,假设F1与P1匹配成功,F2与P2匹配成功。本实施方式中,对于匹配成功的资料信息,进一步的再基于位置信息进行匹配。
假设通过该图像,分别确定出三个社交对象的位置信息,假设Q1的位置信息为S1,Q2的位置信息为S2,Q3的位置信息为S3,基于社交对象的位置信息与资料信息的对应关系,判断S1与资料信息P1对应的位置信息是否匹配成功,判断S2与资料信息P2对应的位置信息是否匹配成功。
假设S1与资料信息P1对应的位置信息匹配成功,S2与资料信息P2对应的位置信息未匹配成功,则表示S1在图像中对应的社交对象与P1对应的社交对象为同一人员,可以将P1中的属性信息展示在S1对应到图像中的位置,表示S2在图像中对应的社交对象与P2对应的社交对象为不同人员。可见,如果图像清晰度较差,导致匹配到错误的资料信息,利用本实施方式,可以筛选出匹配错误的资料信息,提高匹配准确率。
一种实施方式中,若一份图像特征匹配出多份资料信息,可以将该多份资料信息展示给用户,该资料信息中包括社交对象的图像,由用户判断哪一份才是正确的资料信息。
一种实施方式中,若一份图像特征未匹配到资料信息,一种情况下,可以输出提示信息,提示用户未能获取到该社交对象的属性信息,另一种情况下,也可以在服务器存储的“社交对象的位置信息与资料信息的对应关系”中进行深度搜索,搜索该份图像特征相匹配的资料信息。如果用户感兴趣的社交对象未进行注册,或者不能获取到该社交对象的位置信息,则可能通过深度搜索的方式,得到该社交对象的属性信息。
一种实施方式中,S104之后,还可以通过所述图像采集模块,识别用户针对所显示图像的第二选择手势;根据所述第二选择手势,在所述图像中包括的社交对象中,确定待交互社交对象;基于所述待交互社交对象的社交账户信息,与所述待交互社交对象进行交互。
假设执行主体为AR眼镜,AR眼镜中还可以包括图像显示模块,图像显示模块可以显示图像采集模块采集的图像,这样,用户佩戴AR眼镜后,可以看到与场景一致的图像。本实施方式中,用户可以针对显示的图像,隔空点选感兴趣的社交对象作为待交互社交对象,AR眼镜通过所述图像采集模块,识别用户针对所显示图像的第二选择手势,为了与上述内容中的选择手势相区分,将这里的选择手势称为第二选择手势。根据所述第二选择手势,在所述图像中包括的社交对象中,确定待交互社交对象。
本实施方式中,属性信息中包括社交对象的社交账户信息,比如,电话号码、微信二维码、邮箱等联系方式,可以基于这些联系方式与待交互社交对象进行交互。
或者,另一种实施方式中,AR眼镜可以将图像采集模块显示的图像发送至AR眼镜绑定的终端设备进行展示,属性信息也显示在所展示的图像中;这种实施方式中,可以检测用户在所述终端设备展示的图像中的点击操作;根据所述点击操作,确定待交互社交对象。
该终端设备可以为用户的手机、平板电脑或者其他触摸屏设备,具体不做限定。
或者,另一些实施方式中,用户佩戴AR眼镜后,看到与场景一致的图像,并且该图像中显示有社交对象的属性信息,用户可以基于看到的属性信息进行面对面社交,具体社交方式不做限定。
一种实施方式中,AR眼镜可以持续采集场景图像,并且实时执行本方案,在图像中显示社交对象的属性信息,形成实时动态显示的效果。
应用本发明所示实施例,第一方面,对于用户来说,图像中标识出了其所在社交范围中各社交对象的属性信息,用户可以直接将场景中的人员与图像对应起来,得到各人员的属性信息,可见,本方案减少了人员之间的交流障碍。第二方面,本方案可以在不需要介绍的情况下,直接与陌生人交流。比如,对于初次见面的陌生人来说,可以采用本方案快速了解对方。第三方面,在一些社交场景中,可以采用本方案组成社交网络,用户快速了解社交网络中的社交对象信息,从而进行社交活动。第四方面,如果用户感兴趣的社交对象未进行注册,或者不能获取到该社交对象的位置信息,则可能通过深度搜索的方式,得到该社交对象的属性信息。
图2为本发明实施例提供的信息显示方法的第二种流程示意图,图2实施例中将AR眼镜作为执行主体,该方法包括:
S201:通过AR眼镜中的定位模块,获取用户的位置信息,作为待处理位置信息;通过AR眼镜中的图像采集模块,针对用户所在场景采集图像;通过AR眼镜中的图像显示模块,显示所采集的图像。
在一些信号较差情况下,比如基站的信号不能覆盖的区域中,或者在一些高速移动的场景中,比如高铁车厢内,或者一些室内场景中,可以通过基于短距离通信的定位算法、或者室内定位算法,获取用户的位置信息,提高了定位的准确性。
一种情况下,位置信息可以为二维地理坐标,或者,另一种情况下,位置信息也可以为包括高度的三维坐标,比如,可以通过气压计或者海拔计获取高度值,这样可以区分平面坐标相同而高度不同的人员。
S202:基于社交对象的位置信息与资料信息的对应关系,确定待处理位置信息所在社交范围中的社交对象的资料信息,作为待匹配资料信息;其中,社交对象的资料信息中包括:社交对象的特征数据及属性信息。
一种情况下,AR眼镜中可以存储社交对象的位置信息与资料信息的对应关系,这样S202中可以直接在本地查找该对应关系,得到待匹配资料信息。另一种情况下,该对应关系可以存储于服务器中,AR眼镜读取服务器中存储的对应关系,得到待匹配资料信息。
一种实施方式中,可以采用如下步骤获取社交对象的位置信息与资料信息的对应关系:
获取社交对象上传的多媒体数据和属性信息;
对该多媒体数据进行特征提取,得到特征数据;
将提取得到的特征数据与社交对象的标识对应存储为社交对象的资料信息;
获取到社交对象的位置信息后,基于社交对象的标识,建立社交对象的位置信息与资料信息的对应关系。
为了方便描述,将使用本AR眼镜的人员称为用户,将可能与用户存在社交关系的人员称为社交对象。用户及社交对象均可以将自身的多媒体数据和属性信息上传至服务器。多媒体数据可以为包含人员的图像或视频,该多媒体数据可以用于识别不同的人员。一种情况下,属性信息可以包括人员的名称、职务、个人简介等信息,这样,该属性信息有助于快速了解该人员;另一种情况下,属性信息可以包括人员的电话号码、微信二维码、邮箱等联系方式,这样,该属性信息可以用于人员之间的信息交互。
为上传数据的人员分配一个唯一标识,比如ID号,将提取得到的特征数据与该标识对应存储,作为人员的资料信息。这一过程可以理解为人员的注册过程,在人员注册之后,可以获取人员的位置信息,将该位置信息与人员的资料信息对应存储。一种情况下,可以在用户佩戴AR眼镜后,每隔一段时间对用户进行定位,或者,也可以在用户开启AR眼镜上的启动按钮后,开始对用户进行定位。
可见,本实施方式中,人员的位置信息可以是动态更新的,而并不是在注册过程中,由人员填写一个固定的地理位置,这样,即使人员位置发生变化,也能通过本方案进行有效社交。
举例来说,可以确定待处理位置信息所在的社交范围。比如,将与待处理位置信息距离小于预设阈值的范围确定为社交范围,该预设阈值可以根据实际情况设定,具体数值不做限定。再比如,在室内场景或者高铁车厢等封闭场景中,可以将该场景确定为社交范围。在上述对应关系中查找该社交范围内的位置信息,为了方便描述,将查找到的位置信息对应的资料信息称为待匹配资料信息。
S203:识别图像中的社交对象。
举例来说,可以采用边缘识别算法、或者通过模型匹配的方式,识别图像中的人员,作为识别到的社交对象。
S204:通过图像采集模块,识别用户针对所显示图像的第一选择手势;根据第一选择手势,在图像中包括的社交对象中,确定候选社交对象。
用户可以针对显示的图像,隔空点选感兴趣的社交对象作为候选社交对象。AR眼镜中的图像采集模块可以捕捉到用户的手势,为了与后续内容中的选择手势相区分,将这里的选择手势称为第一选择手势。
一种实施方式中,AR眼镜可以将图像采集模块显示的图像发送至AR眼镜绑定的终端设备进行展示;这种实施方式中,可以检测用户在所述终端设备展示的图像中的点击操作;根据所述点击操作,确定候选社交对象。该终端设备可以为用户的手机、平板电脑或者其他触摸屏设备,具体不做限定。
S205:针对每个社交候选对象,提取该候选社交对象的以下任意一项或多项特征,作为该候选社交对象的待匹配图像特征:人脸特征、背影特征、步态特征、肤色特征、体形特征。
一些情况下,采集场景图像时,未能捕捉到社交对象的人脸,这些情况下,可以提取社交对象的背影特征、步态特征、肤色特征、体形特征。
S202与S203-S205之间的执行顺序不做限定,三者可以同时执行。
S206:将待匹配图像特征与待匹配资料信息进行匹配。
资料信息中包括社交对象的特征数据,该特征数据包括图像特征,因此,可以将待匹配图像特征与资料信息进行匹配。
S207:针对匹配成功的图像特征和资料信息,将该资料信息中的属性信息显示在该图像特征对应至图像中的位置。
如果匹配成功,表示图像中的社交对象与资料信息对应的社交对象为同一人员,将资料信息中的属性信息显示在图像中的相应位置处,也就是在AR眼镜中的图像显示模块显示的图像中,添加社交对象的属性信息,可以将属性信息显示在社交对象对应的图像区域中,或者也可以显示在该区域的附近。这样,用户佩戴AR眼镜后,可以看到与场景一致的图像,并且该图像中显示有社交对象的属性信息,用户可以基于看到的属性信息进行社交,减少了交流障碍。
S207之后,用户可以基于看到的社交对象的属性信息进行面对面的交流,或者,属性信息中可以包括社交对象的社交账户信息,AR眼镜可以直接基于该社交账户信息,与用户选择的社交对象进行线上交互。
用户可以通过选择手势选择交互对象,或者,AR眼镜可以将图像采集模块显示的图像发送至AR眼镜绑定的终端设备进行展示;这种实施方式中,可以检测用户在所述终端设备展示的图像中的点击操作;根据所述点击操作,确定交互社交对象。该终端设备可以为用户的手机、平板电脑或者其他触摸屏设备,具体不做限定。
下面参考图3,介绍一种具体的实施方式:
用户佩戴AR眼镜,AR眼镜中包括摄像头,摄像头可以采集场景图像,AR眼镜中还包括图像显示模块,用于显示采集的图像。用户及其他社交对象均携带智能手机,智能手机可以与基站通信,通过基站还可以与数据处理中心通信。人员(社交对象,或者社交对象及用户)预先进行注册,将自己的多媒体数据和属性信息上传至数据处理中心,多媒体数据可以包括图像、视频、语音数据等,属性信息可以包括人员的名称、职务、个人简介等信息,还可以包括人员的电话号码、微信二维码、邮箱等联系方式。
数据处理中心对多媒体数据进行特征提取,得到的特征数据包括图像特征和语音特征。数据处理中心为上传数据的人员分配一个唯一标识,比如ID号,将提取得到的特征数据与该标识对应存储,作为人员的资料信息。这一过程可以理解为人员的注册过程。
智能手机可以通过与基站通信,确定机主的位置信息,并将位置信息上传至数据处理中心,数据处理中心将该位置信息与人员的资料信息对应存储。AR眼镜可以通过用户携带的智能手机,获取用户的位置信息,作为待处理位置信息;AR眼镜将该待处理位置信息发送至数据处理中心,数据处理中心基于上述存储的“人员的位置信息与资料信息的对应关系”,确定待处理位置信息所在社交范围中的社交对象的资料信息,作为待匹配资料信息。
AR眼镜识别摄像头采集的图像中的社交对象,并提取社交对象的图像特征,作为待匹配图像特征,也就是对图像进行检测与识别;AR眼镜将该待匹配图像特征发送至数据处理中心,数据处理中心将待匹配资料信息与待匹配图像特征进行匹配,将匹配结果返回给AR眼镜。AR眼镜针对匹配成功的图像特征和资料信息,将该资料信息中的属性信息显示在该图像特征对应至图像中的位置。
AR眼镜中的摄像头可以持续采集场景图像,并且实时执行本方案,在图像中显示社交对象的属性信息,形成实时动态显示的效果。这样,用户佩戴AR眼镜后,可以看到与场景一致的图像,并且该图像中实时显示有社交对象的属性信息,用户可以基于看到的属性信息进行社交,减少了交流障碍。用户的智能手机与社交对象的智能手机之间可以进行社交信息的交互。
与上述方法实施例相对应,本发明实施例还提供了一种信息显示装置,如图4所示,应用于电子设备,所述装置包括:
第一获取模块401,用于获取用户的位置信息,作为待处理位置信息;
确定模块402,用于基于社交对象的位置信息与资料信息的对应关系,确定所述待处理位置信息所在社交范围中的社交对象的资料信息,作为待匹配资料信息;其中,社交对象的资料信息中包括:社交对象的特征数据及属性信息;
第二获取模块403,用于获取所述用户所在场景的图像;
提取模块404,用于提取所述图像中的社交对象的图像特征,作为待匹配图像特征;
匹配模块405,用于将所述待匹配资料信息与所述待匹配图像特征进行匹配;
显示模块406,用于针对匹配成功的图像特征和资料信息,将该资料信息中的属性信息显示在该图像特征对应至所述图像中的位置。
上述实施例的装置用于实现前述实施例中相应的方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本公开的范围(包括权利要求)被限于这些例子;在本发明的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本发明的不同方面的许多其它变化,为了简明它们没有在细节中提供。
另外,为简化说明和讨论,并且为了不会使本发明难以理解,在所提供的附图中可以示出或可以不示出与集成电路(IC)芯片和其它部件的公知的电源/接地连接。此外,可以以框图的形式示出装置,以便避免使本发明难以理解,并且这也考虑了以下事实,即关于这些框图装置的实施方式的细节是高度取决于将要实施本发明的平台的(即,这些细节应当完全处于本领域技术人员的理解范围内)。在阐述了具体细节(例如,电路)以描述本发明的示例性实施例的情况下,对本领域技术人员来说显而易见的是,可以在没有这些具体细节的情况下或者这些具体细节有变化的情况下实施本发明。因此,这些描述应被认为是说明性的而不是限制性的。
尽管已经结合了本发明的具体实施例对本发明进行了描述,但是根据前面的描述,这些实施例的很多替换、修改和变型对本领域普通技术人员来说将是显而易见的。例如,其它存储器架构(例如,动态RAM(DRAM))可以使用所讨论的实施例。
本发明的实施例旨在涵盖落入所附权利要求的宽泛范围之内的所有这样的替换、修改和变型。因此,凡在本发明的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (11)

1.一种信息显示方法,其特征在于,应用于电子设备,所述方法包括:
获取用户的位置信息,作为待处理位置信息;
基于社交对象的位置信息与资料信息的对应关系,确定所述待处理位置信息所在社交范围中的社交对象的资料信息,作为待匹配资料信息;其中,社交对象的资料信息中包括:社交对象的特征数据及属性信息;
获取所述用户所在场景的图像,并提取所述图像中的社交对象的图像特征,作为待匹配图像特征;
将所述待匹配资料信息与所述待匹配图像特征进行匹配,针对匹配成功的图像特征和资料信息,将该资料信息中的属性信息显示在该图像特征对应至所述图像中的位置。
2.根据权利要求1所述的方法,其特征在于,所述获取用户的位置信息,作为待处理位置信息,包括:
通过基于短距离通信的定位算法,获取用户的位置信息,作为待处理位置信息;
或者,通过室内定位算法,获取用户的位置信息,作为待处理位置信息;
或者,通过全球定位系统,获取用户的位置信息,作为待处理位置信息;
或者,通过基站定位,获取用户的位置信息,作为待处理位置信息;
所述提取所述图像中的社交对象的图像特征,作为待匹配图像特征,包括:
识别所述图像中的社交对象;
针对识别到的社交对象,提取该社交对象的以下任意一项或多项特征,作为该社交对象的待匹配图像特征:人脸特征、背影特征、步态特征、肤色特征、体形特征。
3.根据权利要求1所述的方法,其特征在于,所述电子设备为增强现实眼镜,所述增强现实眼镜包括图像采集模块和图像显示模块;
所述获取所述用户所在场景的图像,包括:通过所述图像采集模块,针对所述用户所在场景采集图像;
所述方法还包括:通过所述图像显示模块,显示所采集的图像;
所述将该资料信息中的属性信息显示在该图像特征对应至所述图像中的位置,包括:
在所述图像显示模块显示的图像中,确定该图像特征对应的位置,作为显示位置;将该资料信息中的属性信息显示在所述显示位置。
4.根据权利要求3所述的方法,其特征在于,其特征在于,所述增强现实眼镜还包括语音采集模块;所述方法还包括:
通过所述语音采集模块,采集所述用户所在场景中的语音数据,并对所述语音数据进行特征提取,得到待匹配语音特征;
确定所述待匹配语音特征与所述图像中的社交对象的对应关系;
将所述待匹配语音特征与所述待匹配资料信息相匹配,针对匹配成功的语音特征和资料信息,将该资料信息中的属性信息显示在该语音特征对应的社交对象在所述图像中的位置。
5.根据权利要求4所述的方法,其特征在于,采用如下步骤获取社交对象的位置信息与资料信息的对应关系:
获取社交对象上传的多媒体数据和属性信息;其中,所述多媒体数据包括:图像和语音数据;
对所述多媒体数据进行特征提取,得到特征数据,所述特征数据包括:图像特征和语音特征;
将提取得到的特征数据与社交对象的标识对应存储为社交对象的资料信息;
获取到社交对象的位置信息后,基于社交对象的标识,建立社交对象的位置信息与资料信息的对应关系。
6.根据权利要求3所述的方法,其特征在于,在所述通过所述图像显示模块,显示所采集的图像之后,还包括:
通过所述图像采集模块,识别用户针对所显示图像的第一选择手势;
根据所述第一选择手势,在所述图像中包括的社交对象中,确定候选社交对象;
所述提取所述图像中的社交对象的图像特征,作为待匹配图像特征,包括:提取所述候选社交对象的图像特征,作为待匹配图像特征。
7.根据权利要求3所述的方法,其特征在于,所述属性信息中包括社交对象的社交账户信息;在所述将该资料信息中的属性信息显示在所述显示位置之后,还包括:
通过所述图像采集模块,识别用户针对所显示图像的第二选择手势;
根据所述第二选择手势,在所述图像中包括的社交对象中,确定待交互社交对象;
基于所述待交互社交对象的社交账户信息,与所述待交互社交对象进行交互。
8.根据权利要求6所述的方法,其特征在于,所述方法还包括:
将所述图像采集模块显示的图像发送至所述增强现实眼镜绑定的终端设备进行展示;
所述通过所述图像采集模块,识别用户针对所显示图像的第一选择手势;根据所述第一选择手势,在所述图像中包括的社交对象中,确定候选社交对象;包括:
检测用户在所述终端设备展示的图像中的点击操作;
根据所述点击操作,确定候选社交对象。
9.根据权利要求1所述的方法,其特征在于,所述方法还包括:
确定所述图像中的社交对象的位置信息;
所述针对匹配成功的图像特征和资料信息,将该资料信息中的属性信息显示在该图像特征对应至所述图像中的位置,包括:
针对匹配成功的图像特征和资料信息,判断该图像特征所属社交对象的位置信息与所述资料信息所对应的社交对象的位置信息是否匹配成功;
如果匹配成功,将该资料信息中的属性信息显示在该图像特征对应至所述图像中的位置。
10.根据权利要求1所述的方法,其特征在于,所述针对匹配成功的图像特征和资料信息,将该资料信息中的属性信息显示在该图像特征对应至所述图像中的位置,包括:
针对每对匹配成功的图像特征和资料信息,基于该图像特征识别社交对象的外表信息,判断所述外表信息是否满足预设第一过滤条件,如果不满足,则将该资料信息中的属性信息显示在该图像特征对应至所述图像中的位置;
或者,针对每对匹配成功的图像特征和资料信息,判断该资料信息中的属性信息是否满足预设第二过滤条件,如果不满足,则将该资料信息中的属性信息显示在该图像特征对应至所述图像中的位置;
或者,针对每对匹配成功的图像特征和资料信息,基于该图像特征识别社交对象的外表信息,判断所述外表信息是否满足预设第一过滤条件,以及判断该资料信息中的属性信息是否满足预设第二过滤条件;如果均不满足,则将该资料信息中的属性信息显示在该图像特征对应至所述图像中的位置。
11.一种信息显示装置,其特征在于,应用于电子设备,所述装置包括:
第一获取模块,用于获取用户的位置信息,作为待处理位置信息;
确定模块,用于基于社交对象的位置信息与资料信息的对应关系,确定所述待处理位置信息所在社交范围中的社交对象的资料信息,作为待匹配资料信息;其中,社交对象的资料信息中包括:社交对象的特征数据及属性信息;
第二获取模块,用于获取所述用户所在场景的图像;
提取模块,用于提取所述图像中的社交对象的图像特征,作为待匹配图像特征;
匹配模块,用于将所述待匹配资料信息与所述待匹配图像特征进行匹配;
显示模块,用于针对匹配成功的图像特征和资料信息,将该资料信息中的属性信息显示在该图像特征对应至所述图像中的位置。
CN201910765181.XA 2019-08-19 2019-08-19 一种信息显示方法及装置 Pending CN110673767A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910765181.XA CN110673767A (zh) 2019-08-19 2019-08-19 一种信息显示方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910765181.XA CN110673767A (zh) 2019-08-19 2019-08-19 一种信息显示方法及装置

Publications (1)

Publication Number Publication Date
CN110673767A true CN110673767A (zh) 2020-01-10

Family

ID=69075490

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910765181.XA Pending CN110673767A (zh) 2019-08-19 2019-08-19 一种信息显示方法及装置

Country Status (1)

Country Link
CN (1) CN110673767A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11409113B2 (en) * 2020-11-13 2022-08-09 GlaiveRF, Inc. Wearable accessory with phased array antenna system
US11973257B2 (en) 2020-09-25 2024-04-30 GlaiveRF, Inc. Wearable accessory with phased array antenna system

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120244939A1 (en) * 2011-03-27 2012-09-27 Edwin Braun System and method for defining an augmented reality character in computer generated virtual reality using coded stickers
CN103823858A (zh) * 2014-02-21 2014-05-28 联想(北京)有限公司 信息处理方法及信息处理装置
CN104880835A (zh) * 2015-05-13 2015-09-02 浙江吉利控股集团有限公司 智能眼镜
CN106888350A (zh) * 2015-12-15 2017-06-23 北京奇虎科技有限公司 基于智能眼镜的拍照处理方法、智能眼镜和用户终端
CN107016382A (zh) * 2017-05-26 2017-08-04 黄晓咏 一种具有通讯装置的眼镜
CN107239725A (zh) * 2016-03-29 2017-10-10 阿里巴巴集团控股有限公司 一种信息展示方法、装置及系统
CN108307102A (zh) * 2017-06-16 2018-07-20 腾讯科技(深圳)有限公司 信息显示方法、装置及系统
CN108573201A (zh) * 2017-03-13 2018-09-25 金德奎 一种基于人脸识别技术的用户身份识别匹配方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120244939A1 (en) * 2011-03-27 2012-09-27 Edwin Braun System and method for defining an augmented reality character in computer generated virtual reality using coded stickers
CN103823858A (zh) * 2014-02-21 2014-05-28 联想(北京)有限公司 信息处理方法及信息处理装置
CN104880835A (zh) * 2015-05-13 2015-09-02 浙江吉利控股集团有限公司 智能眼镜
CN106888350A (zh) * 2015-12-15 2017-06-23 北京奇虎科技有限公司 基于智能眼镜的拍照处理方法、智能眼镜和用户终端
CN107239725A (zh) * 2016-03-29 2017-10-10 阿里巴巴集团控股有限公司 一种信息展示方法、装置及系统
CN108573201A (zh) * 2017-03-13 2018-09-25 金德奎 一种基于人脸识别技术的用户身份识别匹配方法
CN107016382A (zh) * 2017-05-26 2017-08-04 黄晓咏 一种具有通讯装置的眼镜
CN108307102A (zh) * 2017-06-16 2018-07-20 腾讯科技(深圳)有限公司 信息显示方法、装置及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11973257B2 (en) 2020-09-25 2024-04-30 GlaiveRF, Inc. Wearable accessory with phased array antenna system
US11409113B2 (en) * 2020-11-13 2022-08-09 GlaiveRF, Inc. Wearable accessory with phased array antenna system

Similar Documents

Publication Publication Date Title
US10839605B2 (en) Sharing links in an augmented reality environment
US11036991B2 (en) Information display method, device, and system
JP6784308B2 (ja) 施設特性を更新するプログラム、施設をプロファイリングするプログラム、コンピュータ・システム、及び施設特性を更新する方法
US8606317B2 (en) User augmented reality for camera-enabled mobile devices
AU2016200905B2 (en) A system and method for identifying and analyzing personal context of a user
CN103635954B (zh) 基于地理和可视信息增强可视数据流的系统
CN104021398A (zh) 一种可穿戴智能设备及辅助身份识别的方法
US20140225924A1 (en) Intelligent method of determining trigger items in augmented reality environments
US9530067B2 (en) Method and apparatus for storing and retrieving personal contact information
US20090256678A1 (en) Methods for tagging person identification information to digital data and recommending additional tag by using decision fusion
KR20110088273A (ko) 모바일 단말 및 모바일 단말을 이용한 인맥 형성방법
CN105956051A (zh) 信息查找的方法、装置及系统
CN109522503B (zh) 基于ar与lbs技术的旅游景点虚拟留言板系统
EP2992480A1 (en) A method and technical equipment for people identification
CN110673767A (zh) 一种信息显示方法及装置
CN103186590A (zh) 一种通过手机获取在逃通缉人员身份信息的方法
CN114930319A (zh) 音乐推荐方法和装置
CN108092950B (zh) 一种基于位置的ar或mr社交方法
US20220319232A1 (en) Apparatus and method for providing missing child search service based on face recognition using deep-learning
Zhang et al. Identifying logical location via GPS-enabled mobile phone and wearable camera
KR20180020654A (ko) Ar 정보공유 기반 커뮤니케이션 제공 방법
KR20150129221A (ko) 프로필 제공 시스템 장치
CN112115740A (zh) 用于处理图像的方法和装置
KR20220169721A (ko) 공용 주택 단지 시설, 설비 및 자산 관리 제공시스템 및 방법
KR20220126587A (ko) 대중교통 정보 제공 시스템

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20200110