CN112883883A - 信息提示方法、装置、介质、眼镜及程序产品 - Google Patents

信息提示方法、装置、介质、眼镜及程序产品 Download PDF

Info

Publication number
CN112883883A
CN112883883A CN202110216633.6A CN202110216633A CN112883883A CN 112883883 A CN112883883 A CN 112883883A CN 202110216633 A CN202110216633 A CN 202110216633A CN 112883883 A CN112883883 A CN 112883883A
Authority
CN
China
Prior art keywords
information
target object
scene video
prompt
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110216633.6A
Other languages
English (en)
Inventor
关婧妍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Beehive Century Technology Co ltd
Original Assignee
Beijing Beehive Century Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Beehive Century Technology Co ltd filed Critical Beijing Beehive Century Technology Co ltd
Priority to CN202110216633.6A priority Critical patent/CN112883883A/zh
Publication of CN112883883A publication Critical patent/CN112883883A/zh
Priority to US17/518,514 priority patent/US20220277160A1/en
Priority to EP21207838.0A priority patent/EP4050402A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C11/00Non-optical adjuncts; Attachment thereof
    • G02C11/10Electronic devices other than hearing aids
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Optics & Photonics (AREA)
  • General Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Otolaryngology (AREA)
  • Ophthalmology & Optometry (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

本申请提供一种信息提示方法、装置、介质、眼镜及程序产品。本申请提供的信息提示方法,包括:获取外部场景的场景视频,所述场景视频中包括目标对象的行为特征;根据所述行为特征匹配所述目标对象所对应的提示信息,所述提示信息为所述行为特征相关联的信息;在所述智能眼镜的镜片上显示所述提示信息。本申请提供的信息提示方法,可以丰富观看者在现场所能获取到的信息类型,同时也大大提高了观看者获取相关信息的时效性。

Description

信息提示方法、装置、介质、眼镜及程序产品
技术领域
本申请涉及智能设备技术领域,尤其涉及一种信息提示方法、装置、介质、眼镜及程序产品。
背景技术
随着竞技体育的发展,越来越多的体育爱好者在举办各类体育赛事(例如:奥运会、冬奥会、篮球联赛等)时,会选择前往现场观看比赛。
当前,观看者在现场观看比赛时,观看者只能通过肉眼获取观看运动员的表现,而对于运动员的具体表现参数,只能通过现场的广播或者大屏幕进行获取。
可见,通过传统现场观看比赛的方式,观看者所能获取到的信息类型较为单一,并且,对于具体比赛数据,获取的时效性较差。
发明内容
本申请实施例提供一种信息提示方法、装置、介质、眼镜及程序产品,以解决观看者通过传统现场观看比赛的方式,所能获取到的信息类型较为单一以及时效性较差的技术问题。
第一方面,本申请实施例提供一种信息提示方法,应用于智能眼镜,所述方法包括:
获取外部场景的场景视频,所述场景视频中包括目标对象的行为特征;
根据所述行为特征匹配所述目标对象所对应的提示信息,所述提示信息为所述行为特征相关联的信息;
在所述智能眼镜的镜片上显示所述提示信息。
在一种可能的设计中,所述根据所述行为特征匹配所述目标对象所对应的提示信息,包括:
获取所述场景视频中各个待选对象的人脸信息,并根据预设人脸信息从所述待选对象中确定所述目标对象;
根据所述场景视频中所述目标对象的动作特征确定运动技术参数,所述行为特征包括所述动作特征,所述提示信息包括所述运动技术参数。
在一种可能的设计中,所述根据所述场景视频中所述目标对象的动作特征确定运动技术参数,包括:
根据所述目标对象的动作特征确定所述目标对象的行为类型;
根据所述场景视频中目标器材的状态变化信息以及所述行为类型确定所述运动技术参数。
在一种可能的设计中,在所述根据预设人脸信息从所述待选对象中确定所述目标对象之后,还包括:
发送所述目标对象的对象信息至其他设备,所述其他设备包括服务器和/或另一智能眼镜;
接收所述其他设备发送的另一场景视频以及另一提示信息,其中,所述另一场景视频与所述场景视频至少在对所述外部场景的拍摄角度上存在差异,所述另一提示信息为所述另一场景视频中所述目标对象的所述行为特征相关联的信息;
在所述智能眼镜的镜片上显示所述另一场景视频和/或所述另一提示信息。
在一种可能的设计中,所述的信息提示方法,还包括:
响应于选择指令,从所述各个待选对象中选择所述目标对象。
在一种可能的设计中,所述根据所述行为特征匹配所述目标对象所对应的提示信息,包括:
根据音频信息中的声音特征确定目标音频的所述提示信息,所述目标对象包括所述目标音频,所述场景视频包括所述音频信息,所述行为特征包括所述声音特征。
第二方面,本申请实施例提供一种信息提示装置,包括:
视频获取模块,用于获取外部场景的场景视频,所述场景视频中包括目标对象的行为特征;
信息处理模块,用于根据所述行为特征匹配所述目标对象所对应的提示信息,所述提示信息为所述行为特征相关联的信息;
信息显示模块,用于显示所述提示信息。
在一种可能的设计中,所述信息提示装置,还包括:
人脸获取模块,用于获取所述场景视频中各个待选对象的人脸信息,并根据预设人脸信息从所述待选对象中确定所述目标对象;
所述信息处理模块,还用于根据所述场景视频中所述目标对象的动作特征确定运动技术参数,所述行为特征包括所述动作特征,所述提示信息包括所述运动技术参数。
在一种可能的设计中,所述信息处理模块,具体用于:
根据所述目标对象的动作特征确定所述目标对象的行为类型;
根据所述场景视频中目标器材的状态变化信息以及所述行为类型确定所述运动技术参数。
在一种可能的设计中,所述信息提示装置,还包括:
信息发送模块,用于发送所述目标对象的对象信息至其他设备,所述其他设备包括服务器和/或另一智能眼镜;
信息接收模块,用于接收所述其他设备发送的另一场景视频以及另一提示信息,其中,所述另一场景视频与所述场景视频至少在对所述外部场景的拍摄角度上存在差异,所述另一提示信息为所述另一场景视频中所述目标对象的所述行为特征相关联的信息;
所述信息显示模块,还用于显示所述另一场景视频以及所述另一提示信息。
在一种可能的设计中,所述信息提示装置,还包括:
对象选择模块,用于响应于选择指令,从所述各个待选对象中选择所述目标对象。
在一种可能的设计中,所述信息处理模块,具体用于:
根据音频信息中的声音特征确定目标音频的所述提示信息,所述目标对象包括所述目标音频,所述场景视频包括所述音频信息,所述行为特征包括所述声音特征。
第三方面,本申请实施例还提供一种智能眼镜,包括:处理器、存储器、镜片以及图像传感器,所述处理器分别与所述存储器、镜片以及图像传感器连接;
所述图像传感器,用于获取外部场景的场景视频;
所述存储器,用于存储所述处理器的计算机程序;
其中,所述处理器被配置为通过执行所述计算机程序来实现第一方面中任意一种信息提示方法;
所述镜片,用于经所述信息提示方法处理生成的提示信息。
第四方面,本申请实施例还提供一种存储介质,其上存储有计算机程序,该程序被处理器执行时实现第一方面中任意一种信息提示方法。
第五方面,本申请实施例还提供一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现第一方面中任意一种信息提示方法。
本申请实施例提供的一种信息提示方法、装置、介质、眼镜及程序产品,通过佩戴智能眼镜来实时获取外部场景的场景视频,然后,结合对于各类目标对象的行为特征自动匹配出所对应的相关信息,并且通过在智能眼镜上直接进行显示,以实时反馈至观看者,进而丰富观看者在现场所能获取到的信息类型,同时也大大提高了观看者获取相关信息的时效性。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是根据一示例性实施例示出的信息提示方法的应用场景图;
图2是根据另一示例性实施例示出的信息提示方法的应用场景图;
图3是根据一示例性实施例示出智能眼镜的结构示意图;
图4是根据一示例性实施例示出的信息提示方法的流程示意图;
图5是根据另一示例性实施例示出的信息提示方法的流程示意图;
图6是根据一示例性实施例示出的信息提示显示示意图;
图7是根据另一示例性实施例示出的信息提示显示示意图;
图8是根据再一示例性实施例示出的信息提示方法的流程示意图;
图9是不同智能眼镜之间通信的场景示意图;
图10是智能眼镜与服务器之间通信的场景示意图;
图11是根据一示例性实施例示出的信息提示装置的结构示意图;
图12是根据另一示例性实施例示出的信息提示装置的结构示意图;
图13是根据一示例性实施例示出的智能眼镜的框图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
当前,观看者在现场观看比赛时,观看者只能通过肉眼获取观看运动员的表现,而对于运动员的具体表现参数,只能通过现场的广播或者大屏幕进行获取。例如,当观看者在现场观看球赛时,通常只能通过大屏幕获取到双方的比分以及当前比赛的时长,而对于各个球员的具体表现数据无法及时获取,通常只能赛后观看数据统计时才能获取。此外,当观看者在现场观看田径比赛(例如:短跑)时,通常只能观看到当前运动员在跑道上的前后顺序,而无法获知运动员当前的奔跑参数,同样也只能在赛后,通过大屏幕获取各个运动员的运动表现参数。
而本申请旨在提供一种信息提示方法,以使用户在现场观看比赛时,通过佩戴智能眼镜,实时获取外部场景的场景视频,然后,结合对于各类目标对象的行为特征自动匹配出所对应的相关信息,并且通过在智能眼镜上直接进行显示,以实时反馈至观看者,进而丰富观看者在现场所能获取到的信息类型,同时也大大提高了观看者获取相关信息的时效性。此外,通过直接将提示信息在智能眼镜的镜片中进行显示的方式,能够在观看者视野中有效地建立目标对象与提示信息之间的联系,从而增强了提示信息显示的针对性。
图1是根据一示例性实施例示出的信息提示方法的应用场景图。如图1所示,本实施例提供的信息提示方法,可以应用于观看者在田径赛场观看田径比赛(例如:短跑),观看者在进行观赛时,通过佩戴智能眼镜100,可以实时获取田径赛场内的场景视频,然后,通过图像技术计算出各个运动员的运动技术参数(例如:当前奔跑速度),然后,将该运动技术参数作为提示信息显示至智能眼镜的镜片上,以使观看者能够在观赛时实时获取到运动员的运动技术参数,大大提高了观赛体验。此外,还可以在智能眼镜的镜片上显示田径比赛的相关解说字幕以及技术统计。
图2是根据另一示例性实施例示出的信息提示方法的应用场景图。如图2所示,本实施例提供的信息提示方法,还可以应用于观看者在球场上观看球赛(例如:篮球比赛),观看者在进行观赛时,通过佩戴智能眼镜100,可以实时获球场内的场景视频,然后,通过图像技术计算出各个球员的运动技术参数(例如:得分),然后,将该运动技术参数作为提示信息显示至智能眼镜的镜片上,以使观看者能够在观赛时实时获取到运动员的运动技术参数,同样也可以大大提高观赛体验。此外,还可以在智能眼镜的镜片上显示球赛的相关解说字幕以及技术统计。
此外,本实施例提供的信息提示方法,还可以应用于观看演唱会,观看者在观看演唱会时,可以通过实时获取现场内的音频,然后,通过音频技术匹配出该音频所对应的信息,例如,歌曲的歌名、作词、作曲等。然后,将获取到的音频相关信息作为提示信息显示至智能眼镜的镜片上,以使观看者能够在观看演唱会时实时获取到当前的歌曲信息,从而大大提高了演唱会的观赏体验。
图3是根据一示例性实施例示出智能眼镜的结构示意图。如图3所示,对于上述各个场景下,观看者所佩戴的智能眼镜100,其上设置有至少一个图像传感器110,从而通过图像传感器110来获取外部场景的场景视频。此外,该智能眼镜100上还设置有能够进行显示信息的镜片120,从而可以在镜片120上显示需要展示给观看者的相关提示信息。
图4是根据一示例性实施例示出的信息提示方法的流程示意图。如图4所示,本实施例提供的信息提示方法,包括:
步骤101、获取外部场景的场景视频,场景视频中包括目标对象的行为特征。
在本步骤中,观看者在进行观赛或者观看演出会的过程中,可以佩戴智能眼镜,从而通过智能眼镜上的图像传感器获取当前外部场景的场景视频,场景视频中包括目标对象的行为特征。值得说明的,本步骤中的目标对象可以为人物对象、设备对象以及其他需要进行监测的相关对象,而行为特征可以为动作特征、声音特征以及其他需要监测的相关特征。
步骤102、根据行为特征匹配目标对象所对应的提示信息。
智能眼镜在获取到场景视频后,可以通过智能眼镜本身的处理功能进行计算的方式,或者是上传至相关服务器上进行计算的方式,来对场景视频中的行为特征进行提取,并且根据所提取的行为特征匹配目标对象所对应的提示信息,其中,提示信息为所述行为特征相关联的信息。
例如,可以是为跑步运动员的奔跑动作匹配速度信息作为当前的提示信息,也可以是为球员的投篮、运球或者传球等动作匹配球员当前的得分、助攻、犯规等信息作为当前的提示信息,还可以是为当前所播放的歌曲匹配歌名、作词、作曲等信息作为当前的提示信息。
步骤103、在智能眼镜的镜片上显示提示信息。
在根据场景视频中目标对象的行为特征匹配出提示信息之后,可以将所生成的提示信息在智能眼镜的镜片上进行显示。
在本实施例中,通过佩戴智能眼镜来实时获取外部场景的场景视频,然后,结合对于各类目标对象的行为特征自动匹配出所对应的相关信息,并且通过在智能眼镜上直接进行显示,以实时反馈至观看者,进而丰富观看者在现场所能获取到的信息类型,同时也大大提高了观看者获取相关信息的时效性。
图5是根据另一示例性实施例示出的信息提示方法的流程示意图。如图5所示,本实施例提供的信息提示方法,包括:
步骤201、获取外部场景的场景视频,场景视频中包括目标对象的行为特征。
在本步骤中,观看者在进行观赛或者观看演出会的过程中,可以佩戴智能眼镜,从而通过智能眼镜上的图像传感器获取当前外部场景的场景视频,场景视频中包括目标对象的行为特征。值得说明的,本步骤中的目标对象可以为人物对象、设备对象以及其他需要进行监测的相关对象,而行为特征可以为动作特征、声音特征以及其他需要监测的相关特征。
步骤202、获取场景视频中各个待选对象的人脸信息,并根据预设人脸信息从待选对象中确定目标对象。
在通过智能眼镜获取到场景视频后,由于场景视频中,通常会具有多项元素,例如,在观赛时,通常具有多个运动员,而对于观赛者通常较为关注的并不会是所有的运动员。此外,如果在观赛过程中,对所有的运动员都进行相应的信息提示,则会导致所显示的信息过于繁杂,实际上也会对观赛者造成信息干扰。
因此,在获取到场景视频后,可以先对场景视频中的各个待选对象进行人脸识别,然后,根据筛选条件确定目标对象。其中,所根据的筛选条件可以是用户事先预设的,也可以是用户在观赛过程中进行输入,例如,通过语音输入,或者通过第三方设备进行输入。
其中,可以将事先预设或者通过输入方式设置的筛选条件统一作为后续进行目标对象确定过程的预设人脸信息。在具体的确定过程中,可以是先获取场景视频中各个待选对象的人脸信息,例如,可以是获取到场景视频中具有A、B、C、D四个运动员的人脸信息,此时,由于预设人员信息为B运动员的人脸信息,因此,可以从四个运动员中选取B运动员作为目标对象,以针对所确定的目标对象进行后续的监测及对应的信息提示。
步骤203、根据场景视频中目标对象的动作特征确定运动技术参数。
在本步骤中,可以是根据场景视频中目标对象的动作特征确定运动技术参数,其中,行为特征包括动作特征,后续进行显示的提示信息包括运动技术参数。
具体的,在短跑比赛中,可以是根据场景视频中目标运动员的起跑动作来确定起跑速度,以及根据运动员的奔跑动作来确定实施确定当前的速度。例如,可以是获取该目标运动员各个时刻在跑道所处的图像位置,然后,结合图像测距技术,计算出在各个时间间隔中目标运动员所移动的距离,最后,计算出运动员在各个时刻下的奔跑速度。
而在另一种可能的场景中,还可以是应用于篮球比赛,可是根据场景视频中目标球员的各类动作特征,统计出该目标球员的当前运动技术参数,例如,得分、助攻次数、篮板次数以及犯规次数等参数。对于这类动作类型较多的赛事,可是先根据目标对象的动作特征确定目标对象的行为类型,然后,再根据场景视频中目标器材的状态变化信息以及行为类型确定运动技术参数。例如,其中,可以是在获取到目标球员的投篮动作之后,先确定目标球员当前的行为类型为投篮,然后,在预设时长内监测篮球的飞行轨迹,并根据篮球与篮筐的位置关系变化确定是否最终得分。然后,通过持续监测该目标球员的运动来对其从开始至当前时刻的得分进行统计,以便后续作为提示信息进行显示。
步骤204、在智能眼镜的镜片上显示提示信息。
在根据场景视频中目标对象的行为特征匹配出提示信息之后,可以将所生成的提示信息在智能眼镜的镜片上进行显示。
图6是根据一示例性实施例示出的信息提示显示示意图。如图6所示,是观赛者通过智能眼镜观看短跑比赛所能观看到的视野,其中,可以将观赛者所关注的短跑运动员的相关提示信息在镜片中进行显示,即在当前的观赛者的视野中进行显示。此外,为了能够使得所显示的提示信息具有更加明确的指向性,还可以通过显示相关图像提示元素的方式,建立提示信息与该目标运动员之间的关系,例如,可是通过从目标运动员的头部位置延伸出气泡提示框,以提示在该提示框中所显示的提示信息为该目标运动员相关的信息。
图7是根据另一示例性实施例示出的信息提示显示示意图。如图7所示,是观赛者通过智能眼镜观看篮球比赛所能观看到的视野,其中,可以将观赛者所关注的球员的相关提示信息在镜片中进行显示,即在当前的观赛者的视野中进行显示。此外,为了能够使得所显示的提示信息具有更加明确的指向性,还可以通过显示相关图像提示元素的方式,建立提示信息与该目标运动员之间的关系,例如,可是通过从目标球员的头部位置延伸出气泡提示框,以提示在该提示框中所显示的提示信息为该目标运动员相关的信息。
由于观赛者在观赛过程中,可能是需要对多个目标对象进行关注,因此,可是在观赛过程中,观赛者可以通过输入选择指令,从场景视频中的各个待选对象中选择目标对象,或者是切换目标对象。其中,输入选择指令的方式可以是观赛者通过手动输入的方式进行选择,还可以是通过捕捉观赛者眼球位置的方式进行选择或者切换,从而以满足观赛者在观赛过程中对于目标对象进行选择或者切换的需求。
图8是根据再一示例性实施例示出的信息提示方法的流程示意图。如图8所示,本实施例提供的信息提示方法,包括:
步骤301、获取外部场景的场景视频,场景视频中包括目标对象的行为特征。
在本步骤中,观看者在进行观赛或者观看演出会的过程中,可以佩戴智能眼镜,从而通过智能眼镜上的图像传感器获取当前外部场景的场景视频,场景视频中包括目标对象的行为特征。值得说明的,本步骤中的目标对象可以为人物对象、设备对象以及其他需要进行监测的相关对象,而行为特征可以为动作特征、声音特征以及其他需要监测的相关特征。
步骤302、获取场景视频中各个待选对象的人脸信息,并根据预设人脸信息从待选对象中确定目标对象。
在通过智能眼镜获取到场景视频后,由于场景视频中,通常会具有多项元素,例如,在观赛时,通常具有多个运动员,而对于观赛者通常较为关注的并不会是所有的运动员。此外,如果在观赛过程中,对所有的运动员都进行相应的信息提示,则会导致所显示的信息过于繁杂,实际上也会对观赛者造成信息干扰。
因此,在获取到场景视频后,可以先对场景视频中的各个待选对象进行人脸识别,然后,根据筛选条件确定目标对象。其中,所根据的筛选条件可以是用户事先预设的,也可以是用户在观赛过程中进行输入,例如,通过语音输入,或者通过第三方设备进行输入。
其中,可以将事先预设或者通过输入方式设置的筛选条件统一作为后续进行目标对象确定过程的预设人脸信息。在具体的确定过程中,可以是先获取场景视频中各个待选对象的人脸信息,例如,可以是获取到场景视频中具有A、B、C、D四个运动员的人脸信息,此时,由于预设人员信息为B运动员的人脸信息,因此,可以从四个运动员中选取B运动员作为目标对象,以针对所确定的目标对象进行后续的监测及对应的信息提示。
步骤303、发送目标对象的对象信息至其他设备。
步骤304、接收其他设备发送的另一场景视频以及另一提示信息。
在确定目标对象之后,为了获取到更多的该目标对象的信息,可是先将该目标对象的对象信息发送至其他设备,例如,可以是相关的服务器或者另一智能眼镜。
其中,图9是不同智能眼镜之间通信的场景示意图。如图9所示,当多个观赛者在对同一场赛事进行观赛时,第一观赛者通过所佩戴的第一智能眼镜100确定目标对象之后,为了获取到更多的该目标对象的信息,可以是先将该目标对象的对象信息发送至第二观赛者所佩戴的第二智能眼镜200,然后,再接收第二智能眼镜200发送的另一场景视频以及另一提示信息,其中,第二智能眼镜200所获取的另一场景视频与第一智能眼镜100所获取的场景视频至少在对外部场景的拍摄角度上存在差异,而另一提示信息为另一场景视频中目标对象的行为特征相关联的信息。可见,通过不同观赛者各自所佩戴的智能眼镜之间的通信交互实现信息共享,以进一步丰富目标对象的提示信息,从而提高观赛者的观赛体验。
图10是智能眼镜与服务器之间通信的场景示意图。如图10所示,第一观赛者通过所佩戴的第一智能眼镜100确定目标对象之后,为了获取到更多的该目标对象的信息,可以是先将该目标对象的对象信息发送至赛事的相关服务器200,然后,再接收服务器200发送的另一场景视频以及另一提示信息,其中,服务器200所获取的另一场景视频与第一智能眼镜100所获取的场景视频至少在对外部场景的拍摄角度上存在差异,而另一提示信息为另一场景视频中目标对象的行为特征相关联的信息。此外,第一智能眼镜100还可以通过服务器200获取官方对于赛事的各项信息,以根据显示需求,提取对应的提示信息进行显示。
步骤305、在智能眼镜的镜片上显示另一场景视频和/或另一提示信息。
在获取到其他设备发送的另一场景视频以及另一提示信息之后,可以在智能眼镜的镜片上显示另一场景视频和/或另一提示信息。
在本实施例中,通过观赛者通过所佩戴的智能眼镜与其他设备之间的通信,实现了信息共享,以进一步丰富目标对象的提示信息,从而提高观赛者的观赛体验。
图11是根据一示例性实施例示出的信息提示装置的结构示意图。如图11所示,本实施例提供的信息提示装置400,包括:
视频获取模块401,用于获取外部场景的场景视频,所述场景视频中包括目标对象的行为特征;
信息处理模块402,用于根据所述行为特征匹配所述目标对象所对应的提示信息,所述提示信息为所述行为特征相关联的信息;
信息显示模块403,用于显示所述提示信息。
在图11所示实施例的基础上,图12是根据另一示例性实施例示出的信息提示装置的结构示意图。如图12所示,本实施例提供的信息提示装置400,还包括:
人脸获取模块404,用于获取所述场景视频中各个待选对象的人脸信息,并根据预设人脸信息从所述待选对象中确定所述目标对象;
所述信息处理模块402,还用于根据所述场景视频中所述目标对象的动作特征确定运动技术参数,所述行为特征包括所述动作特征,所述提示信息包括所述运动技术参数。
在一种可能的设计中,所述信息处理模块402,具体用于:
根据所述目标对象的动作特征确定所述目标对象的行为类型;
根据所述场景视频中目标器材的状态变化信息以及所述行为类型确定所述运动技术参数。
在一种可能的设计中,所述信息提示装置400,还包括:
信息发送模块405,用于发送所述目标对象的对象信息至其他设备,所述其他设备包括服务器和/或另一智能眼镜;
信息接收模块406,用于接收所述其他设备发送的另一场景视频以及另一提示信息,其中,所述另一场景视频与所述场景视频至少在对所述外部场景的拍摄角度上存在差异,所述另一提示信息为所述另一场景视频中所述目标对象的所述行为特征相关联的信息;
所述信息显示模块403,还用于显示所述另一场景视频以及所述另一提示信息。
在一种可能的设计中,所述信息提示装置400,还包括:
对象选择模块407,用于响应于选择指令,从所述各个待选对象中选择所述目标对象。
在一种可能的设计中,所述信息处理模块402,具体用于:
根据音频信息中的声音特征确定目标音频的所述提示信息,所述目标对象包括所述目标音频,所述场景视频包括所述音频信息,所述行为特征包括所述声音特征。
图13是根据一示例性实施例示出的智能眼镜的框图。参照图13,智能眼镜1200可以包括以下一个或多个组件:处理组件1202,存储器1204,电源组件1206,多媒体组件1208,音频组件1210,输入/输出(I/O)的接口1212,传感器组件1214,以及通信组件1216。
处理组件1202通常控制智能眼镜1200的整体操作,诸如与显示,数据通信,多媒体操作和记录操作相关联的操作。处理组件1202可以包括一个或多个处理器1220来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件1202可以包括一个或多个模块,便于处理组件1202和其他组件之间的交互。例如,处理组件1202可以包括多媒体模块,以方便多媒体组件1208和处理组件1202之间的交互。
存储器1204被配置为存储各种类型的数据以支持在智能眼镜1200的操作。这些数据的示例包括用于在智能眼镜1200上操作的任何应用程序或方法的指令,各类数据,消息,图片,视频等。存储器1204可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件1206为智能眼镜1200的各种组件提供电力。电源组件1206可以包括电源管理系统,一个或多个电源,及其他与为智能眼镜1200生成、管理和分配电力相关联的组件。
多媒体组件1208包括在智能眼镜1200设置的具有显示功能的镜片。
音频组件1210被配置为输出和/或输入音频信号。例如,音频组件1210包括一个麦克风(MIC),当智能眼镜1200处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器1204或经由通信组件1216发送。在一些实施例中,音频组件1210还包括一个扬声器,用于输出音频信号。
I/O接口1212为处理组件1202和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。
传感器组件1214包括一个或多个传感器,用于为智能眼镜1200提供各个方面的状态评估。例如,传感器组件1214可以包括图像传感器,其中,该图像传感器用于获取智能眼镜1200外部环境的环境图像或视频。此外,传感器组件1214还可以检测到智能眼镜1200的打开/关闭状态,组件的相对定位,例如组件为智能眼镜1200的镜片,传感器组件1214还可以检测智能眼镜1200或智能眼镜1200一个组件的位置改变,用户与智能眼镜1200接触的存在或不存在,智能眼镜1200方位或加速/减速和智能眼镜1200的温度变化。传感器组件1214可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件1214还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,传感器组件1214还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件1216被配置为便于智能眼镜1200和其他设备之间有线或无线方式的通信。智能眼镜1200可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件1216经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,通信组件1216还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,智能眼镜1200可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行信息提示方法,包括:
获取外部场景的场景视频,场景视频中包括目标对象的行为特征;
根据行为特征匹配目标对象所对应的提示信息,提示信息为行为特征相关联的信息;
在智能眼镜的镜片上显示提示信息。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器1204,上述指令可由智能眼镜1200的处理器1220执行以完成上述方法。例如,非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
本实施例还提供一种程序产品,该程序产品包括计算机程序,该计算机程序存储在可读存储介质中。电子设备的至少一个处理器可以从可读存储介质读取该计算机程序,至少一个处理器执行该计算机程序使得电子设备实施上述方法中的各个步骤。
本领域普通技术人员可以理解:实现上述各方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成。前述的程序可以存储于一计算机可读取存储介质中。该程序在执行时,执行包括上述各方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上各实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述各实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或对其中部分或全部技术特征进行等同替换;而这些修改或替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的范围。

Claims (10)

1.一种信息提示方法,其特征在于,应用于智能眼镜,所述方法包括:
获取外部场景的场景视频,所述场景视频中包括目标对象的行为特征;
根据所述行为特征匹配所述目标对象所对应的提示信息,所述提示信息为所述行为特征相关联的信息;
在所述智能眼镜的镜片上显示所述提示信息。
2.根据权利要求1所述的信息提示方法,其特征在于,所述根据所述行为特征匹配所述目标对象所对应的提示信息,包括:
获取所述场景视频中各个待选对象的人脸信息,并根据预设人脸信息从所述待选对象中确定所述目标对象;
根据所述场景视频中所述目标对象的动作特征确定运动技术参数,所述行为特征包括所述动作特征,所述提示信息包括所述运动技术参数。
3.根据权利要求2所述的信息提示方法,其特征在于,所述根据所述场景视频中所述目标对象的动作特征确定运动技术参数,包括:
根据所述目标对象的动作特征确定所述目标对象的行为类型;
根据所述场景视频中目标器材的状态变化信息以及所述行为类型确定所述运动技术参数。
4.根据权利要求2或3所述的信息提示方法,其特征在于,在所述根据预设人脸信息从所述待选对象中确定所述目标对象之后,还包括:
发送所述目标对象的对象信息至其他设备,所述其他设备包括服务器和/或另一智能眼镜;
接收所述其他设备发送的另一场景视频以及另一提示信息,其中,所述另一场景视频与所述场景视频至少在对所述外部场景的拍摄角度上存在差异,所述另一提示信息为所述另一场景视频中所述目标对象的所述行为特征相关联的信息;
在所述智能眼镜的镜片上显示所述另一场景视频和/或所述另一提示信息。
5.根据权利要求2或3所述的信息提示方法,其特征在于,还包括:
响应于选择指令,从所述各个待选对象中选择所述目标对象。
6.根据权利要求1所述的信息提示方法,其特征在于,所述根据所述行为特征匹配所述目标对象所对应的提示信息,包括:
根据音频信息中的声音特征确定目标音频的所述提示信息,所述目标对象包括所述目标音频,所述场景视频包括所述音频信息,所述行为特征包括所述声音特征。
7.一种信息提示装置,其特征在于,包括:
视频获取模块,用于获取外部场景的场景视频,所述场景视频中包括目标对象的行为特征;
信息处理模块,用于根据所述行为特征匹配所述目标对象所对应的提示信息,所述提示信息为所述行为特征相关联的信息;
信息显示模块,用于显示所述提示信息。
8.一种智能眼镜,其特征在于,包括:处理器、存储器、镜片以及图像传感器,所述处理器分别与所述存储器、镜片以及图像传感器连接;
所述图像传感器,用于获取外部场景的场景视频;
所述存储器,用于存储所述处理器的计算机程序;
其中,所述处理器被配置为通过执行所述计算机程序来实现权利要求1至6任一项所述的信息提示方法;
所述镜片,用于经所述信息提示方法处理生成的提示信息。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至6任一项所述的信息提示方法。
10.一种计算机程序产品,包括计算机程序,其特征在于,该计算机程序被处理器执行时实现权利要求1至6任一项所述的信息提示方法。
CN202110216633.6A 2021-02-26 2021-02-26 信息提示方法、装置、介质、眼镜及程序产品 Pending CN112883883A (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202110216633.6A CN112883883A (zh) 2021-02-26 2021-02-26 信息提示方法、装置、介质、眼镜及程序产品
US17/518,514 US20220277160A1 (en) 2021-02-26 2021-11-03 Information prompt method, apparatus, medium, glasses and program product
EP21207838.0A EP4050402A1 (en) 2021-02-26 2021-11-11 Information prompt display method, apparatus, computer readable medium, program product and smart glasses

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110216633.6A CN112883883A (zh) 2021-02-26 2021-02-26 信息提示方法、装置、介质、眼镜及程序产品

Publications (1)

Publication Number Publication Date
CN112883883A true CN112883883A (zh) 2021-06-01

Family

ID=76054640

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110216633.6A Pending CN112883883A (zh) 2021-02-26 2021-02-26 信息提示方法、装置、介质、眼镜及程序产品

Country Status (3)

Country Link
US (1) US20220277160A1 (zh)
EP (1) EP4050402A1 (zh)
CN (1) CN112883883A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113556423A (zh) * 2021-07-15 2021-10-26 Oppo广东移动通信有限公司 信息处理方法、装置、系统、存储介质和电子设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104834384A (zh) * 2015-06-01 2015-08-12 凌亚 提高运动指导效率的装置及方法
CN105224070A (zh) * 2014-06-26 2016-01-06 阿迪达斯股份公司 体育活动平视显示器系统和方法
CN106164817A (zh) * 2014-02-28 2016-11-23 罗素商标有限责任公司 体育设备与可穿戴的计算机的交互
CN107817897A (zh) * 2017-10-30 2018-03-20 努比亚技术有限公司 一种信息智能显示方法及移动终端
CN108369646A (zh) * 2015-07-16 2018-08-03 博拉斯特运动有限公司 多传感器事件检测和标记系统
US20200086199A1 (en) * 2015-04-23 2020-03-19 Win Reality, Llc Virtual reality sports training systems and methods

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9185361B2 (en) * 2008-07-29 2015-11-10 Gerald Curry Camera-based tracking and position determination for sporting events using event information and intelligence data extracted in real-time from position information
WO2011106797A1 (en) * 2010-02-28 2011-09-01 Osterhout Group, Inc. Projection triggering through an external marker in an augmented reality eyepiece
KR101995958B1 (ko) * 2012-11-28 2019-07-03 한국전자통신연구원 스마트 글래스 기반 영상 처리 장치 및 방법
US10713494B2 (en) * 2014-02-28 2020-07-14 Second Spectrum, Inc. Data processing systems and methods for generating and interactive user interfaces and interactive game systems based on spatiotemporal analysis of video content
CN110610668B (zh) * 2018-06-15 2022-05-06 深圳富泰宏精密工业有限公司 智能眼镜
CN109255314B (zh) * 2018-08-30 2021-07-02 Oppo广东移动通信有限公司 信息提示方法、装置、智能眼镜及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106164817A (zh) * 2014-02-28 2016-11-23 罗素商标有限责任公司 体育设备与可穿戴的计算机的交互
CN105224070A (zh) * 2014-06-26 2016-01-06 阿迪达斯股份公司 体育活动平视显示器系统和方法
US20200086199A1 (en) * 2015-04-23 2020-03-19 Win Reality, Llc Virtual reality sports training systems and methods
CN104834384A (zh) * 2015-06-01 2015-08-12 凌亚 提高运动指导效率的装置及方法
CN108369646A (zh) * 2015-07-16 2018-08-03 博拉斯特运动有限公司 多传感器事件检测和标记系统
CN107817897A (zh) * 2017-10-30 2018-03-20 努比亚技术有限公司 一种信息智能显示方法及移动终端

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
体育大生意: "Recon Jet运动智能眼镜上市 可监测身体数据", 《HTTPS://ZHUANLAN.ZHIHU.COM/P/97272068》 *
何奇: "《AR 智能眼镜助力竞技体育升级》深度报道阐述报告及作品", 《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》 *
王远昌: "《人工智能时代:电子产品设计与制作研究》", 31 January 2019, 电子科技大学出版社 *
赵春林: "《物联网文化高端云坛》", 31 August 2017, 中国商业出版社 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113556423A (zh) * 2021-07-15 2021-10-26 Oppo广东移动通信有限公司 信息处理方法、装置、系统、存储介质和电子设备
WO2023284355A1 (zh) * 2021-07-15 2023-01-19 Oppo广东移动通信有限公司 信息处理方法、装置、系统、存储介质和电子设备

Also Published As

Publication number Publication date
US20220277160A1 (en) 2022-09-01
EP4050402A1 (en) 2022-08-31

Similar Documents

Publication Publication Date Title
US11538243B2 (en) Video playback method, medium, glasses and program product
US10080054B2 (en) Automatic time extension of program recording
US9202526B2 (en) System and method for viewing videos and statistics of sports events
US10674195B2 (en) Method and system for detecting commercial breaks
JP6673221B2 (ja) 情報処理装置、情報処理方法、およびプログラム
CN110505521B (zh) 一种直播比赛互动方法、电子设备、存储介质及系统
US20150189243A1 (en) Automated video production system
WO2013171658A1 (en) System and method for automatic video filming and broadcasting of sports events
CN112533003B (zh) 一种视频处理系统、装置、方法
US9571903B2 (en) Ball tracker snippets
US20190110112A1 (en) Video streaming system with participant tracking and highlight selection
US9924148B2 (en) Highlight program
KR101950971B1 (ko) 스포츠 영상 제공 장치
US9210473B2 (en) Phantom gaming in a broadcast media, system and method
CN112312142A (zh) 视频播放控制方法、装置和计算机可读存储介质
CN112883883A (zh) 信息提示方法、装置、介质、眼镜及程序产品
CN110798692A (zh) 一种视频直播方法、服务器及存储介质
EP3780643A1 (en) Information processing device, information processing method, and program
EP2724763A1 (en) System and method for viewing videos and statistics of sports events
KR101954035B1 (ko) 운동 경기 참여 선수들의 과거 경기 기록을 표시하기 위한 장치 및 방법
KR20220034653A (ko) 실시간 이벤트 스트림 동안 예측을 수행하기 위한 방법 및 데이터 처리 시스템
KR101918396B1 (ko) 운동 경기 참여 선수들의 과거 경기 기록을 표시하기 위한 장치 및 방법
US12028557B2 (en) Multi-camera live-streaming method and devices
EP3054450A1 (en) Method and system for producing storyline feed for sporting event
US20240137580A1 (en) Multi-camera live-streaming method and devices

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20210601