WO2022174554A1 - 图像显示方法、装置、设备、存储介质、程序及程序产品 - Google Patents

图像显示方法、装置、设备、存储介质、程序及程序产品 Download PDF

Info

Publication number
WO2022174554A1
WO2022174554A1 PCT/CN2021/108342 CN2021108342W WO2022174554A1 WO 2022174554 A1 WO2022174554 A1 WO 2022174554A1 CN 2021108342 W CN2021108342 W CN 2021108342W WO 2022174554 A1 WO2022174554 A1 WO 2022174554A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
feature
target object
background
portrait
Prior art date
Application number
PCT/CN2021/108342
Other languages
English (en)
French (fr)
Inventor
李亚洁
Original Assignee
深圳市慧鲤科技有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 深圳市慧鲤科技有限公司 filed Critical 深圳市慧鲤科技有限公司
Publication of WO2022174554A1 publication Critical patent/WO2022174554A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/113Recognition of static hand signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/178Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition

Definitions

  • the present disclosure relates to the technical field of image processing, and in particular, to an image display method, apparatus, device, storage medium, program, and program product.
  • gesture features and limb features are obtained through gesture recognition and limb recognition, respectively, and a first action feature is generated according to the gesture feature and limb feature, so that the first action feature can comprehensively and accurately characterize the action-related features of the target object. , thereby improving the correlation between the determined background image and the target object.
  • determining a first degree of matching between the attribute feature and the image features of a plurality of images to be selected determining the image to be selected to which the image feature with the highest first matching degree of the attribute feature belongs as a background image
  • the image features of the plurality of candidate images are extracted from a preset background library.
  • an image display device comprising: an acquisition module configured to acquire at least one frame of a first image including a target object, wherein the target object is an object within an image acquisition range ; a feature module, configured to extract at least one of the first action feature and attribute feature of the target object from the at least one frame of the first image; a background module, configured to At least one of the attribute features determines a background image; the fusion module is configured to extract a first portrait of the target object from the at least one frame of the first image, and perform a comparison between the first portrait and the background image. To fuse, generate and display the first target image.
  • a computer-readable storage medium on which a computer program is stored, and when the program is executed by a processor, implements the method of the first aspect.
  • the method may be performed by an electronic device such as a terminal device or a server, and the terminal device may be referred to as a terminal (Terminal), a user equipment (UE), a mobile station (mobile station, MS), a mobile terminal ( mobile terminal, MT), etc.
  • a terminal Terminal
  • UE user equipment
  • MS mobile station
  • MT mobile terminal
  • step S101 at least one frame of a first image including a target object is acquired, wherein the target object is an object within an image acquisition range.
  • multiple objects may exist simultaneously within the image capturing range, so before acquiring at least one frame of the first image including the target object, multiple objects within the image capturing range may also be detected, and the multiple objects may be acquired and according to the depth information, the object with the smallest depth information is determined from the plurality of objects as the target object. After the target object is determined, at least one frame of the first image is acquired for the determined target object; wherein, the object with the smallest depth information may be the object closest to the image acquisition device, for example, the closest to the camera.
  • the authority of the target object can also be verified, and this step can be started according to the authority, that is, the authority verification result of the target object can be obtained first; when the authority verification result of the target object indicates that the target object is a legal user , then obtain the first image of the target object.
  • the check-in result of the target object can be obtained first, and when the check-in is successful, the first image including the target object whose check-in is successful can be obtained, that is, the target object. If the sign-in is unsuccessful, this step is not performed.
  • At least one of the first action feature and the attribute feature may include a feature of multiple dimensions, and the feature of multiple dimensions may include at least one of a static feature and a dynamic feature.
  • the first image of each frame can be used to extract one of the features of multiple dimensions, and can also be used to extract multiple features of multiple dimensions.
  • step S104 a first portrait of the target object is extracted from the at least one frame of the first image.
  • the first target object can be displayed on a preset display device
  • the preset display device can be a public display device, such as a display screen of a cultural and tourism exhibition hall, a game device in a game venue, etc., or the above-mentioned terminal devices, such as mobile phones, tablet computers, etc.
  • the preset display device can be integrated with the image acquisition device, such as the above-mentioned terminal equipment, etc.; the preset display device can also be separated from the image acquisition device, and the two can be connected by wire or wirelessly, or the two can be connected to the control device separately. device connection.
  • the preset display device may also have a storage function to store images to be selected, etc., and a networking function to connect to background devices such as servers to update images to be selected.
  • the background image is determined according to at least one of the first action feature and the attribute feature of the target object, the correlation between the background image and the target object is strong, and it is easy to arouse the viewing interest of the target object, and the first target image is also the background It is generated by the fusion of the image and the first portrait of the target object, so it can improve the correlation between the first target image and the target object, arouse the viewing interest of the target object, produce a feeling of being in it, improve the user experience, and also The display device displaying the first target image is brought to the attention of the target object, the display attention rate of the display device is improved, and the waste of resources is reduced.
  • the background image is a dynamic image
  • the dynamic image contains at least one dynamic element.
  • a tree contained in the dynamic image shows a posture of swaying with the wind, and the tree is a dynamic element. If the flower shows the posture of falling with the wind, the flower is a dynamic element.
  • the small animal contained in the dynamic image runs around, the small animal is a dynamic element.
  • the stream in the dynamic image flows naturally, the stream It is a dynamic element.
  • the small fish swims in a stream in a dynamic image, the small fish is a dynamic element, and so on. It can be understood that the above examples are only examples of dynamic elements, and are not intended to limit the dynamic elements.
  • the second target image may also be generated and displayed in real time in the following manner: first, at least one frame of the second image including the target object is acquired in real time; then Next, extract a second portrait of the target object from the at least one second image; change the first portrait in the first target image according to the second portrait, and obtain and display a second target image, wherein , the second portrait in the second target image is moving in real time.
  • detecting the operation of the target object with respect to the second background dynamic element may include: detecting an operation of the target object with respect to the second background dynamic element input based on the first target image or the second target image. 2. Operation of background dynamic elements.
  • an operation on the second background dynamic element can be identified, and a second action feature of the target object can be obtained.
  • the image capture device captures an image of the target object, detects the target object in the captured image to detect the operation of the target object, and completes the identification of the operation by recognizing the target object in the captured image, so as to A second action feature is extracted.
  • gesture features and limb features are obtained through gesture recognition and limb recognition, respectively, and a first motion feature is generated according to the gesture feature and limb feature, so that the first motion feature can be comprehensively and accurately related to the motion of the target object
  • the features can be accurately characterized, thereby improving the correlation between the determined background image and the target object.
  • the extracted feature is the first action feature
  • determine the first matching degree between the first action feature and the image features of the plurality of images to be selected determine the image feature with the highest first matching degree with the first action feature
  • determine the image feature with the highest first matching degree with the first action feature The candidate image to which it belongs is determined as the background image
  • the extracted feature is an attribute feature
  • determine the first degree of matching between the attribute feature and the image features of the plurality of images to be selected determine the image to be selected to which the image feature with the highest first matching degree of the attribute feature belongs is the background image
  • the extracted features are the first action feature and the attribute feature
  • the candidate image to which the image feature with the highest matching degree of the feature and the attribute feature belongs is determined as the background image.
  • the methods disclosed in the several method embodiments provided in the present disclosure can be combined arbitrarily without conflict to obtain new method embodiments.
  • the features disclosed in the several product embodiments provided in the present disclosure can be combined arbitrarily without conflict to obtain a new product embodiment.
  • the features disclosed in several method or device embodiments provided in the present disclosure can be combined arbitrarily without conflict to obtain new method embodiments or device embodiments.
  • Embodiments of the present disclosure disclose an image display method, apparatus, device, storage medium, program, and program product, wherein the image display method includes: acquiring at least one frame of a first image including a target object, wherein the target object is An object within the image acquisition range; extracting at least one of the first action feature and attribute feature of the target object from the at least one frame of the first image; according to the first action feature and the attribute feature at least one of the first images to determine a background image; extract the first portrait of the target object from the at least one frame of the first image; fuse the first portrait and the background image to generate and display the first object image.
  • the correlation between the first target image and the target object can be improved, and the viewing interest of the target object can be aroused.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Processing Or Creating Images (AREA)

Abstract

一种图像显示方法、装置、设备、存储介质、程序及程序产品,所述图像显示方法包括:获取包括目标对象的至少一帧第一图像,其中,所述目标对象为处于图像采集范围内的对象(S101);从所述至少一帧第一图像中提取所述目标对象的第一动作特征和属性特征中的至少之一(S102);根据所述第一动作特征和所述属性特征中的至少之一确定背景图像(S103);从所述至少一帧第一图像中提取所述目标对象的第一人像(S104);将所述第一人像与所述背景图像进行融合,生成并显示第一目标图像(S105)。

Description

图像显示方法、装置、设备、存储介质、程序及程序产品
相关申请的交叉引用
本专利申请要求2021年2月18日提交的中国专利申请号为202110190297.2,申请名称为“图像显示方法、装置、设备及存储介质”的优先权,该公开的全文以引用的方式并入本公开中。
技术领域
本公开涉及图像处理技术领域,尤其涉及一种图像显示方法、装置、设备、存储介质、程序及程序产品。
背景技术
文旅展馆内经常设置用于展示特定信息的显示屏,以供到访用户观看。但是显示屏内展示信息的选择较为随机,导致展示信息与到访用户的关联性较差,用户的使用体验不佳。
发明内容
本公开提供一种图像显示方法、装置、设备、存储介质、程序及程序产品。
根据本公开实施例的第一方面,提供一种图像显示方法,包括:获取包括目标对象的至少一帧第一图像,其中,所述目标对象为处于图像采集范围内的对象;从所述至少一帧第一图像中提取所述目标对象的第一动作特征和属性特征中的至少之一;根据所述第一动作特征和所述属性特征中的至少之一确定背景图像;从所述至少一帧第一图像中提取所述目标对象的第一人像;将所述第一人像与所述背景图像进行融合,生成并显示第一目标图像。
这样,由于背景图像是根据目标对象的第一动作特征和属性特征中的至少之一确定的,因此背景图像与目标对象的关联性较强,容易引起目标对象的观看兴趣,且第一目标图像还是背景图像和目标对象的第一人像融合生成的,因此能够提高第一目标图像与目标对象的关联性,引起目标对象的观看兴趣,产生一种置身其中的感觉,改善了用户的使用体验,也使显示第一目标图像的显示设备受到目标对象的注意,提高了显示设备的显示关注率,减少了资源浪费。
结合本公开提供的任一实施方式,所述背景图像包括第一背景动态元素,所述第一目标图像内包括所述第一背景动态元素与所述第一人像形成的动画。
这样,背景图像和第一人像在融合的基础上,生成了相互之间互动的动画,且动画是在第一人像和背景图像内的至少一个动态元素之间生成的,动画自然流畅,提高了第一人像与背景图像的融合效果,使目标对象获得更加自然的沉浸感,还提高第一目标图像与目标对象的关联性,引起目标对象的 观看兴趣,改善了用户的使用体验。
结合本公开提供的任一实施方式,在所述显示第一目标图像之后,还包括:实时获取包括所述目标对象的至少一帧第二图像;从所述至少一帧第二图像中提取所述目标对象的第二人像;根据所述第二人像变更所述第一目标图像中的第一人像,获得并显示第二目标图像;其中,所述第二目标图像中的所述第二人像为实时运动的。
这样,通过实时采集目标对象的第二图像,可以根据目标对象的实时状态更新显示图像,例如,用户在图像采集设备的预设采集范围内来回踱步,则显示图像内背景不变,目标对象同步的来回踱步,从而提高了显示图像的实时性和跟随性,能够提高目标对象与显示图像的关联性,能够持续引起目标对象的观看兴趣,改善了用户的使用体验。
结合本公开提供的任一实施方式,所述背景图像包括第二背景动态元素;在显示所述第一目标图像或所述第二目标图像之后,还包括:检测所述目标对象针对所述第二背景动态元素的操作,获得所述目标对象的第二动作特征;根据所述目标对象的第二动作特征,在所述第一人像和所述第二背景动态元素间生成动画;或,根据所述目标对象的第二动作特征,在所述第二人像和所述第二背景动态元素间生成动画。
这样,通过检测和识别目标对象的操作获取目标对象的第二动作特征,再结合背景图像的第二背景动态元素生成动画,使显示图像中出现用户的动作触发的动画,因此能够按照用户的意愿呈现对应的互动效果,能引起目标用户的操作兴趣,提高了用户的参与感,改善了用户的使用体验。
结合本公开提供的任一实施方式,所述从所述至少一帧第一图像中提取所述目标对象的第一动作特征,包括:对所述至少一帧第一图像进行手势识别,获得所述目标对象的手势特征;对所述至少一帧第一图像进行肢体识别,获得所述目标对象的肢体特征;根据所述手势特征和所述肢体特征,生成所述目标对象的第一动作特征。
这样,分别通过手势识别和肢体识别获得手势特征和肢体特征,并且根据手势特征和肢体特征生成第一动作特征,使得第一动作特征能够全面和精确地对目标对象的动作相关的特征进行准确表征,进而提高了确定的背景图像与目标对象的关联性。
结合本公开提供的任一实施方式,从所述至少一帧第一图像中提取所述目标对象的属性特征,包括:对所述至少一帧第一图像进行性别识别,获得所述目标对象的性别特征;对所述至少一帧第一图像进行年龄识别,获得所述目标对象的年龄特征;根据所述性别特征和所述年龄特征确定所述目标对象的属性特征。
这样,分别通过性别识别和年龄识别获得性别特征和年龄特征,并且根据性别特征和年龄特征生成属性特征,使得属性特征全面和精确,能够对目标对象的属性相关的特征进行准确表征,进而提高了据此确定的背景图像与目标对象的关联性。
结合本公开提供的任一实施方式,所述根据所述第一动作特征和所述属性特征中的至少之一确定背景图像,包括以下之一:
确定所述第一动作特征与多个待选图像的图像特征的第一匹配度;将与所述第一动作特征的第一匹配度最高的图像特征所属的待选图像确定为所述背景图像;
确定所述属性特征与多个待选图像的图像特征的第一匹配度;将与所述属性特征的第一匹配度最高的图像特征所属的待选图像确定为背景图像;
分别确定所述第一动作特征和所述属性特征,与多个待选图像的图像特征的第一匹配度;将与所述第一动作特征和所述属性特征的第一匹配度最高的图像特征所属的待选图像确定为背景图像;
其中,所述多个待选图像的图像特征是从预设的背景库内提取的。
这样,根据匹配度对待选图像进行筛选,从而使确定出的背景图像与第一动作特征和属性特征中的至少之一的匹配程度较高,从而使背景图像对目标用户产生较大的吸引力,进而使目标用户对背景图像产生关注兴趣,提高了目标用户与背景图像的关联性,使目标用户产生针对性服务的感觉,改善了用户的使用体验。
结合本公开提供的任一实施方式,所述分别确定所述第一动作特征和所述属性特征,与多个待选图像的图像特征的第一匹配度,包括:确定所述第一动作特征与所述图像特征的第二匹配度;确定所述属性特征与所述图像特征的第三匹配度;根据所述第一动作特征的第一权重、所述第二匹配度、所述属性特征的第二权重和所述第三匹配度,分别确定所述第一动作特征和所述属性特征,与所述图像特征的第一匹配度。
这样,分别结合第二匹配度和第三匹配度,且在结合过程利用了权重,使得得到的第一匹配度较为准确。
结合本公开提供的任一实施方式,所述从所述至少一帧第一图像中提取目标对象的第一人像,包括:提取所述至少一帧第一图像内的所述目标对象的人像特征和所述背景图像的背景特征;所述将所述第一人像与所述背景图像进行融合,生成并显示第一目标图像,包括:根据所述人像特征和所述背景特征生成融合特征;将所述融合特征映射于所述背景图像内,得到并显示所述第一目标图像。
这样,通过提取、融合和映射特征的操作,完成了目标对象的第一人像与背景图像的融合,可以形成至少一种形式的第一目标图像,使第一目标图像内具有目标对象的第一人像,且该第一人像与背景图像自然融合,美观顺畅,毫无违和感。因此可以提高目标对象的沉浸感和参与感,改善用户的使用体验。
结合本公开提供的任一实施方式,所述提取所述背景图像的背景特征,包括:提取所述背景图像的人像区域的背景特征,其中,所述人像区域为用于显示所述目标对象的人像的区域;所述将所述融合特征映射于所述背景图像内,包括:将所述融合特征映射于所述背景图像的人像区域内。
这样,在提取背景特征和映射融合特征时,针对的是背景图像的人像区域,增加了针对性,且减少了冗余操作。
结合本公开提供的任一实施方式,所述图像采集范围内包括多个对象,所述获取包括目标对象的至少一帧第一图像之前,所述方法还包括:检测所述图像采集范围内的多个对象,并获取所述多个对象的深度信息;根据所述深度信息,从所述多个对象中确定深度信息最小的对象为所述目标对象。
这样,通过深度信息能够准确的确定目标对象,提高了采集图像以及人像融合过程中的针对性。
根据本公开实施例的第二方面,提供一种图像显示装置,包括:获取模块,配置为获取包括目标对象的至少一帧第一图像,其中,所述目标对象为处于图像采集范围内的对象;特征模块,配置为从所述至少一帧第一图像中提取所述目标对象的第一动作特征和属性特征中的至少之一;背景模块,配置为根据所述第一动作特征和所述属性特征中的至少之一确定背景图像;融合模块,配置为从所述至少一帧第一图像中提取所述目标对象的第一人像,将所述第一人像与所述背景图像进行融合,生成并显示第一目标图像。
结合本公开提供的任一实施方式,所述背景图像包括第一背景动态元素,所述第一目标图像内包括所述第一背景动态元素与所述第一人像形成的动画。
结合本公开提供的任一实施方式,所述融合模块在所述显示第一目标图像之后,还配置为:实时获取包括所述目标对象的至少一帧第二图像;从所述至少一帧第二图像中提取所述目标对象的第二人像;根据所述第二人像变更所述第一目标图像中的第一人像,获得并显示第二目标图像;其中,所述第二目标图像中的所述第二人像为实时运动的。
结合本公开提供的任一实施方式,所述背景图像包括第二背景动态元素;所述融合模块在配置为显示所述第一目标图像或所述第二目标图像之后,还配置为:检测所述目标对象针对所述第二背景动态元素的操作,获得所述目标对象的第二动作特征;根据所述目标对象的第二动作特征,在所述第一人像和所述第二背景动态元素间生成动画;或,根据所述目标对象的第二动作特征,在所述第二人像和所述第二背景动态元素间生成动画。
结合本公开提供的任一实施方式,所述特征模块配置为从所述至少一帧第一图像中提取所述目标对象的第一动作特征时,还配置为:对所述至少一帧第一图像进行手势识别,获得所述目标对象的手势特征;对所述至少一帧第一图像进行肢体识别,获得所述目标对象的肢体特征;根据所述手势特征和所述肢体特征,生成所述目标对象的第一动作特征。
结合本公开提供的任一实施方式,所述特征模块配置为从所述至少一帧第一图像中提取所述目标对象的属性特征时,还配置为:对所述至少一帧第一图像进行性别识别,获得所述目标对象的性别特征;对所述至少一帧第一图像进行年龄识别,获得所述目标对象的年龄特征;根据所述性别特征和所述年龄特征确定所述目标对象的属性特征。
结合本公开提供的任一实施方式,所述背景模块还配置为以下之一:
确定所述第一动作特征与多个待选图像的图像特征的第一匹配度;将与所述第一动作特征的第一匹配度最高的图像特征所属的待选图像确定为所述背景图像;
确定所述属性特征与多个待选图像的图像特征的第一匹配度;将与所述属性特征的第一匹配度最高的图像特征所属的待选图像确定为背景图像;
分别确定所述第一动作特征和所述属性特征,与多个待选图像的图像特征的第一匹配度;将与所述第一动作特征和所述属性特征的第一匹配度最高的图像特征所属的待选图像确定为背景图像;
其中,所述多个待选图像的图像特征是从预设的背景库内提取的。
结合本公开提供的任一实施方式,所述背景模块配置为分别确定所述第一动作特征和所述属性特征,与多个待选图像的图像特征的第一匹配度时,还配置为:确定所述第一动作特征与所述图像特征的第二匹配度;确定所述属性特征与所述图像特征的第三匹配度;根据所述第一动作特征的第一权重、所述第二匹配度、所述属性特征的第二权重和所述第三匹配度,分别确定所述第一动作特征和所述属性特征与所述图像特征的第一匹配度。
结合本公开提供的任一实施方式,所述融合模块还配置为:提取所述至少一帧第一图像内的所述目标对象的人像特征和所述背景图像的背景特征;根据所述人像特征和所述背景特征生成融合特征;将所述融合特征映射于所述背景图像内,得到并显示所述第一目标图像。
结合本公开提供的任一实施方式,所述融合模块配置为提取所述背景图像的背景特征时,还配置为:提取所述背景图像的人像区域的背景特征,其中,所述人像区域为用于显示所述目标对象的人像的区域;
所述融合模块配置为所述将所述融合特征映射于所述背景图像内时,还配置为:将所述融合特征映射于所述背景图像的人像区域内。
结合本公开提供的任一实施方式,所述图像采集范围内包括多个对象,所述获取模块配置为获取包括目标对象的至少一帧第一图像之前,还配置为:检测所述图像采集范围内的多个对象,并获取所述多个对象的深度信息;根据所述深度信息,从所述多个对象中确定深度信息最小的对象为目标对象。
根据本公开实施例的第三方面,提供一种电子设备,所述设备包括存储器、处理器,所述存储器配置为存储可在处理器上运行的计算机指令,所述处理器配置为在执行所述计算机指令时实现第一方面所述的方法。
根据本公开实施例的第四方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现第一方面所述的方法。
根据本公开实施例的第五方面,提供一种计算机程序,包括计算机可读代码,在所述计算机可读代码在电子设备中运行的情况下,所述电子设备中的处理器执行第一方面所述的方法。
根据本公开实施例的第六方面,提供一种计算机程序产品,包括计算机可读代码,在所述计算机可读代码在电子设备中运行的情况下,所述电子设备中的处理器执行第一方面所述的方法。
根据上述实施例可知,通过获取包括目标对象的至少一帧第一图像,并从上述至少一帧第一图像提取目标对象的第一动作特征和属性特征中的至少之一,以及根据所述第一动作特征和所述属性特征中的至少之一确定背景图像,最后从上述至少一帧第一图像提取目标对象的第一人像,并将第一人像与上述背景图像进行融合,以生成并显示第一目标图像。由于背景图像是根据目标对象的第一动作特征和属性特征中的至少之一确定的,因此背景图像与目标对象的关联性较强,容易引起目标对象的观看兴趣,且第一目标图像还是背景图像和目标对象的第一人像融合生成的,因此能够提高第一目标图像与目标对象的关联性,引起目标对象的观看兴趣,产生一种置身其中的感觉,改善了用户的使用体验,也使显示第一目标图像的显示设备受到目标对象的注意,提高了显示设备的显示关注率,减少了资源浪费。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是本公开实施例示出的图像显示方法的流程图;
图2是本公开实施例示出的生成第一目标图像的一个场景示意图;
图3是本公开实施例示出的图像显示过程的示意图;
图4是本公开实施例示出的图像显示装置的结构示意图;
图5是本公开实施例示出的电子设备的结构示意图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
在本公开使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本公开。在本公开和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本公开可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本公开范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
文旅展馆内经常设置用于展示特定信息的显示屏,以供到访用户观看。 但是显示屏内展示信息的选择较为随机,导致展示信息与到访用户的关联性较差,用户的使用体验不佳。
基于此,第一方面,本公开至少一个实施例提供了一种图像显示方法,请参照附图1,其示出了该方法的流程,包括步骤S101至步骤S105。
在一些实施方式中,该图像显示方法可以应用于文旅展馆的显示屏、游戏场馆内的游戏设备等线下设备,还可以应用于视频直播平台、短视频平台等线上娱乐平台。可以理解的是,上述几种应用场景示例只是对该方法的应用场景的举例,并非对本公开的应用场景的限制。
在一些实施方式中,该方法可以由终端设备或服务器等电子设备执行,终端设备可以称为终端(Terminal)、用户设备(user equipment,UE)、移动台(mobile station,MS)、移动终端(mobile terminal,MT)等。终端设备可以包括以下之一或者至少两者的组合:手机(Mobile Phone)、平板电脑(Pad)、带无线收发功能的电脑、掌上电脑、台式计算机、个人数字助理、便捷式媒体播放器、智能音箱、导航装置、智能手表、智能眼镜、智能项链等可穿戴设备、计步器、数字TV、虚拟现实(VirtualReality,VR)终端设备、增强现实(Augmented Reality,AR)终端设备、工业控制(Industrial Control)中的无线终端、无人驾驶(Self Driving)中的无线终端、远程手术(Remote Medical Surgery)中的无线终端、智能电网(Smart Grid)中的无线终端、运输安全(Transportation Safety)中的无线终端、智慧城市(Smart City)中的无线终端、智慧家庭(Smart Home)中的无线终端、车联网系统中的车、车载设备、车载模块等等,该方法可以通过处理器调用存储器中存储的计算机可读指令的方式来实现。或者,可以通过服务器执行该方法,服务器可以为本地服务器、云端服务器等。
在步骤S101中,获取包括目标对象的至少一帧第一图像,其中,所述目标对象为处于图像采集范围内的对象。
在一些实施方式中,执行该方法的硬件设备可以具有图像采集设备,例如摄像头等;图像采集设备可以对一定的范围内的对象进行图像采集,该范围就是图像采集范围,例如摄像头的视场。图像采集范围相对图像采集设备可以是固定的,也就是图像采集范围可以随图像采集设备的移动而移动的,因此若图像采集设备的位置固定,则图像采集范围的位置也可以固定,若图像采集设备的位置移动,则图像采集范围的位置可以随之移动。当图像采集范围的位置固定时,目标对象可以从其他区域进入到图像采集范围内,从而图像采集设备进行图像采集,从而获取到包括目标对象的至少一帧第一图像;当图像采集范围的位置不固定,例如为便携式的相机、手机等,则可以由目标对象或其他人员(例如工作人员)移动图像采集设备,以使图像采集范围移动至目标对象所在的位置,从而获取到包括目标对象的至少一帧第一图像。
在一些实施方式中,图像采集范围内可以同时存在多个对象,因此获取包括目标对象的至少一帧第一图像之前,还可以检测图像采集范围内的多个对象,并获取所述多个对象的深度信息,以及根据所述深度信息,从所述多 个对象中确定深度信息最小的对象为目标对象。确定目标对象后,再针对确定的目标对象获取至少一帧第一图像;其中,深度信息最小的对象可以是距离图像采集设备的距离最近的对象,例如,距离摄像头最近。
在这种实施方式下,通过深度信息能够准确的确定目标对象,提高了采集图像以及人像融合过程中的针对性。
在一些实施方式中,还可以验证目标对象的权限,并根据权限启动本步骤,也就是说,可以先获取所述目标对象的权限验证结果;当目标对象的权限验证结果表示目标对象为合法用户时,再获取目标对象的第一图像。例如,在文旅展会和画展等活动中常出现的人脸签到的场景下,可以先获取目标对象的签到结果,当签到成功时,再获取包括签到成功的目标对象的第一图像,即目标对象签到不成功时,不执行本步骤。
在步骤S102中,从所述至少一帧第一图像中提取所述目标对象的第一动作特征和属性特征中的至少之一。
在一些实施方式中,第一图像的帧数可以根据第一动作特征和属性特征中的至少之一的需求进行确定,也就是说,第一图像的帧数足以用于第一动作特征和属性特征中的至少之一的确定。例如,当确定的第一动作特征和属性特征中的至少之一为静态信息,可以由一帧第一图像确定,当确定的第一动作特征和属性特征中的至少之一为动态信息,可以由多帧第一图像确定。
在本公开实施例中,多帧、多个可以分别指的是至少两帧、至少两个。
在一些实施方式中,第一动作特征和属性特征中的至少之一,可以包括多个维度的特征,多个维度的特征可以包括静态特征和动态特征中的至少之一。每帧第一图像可以用于多个维度的特征中的一个的提取,也可以用于多个维度的特征中的多个的提取。
在一些实施方式中,第一动作特征和属性特征中的至少之一的提取需求,还可以指导获取第一图像的步骤S101。
在步骤S103中,根据所述第一动作特征和所述属性特征中的至少之一确定背景图像。
在一些实施方式中,背景图像可以为静态图像,也可以为动态图像。第一动作特征和所述属性特征中的至少之一,能够表征目标对象的一个或多个维度的特征,因此根据第一动作特征和所述属性特征中的至少之一,确定的背景图像与目标对象的关联性较强。
在一些实施方式中,可以通过对待选图像进行筛选,确定出背景图像。也就是说,可以确定多个待选图像的优先级,并将优先级最高的待选图像确定为背景图像,其中,多个待选图像的优先级可以是根据第一动作特征和所述属性特征中的至少之一确定的,还可以根据多个待选图像的固有优先级做补充,例如动态图像的优先级高于静态图像等。
在步骤S104中,从所述至少一帧第一图像中提取所述目标对象的第一人像。
在步骤S105中,将所述第一人像与所述背景图像进行融合,生成并显示 第一目标图像。
在一些实施方式中,第一目标图像的背景为步骤S103中确定的背景图像,且第一目标图像还包含了第一图像中的目标对象的第一人像,而且进行了融合,因此效果较为自然,且提高了第一目标图像与目标对象的关联性。
在一些实施方式中,用于确定背景图像的第一图像和用于生成第一目标图像的第一图像可以相同,也可以不相同。在一种情况下,步骤S101获取了至少一帧包括目标对象的第一图像,然后步骤S102利用上述至少一帧第一图像中的部分或全部确定目标对象的第一动作特征和属性特征中的至少之一,然后步骤S103至S105利用上述至少一帧第一图像中的部分或全部生成第一目标图像,其中,步骤S102利用的第一图像和S104利用的第一图像,可以完全不同,也可以具有部分重合,还可以完全相同。在另一种情况下,步骤S101获取了至少一帧包括目标对象的第一图像,然后步骤S102利用上述至少一帧第一图像中的部分或全部确定目标对象的第一动作特征和属性特征中的至少之一,然后再一次执行步骤S101,即重新获取至少一帧第一图像,然后步骤S103至S105再利用重新获取的第一图像生成第一目标图像。
在一些实施方式中,可以在预设显示设备显示第一目标对象,预设显示设备可以是公共显示设备,例如文旅展馆的显示屏、游戏场馆内的游戏设备等线,还可以是上述的终端设备,例如手机、平板电脑等。预设显示设备可以和图像采集设备是一体的,例如上述终端设备等;预设的显示设备还可以和图像采集设备是分体的,二者通过有线或无线实现连接,或者二者分别与控制设备连接。预设显示设备具有显示功能之外,还可以具有存储功能,以存储待选图像等,还可以具有连网功能,以连接服务器等后台设备,从而更新待选图像等。
根据上述实施例可知,通过获取包括目标对象的至少一帧第一图像,并从上述至少一帧第一图像提取目标对象的第一动作特征和属性特征中的至少之一,以及根据所述第一动作特征和所述属性特征中的至少之一确定背景图像,最后从上述至少一帧第一图像提取目标对象的第一人像,并将第一人像与上述背景图像进行融合,以生成并显示第一目标图像。由于背景图像是根据目标对象的第一动作特征和属性特征中的至少之一确定的,因此背景图像与目标对象的关联性较强,容易引起目标对象的观看兴趣,且第一目标图像还是背景图像和目标对象的第一人像融合生成的,因此能够提高第一目标图像与目标对象的关联性,引起目标对象的观看兴趣,产生一种置身其中的感觉,改善了用户的使用体验,也使显示第一目标图像的显示设备受到目标对象的注意,提高了显示设备的显示关注率,减少了资源浪费。
本公开的一些实施例中,所述背景图像包括第一背景动态元素,且所述第一目标图像内包括所述第一背景动态元素与所述第一人像形成的动画。
在一些实施方式中,背景图像为动态图像,动态图像内包含至少一个动态元素,例如动态图像内包含的树木展现出随风摇摆的姿态,则树木就是动态元素,再例如,动态图像内包含的花朵展现出随风飘落的姿态,则花朵就 是动态元素,再例如,动态图像内包含的小动物跑来跑去,则小动物就是动态元素,再例如,动态图像内的溪流自然流动,则溪流就是动态元素,再例如,动态图像内的溪流内的小鱼游来游去,则小鱼就是动态元素,等等。可以理解的是,上述示例仅仅是对动态元素的举例,并非对动态元素的限制。第一背景动态元素包括动态图像内的至少一个动态元素,第一目标图像内具有目标对象的第一人像,第一人像融入背景图像后,产生了与动态元素的互动,也就是目标对象和第一背景动态元素间形成的动画。上述动画可以是根据第一背景动态元素的固有属性决定的,例如,跑来跑去的小动物围绕目标对象跑,且向目标对象作出示好或调皮的动作,再例如,飘落的花朵落在目标对象的头上,再例如,目标对象在溪流内,溪流的流动带动目标对象随之飘动,等等。
本公开的实施例中,背景图像和第一人像在融合的基础上,生成了相互之间互动的动画,且动画是在第一人像和背景图像内的至少一个动态元素之间生成的,动画自然流畅,提高了第一人像与背景图像的融合效果,使目标对象获得更加自然的沉浸感,还提高第一目标图像与目标对象的关联性,引起目标对象的观看兴趣,改善了用户的使用体验。
本公开的一些实施例中,生成并显示第一目标图像之后,还可以按照下述方式实时生成并显示第二目标图像:首先,实时获取包括所述目标对象的至少一帧第二图像;接下来,从所述至少一个第二图像中提取所述目标对象的第二人像;根据所述第二人像变更所述第一目标图像中的第一人像,获得并显示第二目标图像,其中,所述第二目标图像中的所述第二人像为实时运动的。
在一些实施方式中,第二图像可以是图像采集设备针对状态变化后的目标对象所采集的图像,其中的状态变化可以是位置变化、动作变化、姿态变化等等中的至少之一,这些状态变化不足以改变第一动作特征和属性特征中的至少之一,因此可以继续使用背景图像;第二图像是生成并显示第一目标图像后,图像采集设备获取的目标对象的实时图像,即第二目标图像是针对目标对象的实时状态生成的。
本公开的实施例中,通过实时采集目标对象的第二图像,可以根据目标对象的实时状态更新显示图像,例如,用户在图像采集设备的预设采集范围内来回踱步,则显示图像内背景不变,目标对象同步的来回踱步,从而提高了显示图像的实时性和跟随性,能够提高目标对象与显示图像的关联性,能够持续引起目标对象的观看兴趣,改善了用户的使用体验。
本公开的一些实施例中,所述背景图像内包括第二背景动态元素,且根据背景图像生成的第一目标图像和第二目标图像内均包括第二背景动态元素。因此生成并显示第一目标图像或第二目标图像之后,还可以按照下述方式生成目标对象的人像与第二背景动态元素间的动画:首先,检测所述目标对象针对所述第二背景动态元素的操作;获得所述目标对象的第二动作特征;最后,根据所述目标对象的第二动作特征,在所述第一人像和所述第二背景动 态元素间生成动画;或,根据所述目标对象的第二动作特征,在所述第二人像和所述第二背景动态元素间生成动画。
在一些实施方式中,检测所述目标对象针对所述第二背景动态元素的操作,可以包括:检测所述目标对象基于所述第一目标图像或所述第二目标图像输入的针对所述第二背景动态元素的操作。
在一些实施方式中,可以识别针对所述第二背景动态元素的操作,获得目标对象的第二动作特征。
在一些实施方式中,图像采集设备采集目标对象的图像,并检测所采集图像内的目标对象以检测目标对象的操作,而且通过识别所采集图像内的目标对象的操作完成对操作的识别,以提取第二动作特征。
在一些实施方式中,第二背景动态元素可以包括上述实施例提到的动态图像内的至少一个动态元素,目标对象针对第二背景动态元素的操作,是基于第一目标图像或第二目标图像内,目标对象与第二背景动态元素的相对位置和关系等输入的,例如,在第一目标图像内,目标对象的面前有一只小狗(小狗即为第二背景动态元素)在向其示好,目标对象便可以向前方伸出手做出抱起的动作,目标对象还可以向小狗奔跑做出追逐的动作,再例如,在第二目标图像内,目标对象的旁边有一棵树,树上开满了各色花朵(花朵即为第二背景动态元素),目标对象便可以向某一花朵的位置伸出手做出摘花的动作,目标对象还可以向树干伸出手并做出拍打树干的动作。
在一些实施方式中,目标对象的操作执行过程中,显示图像可以按照上述实施例提到的方式实时更新,也就是显示图像内的目标对象的状态随着现实世界中的目标对象的动作实时更新,因此能够为目标对象的动作提供指导和参考,提高了输入的操作的准确性。
在一些实施方式中,第二动作特征信息表征目标对象的动作,且确定第二动作特征时可以结合第一目标图像或第二目标图像内的元素,因此第二动作特征不仅表征了目标对象的动作,还表征了该动作针对的元素等信息,进而据此生成的动画自然流畅。
在一些实施方式中,第二背景动态元素与目标对象形成的动画,可以是根据第二背景动态元素的固有属性和第二动作特征决定的,例如,目标对象向其前方的小狗做出抱起的动作时,小狗配合目标对象,形成被目标对象抱起的动画,再例如,目标对象向花朵做出摘花的动作时,花朵配合目标对象,形成被目标对象摘下来拿在手中的动画,再例如,目标对象向开满花朵的树木拍打,树木配合目标对象,形成花朵落下的动画,且花朵还可以落在目标对象的身体上,呈现出美的意境。
在一些实施方式中,第一目标图像和第二目标图像显示时,还可以生成第一提示信息,其中,所述第一提示信息用于指示用户输入针对第二背景动态元素的操作。通过第一提示信息可以引导用户输入操作,使用户获得与动态元素互动的机会和乐趣,方便了用户的操作,降低了用户操作的难度,提高了用户的使用体验。第一提示信息可以是文字提醒信息,还可以是语音提 示信息,还可以是动画提示信息等,例如,在第一目标图像上显示“小狗这么可爱,要不要抱一抱它呀”、“有花堪折直须折,莫待无花空折枝”以及“试着拍打树干,看看会产生什么奇异现象”等文字信息,还可以播放上述文字信息对应的语音消息。
本公开的实施例,通过检测和识别目标对象的操作获取目标对象的第二动作特征,再结合背景图像的第二背景动态元素生成动画,使显示图像中出现用户的动作触发的动画,因此能够按照用户的意愿呈现对应的互动效果,能引起目标用户的操作兴趣,提高了用户的参与感,改善了用户的使用体验。
本公开的一些实施例中,可以采用下述方式获取第一动作特征:对所述至少一帧第一图像进行手势识别,获得所述目标对象的手势特征;对所述至少一帧第一图像进行肢体识别,获得所述目标对象的肢体特征;根据所述手势特征和所述肢体特征,生成所述目标对象的第一动作特征。
在一个示例中,手势识别时,识别到用户摆出的花朵手势,则可以确定手势特征为“花朵”相关的特征,进而后续确定的背景图像则可以与“花朵”相关,例如具有花朵的草地和开满花的树等;
在一个示例中,肢体识别时,识别到用户做出了游泳的姿势,则可以确定肢体特征为“游泳”相关的特征,进而后续确定的背景图像则可以与“游泳”相关,例如大海和海洋动物等。
在一个示例中,可以将手势特征和肢体特征进行融合,并以融合结果作为第一动作特征。
在本公开实施例中,分别通过手势识别和肢体识别获得手势特征和肢体特征,并且根据手势特征和肢体特征生成第一动作特征,使得第一动作特征能够全面和精确地对目标对象的动作相关的特征进行准确表征,进而提高了确定的背景图像与目标对象的关联性。
本公开的一些实施例中,可以采用下述方式获取属性特征:对所述至少一帧第一图像进行性别识别,获得所述目标对象的性别特征;对所述至少一帧第一图像进行年龄识别,获得所述目标对象的年龄特征;根据所述性别特征和所述年龄特征确定所述目标对象的属性特征。
在一些实施方式中,可以对目标对象的人脸进行识别,得到性别特征,例如,识别到目标对象的性别特征为女,后续确定的背景图像则可以呈现出浪漫的场景,识别到用户的性别特征为男,后续确定的背景图像则可以呈现出科幻的场景。
在一些实施方式中,可以对目标对象的人脸进行识别,得到年龄特征,例如,识别到目标对象的年龄特征为老年,后续确定的背景图像则可以呈现出温馨的场景和/或怀旧的场景等,识别到用户的年龄特征为儿童,后续确定的背景图像则可以呈现出卡通的场景等。
在一个示例中,可以将性别特征和年龄特征进行融合,并以融合结果作为属性特征。
在本公开实施例中,分别通过性别识别和年龄识别获得性别特征和年龄 特征,并且根据性别特征和年龄特征生成属性特征,使得属性特征全面和精确,能够对目标对象的属性相关的特征进行准确表征,进而提高了据此确定的背景图像与目标对象的关联性。
本公开的实施例,可以根据特征的需求对第一图像进行特征提取,即可以按照上述方式提取第一动作特征,也可以按照上述方式提取属性特征,还可以按照上述两种方式分别提取第一动作特征和属性特征。例如,可以通过识别如图2所示出的手势201,确定了第一动作特征为“花朵”相关的特征,通过识别如图2所示出的目标对象202的人脸,确定了属性特征信息为“年轻女性”相关的特征,因此确定如图2所示的第一目标图像203,从第一目标图像203中可以看出,图中有树木,树木上开满了花朵,且图中还有目标对象的人像,自然的融合在背景之中。
本公开的一些实施例中,可以按照下述之一方式根据第一动作特征和属性特征确定背景图像:首先,提取预设的背景库内的多个待选图像的图像特征,即所述多个待选图像的图像特征是从预设的背景库内提取的;接下来,根据提取的特征种类采用以下之一的方式特征对比并从多个待选图像中确定背景图像:
当提取的特征为第一动作特征时,确定所述第一动作特征与多个待选图像的图像特征的第一匹配度;将与所述第一动作特征的第一匹配度最高的图像特征所属的待选图像确定为背景图像;
当提取的特征为属性特征时,确定所述属性特征与多个待选图像的图像特征的第一匹配度;将与所述属性特征的第一匹配度最高的图像特征所属的待选图像确定为背景图像;
当提取的特征为第一动作特征和属性特征时,分别确定所述第一动作特征和所述属性特征,与多个待选图像的图像特征的第一匹配度;将与所述第一动作特征和所述属性特征的第一匹配度最高的图像特征所属的待选图像确定为背景图像。
在一些实施方式中,可以按照下述方式分别确定所述第一动作特征和所述属性特征,与多个待选图像的图像特征的第一匹配度:确定所述第一动作特征与所述图像特征的第二匹配度;确定属性特征与所述图像特征的第三匹配度;根据所述第一动作特征的第一权重、所述第二匹配度、所述属性特征的第二权重和所述第三匹配度,分别确定第一动作特征和所述属性特征与所述图像特征的第一匹配度。
在一些实施方式中,第一权重可以为大于或等于0且小于或等于1的数,第二权重为大于或等于0且小于或等于1的数,而且第一权重和第二权重的和为1,可以按照下述公式确定第一动作特征和属性特征中的至少之一,与所述图像特征的第一匹配度:
T=w 1×t 1+w 2×t 2
其中,T为第一匹配度,w 1为第一权重,t 1为第二匹配度,w 2为第二权重,t 2为第三匹配度。
本公开的实施例中,根据匹配度对待选图像进行筛选,从而使确定出的背景图像与第一动作特征和属性特征中的至少之一的匹配程度较高,从而使背景图像对目标用户产生较大的吸引力,进而使目标用户对背景图像产生关注兴趣,提高了目标用户与背景图像的关联性,使目标用户产生针对性服务的感觉,改善了用户的使用体验。
本公开的一些实施例中,按照下述方式生成第一目标图像:首先,提取所述至少一帧第一图像内的目标对象的人像特征和所述背景图像的背景特征,并根据所述人像特征和所述背景特征生成融合特征;接下来,将所述融合特征映射于所述背景图像内,得到并显示所述第一目标图像。
本公开的实施例中,通过提取、融合和映射特征的操作,完成了目标对象的第一人像与背景图像的融合,可以形成至少一种形式的第一目标图像,使第一目标图像内具有目标对象的第一人像,且该第一人像与背景图像自然融合,美观顺畅,毫无违和感。因此可以提高目标对象的沉浸感和参与感,改善用户的使用体验。
在一些实施方式中,背景图像可以包括预设固有的人像区域,也就是用于显示所述目标对象的人像的区域,因此提取背景图像的背景特征,可以包括:提取所述背景图像的人像区域的背景特征,其中,所述人像区域为用于显示所述目标对象的人像的区域。将所述融合特征映射于所述背景图像内,可以包括:将所述融合特征映射于所述背景图像的人像区域内。
因此生成的第一目标图像内的目标用户所在位置比较合理和美观,且可以获取比较自然的融合效果。另外,还可以获取与人像区域临近的动态元素的元素特征,然后根据融合特征和动态元素的元素特征,在背景图像内形成目标对象与动态元素间的动画效果。
在本公开实施例中,在提取背景特征和映射融合特征时,针对的是背景图像的人像区域,增加了针对性,且减少了冗余操作。请参照附图3,其示例性的示出了一个图像显示的过程,该过程应用于文旅展馆的显示屏上,该过程首先获取了第一图像,然后对第一图像内的目标对象分别进行手势识别、肢体识别和人脸识别,并根据手势识别得出的手势特征和肢体识别得到的肢体特征,确定第一动作特征,根据人脸识别得出包括性别特征和年龄特征中的至少之一的属性特征,再根据第一动作特征和属性特征确定背景图像。接下来第一图像和背景图像结合下生成第一目标图像。最后第一目标图像显示出目标对象的人像与动态元素间的动画。该过程可以解决显示屏的展示信息与到访用户的关联性差的问题,用户可以通过肢体语言变换显示屏的输出信息,且显示屏会根据人物属性输出定制化场景信息,且显示了用户相关的动画,减少了显示屏对用户的单向信息交互,增加了趣味性。
根据本公开实施例还可以提供一种图像显示装置,请参照附图4,其示出了该装置的结构示意图,包括:
获取模块401,配置为获取包括目标对象的至少一帧第一图像,其中,所述目标对象为处于图像采集范围内的对象;特征模块402,配置为从所述至少 一帧第一图像中提取所述目标对象的第一动作特征和属性特征中的至少之一;背景模块403,配置为根据所述第一动作特征和所述属性特征中的至少之一确定背景图像;融合模块404,配置为从所述至少一帧第一图像中提取所述目标对象的第一人像,将所述第一人像与所述背景图像进行融合,生成并显示第一目标图像。
本公开的一些实施例中,所述背景图像包括第一背景动态元素,所述第一目标图像内包括所述第一背景动态元素与所述第一人像形成的动画。
本公开的一些实施例中,所述融合模块在所述显示所述第一目标图像之后,还配置为:实时获取包括所述目标对象的至少一帧第二图像;从所述至少一帧第二图像中提取所述目标对象的第二人像;根据所述第二人像变更所述第一目标图像中的第一人像,获得并显示第二目标图像;其中,所述第二目标图像中的所述第二人像为实时运动的。
本公开的一些实施例中,所述背景图像包括第二背景动态元素;所述融合模块在配置为显示所述第一目标图像或所述第二目标图像之后,还配置为:检测所述目标对象针对所述第二背景动态元素的操作,获得所述目标对象的第二动作特征;根据所述目标对象的第二动作特征,在所述第一人像和所述第二背景动态元素间生成动画;或,根据所述目标对象的第二动作特征,在所述第二人像和所述第二背景动态元素间生成动画。
本公开的一些实施例中,所述特征模块配置为从所述至少一帧第一图像中提取所述目标对象的第一动作特征时,还配置为:对所述至少一帧第一图像进行手势识别,获得所述目标对象的手势特征;对所述至少一帧第一图像进行肢体识别,获得所述目标对象的肢体特征;根据所述手势特征和所述肢体特征,生成所述目标对象的第一动作特征。
本公开的一些实施例中,所述特征模块配置为从所述至少一帧第一图像中提取所述目标对象的属性特征时,还配置为:对所述至少一帧第一图像进行性别识别,获得所述目标对象的性别特征;对所述至少一帧第一图像进行年龄识别,获得所述目标对象的年龄特征;根据所述性别特征和所述年龄特征确定所述目标对象的属性特征。
本公开的一些实施例中,所述背景模块还配置为以下之一:
确定所述第一动作特征与多个待选图像的图像特征的第一匹配度;将与所述第一动作特征的第一匹配度最高的图像特征所属的待选图像确定为所述背景图像;
确定所述属性特征与多个待选图像的图像特征的第一匹配度;将与所述属性特征的第一匹配度最高的图像特征所属的待选图像确定为背景图像;
分别确定所述第一动作特征和所述属性特征,与多个待选图像的图像特征的第一匹配度;将与所述第一动作特征和所述属性特征的第一匹配度最高的图像特征所属的待选图像确定为背景图像;
其中,所述多个待选图像的图像特征是从预设的背景库内提取的。
本公开的一些实施例中,所述背景模块配置为分别确定所述第一动作特 征和所述属性特征,与多个待选图像的图像特征的第一匹配度时,还配置为:确定所述第一动作特征与所述图像特征的第二匹配度;确定所述属性特征与所述图像特征的第三匹配度;根据所述第一动作特征的第一权重、所述第二匹配度、所述属性特征的第二权重和所述第三匹配度,分别确定所述第一动作特征和所述属性特征与所述图像特征的第一匹配度。
本公开的一些实施例中,所述融合模块还配置为:
提取所述至少一帧第一图像内的所述目标对象的人像特征和所述背景图像的背景特征;根据所述人像特征和所述背景特征生成融合特征;将所述融合特征映射于所述背景图像内,得到并显示所述第一目标图像。
本公开的一些实施例中,所述融合模块配置为提取所述背景图像的背景特征时,还配置为:提取所述背景图像的人像区域的背景特征,其中,所述人像区域为用于显示所述目标对象的人像的区域;
所述融合模块配置为所述将所述融合特征映射于所述背景图像内时,还配置为:将所述融合特征映射于所述背景图像的人像区域内。
本公开的一些实施例中,所述图像采集范围内包括多个对象,所述获取模块配置为获取包括目标对象的至少一帧第一图像之前,还配置为:检测所述图像采集范围内的多个对象,并获取所述多个对象的深度信息;根据所述深度信息,从所述多个对象中确定深度信息最小的对象为目标对象。
关于上述实施例中的装置,其中各个模块执行操作的方式已经在上述方法的实施例中进行了详细描述,此处将不做详细阐述说明。
本公开实施例还可以提供一种电子设备,请参照附图5,其示出了该电子设备的结构,所述设备包括存储器、处理器,所述存储器配置为存储可在处理器上运行的计算机指令,所述处理器配置为在执行所述计算机指令时实现上述任一实施例的方法。电子设备还可以包括内部总线和网络接口,处理器、存储器以及网络接口中的任两者可以通过内部总结进行连接。
本公开实施例还可以提供一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现上述任一实施例的方法。
本公开实施例还可以提供一种计算机程序,包括计算机可读代码,在所述计算机可读代码在电子设备中运行的情况下,所述电子设备中的处理器执行上述任一实施例的方法。
本公开实施例还可以提供一种计算机程序产品,包括计算机可读代码,在所述计算机可读代码在电子设备中运行的情况下,所述电子设备中的处理器执行上述任一实施例的方法。
需要指出的是:以上图像显示装置、电子设备、计算机可读存储介质、计算机程序以及计算机程序产品实施例的描述,与上述方法实施例的描述是类似的,具有同方法实施例相似的有益效果。对于本公开图像显示装置、电子设备、计算机可读存储介质、计算机程序以及计算机程序产品实施例中未披露的技术细节,请参照本公开方法实施例的描述而理解。
上述图像显示装置或处理器可以包括以下任一个或多个的集成:特定用 途集成电路(Application Specific Integrated Circuit,ASIC)、数字信号处理器(Digital Signal Processor,DSP)、数字信号处理装置(Digital Signal Processing Device,DSPD)、可编程逻辑装置(Programmable Logic Device,PLD)、现场可编程门阵列(Field Programmable Gate Array,FPGA)、中央处理器(Central Processing Unit,CPU)、图形处理器(Graphics Processing Unit,GPU)、嵌入式神经网络处理器(neural-network processing units,NPU)、控制器、微控制器、微处理器。可以理解地,实现上述处理器功能的电子器件还可以为其它,本公开实施例不作限定。
上述计算机可读存储介质/存储器可以是只读存储器(Read Only Memory,ROM)、可编程只读存储器(Programmable Read-Only Memory,PROM)、可擦除可编程只读存储器(Erasable Programmable Read-Only Memory,EPROM)、电可擦除可编程只读存储器(Electrically Erasable Programmable Read-Only Memory,EEPROM)、磁性随机存取存储器(Ferromagnetic Random Access Memory,FRAM)、快闪存储器(Flash Memory)、磁表面存储器、光盘、或只读光盘(Compact Disc Read-Only Memory,CD-ROM)等存储器;也可以是包括上述存储器之一或任意组合的各种终端,如移动电话、计算机、平板设备、个人数字助理等。
说明书通篇中提到的“一个实施例”或“一实施例”或“本公开实施例”或“前述实施例”或“一些实施方式”或“一些实施例”意味着与实施例有关的特定特征、结构或特性包括在本公开的至少一个实施例中。因此,在整个说明书各处出现的“在一个实施例中”或“在一实施例中”或“本公开实施例”或“前述实施例”或“一些实施方式”或“一些实施例”未必一定指相同的实施例。此外,这些特定的特征、结构或特性可以任意适合的方式结合在一个或多个实施例中。应理解,在本公开的各种实施例中,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本公开实施例的实施过程构成任何限定。上述本公开实施例序号仅仅为了描述,不代表实施例的优劣。
在未做特殊说明的情况下,终端设备执行本公开实施例中的任一步骤,可以是终端设备的处理器执行该步骤。除非特殊说明,本公开实施例并不限定终端设备执行下述步骤的先后顺序。另外,不同实施例中对数据进行处理所采用的方式可以是相同的方法或不同的方法。还需说明的是,本公开实施例中的任一步骤是终端设备可以独立执行的,即终端设备执行上述实施例中的任一步骤时,可以不依赖于其它步骤的执行。
本公开所提供的几个方法实施例中所揭露的方法,在不冲突的情况下可以任意组合,得到新的方法实施例。本公开所提供的几个产品实施例中所揭露的特征,在不冲突的情况下可以任意组合,得到新的产品实施例。本公开所提供的几个方法或设备实施例中所揭露的特征,在不冲突的情况下可以任意组合,得到新的方法实施例或设备实施例。
在本公开实施例中,不同实施例中相同步骤和相同内容的说明,可以互 相参照。在本公开实施例中,术语“并”不对步骤的先后顺序造成影响,例如,终端设备执行A,并执行B,可以是终端设备先执行A,再执行B,或者是终端设备先执行B,再执行A,或者是终端设备执行A的同时执行B。
在本公开中,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性。术语“多个”指两个或两个以上,除非另有明确的限定。
本领域技术人员在考虑说明书及实践这里公开的公开后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
工业实用性
本公开实施例公开了一种图像显示方法、装置、设备、存储介质、程序及程序产品,其中,图像显示方法包括:获取包括目标对象的至少一帧第一图像,其中,所述目标对象为处于图像采集范围内的对象;从所述至少一帧第一图像中提取所述目标对象的第一动作特征和属性特征中的至少之一;根据所述第一动作特征和所述属性特征中的至少之一确定背景图像;从所述至少一帧第一图像中提取所述目标对象的第一人像;将所述第一人像与所述背景图像进行融合,生成并显示第一目标图像。通过本申请,能够提高第一目标图像与目标对象的关联性,引起目标对象的观看兴趣。

Claims (26)

  1. 一种图像显示方法,包括:
    获取包括目标对象的至少一帧第一图像,其中,所述目标对象为处于图像采集范围内的对象;
    从所述至少一帧第一图像中提取所述目标对象的第一动作特征和属性特征中的至少之一;
    根据所述第一动作特征和所述属性特征中的至少之一确定背景图像;
    从所述至少一帧第一图像中提取所述目标对象的第一人像;
    将所述第一人像与所述背景图像进行融合,生成并显示第一目标图像。
  2. 根据权利要求1所述的图像显示方法,其中,所述背景图像包括第一背景动态元素,所述第一目标图像内包括所述第一背景动态元素与所述第一人像形成的动画。
  3. 根据权利要求1或2所述的图像显示方法,其中,在所述显示第一目标图像之后,还包括:
    实时获取包括所述目标对象的至少一帧第二图像;
    从所述至少一帧第二图像中提取所述目标对象的第二人像;
    根据所述第二人像变更所述第一目标图像中的第一人像,获得并显示第二目标图像;其中,所述第二目标图像中的所述第二人像为实时运动的。
  4. 根据权利要求3所述的图像显示方法,其中,所述背景图像包括第二背景动态元素;在显示所述第一目标图像或所述第二目标图像之后,还包括:
    检测所述目标对象针对所述第二背景动态元素的操作,获得所述目标对象的第二动作特征;
    根据所述目标对象的第二动作特征,在所述第一人像和所述第二背景动态元素间生成动画;或,根据所述目标对象的第二动作特征,在所述第二人像和所述第二背景动态元素间生成动画。
  5. 根据权利要求1至4任一项所述的图像显示方法,其中,所述从所述至少一帧第一图像中提取所述目标对象的第一动作特征,包括:
    对所述至少一帧第一图像进行手势识别,获得所述目标对象的手势特征;
    对所述至少一帧第一图像进行肢体识别,获得所述目标对象的肢体特征;
    根据所述手势特征和所述肢体特征,生成所述目标对象的第一动作特征。
  6. 根据权利要求1或5所述的图像显示方法,其中,从所述至少一帧第一图像中提取所述目标对象的属性特征,包括:
    对所述至少一帧第一图像进行性别识别,获得所述目标对象的性别特征;
    对所述至少一帧第一图像进行年龄识别,获得所述目标对象的年龄特征;
    根据所述性别特征和所述年龄特征确定所述目标对象的属性特征。
  7. 根据权利要求5或6所述的图像显示方法,其中,所述根据所述第一动作特征和所述属性特征中的至少之一确定背景图像,包括以下之一:确定 所述第一动作特征与多个待选图像的图像特征的第一匹配度;将与所述第一动作特征的第一匹配度最高的图像特征所属的待选图像确定为所述背景图像;
    确定所述属性特征与多个待选图像的图像特征的第一匹配度;将与所述属性特征的第一匹配度最高的图像特征所属的待选图像确定为背景图像;
    分别确定所述第一动作特征和所述属性特征,与多个待选图像的图像特征的第一匹配度;将与所述第一动作特征和所述属性特征的第一匹配度最高的图像特征所属的待选图像确定为背景图像;
    其中,所述多个待选图像的图像特征是从预设的背景库内提取的。
  8. 根据权利要求7所述的图像显示方法,其中,所述分别确定所述第一动作特征和所述属性特征,与多个待选图像的图像特征的第一匹配度,包括:
    确定所述第一动作特征与所述图像特征的第二匹配度;
    确定所述属性特征与所述图像特征的第三匹配度;
    根据所述第一动作特征的第一权重、所述第二匹配度、所述属性特征的第二权重和所述第三匹配度,分别确定所述第一动作特征和所述属性特征,与所述图像特征的第一匹配度。
  9. 根据权利要求1至8任一项所述的图像显示方法,其中,所述从所述至少一帧第一图像中提取目标对象的第一人像,包括:
    提取所述至少一帧第一图像内的所述目标对象的人像特征和所述背景图像的背景特征;
    所述将所述第一人像与所述背景图像进行融合,生成并显示第一目标图像,包括:
    根据所述人像特征和所述背景特征生成融合特征;将所述融合特征映射于所述背景图像内,得到并显示所述第一目标图像。
  10. 根据权利要求9所述的图像显示方法,其中,提取所述背景图像的背景特征,包括:
    提取所述背景图像的人像区域的背景特征,其中,所述人像区域为用于显示所述目标对象的人像的区域;
    所述将所述融合特征映射于所述背景图像内,包括:
    将所述融合特征映射于所述背景图像的人像区域内。
  11. 根据权利要求1至10任一项所述的图像显示方法,其中,所述图像采集范围内包括多个对象,所述获取包括目标对象的至少一帧第一图像之前,所述方法还包括:
    检测所述图像采集范围内的多个对象,并获取所述多个对象的深度信息;
    根据所述深度信息,从所述多个对象中确定深度信息最小的对象为所述目标对象。
  12. 一种图像显示装置,包括:
    获取模块,配置为获取包括目标对象的至少一帧第一图像,其中,所述目标对象为处于图像采集范围内的对象;
    特征模块,配置为从所述至少一帧第一图像中提取所述目标对象的第一 动作特征和属性特征中的至少之一;
    背景模块,配置为根据所述第一动作特征和所述属性特征中的至少之一确定背景图像;
    融合模块,配置为从所述至少一帧第一图像中提取所述目标对象的第一人像,将所述第一人像与所述背景图像进行融合,生成并显示第一目标图像。
  13. 根据权利要求12所述的图像显示装置,其中,所述背景图像包括第一背景动态元素,所述第一目标图像内包括所述第一背景动态元素与所述第一人像形成的动画。
  14. 根据权利要求12或13所述的图像显示装置,其中,所述融合模块在所述显示第一目标图像之后,还配置为:
    实时获取包括所述目标对象的至少一帧第二图像;
    从所述至少一帧第二图像中提取所述目标对象的第二人像;
    根据所述第二人像变更所述第一目标图像中的第一人像,获得并显示第二目标图像;其中,所述第二目标图像中的所述第二人像为实时运动的。
  15. 根据权利要求14所述的图像显示装置,其中,所述背景图像包括第二背景动态元素;所述融合模块在配置为显示所述第一目标图像或所述第二目标图像之后,还配置为:
    检测所述目标对象针对所述第二背景动态元素的操作,获得所述目标对象的第二动作特征;
    根据所述目标对象的第二动作特征,在所述第一人像和所述第二背景动态元素间生成动画;或,根据所述目标对象的第二动作特征,在所述第二人像和所述第二背景动态元素间生成动画。
  16. 根据权利要求12至15任一项所述的图像显示装置,其中,所述特征模块配置为从所述至少一帧第一图像中提取所述目标对象的第一动作特征时,还配置为:
    对所述至少一帧第一图像进行手势识别,获得所述目标对象的手势特征;
    对所述至少一帧第一图像进行肢体识别,获得所述目标对象的肢体特征;
    根据所述手势特征和所述肢体特征,生成所述目标对象的第一动作特征。
  17. 根据权利要求12至16任一项所述的图像显示装置,其中,所述特征模块配置为从所述至少一帧第一图像中提取所述目标对象的属性特征时,还配置为:
    对所述至少一帧第一图像进行性别识别,获得所述目标对象的性别特征;
    对所述至少一帧第一图像进行年龄识别,获得所述目标对象的年龄特征;
    根据所述性别特征和所述年龄特征确定所述目标对象的属性特征。
  18. 根据权利要求16或17所述的图像显示装置,其中,所述背景模块还配置为以下之一:
    确定所述第一动作特征与多个待选图像的图像特征的第一匹配度;将与所述第一动作特征的第一匹配度最高的图像特征所属的待选图像确定为所述背景图像;
    确定所述属性特征与多个待选图像的图像特征的第一匹配度;将与所述属性特征的第一匹配度最高的图像特征所属的待选图像确定为背景图像;
    分别确定所述第一动作特征和所述属性特征,与多个待选图像的图像特征的第一匹配度;将与所述第一动作特征和所述属性特征的第一匹配度最高的图像特征所属的待选图像确定为背景图像;
    其中,所述多个待选图像的图像特征是从预设的背景库内提取的。
  19. 根据权利要求18所述的图像显示装置,其中,所述背景模块配置为分别确定所述第一动作特征和所述属性特征,与多个待选图像的图像特征的第一匹配度时,还配置为:
    确定所述第一动作特征与所述图像特征的第二匹配度;确定所述属性特征与所述图像特征的第三匹配度;根据所述第一动作特征的第一权重、所述第二匹配度、所述属性特征的第二权重和所述第三匹配度,分别确定所述第一动作特征和所述属性特征与所述图像特征的第一匹配度。
  20. 根据权利要求12至19任一项所述的图像显示装置,其中,所述融合模块还配置为:提取所述至少一帧第一图像内的所述目标对象的人像特征和所述背景图像的背景特征;根据所述人像特征和所述背景特征生成融合特征;将所述融合特征映射于所述背景图像内,得到并显示所述第一目标图像。
  21. 根据权利要求20所述的图像显示装置,其中,所述融合模块配置为提取所述背景图像的背景特征时,还配置为:
    提取所述背景图像的人像区域的背景特征,其中,所述人像区域为用于显示所述目标对象的人像的区域;
    所述融合模块配置为所述将所述融合特征映射于所述背景图像内时,还配置为:将所述融合特征映射于所述背景图像的人像区域内。
  22. 根据权利要求12至21任一项所述的图像显示装置,其中,所述图像采集范围内包括多个对象,所述获取模块配置为获取包括目标对象的至少一帧第一图像之前,还配置为:检测所述图像采集范围内的多个对象,并获取所述多个对象的深度信息;根据所述深度信息,从所述多个对象中确定深度信息最小的对象为目标对象。
  23. 一种电子设备,所述设备包括存储器、处理器,所述存储器配置为存储可在处理器上运行的计算机指令,所述处理器配置为在执行所述计算机指令时实现权利要求1至11任一项所述的方法。
  24. 一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现权利要求1至11任一所述的方法。
  25. 一种计算机程序,包括计算机可读代码,在所述计算机可读代码在电子设备中运行的情况下,所述电子设备中的处理器执行如权利要求1至11任一所述的方法。
  26. 一种计算机程序产品,包括计算机可读代码,在所述计算机可读代码在电子设备中运行的情况下,所述电子设备中的处理器执行如权利要求1至11任一所述的方法。
PCT/CN2021/108342 2021-02-18 2021-07-26 图像显示方法、装置、设备、存储介质、程序及程序产品 WO2022174554A1 (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202110190297.2 2021-02-18
CN202110190297.2A CN112967214A (zh) 2021-02-18 2021-02-18 图像显示方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
WO2022174554A1 true WO2022174554A1 (zh) 2022-08-25

Family

ID=76285142

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2021/108342 WO2022174554A1 (zh) 2021-02-18 2021-07-26 图像显示方法、装置、设备、存储介质、程序及程序产品

Country Status (2)

Country Link
CN (1) CN112967214A (zh)
WO (1) WO2022174554A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112967214A (zh) * 2021-02-18 2021-06-15 深圳市慧鲤科技有限公司 图像显示方法、装置、设备及存储介质
CN113989925B (zh) * 2021-10-22 2024-07-19 支付宝(杭州)信息技术有限公司 刷脸互动方法和装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016107259A1 (zh) * 2014-12-31 2016-07-07 努比亚技术有限公司 一种图像处理的方法及其装置
CN107707839A (zh) * 2017-09-11 2018-02-16 广东欧珀移动通信有限公司 图像处理方法及装置
CN109872297A (zh) * 2019-03-15 2019-06-11 北京市商汤科技开发有限公司 图像处理方法及装置、电子设备和存储介质
CN111339420A (zh) * 2020-02-28 2020-06-26 北京市商汤科技开发有限公司 图像处理方法、装置、电子设备及存储介质
CN111627087A (zh) * 2020-06-03 2020-09-04 上海商汤智能科技有限公司 一种人脸图像的展示方法、装置、计算机设备及存储介质
CN112967214A (zh) * 2021-02-18 2021-06-15 深圳市慧鲤科技有限公司 图像显示方法、装置、设备及存储介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011209966A (ja) * 2010-03-29 2011-10-20 Sony Corp 画像処理装置および方法、並びにプログラム
CN105741229B (zh) * 2016-02-01 2019-01-08 成都通甲优博科技有限责任公司 实现人脸图像快速融合的方法
CN108109161B (zh) * 2017-12-19 2021-05-11 北京奇虎科技有限公司 基于自适应阈值分割的视频数据实时处理方法及装置
CN110245199B (zh) * 2019-04-28 2021-10-08 浙江省自然资源监测中心 一种大倾角视频与2d地图的融合方法
CN111626254B (zh) * 2020-06-02 2024-04-16 上海商汤智能科技有限公司 一种展示动画触发方法及装置
CN112150349A (zh) * 2020-09-23 2020-12-29 北京市商汤科技开发有限公司 一种图像处理方法、装置、计算机设备及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016107259A1 (zh) * 2014-12-31 2016-07-07 努比亚技术有限公司 一种图像处理的方法及其装置
CN107707839A (zh) * 2017-09-11 2018-02-16 广东欧珀移动通信有限公司 图像处理方法及装置
CN109872297A (zh) * 2019-03-15 2019-06-11 北京市商汤科技开发有限公司 图像处理方法及装置、电子设备和存储介质
CN111339420A (zh) * 2020-02-28 2020-06-26 北京市商汤科技开发有限公司 图像处理方法、装置、电子设备及存储介质
CN111627087A (zh) * 2020-06-03 2020-09-04 上海商汤智能科技有限公司 一种人脸图像的展示方法、装置、计算机设备及存储介质
CN112967214A (zh) * 2021-02-18 2021-06-15 深圳市慧鲤科技有限公司 图像显示方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN112967214A (zh) 2021-06-15

Similar Documents

Publication Publication Date Title
US12095833B2 (en) System and method for augmented and virtual reality
JP7002684B2 (ja) 拡張現実および仮想現実のためのシステムおよび方法
US11127183B2 (en) System and method for creating avatars or animated sequences using human body features extracted from a still image
WO2022174554A1 (zh) 图像显示方法、装置、设备、存储介质、程序及程序产品
JP6656382B2 (ja) マルチメディア情報を処理する方法及び装置
CN105894581B (zh) 一种呈现多媒体信息的方法及装置
JP2019512173A (ja) マルチメディア情報を表示する方法及び装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21926268

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 28.11.2023)

122 Ep: pct application non-entry in european phase

Ref document number: 21926268

Country of ref document: EP

Kind code of ref document: A1