CN113885703A - 一种信息处理方法、装置和电子设备 - Google Patents

一种信息处理方法、装置和电子设备 Download PDF

Info

Publication number
CN113885703A
CN113885703A CN202111158102.2A CN202111158102A CN113885703A CN 113885703 A CN113885703 A CN 113885703A CN 202111158102 A CN202111158102 A CN 202111158102A CN 113885703 A CN113885703 A CN 113885703A
Authority
CN
China
Prior art keywords
image
displayed
display screen
area
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111158102.2A
Other languages
English (en)
Inventor
段勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Beijing Ltd
Original Assignee
Lenovo Beijing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Beijing Ltd filed Critical Lenovo Beijing Ltd
Priority to CN202111158102.2A priority Critical patent/CN113885703A/zh
Publication of CN113885703A publication Critical patent/CN113885703A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本申请提供了一种信息处理方法、装置和电子设备,位于显示屏幕第一侧的目标对象的影像,能够透过显示屏幕呈现,而且该目标对象在显示屏幕中目标区域对应呈现的轮廓,与该显示屏幕中显示的虚拟内容进行处理生成待显示图像,该待显示图像是基于该轮廓以及虚拟内容生成,该虚拟内容受到轮廓的影响,无需用户手动触控显示屏幕,操作以及响应方式更加灵活。

Description

一种信息处理方法、装置和电子设备
技术领域
本申请涉及信息技术领域,更具体的说,是涉及一种信息处理方法、装置和电子设备。
背景技术
增强现实(Augmented Reality,简称AR),是一种实时地计算摄影机影像的位置及角度并加上相应图像的技术。
现有的增强现实场景中设置大面积的透明显示设备,如全息投影或者是透明显示器等,该透明显示设备具有触控功能。被拍摄的人在透明显示设备后,透明显示设备对于用户在透明显示设备的屏上执行的触控操作进行响应,实现控制透明显示设备上显示内容的变化。
但是,由于用户能够在透明显示设备上执行的触控操作方式较少,透明显示设备响应的灵活度较差。
发明内容
有鉴于此,本申请提供了一种信息处理方法,如下:
一种信息处理方法,包括:
根据目标对象的深度信息,得到的位置信息以及所述目标对象的轮廓,所述位置信息表征目标对象在显示屏幕的第一侧,所述显示屏幕的第二侧用于输出显示内容;
基于所述位置信息分析确定所述目标对象的轮廓对应于显示屏幕的目标区域,所述显示屏幕的透光率大于预设值;
基于所述轮廓以及所述目标区域对于虚拟内容进行处理,生成待显示图像,所述虚拟内容用于在所述显示屏幕输出;
控制所述显示屏幕输出所述待显示图像。
可选的,上述的方法,根据目标对象的深度信息,得到的位置信息以及轮廓,包括:
获取深度数据采集模组采集得到的所述目标对象的深度数据;
基于所述深度数据分析得到所述目标对象的轮廓;
基于所述深度数据以及所述深度数据采集模组和所述显示屏幕的相对位置关系,分析得到所述目标对象的位置信息。
可选的,上述的方法,所述基于所述轮廓以及所述目标区域对于虚拟内容进行处理,生成待显示图像包括:
分析所述虚拟内容的移动路线;
基于所述移动路线与所述轮廓在第一位置发生交叉,在所述第一位置调整所述虚拟内容的移动方向;
控制在所述待显示图像中第一区域生成所述轮廓,并依据所述虚拟内容以及虚拟内容的移动方向生成待显示图像,所述待显示图像中第一区域与显示屏幕的目标区域对应。
可选的,上述的方法,所述基于所述轮廓以及所述目标区域对于虚拟内容进行处理,生成待显示图像包括:
控制在所述待显示图像中第一区域生成所述轮廓,所述待显示图像中第一区域与显示屏幕的目标区域对应;
将所述虚拟内容填充所述第一区域,得到待显示图像。
可选的,上述的方法,所述基于所述轮廓以及所述目标区域对于虚拟内容进行处理,生成待显示图像包括:
基于分析得到所述虚拟内容与所述轮廓重叠,选择所述虚拟内容中重叠部分;
将所述重叠部分的显示参数从第一参数调整到第二参数,非重叠部分的显示参数采用第一参数;
控制在所述待显示图像中第一区域生成所述轮廓,并依据所述重叠部分和所述非重叠部分组合得到虚拟内容,将所述虚拟内容与所述轮廓叠加生成待显示图像,所述待显示图像中第一区域与显示屏幕的目标区域对应。
可选的,上述的方法,所述基于所述轮廓以及所述目标区域对于虚拟内容进行处理,生成待显示图像包括:
控制在所述待显示图像中第一区域生成所述轮廓,所述待显示图像中第一区域与显示屏幕的目标区域对应;
将第一虚拟内容填充所述第一区域,将第二虚拟内容填充所述待显示图像中第二区域,得到待显示图像,所述第二区域是所述待显示图像中除第一区域的区域,所述第一虚拟内容与所述第二虚拟内容不同。
可选的,上述任一项的方法,所述显示屏幕是投影屏幕,所述投影屏幕的投影装置设备于所述投影屏幕的第二侧,基于所述轮廓以及所述目标区域对于虚拟内容进行处理,生成待显示图像之后,还包括:
分析所述轮廓得到所述目标对象的预设部分;
在待显示图像中分析确定第三区域,所述第三区域是所述轮廓中与所述目标对象的预设部分对应的区域;
基于预设图像处理所述待显示图像中的第三区域,得到待输出图像。
一种信息处理装置,包括:
轮廓单元,用于根据目标对象的深度信息,得到的位置信息以及所述目标对象的轮廓,所述位置信息表征目标对象在显示屏幕的第一侧,所述显示屏幕的第二侧用于输出显示内容;
分析单元,用于基于所述位置信息分析确定所述目标对象的轮廓对应于显示屏幕的目标区域,所述显示屏幕的透光率大于预设值;
处理单元,用于基于所述轮廓以及所述目标区域对于虚拟内容进行处理,生成待显示图像,所述虚拟内容用于在所述显示屏幕输出;控制所述显示屏幕输出所述待显示图像。
一种电子设备,包括:存储器、处理器;
其中,存储器存储有信息处理程序;
所述处理器用于加载并执行所述存储器存储的所述信息处理程序,以实现如上述任一项所述的信息处理方法的各步骤。
一种可读存储介质,其上存储有计算机程序,所述计算机程序被处理器调用并执行,实现如上述任一项所述的信息处理方法的各步骤。
经由上述的技术方案可知,与现有技术相比,本申请提供了一种信息处理方法,包括:根据目标对象的深度信息,得到的位置信息以及所述目标对象的轮廓,所述位置信息表征目标对象在显示屏幕的第一侧,所述显示屏幕的第二侧用于输出显示内容;基于所述位置信息分析确定所述目标对象的轮廓对应于显示屏幕的目标区域,所述显示屏幕的透光率大于预设值;基于所述轮廓以及所述目标区域对于虚拟内容进行处理,生成待显示图像,所述虚拟内容用于在所述显示屏幕输出;控制所述显示屏幕输出所述待显示图像。本方案中,位于显示屏幕第一侧的目标对象的影像,能够透过显示屏幕呈现,而且该目标对象在显示屏幕中目标区域对应呈现的轮廓,与该显示屏幕中显示的虚拟内容进行处理生成待显示图像,该待显示图像是基于该轮廓以及虚拟内容生成,该虚拟内容受到轮廓的影响,无需用户手动触控显示屏幕,操作以及响应方式更加灵活。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1是本申请提供的一种信息处理方法实施例1的流程图;
图2是本申请提供的一种信息处理方法实施例1中场景示意图;
图3是本申请提供的一种信息处理方法实施例2的流程图;
图4是本申请提供的一种信息处理方法实施例2中场景示意图;
图5是本申请提供的一种信息处理方法实施例3的流程图;
图6是本申请提供的一种信息处理方法实施例3中待显示图像的示意图;
图7是本申请提供的一种信息处理方法实施例4的流程图;
图8是本申请提供的一种信息处理方法实施例4中待显示图像的示意图;
图9是本申请提供的一种信息处理方法实施例5的流程图;
图10是本申请提供的一种信息处理方法实施例5中待显示图像的示意图;
图11是本申请提供的一种信息处理方法实施例6的流程图;
图12是本申请提供的一种信息处理方法实施例6中待显示图像的示意图;
图13是本申请提供的一种信息处理方法实施例7的流程图;
图14是本申请提供的一种信息处理方法实施例7中场景示意图;
图15是本申请提供的一种信息处理方法实施例7中待显示图像的示意图;
图16是本申请提供的一种信息处理装置实施例的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
如图1所示的,为本申请提供的一种信息处理方法实施例1的流程图,该方法应用于一电子设备,该方法包括以下步骤:
步骤S101:根据目标对象的深度信息,得到的位置信息以及所述目标对象的轮廓;
其中,所述位置信息表征目标对象在显示屏幕的第一侧,所述显示屏幕的第二侧用于输出显示内容。
其中,所述显示屏幕的透光率大于预设值。
其中,该目标对象可以是人体、动物或者是其他对象,该目标对象可以是能够移动的物体,也可以是静止的物体,本申请中不对于该目标对象的具体形式做限制。
其中,根据该目标对象的深度信息,分析得到位置信息以及该目标对象的轮廓。
其中,该轮廓是目标对象的外形轮廓。
具体的,当该目标对象是人或者动物等时,该轮廓包括骨骼和外形轮廓信息。
具体的,显示屏幕可以采用全息投影屏或者是透明显示器,该显示屏幕的透光率大于预设值,在显示屏幕的一侧能够透过该显示屏幕看到另一侧的物体等。
如图2所示的,是本实施例中提供的信息处理方法的场景示意图,包括目标对象201和显示屏幕202,其中,该目标对象在显示屏幕的第一侧,该显示屏幕的第二侧用于输出显示内容。观众或者图像采集设备可以设置在显示屏幕的第二侧外的区域,如图2中,观众203透过显示屏幕能够看到该目标对象。
步骤S102:基于所述位置信息分析确定所述目标对象的轮廓对应于显示屏幕的目标区域;
其中,该深度信息可以是深度数据采集模组采集得到的该目标对象的深度数据,相应的,该位置信息是基于该深度信息分析得到的。
其中,该目标对象位置固定时,该目标对象与显示屏幕的位置固定,该深度数据采集模组与目标对象的位置可以基于采集的深度数据分析确定。
具体的,本步骤包括:
建立所述深度数据采集模组与所述显示屏幕的坐标系转换关系;
基于所述坐标系转换关系,将所述目标对象的轮廓信息从深度数据采集模组坐标系转换为显示屏幕的坐标系,得到所述目标对象的轮廓信息在显示屏幕中对应的目标区域。
具体的,该深度数据采集模组与显示屏幕之间的坐标系转换关系可以是基于目标对象标定的,也可以是基于设置在显示屏幕的中央位置的中心标定物进行标定的。
而且,可以是基于图像采集模组采集的图像自动标定,也可以是基于工作人员肉眼标定。
其中,采用目标对象手动标定的过程如下:
获取深度数据采集模组采集得到的所述显示屏幕的深度数据;
选择所述显示屏幕的深度数据中的三个像素建立所述显示屏幕的第一平面坐标系,以所述三个像素组成三角形的中心为原点的第一平面坐标系,水平方向作为X轴、竖直方向作为Y轴;
基于所述深度数据采集模组的光心位置为原点建立第二坐标系,水平方向作为X轴、竖直方向作为Y轴、垂直所述横轴纵轴所在平面的方向作为Z轴,所述第一平面坐标系的原点、X轴、Y轴分别与所述第二坐标系的原点、X轴、Y轴对应;
基于第一平面坐标系和第二坐标系的对应关系,将目标对象的轮廓投影到显示屏幕中,工作人员通过肉眼观察目标对象的投影和目标对象透明显示屏幕的影像是否重合,如果不重叠的话,通过调整显示屏幕中显示该轮廓的角度和大小,以使得二者重合,该过程实现深度数据采集模组的坐标系与显示屏幕以中心点为原点的第三坐标系之间的坐标系转换关系。
由于目标对象透过显示屏幕的影像是以显示屏幕中的第三坐标系为基准的,所以,调整该显示屏幕中显示轮廓的大小和角度,实现了调整深度数据采集模组与显示屏幕中第三坐标系之间对应关系,即坐标系转换关系。
其中,采用目标对象自动标定的过程如下:
获取深度数据采集模组采集得到的所述显示屏幕的深度数据;
选择所述显示屏幕的深度数据中的三个像素建立所述显示屏幕的第一平面坐标系,以所述三个像素组成三角形的中心为原点的第一平面坐标系,水平方向作为X轴、竖直方向作为Y轴;
基于所述深度数据采集模组的光心位置为原点建立第二坐标系,水平方向作为X轴、竖直方向作为Y轴、垂直所述横轴纵轴所在平面的方向作为Z轴,所述第一平面坐标系的原点、X轴、Y轴分别与所述第二坐标系的原点、X轴、Y轴对应;
以所述显示屏幕中心位置为原点建立第三坐标系原点,水平方向作为X轴、竖直方向作为Y轴、垂直所述显示屏幕平面的方向为Z轴;
获取第一图像,所述第一图像包括基于所述第一坐标系在显示屏幕中显示的目标对象的轮廓影像与目标对象透过显示屏幕的第一影像;
基于所述轮廓影像与所述第一影像的区别,确定所述第一平面坐标系与所述第三坐标系的差距,所述差距包括距离、方向和旋转角度;
基于所述差距建立所述第二坐标系与第三坐标系的第一坐标转换关系,所述第一坐标转换关系是深度数据采集模组与所述显示屏幕的坐标系转换关系。
其中,自动标定过程中,在显示屏幕的第二侧设置有图像采集模组,能够对于显示屏幕显示的轮廓以及目标对象透过显示屏幕的影像采集。
基于第一平面坐标系和第二坐标系具有对应关系,将目标对象的轮廓投影到显示屏幕中,基于该图像采集模组采集的第一图像,分析确定该目标对象的轮廓与目标对象透过显示屏幕的影像的区别,通过自动调整实现二者之间的区别消除,即二者重合,实现了调整深度数据采集模组与显示屏幕中第三坐标系之间对应关系,即坐标系转换关系。
其中,采用中心标定物进行标定的过程如下:
获取目标对象的位置信息以及轮廓信息之前,获取所述显示屏幕的检测图像,所述检测图像是图像采集模组从显示屏幕的第二侧采集的图像,所述显示屏幕的中心位置绘制标定标识;
以所述显示屏幕中心位置为原点建立第四坐标系,水平方向作为X轴、竖直方向作为Y轴、垂直所述显示屏幕平面的方向为Z轴;
基于所述深度数据采集模组的光心位置为原点建立第五坐标系,原点、水平方向作为X轴、竖直方向作为Y轴、垂直所述横轴纵轴所在平面的方向作为Z轴;
基于所述检测图像中所述标定标识与所述第五坐标系原点的距离,确定所述第一平面坐标系与所述第三坐标系的差距,所述差距包括距离、方向和旋转角度;
基于所述差距建立第四坐标系与第五坐标系的第二坐标转换关系,所述第二坐标转换关系是深度数据采集模组与所述显示屏幕的坐标系转换关系。
步骤S103:基于所述轮廓以及所述目标区域对于虚拟内容进行处理,生成待显示图像;
其中,所述虚拟内容用于在所述显示屏幕输出。
其中,经过步骤S102能够确定该目标对象的轮廓与显示屏幕的目标区域对应,即显示屏幕的第二侧看来,该目标对象与显示屏幕中的目标区域重合。
其中,显示屏幕中还显示虚拟内容,该虚拟内容与目标对象进行交互,具体的,是与该显示屏幕中目标区域对应的目标对象进行交互。
具体的,将该目标对象的轮廓以及该目标区域对于虚拟内容进行处理,生成待显示图像。
其中,该虚拟内容是由一帧图像形成,则生成的待显示图像可以是一帧图像;该虚拟内容是由多帧内容连续的图像形成时,相应的,基于该虚拟内容生成的待显示图像也是多帧内容连续的图像。
步骤S104:控制所述显示屏幕输出所述待显示图像。
其中,该待显示图像是一帧时,显示屏幕中输出该一帧待显示图像。
其中,该待显示图像包括多帧内容连续的图像时,显示屏幕中输出待显示图,形成连续的动态效果。
综上,本实施例提供的一种信息处理方法,包括:根据目标对象的深度信息,得到的位置信息以及所述目标对象的轮廓,所述位置信息表征目标对象在显示屏幕的第一侧,所述显示屏幕的第二侧用于输出显示内容;基于所述位置信息分析确定所述目标对象的轮廓对应于显示屏幕的目标区域,所述显示屏幕的透光率大于预设值;基于所述轮廓以及所述目标区域对于虚拟内容进行处理,生成待显示图像,所述虚拟内容用于在所述显示屏幕输出;控制所述显示屏幕输出所述待显示图像。本方案中,位于显示屏幕第一侧的目标对象的影像,能够透过显示屏幕呈现,而且该目标对象在显示屏幕中目标区域对应呈现的轮廓,与该显示屏幕中显示的虚拟内容进行处理生成待显示图像,该待显示图像是基于该轮廓以及虚拟内容生成,该虚拟内容受到轮廓的影响,无需用户手动触控显示屏幕,操作以及响应方式更加灵活。
如图3所示的,为本申请提供的一种信息处理方法实施例2的流程图,该方法包括以下步骤:
步骤S301:获取深度数据采集模组采集得到的所述目标对象的深度数据;
具体的,该深度数据采集模组设置于目标对象远离显示屏幕的一侧。
其中,深度数据采集模组具体采用深度摄像头,在其图像采集范围内进行深度图像采集,得到深度图,目标对象在其图像采集范围内。
具体的,该深度图中包括若干像素,每个像素的灰度值表示了距离深度数据采集模组的距离。
如图4所示的是本实施例中提供的信息处理方法的场景示意图,包括深度摄像头401、目标对象402和显示屏幕403。其中,目标对象在深度摄像头的图像采集范围内,该深度摄像头采集得到该目标对象的深度数据。
步骤S302:基于所述深度数据分析得到所述目标对象的轮廓;
其中,基于该深度数据分析得到该目标对象的轮廓。
作为一个示例,基于深度摄像头采集的深度图进行处理得到灰度图,每个像素的灰度值表示了相应位置与深度摄像头的距离,将灰度图二值化,得到背景与目标物体轮廓分离的二值图;使用连通域对所述二值图中目标物体进行标记,将目标物体轮廓的深度坐标集合提取出来;将目标物体轮廓的深度坐标集合转化为点云数据集,即实现得到该目标对象的轮廓。
当然,本申请不限制采用该示例中的方式,具体实施中,还可以采用其他的方式对于深度数据进行分析得到目标对象的轮廓。
步骤S303:基于所述深度数据以及所述深度数据采集模组和所述显示屏幕的相对位置关系,分析得到所述目标对象的位置信息;
其中,该目标对象的位置信息包括了该目标对象与显示屏幕的相对位置以及距离等信息。
其中,该深度数据采集模组和显示屏幕的相对位置关系固定,即二者之间的距离固定。
而且,基于该深度数据能够分析得到该目标对象与深度数据采集模组之间的相对位置。
具体的,基于该目标对象与深度数据采集模组之间的相对位置以及该深度数据采集模组和显示屏幕的相对位置关系,能够分析得到该目标对象相对于显示屏幕的位置信息。
其中,后续确定目标对象的轮廓对应于显示屏幕的目标区域中,涉及到目标对象与显示屏幕的相对位置以及距离等信息。
具体实施中,该深度摄像头的位置固定、目标对象的位置固定、显示屏幕的位置固定,所以,在三个位置固定的情况看下,仅需要一次进行分析得到该目标对象的位置信息的过程。
但是,三者位置中的任一个发生变化,需要重新分析得到该目标对象的位置信息的过程,以及后续确定该目标对象的轮廓对应于显示屏幕的目标区域的过程。
步骤S304:基于所述位置信息分析确定所述目标对象的轮廓对应于显示屏幕的目标区域;
步骤S305:基于所述轮廓以及所述目标区域对于虚拟内容进行处理,生成待显示图像;
步骤S306:控制所述显示屏幕输出所述待显示图像。
其中,步骤S304-306与实施例1中的步骤S102-104一致,本实施例中不做赘述。
综上,本实施例提供的一种信息处理方法中,该根据目标对象的深度信息,得到的位置信息以及轮廓,包括:获取深度数据采集模组采集得到的所述目标对象的深度数据;基于所述深度数据分析得到所述目标对象的轮廓;基于所述深度数据以及所述深度数据采集模组和所述显示屏幕的相对位置关系,分析得到所述目标对象的位置信息。本方案中,基于深度数据采集模组采集得到的目标对象的深度数据,能够分析得到该目标对象的轮廓以及该目标对象相对于显示屏幕的位置信息,仅需一张深度图作为原始数据进行分析得到,数据采集难度小,方案易实现。
如图5所示的,为本申请提供的一种信息处理方法实施例3的流程图,该方法包括以下步骤:
步骤S501:获取深度数据采集模组采集得到的所述目标对象的深度数据;
步骤S502:基于所述深度数据分析得到所述目标对象的轮廓;
步骤S503:基于所述深度数据以及所述深度数据采集模组和所述显示屏幕的相对位置关系,分析得到所述目标对象的位置信息;
步骤S504:基于所述位置信息分析确定所述目标对象的轮廓对应于显示屏幕的目标区域;
其中,步骤S401-404与实施例2中的步骤S301-304一致,本实施例中不做赘述。
步骤S505:分析所述虚拟内容的移动路线;
其中,本实施例中,该虚拟内容是由多帧内容连续的图像组合形成。
具体的,基于该多帧内容连续的图像分析该虚拟内容的移动路线,例如,该虚拟内容为从上到下自由落体的小球,相应的,其移动路线是从上向下移动。
需要说明的是,该移动路线是能够在显示屏幕中显示的,而待输出图像是与显示屏幕对应的,所以,本步骤中,是对于虚拟内容在待输出图像中的移动路线。
步骤S506:基于所述移动路线与所述轮廓在第一位置发生交叉,在所述第一位置调整所述虚拟内容的移动方向;
其中,可以基于深度数据采集模组与所述显示屏幕的坐标系转换关系,确定目标对象对应待显示图像中的第一区域。
其中,目标对象的轮廓在待输出图像中的第一区域,虚拟内容的移动路线与该轮廓在待输出图像的第一位置发生交叉,则基于该目标对象的特性和该虚拟内容的特性调整该虚拟内容的移动方向。
作为一个示例,该目标对象是人,虚拟内容是弹性小球,则二者接触时,弹性小球会在接触点发生路线变化弹出。
作为一个示例,该目标对象是人,虚拟内容是水滴,则二者接触时,水滴会被人的衣服吸收,不发生弹出的情况。
其中,目标对象的特性和虚拟内容的特性可以根据实际情况设置,调整虚拟内容的移动方向也可以根据实际情况设置,本申请中不对于二者的特性以及调整的方式做限制。
步骤S507:控制在所述待显示图像中第一区域生成所述轮廓,并依据所述虚拟内容以及虚拟内容的移动方向生成待显示图像,所述待显示图像中第一区域与显示屏幕的目标区域对应;
其中,在待显示图像的第一区域生成轮廓,相应的,在待显示图像中生成该虚拟内容并且在待显示图像中以多帧连续内容的方式实现该虚拟内容的移动。
如图6所示的是待显示图像的示意图,其中,目标对象是人,该第一区域601具有人的轮廓,虚拟内容是小球ABC。其中,部分小球未与人接触,部分小球与人的轮廓接触且停留在人的胳膊上,改变了小球下落的方向。
需要说明的是,在显示屏幕中显示生成的该待显示图像时,该目标对象的轮廓所在的第一区域是空白的,处于显示屏幕第一侧的目标对象透过显示屏幕被处于第二侧的观众看到目标对象与该第一区域重合,或者图像采集模组采集到的图像中,该目标对象与该第一区域重合,因此视觉效果上是由该目标对象与该虚拟对象互动,而该目标对象并未与显示屏幕接触。
步骤S508:控制所述显示屏幕输出所述待显示图像。
其中,步骤S508与实施例3中的步骤S306一致,本实施例中不做赘述。
综上,本实施例提供的一种信息处理方法中,该基于所述轮廓以及所述目标区域对于虚拟内容进行处理,生成待显示图像包括:分析所述虚拟内容的移动路线;基于所述移动路线与所述轮廓在第一位置发生交叉,在所述第一位置调整所述虚拟内容的移动方向;控制在所述待显示图像中第一区域生成所述轮廓,并依据所述虚拟内容以及虚拟内容的移动方向生成待显示图像,所述待显示图像中第一区域与显示屏幕的目标区域对应。本方案中,基于目标对象的轮廓对于移动的虚拟内容进行处理,以使得生成的待显示图像中,目标对象的轮廓所在的第一区域是空白的,处于显示屏幕第一侧的目标对象透过显示屏幕被处于第二侧的观众看到目标对象与该第一区域重合,或者图像采集模组采集到的图像中,该目标对象与该第一区域重合,因此视觉效果上是由该目标对象与该虚拟对象互动,解放了目标对象的双手,无需与显示屏幕接触,操作以及响应方式更加灵活。
如图7所示的,为本申请提供的一种信息处理方法实施例4的流程图,该方法包括以下步骤:
步骤S701:获取深度数据采集模组采集得到的所述目标对象的深度数据;
步骤S702:基于所述深度数据分析得到所述目标对象的轮廓;
步骤S703:基于所述深度数据以及所述深度数据采集模组和所述显示屏幕的相对位置关系,分析得到所述目标对象的位置信息;
步骤S704:基于所述位置信息分析确定所述目标对象的轮廓对应于显示屏幕的目标区域;
其中,步骤S701-704与实施例2中的步骤S301-304一致,本实施例中不做赘述。
步骤S705:控制在所述待显示图像中第一区域生成所述轮廓,所述待显示图像中第一区域与显示屏幕的目标区域对应;
其中,可以基于深度数据采集模组与所述显示屏幕的坐标系转换关系,组确定的目标对象对应待显示图像中的第一区域。
步骤S706:将所述虚拟内容填充所述第一区域,得到待显示图像;
其中,本实施例中,该虚拟内容可以是由一帧图像实现,也可以是由多帧内容连续的图像组合形成。
具体的,在待显示图像中与该目标对象所在区域填充虚拟内容,以使得该目标对象本身具有虚拟内容的效果。
例如,该虚拟内容可以是动态的多帧图像实现,也可以是静态的图片实现。
具体的,待显示图像中第一区域与显示屏幕的目标区域对应,在待显示图像的第一区域生成该目标对象的轮廓,将该虚拟内容填充该第一区域,得到待显示图像。
需要说明的是,在显示屏幕中显示生成的该待显示图像时,该目标对象的轮廓所在的第一区域填充虚拟内容,处于第二侧的观众看到目标对象与该第一区域重合,因此视觉效果上是由该目标对象与该虚拟对象互动,而该目标对象并未与显示屏幕接触。
如图8所示的是待显示图像的示意图,其中,目标对象是人,该第一区域801具有人的轮廓,虚拟内容是火焰802。其中,该第一区域中填充虚拟内容。在显示屏幕的第二侧的观众看到该目标对象与火焰重合,在视觉感受上该目标对象成为一个“火人”。
需要说明的是,当该虚拟内容是由多帧内容连续的图像组成的动态虚拟内容时,可以对应生成多帧待显示内容,该多帧待显示内容组成内容动态的虚拟内容。
步骤S707:控制所述显示屏幕输出所述待显示图像。
其中,步骤S707与实施例3中的步骤S306一致,本实施例中不做赘述。
综上,本实施例提供的一种信息处理方法中,该基于所述轮廓以及所述目标区域对于虚拟内容进行处理,生成待显示图像包括:控制在所述待显示图像中第一区域生成所述轮廓,所述待显示图像中第一区域与显示屏幕的目标区域对;将所述虚拟内容填充所述第一区域,得到待显示图像。本方案中,在待显示图像的第一区域生成目标对象的轮廓,并将虚拟内容填充该第一区域,以使得在显示屏幕的第二侧的观众看到该目标对象与虚拟内容重合,在视觉感受上该目标对象布满虚拟内容,该过程中,目标对象无需与显示屏幕接触,操作以及响应方式更加灵活。
如图9所示的,为本申请提供的一种信息处理方法实施例5的流程图,该方法包括以下步骤:
步骤S901:获取深度数据采集模组采集得到的所述目标对象的深度数据;
步骤S902:基于所述深度数据分析得到所述目标对象的轮廓;
步骤S903:基于所述深度数据以及所述深度数据采集模组和所述显示屏幕的相对位置关系,分析得到所述目标对象的位置信息;
步骤S904:基于所述位置信息分析确定所述目标对象的轮廓对应于显示屏幕的目标区域;
其中,步骤S901-904与实施例2中的步骤S301-304一致,本实施例中不做赘述。
步骤S905:基于分析得到所述虚拟内容与所述轮廓重叠,选择所述虚拟内容中重叠部分;
其中,可以基于深度数据采集模组与所述显示屏幕的坐标系转换关系,组确定的目标对象对应待显示图像中的第一区域。
其中,该虚拟内容是由多帧内容连续的图像组合而成。
例如,该虚拟内容是在多帧待输出图像中形成连续移动位置的动态虚拟内容。
具体的,该目标对象的轮廓在待输出图像中第一区域生成,该虚拟内容在待输出图像中存在与该轮廓发生重叠的区域,在虚拟内容中选择发生重叠的部分。
步骤S906:将所述重叠部分的显示参数从第一参数调整到第二参数,非重叠部分的显示参数采用第一参数;
其中,该虚拟内容的显示参数采用第一参数。
其中,虚拟内容与目标对象的轮廓发生重叠时,非重叠的部分的显示参数不变,而重叠部分的显示参数调整为第二参数。
具体的,该显示参数可以是像素值,如RGB(red-green-blue,三原色)的取值,以使得两个部分显示有区别。
步骤S907:控制在所述待显示图像中第一区域生成所述轮廓,并依据所述重叠部分和所述非重叠部分组合得到虚拟内容,将所述虚拟内容与所述轮廓叠加生成待显示图像,所述待显示图像中第一区域与显示屏幕的目标区域对应;
其中,可以基于深度数据采集模组与所述显示屏幕的坐标系转换关系,组确定的目标对象对应待显示图像中的第一区域。
其中,在待显示图像的第一区域生成轮廓,并将该重叠部分和非重叠部分组合得到虚拟内容。
具体的,由于该虚拟内容中的重叠部分和非重叠部分显示参数不同,使得在该待显示图像在显示屏幕中输出时,在处于显示屏幕第二侧的观众看来该虚拟内容能够跟随目标对象的轮廓变化。
如图10所示的是待显示图像的示意图,其中,目标对象是人,该第一区域1001具有人的轮廓,虚拟内容是扫描的条形光线802。其中,该第一区域中未显示人的影像,而是空白的,在显示屏幕的第二侧的观众能够透过显示屏幕看到位于第一侧的人,而且能够看到该条形光线移动,经过人的轮廓时,重叠区域803的颜色变化,该目标对象与条形光线发生重叠,在视觉感受上对于该目标对象进行扫描。其
步骤S908:控制所述显示屏幕输出所述待显示图像。
其中,步骤S908与实施例3中的步骤S306一致,本实施例中不做赘述。
综上,本实施例提供的一种信息处理方法中,该基于所述轮廓以及所述目标区域对于虚拟内容进行处理,生成待显示图像包括:基于分析得到所述虚拟内容与所述轮廓重叠,选择所述虚拟内容中重叠部分;将所述重叠部分的显示参数从第一参数调整到第二参数,非重叠部分的显示参数采用第一参数;控制在所述待显示图像中第一区域生成所述轮廓,并依据所述重叠部分和所述非重叠部分组合得到虚拟内容,将所述虚拟内容与所述轮廓叠加生成待显示图像,所述待显示图像中第一区域与显示屏幕的目标区域对应。本方案中,虚拟内容与目标对象的轮廓发生重叠,重叠部分与非重叠部分的显示参数不同,在显示屏幕的第二侧的观众能够透过显示屏幕看到位于第一侧的目标对象与该虚拟内容重叠部分与虚拟内容的非重叠部分显示不同,而且该虚拟内容移动时,其与目标对象的重叠部分发生变化,实现该虚拟内容经过该目标对象前面的效果,该过程中,目标对象无需与显示屏幕接触,操作以及响应方式更加灵活。
如图11所示的,为本申请提供的一种信息处理方法实施例6的流程图,该方法包括以下步骤:
步骤S1101:获取深度数据采集模组采集得到的所述目标对象的深度数据;
步骤S1102:基于所述深度数据分析得到所述目标对象的轮廓;
步骤S1103:基于所述深度数据以及所述深度数据采集模组和所述显示屏幕的相对位置关系,分析得到所述目标对象的位置信息;
步骤S1104:基于所述位置信息分析确定所述目标对象的轮廓对应于显示屏幕的目标区域;
其中,步骤S1101-1104与实施例2中的步骤S301-304一致,本实施例中不做赘述。
步骤S1105:控制在所述待显示图像中第一区域生成所述轮廓,所述待显示图像中第一区域与显示屏幕的目标区域对应;
其中,可以基于深度数据采集模组与所述显示屏幕的坐标系转换关系,组确定的目标对象对应待显示图像中的第一区域。
步骤S1106:将第一虚拟内容填充所述第一区域,将第二虚拟内容填充所述待显示图像中第二区域,得到待显示图像;
其中,所述第二区域是所述待显示图像中除第一区域的区域,所述第一虚拟内容与所述第二虚拟内容不同;
其中,本实施例中,该虚拟内容可以是由一帧图像实现,也可以是由多帧内容连续的图像组合形成。
具体的,在待显示图像中与该目标对象所在第一区域填充第一虚拟内容,在待显示图像中除了第一区域的第二区域填充第二虚拟内容。
基于在待显示图像中的两个区域填充不同的虚拟内容,在该待显示图像在显示屏幕中显示时,处于第二侧的观众看到目标对象与该第一区域重合,目标对象所在区域是第一虚拟效果,而其他区域是第二虚拟效果,因此视觉效果上是该目标对象与其他区域的效果不同,而该过程中目标对象并未与显示屏幕接触。
如图12所示的是待显示图像的示意图,其中,目标对象是人,该第一区域1201具有人的轮廓,第一虚拟内容是将该人冰冻,第二虚拟内容是冰冻。其中,该第一区域中填充将人冰冻的效果,而其他区域1202中是普通的冰冻效果。在显示屏幕的第二侧的观众看到该目标对象与将人冰冻的效果重合,在视觉感受上该目标对象成为一个被冰冻在大冰块中的人。在该图12中,采用斜线表示人冰冻效果,采用细密的点阵表示普通的冰冻效果。
需要说明的是,当虚拟内容是由多帧内容连续的图像组成的动态虚拟内容时,可以对应生成多帧待显示内容,该多帧待显示内容组成内容动态的虚拟内容。相对应的,冰冻效果可以是渐变的过程。
步骤S1107:控制所述显示屏幕输出所述待显示图像。
其中,步骤S1107与实施例3中的步骤S306一致,本实施例中不做赘述。
综上,本实施例提供的一种信息处理方法中,该基于所述轮廓以及所述目标区域对于虚拟内容进行处理,生成待显示图像包括:控制在所述待显示图像中第一区域生成所述轮廓,所述待显示图像中第一区域与显示屏幕的目标区域对应;将第一虚拟内容填充所述第一区域,将第二虚拟内容填充所述待显示图像中第二区域,得到待显示图像,所述第二区域是所述待显示图像中除第一区域的区域,所述第一虚拟内容与所述第二虚拟内容不同。本方案中,在待显示图像的第一区域生成目标对象的轮廓,并将第一虚拟内容填充该第一区域,第二虚拟内容充满待显示图像的其他区域,以使得在显示屏幕的第二侧的观众看到该目标对象与第一虚拟内容重合,在视觉感受上该目标对象布满虚拟内容,且与其他区域的虚拟效果融为一体。该过程中,目标对象无需与显示屏幕接触,操作以及响应方式更加灵活。
如图13所示的,为本申请提供的一种信息处理方法实施例7的流程图,该方法包括以下步骤:
步骤S1301:根据目标对象的深度信息,得到的位置信息以及所述目标对象的轮廓;
步骤S1302:基于所述位置信息分析确定所述目标对象的轮廓对应于显示屏幕的目标区域;
步骤S1303:基于所述轮廓以及所述目标区域对于虚拟内容进行处理,生成待显示图像;
其中,步骤S1301-1303与实施例1中的步骤S101-103一致,本实施例中不做赘述。
步骤S1304:分析所述轮廓得到所述目标对象的预设部分;
其中,所述显示屏幕是投影屏幕,所述投影屏幕的投影装置设备于所述投影屏幕的第二侧。
如图14所示的是本实施例中提供的投影场景示意图,包括目标对象1401、投影屏幕1402和投影装置1403,其中,该目标对象在投影屏幕的第一侧,该投影屏幕的第二侧用于输出显示内容,投影装置设置在投影屏幕的第二侧,投影装置将投影内容向投影屏幕的第二侧输出,以使得处于投影屏幕第二侧的观众能够视觉感知到该投影屏幕中显示的内容。但是,由于该投影屏幕的透光率较高,即该投影屏幕是透明或者半透明的,而目标对象在投影屏幕后与投影屏幕中的显示内容交互时,会看向该投影屏幕,该投影光线会直接射入目标对象的眼部,导致对于目标对象的眼睛产生眩目等影响。
所以,本实施例的方案中,是为了避免该情况的产生。
具体的,分析该目标对象的轮廓得到该目标对象的预设部分,该预设部分可以是头颈部、头部或者是眼部等。
步骤S1305:在待显示图像中分析确定第三区域,所述第三区域是所述轮廓中与所述目标对象的预设部分对应的区域;
基于该确定的目标对象的预设部分,对应的在待显示图像中确定该预设部分对应的第三区域。
需要说明的是,该待显示图像在投影屏幕中输出时,该第三区域与目标对象的预设部分对应,即投影光线通过该待显示图像的第三区域射到目标对象的预设部分。
步骤S1306:基于预设图像处理所述待显示图像中的第三区域,得到待输出图像;
其中,该预设图像可以是单一颜色的图像,甚至的颜色较深的图像,以使得较少的光线穿透投影屏幕射入目标对象的预设部分。
具体的,将该预设图像填充该第三区域,以使得该待输出图像在投影屏幕中输出时,较少的光线能够穿透该第三区域,以减少射入目标对象预设部分的光线。
其中,电子设备中可以预设多种图像,基于情况选择不同的预设图像填充该第三区域。
如图15所示的是待显示图像的示意图,其中,目标对象是人,该第一区域1501具有人的轮廓,虚拟内容是火焰1502。其中,该第一区域中填充虚拟内容火焰,在该目标对象的眼睛对应的第三区域1503显示黑色,为了保护目标对象的眼睛。
步骤S1307:控制所述显示屏幕输出所述待输出图像。
其中,步骤S1307与实施例1中的步骤S104一致,本实施例中不做赘述。
综上,本实施例提供的一种信息处理方法中,还包括:分析所述轮廓得到所述目标对象的预设部分;在待显示图像中分析确定第三区域,所述第三区域是所述轮廓中与所述目标对象的预设部分对应的区域;基于预设图像处理所述待显示图像中的第三区域,得到待输出图像。本方案中,在待显示图像中,对于目标对象的预设部分对应的第三区域采用预设图像处理,以减少投射到目标对象预设部分的光线,保护目标对象的安全。
与上述本申请提供的一种信息处理方法实施例相对应的,本申请还提供了应用该信息处理方法的装置实施例。
如图16所示的为本申请提供的一种信息处理装置实施例的结构示意图,该装置包括以下结构:轮廓单元1601、分析单元1602和处理单元1603;
其中,该轮廓单元1601,用于根据目标对象的深度信息,得到的位置信息以及所述目标对象的轮廓,所述位置信息表征目标对象在显示屏幕的第一侧,所述显示屏幕的第二侧用于输出显示内容;
其中,该分析单元1602,用于基于所述位置信息分析确定所述目标对象的轮廓对应于显示屏幕的目标区域,所述显示屏幕的透光率大于预设值;
其中,该处理单元1603,用于基于所述轮廓以及所述目标区域对于虚拟内容进行处理,生成待显示图像,所述虚拟内容用于在所述显示屏幕输出;控制所述显示屏幕输出所述待显示图像。
可选的,分析单元具体用于:
获取深度数据采集模组采集得到的所述目标对象的深度数据;
基于所述深度数据分析得到所述目标对象的轮廓;
基于所述深度数据以及所述深度数据采集模组和所述显示屏幕的相对位置关系,分析得到所述目标对象的位置信息。
可选的,处理单元具体用于:
分析所述虚拟内容的移动路线;
基于所述移动路线与所述轮廓在第一位置发生交叉,在所述第一位置调整所述虚拟内容的移动方向;
控制在所述待显示图像中第一区域生成所述轮廓,并依据所述虚拟内容以及虚拟内容的移动方向生成待显示图像,所述待显示图像中第一区域与显示屏幕的目标区域对应。
可选的,处理单元具体用于:
控制在所述待显示图像中第一区域生成所述轮廓,所述待显示图像中第一区域与显示屏幕的目标区域对应;
将所述虚拟内容填充所述第一区域,得到待显示图像。
可选的,处理单元具体用于:
基于分析得到所述虚拟内容与所述轮廓重叠,选择所述虚拟内容中重叠部分;
将所述重叠部分的显示参数从第一参数调整到第二参数,非重叠部分的显示参数采用第一参数;
控制在所述待显示图像中第一区域生成所述轮廓,并依据所述重叠部分和所述非重叠部分组合得到虚拟内容,将所述虚拟内容与所述轮廓叠加生成待显示图像,所述待显示图像中第一区域与显示屏幕的目标区域对应。
可选的,处理单元具体用于:
控制在所述待显示图像中第一区域生成所述轮廓,所述待显示图像中第一区域与显示屏幕的目标区域对应;
将第一虚拟内容填充所述第一区域,将第二虚拟内容填充所述待显示图像中第二区域,得到待显示图像,所述第二区域是所述待显示图像中除第一区域的区域,所述第一虚拟内容与所述第二虚拟内容不同。
可选的,所述显示屏幕是投影屏幕,所述投影屏幕的投影装置设备于所述投影屏幕的第二侧,可选的,处理单元还用于:
分析所述轮廓得到所述目标对象的预设部分;
在待显示图像中分析确定第三区域,所述第三区域是所述轮廓中与所述目标对象的预设部分对应的区域;
基于预设图像处理所述待显示图像中的第三区域,得到待输出图像。
其中,本申请中信息处理装置的各个组成结构的功能参考方法实施例的解释,本实施例中不做赘述。
综上,本实施例提供的一种信息处理装置,包括:轮廓单元,用于根据目标对象的深度信息,得到的位置信息以及所述目标对象的轮廓,所述位置信息表征目标对象在显示屏幕的第一侧,所述显示屏幕的第二侧用于输出显示内容;分析单元,用于基于所述位置信息分析确定所述目标对象的轮廓对应于显示屏幕的目标区域,所述显示屏幕的透光率大于预设值;处理单元,用于基于所述轮廓以及所述目标区域对于虚拟内容进行处理,生成待显示图像,所述虚拟内容用于在所述显示屏幕输出;控制所述显示屏幕输出所述待显示图像。本方案中,位于显示屏幕第一侧的目标对象的影像,能够透过显示屏幕呈现,而且该目标对象在显示屏幕中目标区域对应呈现的轮廓,与该显示屏幕中显示的虚拟内容进行处理生成待显示图像,该待显示图像是基于该轮廓以及虚拟内容生成,该虚拟内容受到轮廓的影响,无需用户手动触控显示屏幕,操作以及响应方式更加灵活。
与上述本申请提供的一种信息处理方法实施例相对应的,本申请还提供了与该信息处理方法相应的电子设备以及可读存储介质。
其中,该电子设备,包括:存储器、处理器;
其中,存储器存储有信息处理程序;
所述处理器用于加载并执行所述存储器存储的所述信息处理程序,以实现如上述任一项所述的信息处理方法的各步骤。
具体该电子设备的实现信息处理方法,参考前述信息处理方法实施例即可。
其中,该可读存储介质,其上存储有计算机程序,所述计算机程序被处理器调用并执行,实现如权利要求上述任一项所述的信息处理方法的各步骤。
具体该可读存储介质存储的计算机程序执行实现信息处理方法,参考前述信息处理方法实施例即可。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例提供的装置而言,由于其与实施例提供的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
对所提供的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所提供的原理和新颖特点相一致的最宽的范围。

Claims (10)

1.一种信息处理方法,包括:
根据目标对象的深度信息,得到的位置信息以及所述目标对象的轮廓,所述位置信息表征目标对象在显示屏幕的第一侧,所述显示屏幕的第二侧用于输出显示内容;
基于所述位置信息分析确定所述目标对象的轮廓对应于显示屏幕的目标区域,所述显示屏幕的透光率大于预设值;
基于所述轮廓以及所述目标区域对于虚拟内容进行处理,生成待显示图像,所述虚拟内容用于在所述显示屏幕输出;
控制所述显示屏幕输出所述待显示图像。
2.根据权利要求1所述的方法,根据目标对象的深度信息,得到的位置信息以及轮廓,包括:
获取深度数据采集模组采集得到的所述目标对象的深度数据;
基于所述深度数据分析得到所述目标对象的轮廓;
基于所述深度数据以及所述深度数据采集模组和所述显示屏幕的相对位置关系,分析得到所述目标对象的位置信息。
3.根据权利要求2所述的方法,所述基于所述轮廓以及所述目标区域对于虚拟内容进行处理,生成待显示图像包括:
分析所述虚拟内容的移动路线;
基于所述移动路线与所述轮廓在第一位置发生交叉,在所述第一位置调整所述虚拟内容的移动方向;
控制在所述待显示图像中第一区域生成所述轮廓,并依据所述虚拟内容以及虚拟内容的移动方向生成待显示图像,所述待显示图像中第一区域与显示屏幕的目标区域对应。
4.根据权利要求2所述的方法,所述基于所述轮廓以及所述目标区域对于虚拟内容进行处理,生成待显示图像包括:
控制在所述待显示图像中第一区域生成所述轮廓,所述待显示图像中第一区域与显示屏幕的目标区域对应;
将所述虚拟内容填充所述第一区域,得到待显示图像。
5.根据权利要求2所述的方法,所述基于所述轮廓以及所述目标区域对于虚拟内容进行处理,生成待显示图像包括:
基于分析得到所述虚拟内容与所述轮廓重叠,选择所述虚拟内容中重叠部分;
将所述重叠部分的显示参数从第一参数调整到第二参数,非重叠部分的显示参数采用第一参数;
控制在所述待显示图像中第一区域生成所述轮廓,并依据所述重叠部分和所述非重叠部分组合得到虚拟内容,将所述虚拟内容与所述轮廓叠加生成待显示图像,所述待显示图像中第一区域与显示屏幕的目标区域对应。
6.根据权利要求2所述的方法,所述基于所述轮廓以及所述目标区域对于虚拟内容进行处理,生成待显示图像包括:
控制在所述待显示图像中第一区域生成所述轮廓,所述待显示图像中第一区域与显示屏幕的目标区域对应;
将第一虚拟内容填充所述第一区域,将第二虚拟内容填充所述待显示图像中第二区域,得到待显示图像,所述第二区域是所述待显示图像中除第一区域的区域,所述第一虚拟内容与所述第二虚拟内容不同。
7.根据权利要求1-6任一项所述的方法,所述显示屏幕是投影屏幕,所述投影屏幕的投影装置设备于所述投影屏幕的第二侧,基于所述轮廓以及所述目标区域对于虚拟内容进行处理,生成待显示图像之后,还包括:
分析所述轮廓得到所述目标对象的预设部分;
在待显示图像中分析确定第三区域,所述第三区域是所述轮廓中与所述目标对象的预设部分对应的区域;
基于预设图像处理所述待显示图像中的第三区域,得到待输出图像。
8.一种信息处理装置,包括:
轮廓单元,用于根据目标对象的深度信息,得到的位置信息以及所述目标对象的轮廓,所述位置信息表征目标对象在显示屏幕的第一侧,所述显示屏幕的第二侧用于输出显示内容;
分析单元,用于基于所述位置信息分析确定所述目标对象的轮廓对应于显示屏幕的目标区域,所述显示屏幕的透光率大于预设值;
处理单元,用于基于所述轮廓以及所述目标区域对于虚拟内容进行处理,生成待显示图像,所述虚拟内容用于在所述显示屏幕输出;控制所述显示屏幕输出所述待显示图像。
9.一种电子设备,包括:存储器、处理器;
其中,存储器存储有信息处理程序;
所述处理器用于加载并执行所述存储器存储的所述信息处理程序,以实现如权利要求1-7任一项所述的信息处理方法的各步骤。
10.一种可读存储介质,其上存储有计算机程序,所述计算机程序被处理器调用并执行,实现如权利要求1-7任一项所述的信息处理方法的各步骤。
CN202111158102.2A 2021-09-30 2021-09-30 一种信息处理方法、装置和电子设备 Pending CN113885703A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111158102.2A CN113885703A (zh) 2021-09-30 2021-09-30 一种信息处理方法、装置和电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111158102.2A CN113885703A (zh) 2021-09-30 2021-09-30 一种信息处理方法、装置和电子设备

Publications (1)

Publication Number Publication Date
CN113885703A true CN113885703A (zh) 2022-01-04

Family

ID=79004458

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111158102.2A Pending CN113885703A (zh) 2021-09-30 2021-09-30 一种信息处理方法、装置和电子设备

Country Status (1)

Country Link
CN (1) CN113885703A (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090027388A1 (en) * 2007-07-25 2009-01-29 Kabushiki Kaisha Square Enix (Also Trading As Square Enix Co., Ltd.) Image generating apparatus, method of generating image, program, and recording medium
CN108022306A (zh) * 2017-12-30 2018-05-11 华自科技股份有限公司 基于增强现实的场景识别方法、装置、存储介质和设备
CN108093201A (zh) * 2018-01-24 2018-05-29 周永业 一种视频会议终端及系统
CN112037314A (zh) * 2020-08-31 2020-12-04 北京市商汤科技开发有限公司 图像显示方法、装置、显示设备及计算机可读存储介质
CN112198963A (zh) * 2020-10-19 2021-01-08 深圳市太和世纪文化创意有限公司 一种沉浸式隧道型多媒体交互展示方法、设备及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090027388A1 (en) * 2007-07-25 2009-01-29 Kabushiki Kaisha Square Enix (Also Trading As Square Enix Co., Ltd.) Image generating apparatus, method of generating image, program, and recording medium
CN108022306A (zh) * 2017-12-30 2018-05-11 华自科技股份有限公司 基于增强现实的场景识别方法、装置、存储介质和设备
CN108093201A (zh) * 2018-01-24 2018-05-29 周永业 一种视频会议终端及系统
CN112037314A (zh) * 2020-08-31 2020-12-04 北京市商汤科技开发有限公司 图像显示方法、装置、显示设备及计算机可读存储介质
CN112198963A (zh) * 2020-10-19 2021-01-08 深圳市太和世纪文化创意有限公司 一种沉浸式隧道型多媒体交互展示方法、设备及存储介质

Similar Documents

Publication Publication Date Title
US8694922B2 (en) Method for displaying a setting menu and corresponding device
EP3035681B1 (en) Image processing method and apparatus
US9451242B2 (en) Apparatus for adjusting displayed picture, display apparatus and display method
US20160307374A1 (en) Method and system for providing information associated with a view of a real environment superimposed with a virtual object
US9838673B2 (en) Method and apparatus for adjusting viewing area, and device capable of three-dimension displaying video signal
EP2509326A2 (en) Analysis of 3D video
CN108780578A (zh) 用于增强现实系统的直接光补偿技术
Berning et al. A study of depth perception in hand-held augmented reality using autostereoscopic displays
JP2007052304A (ja) 映像表示システム
US20180219975A1 (en) Sharing Mediated Reality Content
CN101783967A (zh) 信号处理设备、图像显示设备、信号处理方法和计算机程序
CN108076208B (zh) 一种显示处理方法及装置、终端
TWI520574B (zh) 三維影像裝置和用於顯示影像的方法
CN109901290B (zh) 注视区域的确定方法、装置及可穿戴设备
CN111711811B (zh) Vr图像处理方法、装置、系统、vr设备及存储介质
CN114241168A (zh) 显示方法、显示设备及计算机可读存储介质
RU2768013C2 (ru) Способ и устройство для предоставления информации пользователю, наблюдающему мультивидовое содержание
US20190281280A1 (en) Parallax Display using Head-Tracking and Light-Field Display
EP3236423A1 (en) Method and device for compositing an image
JP2017046065A (ja) 情報処理装置
JP2019047296A (ja) 表示装置、表示方法、制御プログラム、および電子ミラーシステム
JP2023090721A (ja) 画像表示装置、画像表示用プログラム及び画像表示方法
CN113885703A (zh) 一种信息处理方法、装置和电子设备
JP2012083573A (ja) 立体映像処理装置及びその制御方法
CN106774869B (zh) 一种实现虚拟现实的方法、装置及虚拟现实头盔

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination