CN117853572A - 投影控制方法、装置、投影设备以及存储介质 - Google Patents
投影控制方法、装置、投影设备以及存储介质 Download PDFInfo
- Publication number
- CN117853572A CN117853572A CN202211217573.0A CN202211217573A CN117853572A CN 117853572 A CN117853572 A CN 117853572A CN 202211217573 A CN202211217573 A CN 202211217573A CN 117853572 A CN117853572 A CN 117853572A
- Authority
- CN
- China
- Prior art keywords
- projection
- human body
- image
- coordinate system
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 210000000746 body region Anatomy 0.000 claims abstract description 40
- 238000006243 chemical reaction Methods 0.000 claims abstract description 34
- 230000006378 damage Effects 0.000 abstract description 7
- 208000027418 Wounds and injury Diseases 0.000 abstract description 4
- 208000014674 injury Diseases 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 9
- 239000000463 material Substances 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000013519 translation Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000005452 bending Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000010363 phase shift Effects 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/12—Picture reproducers
- H04N9/31—Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
- H04N9/3179—Video signal processing therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Projection Apparatus (AREA)
Abstract
本申请公开了一种投影控制方法、装置、投影设备以及存储介质。该方法通过识别目标图像中的人体区域所在的区域图像;基于深度相机识别区域图像中各个像素点的深度,得到各个像素点在深度相机对应的第一空间坐标系中的第一坐标数据;基于第一空间坐标系与投影设备对应的第二空间坐标系之间的预设转换关系,将第一坐标数据转换为第二空间坐标系中的第二坐标数据;基于第二坐标数据,降低投影设备针对人体区域的投射亮度。通过深度相机采集的投影区域的图像以及深度相机识别的深度,确定人体区域对应于投影设备的投影坐标系中的第二坐标数据,实现了对投影区域中的人体区域的动态遮罩,避免了投影光源对人体产生影响和伤害。
Description
技术领域
本申请涉及数字投影技术领域,更具体地,涉及一种投影控制方法、装置、投影设备以及存储介质。
背景技术
随着显示技术的不断发展,投影显示在人们的工作生活中越来越多的被使用,微型投影机呈井喷式增长,投影机成了办公会议、商务演讲中不可或缺的产品。但投影设备的原理决定了其必然具有一个明亮的光源,这个光源的亮度远远超过了人眼能够直视的亮度,且该光源照射在反光物体上会产生强烈的反射,可以透过轻薄物体表面。在这样的情况下,若演讲者站在投影机前,那么演讲过程中,就不可避免的会走入投影画面中,使脸部直视投影机,对演讲者的眼睛产生伤害;若演讲者穿着衣物较为轻薄,那么在投影机较为强烈的投影光源的照射下,演讲者的隐私无法得到保护。
发明内容
鉴于上述问题,本申请提出了一种投影控制方法、装置、投影设备以及存储介质,以实现对投影区域中的人体区域的动态遮罩。
第一方面,本申请实施例提供了一种投影控制方法,所述方法包括:识别目标图像中的人体区域所在的区域图像,所述目标图像为深度相机针对所述投影设备的投影区域采集的图像;基于所述深度相机识别所述区域图像中各个像素点的深度,得到所述各个像素点在所述深度相机对应的第一空间坐标系中的第一坐标数据;基于所述第一空间坐标系与所述投影设备对应的第二空间坐标系之间的预设转换关系,将所述第一坐标数据转换为所述第二空间坐标系中的第二坐标数据,所述第二空间坐标系为所述投影设备的投影坐标系;基于所述第二坐标数据,调整所述投影设备针对所述人体区域的投射亮度。
第二方面,本申请实施例提供了一种投影控制装置,所述装置包括:区域识别模块、深度获取模块、坐标转换模块以及亮度调整模块,其中,所述区域识别模块用于识别目标图像中的人体区域所在的区域图像,所述目标图像为深度相机针对所述投影设备的投影区域采集的图像;所述深度获取模块用于基于所述深度相机识别所述区域图像中各个像素点的深度,得到所述各个像素点在所述深度相机对应的第一空间坐标系中的第一坐标数据;所述坐标转换模块用于基于所述第一空间坐标系与所述投影设备对应的第二空间坐标系之间的预设转换关系,将所述第一坐标数据转换为所述第二空间坐标系中的第二坐标数据,所述第二空间坐标系为所述投影设备的投影坐标系;所述亮度调整模块用于基于所述第二坐标数据,降低所述投影设备针对所述人体区域的投射亮度。
第三方面,本申请实施例提供了一种投影设备,包括:一个或多个处理器;存储器;一个或多个应用程序,其中所述一个或多个应用程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序配置用于执行上述第一方面提供的投影控制方法。
第四方面,本申请实施例提供了一种计算机可读取存储介质,所述计算机可读取存储介质中存储有程序代码,所述程序代码可被处理器调用执行上述第一方面提供的投影控制方法。
本申请提供的方案,通过识别目标图像中的人体区域所在的区域图像;基于深度相机识别区域图像中各个像素点的深度,得到各个像素点在深度相机对应的第一空间坐标系中的第一坐标数据;基于第一空间坐标系与投影设备对应的第二空间坐标系之间的预设转换关系,将第一坐标数据转换为第二空间坐标系中的第二坐标数据;基于第二坐标数据,降低投影设备针对人体区域的投射亮度。通过深度相机采集的投影区域的目标图像中人体所在的区域以及深度相机识别的深度,确定人体区域对应于投影设备的投影坐标系中的第二坐标数据,并降低投影设备中第二坐标数据对应的区域的投影亮度,实现了对投影区域中的人体区域的动态遮罩,避免了投影光源对人体产生影响或伤害。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了本申请实施例提供的投影控制方法的应用场景图。
图2示出了本申请一个实施例提供的投影控制方法的流程示意图。
图3示出了本申请另一个实施例提供的投影控制方法的流程示意图。
图4示出了本申请另一个实施例中步骤S210的一种具体流程示意图。
图5示出了本申请另一个实施例中步骤S212的具体流程示意图。
图6示出了本申请另一个实施例中步骤S220的具体流程示意图。
图7示出了本申请实施例中第一空间坐标系的示意图。
图8示出了本申请另一个实施例中步骤S260的具体流程示意图。
图9示出了本申请实施例提供的投影控制装置的结构框图。
图10示出了本申请实施例提供的一种投影设备的结构框图。
图11示出了本申请实施例提供的计算机可读存储介质的结构框图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。
发明人提出了本申请实施例提供的投影控制方法、装置、投影设备以及存储介质,通过将深度相机对应的第一坐标数据,转换为投影设备对应的第二坐标数据,进而调整投影设备中第二坐标数据区域的投影亮度,实现了对投影区域中的人体区域的动态遮罩,避免了投影光源对人体产生影响和伤害。其中,具体的投影控制方法在后续实施例中进行详细说明。
下面对本申请实施例提供的投影控制方法的应用场景进行介绍。
请参阅图1,本申请实施例提供的投影控制方法应用于投影设备300,投影设备300包括深度相机350以及投影模块360。其中深度相机350包括可以获取投影区域内的彩色图像的彩色摄像头351,以及获取各个像素点对应的深度信息的距离传感器352,由此深度相机350可以获取投影区域内各个像素点对应的三维坐标数据。投影模块360可以在投影区域内投射预设的图像。深度相机350用于获取投影区域中的目标图像,并识别目标图像中人体区域所在的区域图像,由此可以基于深度相机350与投影模块360之间的预设转换关系,得到在投影模块360投影时的投影区域中的人体区域,进而调整投影设备360在投影区域的投射亮度。可选地,深度相机350可以是RGBD相机,调整投射亮度可以是降低人体区域的投影亮度,也可以是将该区域的亮度置零,或者使用投影设备中预设的图像替代该区域的投影成像,为便于理解,本实施例以降低该区域亮度作为举例说明。
下面将结合附图具体描述本申请实施例提供的投影控制方法。
请参阅图2,图2示出了本申请一个实施例提供的投影控制方法的流程示意图,下面将针对图2所示流程进行详细阐述,所述投影控制方法具体可以包括以下步骤:
步骤S110:识别目标图像中的人体区域所在的区域图像,所述目标图像为深度相机针对所述投影设备的投影区域采集的图像。
在本申请实施例中,投影设备的朝向以及位置是固定不变的,因此投影设备在被固定后可以得到一个稳定的投影区域,在投影设备开始工作后,投影画面会被投射在这个投影区域中,用户可以基于投影区域中的投影画面进行演讲等动作。为避免投影设备投射画面时的光源对位于投影区域中的用户产生影响,投影设备可以通过深度相机采集投影区域中的目标图像,并识别目标图像中人体区域所在的区域图像,用以使投影设备在向投影区域投射画面时,降低投射画面中的区域图像部分的亮度,以降低投影设备的光源对处于投影区域中的用户的影响。
具体来说,投影设备中的深度相机包括彩色摄像头以及距离传感器,其中投影设备可以通过彩色摄像头采集投影区域的二维平面图像,作为投影设备的目标图像。此时,投影设备可以对二维的目标图像进行人体区域识别,也就是判断目标图像中的各个像素点分别属于人体区域或者非人体区域,由此可以得到目标图像中的所有属于人体区域的像素点构成的区域图像。应当理解的是,投影设备对所有像素点进行识别分类的结果,可能包括不止一个区域图像,这可能是由于投影区域内出现多个用户导致,但不论最终识别到独立区域图像的数量,投影设备都可以基于所有区域图像,调整投影时的投射亮度。同时应当了解,深度相机中的彩色摄像头仅能够获取到投影区域的二维图像信息,深度相机中还需要通过距离传感器与彩色摄像头相结合才能够获取二维图像中各个像素点的三维空间坐标,但此时,投影设备仅需要基于二维平面图像就可以识别其中人体区域的区域图像,而不必基于各个像素点的三维空间坐标进行识别。因此,投影设备在基于深度相机的彩色摄像头获取到了投影区域的目标图像后,就可以直接对该二维的目标图像进行人体区域识别。
在一些实施方式中,投影设备可以通过预先经过训练的人体识别模型,识别目标图像中人体区域的区域图像。也就是通过人体识别模型对目标图像中的每个像素点进行分类,判断像素点属于人体还是非人体。由此,可以将目标图像中的所有像素点划分为两个部分,人体区域以及非人体区域。其后再将所有能够连接在一起的相同类型的像素点,构成一个区域图像,进而得到目标图像中的所有区域图像。
在一些实施方式中,深度相机在确定目标图像中人体区域的区域图像后,可以对目标图像中的所有像素点进行分类并标记,也就是将所有判断为人体的像素点分为一类,将所有判断为非人体的像素点分为另一类,同时还可以对不同类别的像素点进行不同的标记,用以在目标图像中各个像素点的坐标数据转换后,投影设备仍然可以基于不同的标记,确定各个像素点属于人体还是非人体。
步骤S120:基于所述深度相机识别所述区域图像中各个像素点的深度,得到所述各个像素点在所述深度相机对应的第一空间坐标系中的第一坐标数据。
在本申请实施例中,深度相机还包括获取二维的目标图像中各个像素点的深度的距离传感器,其中,各个像素点的深度是指该像素点与距离传感器之间的距离。此时,深度相机在通过距离传感器获取了各个像素点的深度后,可以通过在上述步骤中针对投影区域采集到的目标图像,确定目标图像中各个像素点在深度相机的第一空间坐标系中的第一坐标数据。其中第一空间坐标系可以是以深度相机中的彩色摄像头的光心为原点,以摄像头的朝向为Z轴,以摄像头所在的水平方向为Y轴,摄像头所在的垂直方向为X轴建立的坐标系。
具体来说,深度相机在获取目标图像后,目标图像中的各个像素点在目标图像对应的图像坐标系中也具有一个二维的坐标数据,其中,图像坐标系的原点可以是第一空间坐标系中Z轴与图像平面的交点,图像坐标系是X轴、Y轴分别与第一空间坐标系中的X轴、Y轴平行。深度相机可以通过距离传感器获取投影区域的深度图像,该深度图像类似于灰度图像,其中的每个像素点的像素值用于表征传感器距离物体的实际距离,其中深度图像与目标图像是配准的,也就是像素点之间是一一对应的关系。由此,深度相机在获取深度图像以及目标图像后,也就是确定每个像素点在图像坐标系中的坐标数据以及与传感器之间的实际距离后,可以确定各个像素点在第一空间坐标系中的第一坐标数据。
其中,不同类型的深度相机获取各个像素点的深度的方法可以不同。例如双目视觉相机,基于视差原理并利用成像设备从不同位置获取被测物体的两幅图像,通过计算图像对应点间的位置偏差,来获取物体的三维坐标数据。又如结构光相机,通过近红外激光器,将具有一定结构特征的光线(条纹结构光、编码结构光或散斑结构光等)投射到被拍摄物体上,在由专门的红外摄像头进行采集反射的结构光图案的信息,通过运算单元将这种结构变化换算成深度信息。又如光飞行时间(Time Of Flight,TOF)相机,通过红外发射器发射调制过的光脉冲(通常调制为脉冲波),遇到物体反射后,通过特制的CMOS传感器接收反射回来的光脉冲,此时波形已经产生了相位偏移,通过相位偏移可以计算物体到深度相机的距离。
步骤S130:基于所述第一空间坐标系与所述投影设备对应的第二空间坐标系之间的预设转换关系,将所述第一坐标数据转换为所述第二空间坐标系中的第二坐标数据,所述第二空间坐标系为所述投影设备的投影坐标系。
在本申请实施例中,投影设备用于将用户需求的图像或视频等信息投影至固定的投影区域,同时投影设备可以调整投影区域中不同位置的投射亮度,若其中降低投射亮度的部分投影区域与用户在投影区域中的人体区域相重合,那么就可以实现降低投影设备针对人体区域的投射亮度,减小投影光源对使用者的影响。其中,深度相机可以获取投影设备的投影区域的目标图像以及图像中各个像素点对应的第一坐标数据,并且识别出目标图像中人体区域所在的区域图像,因此,投影设备可以基于预设的转换关系,将目标图像在深度相机坐标系下的第一坐标数据,转换为在投影设备的投影坐标系下的第二坐标数据,那么投影设备也就可以相应地确定投影区域的图像中各个像素点的三维坐标数据,以及其中人体区域的区域图像对应的像素点。
具体来说,深度相机与投影设备之间的相对位置固定,并且深度相机与投影设备的朝向均保持不变,也就是深度相机的第一空间坐标系与投影设备的第二空间坐标系之间的相对位置保持不变,那么投影设备就可以预先获取第一空间坐标系与第二空间坐标系之间的预设转换关系,包括旋转矩阵以及平移矩阵,进而基于预设转换关系,投影设备可以获取在第二空间坐标系下,深度相机基于投影区域采集的目标图像中各个像素点的第二坐标数据。
步骤S140:基于所述第二坐标数据,降低所述投影设备针对所述人体区域的投射亮度。
在本申请实施例中,投影设备在确定目标图像中各个像素点对应的第二坐标数据后,也就可以基于深度相机的识别结果,确定投影区域中的人体区域,由此,投影设备便可以精准地降低投影区域中人体区域的投射亮度,以实现降低投影光源对用户使用投影设备时的影响。具体来说,投影设备可以基于深度相机在目标图像中对各个像素点的不同标记,确定目标图像中的人体区域。
本申请实施例提供的投影控制方法,通过识别目标图像中的人体区域所在的区域图像;基于深度相机识别区域图像中各个像素点的深度,得到各个像素点在深度相机对应的第一空间坐标系中的第一坐标数据;基于第一空间坐标系与投影设备对应的第二空间坐标系之间的预设转换关系,将第一坐标数据转换为第二空间坐标系中的第二坐标数据;基于第二坐标数据,降低投影设备针对人体区域的投射亮度。通过深度相机采集的投影区域的目标图像中人体所在的区域以及深度相机识别的深度,确定人体区域对应于投影设备的投影坐标系中的第二坐标数据,并降低投影设备中第二坐标数据对应的区域的投影亮度,实现了对投影区域中的人体区域的动态遮罩,避免了投影光源对人体产生影响和伤害。
请参阅图3,图3示出了本申请另一个实施例提供的投影控制方法的流程示意图,下面将针对图3所示流程进行详细阐述,所述投影控制方法具体可以包括以下步骤:
步骤S210:对所述深度相机的内参以及所述投影设备的内参进行标定。
在本申请实施例中,投影设备在基于深度相机确定的区域图像,降低投影区域中人体区域的投射亮度之前,需要对深度相机的内参以及投影设备的内参进行标定。由于投影设备是基于包括人体区域的第二坐标数据对投射亮度进行调整的,而第二坐标数据则是基于深度相机得到的第一坐标数据转换得到,因此第一坐标数据与第二坐标数据之间转换的准确性,直接影响着投影设备最终调整亮度的区域与用户的人体区域的重合程度。因此,为提高投影设备对投射亮度的调整区域的准确性,投影设备在基于第一坐标数据得到第二坐标数据之前,还可以对深度相机以及投影设备之间的参数进行标定。具体来说,可以先对深度相机的内参以及投影设备的内参进行标定,用以进一步对深度相机与投影设备之间的外参进行标定。
其中,对深度相机的内参的标定,就是对第一空间坐标系中的像素点转换到图像坐标系中的转换参数的标定,也是三维点到二维点的转换。对投影设备的内参进行标定,就是对第二空间坐标系中的像素点转换到投影平面的平面坐标系中的转换参数的标定。具体来说,深度相机可以通过张正友棋盘标定算法对内参进行标定,投影设备可以通过相移法以及张正友棋盘标定算法对内参进行标定。
步骤S220:基于标定后的所述深度相机的内参以及所述投影设备的内参,对所述深度相机与所述投影设备的之间的相对位置关系进行标定,得到所述第一空间坐标系与所述第二空间坐标系之间的预设转换关系。
在本申请实施例中,在对深度相机的内参以及投影设备的内参分别进行标定后,投影设备还可以进一步对其外参进行标定,也就是对深度相机与投影设备之间的相对位置关系进行标定,得到准确的第一空间坐标系与第二空间坐标系之间的预设转换关系,由此可以确保投影设备能够基于标定后准确的预设转换关系,将第一空间坐标系中的第一坐标数据转换为第二坐标数据,并能够通过第二坐标数据,准确的判断投影区域中人体区域所在的区域图像并调整投射亮度。
可以理解的,对投影设备的外参进行标定,需要在深度相机以及投影设备的内参准确的情况下进行,也就是已经对深度相机的内参以及投影设备的内参分别进行了标定的情况下,才可以基于准确的深度相机的内参以及投影设备的内参,确定投影设备与深度相机之间的相对位置关系,也就是确定深度相机的第一空间坐标系与投影设备的第二空间坐标系之间的预设转换关系。
具体来说,对投影设备的外参进行标定,就是确定第一空间坐标系中的任意坐标数据,转换至第二空间坐标系中对应的坐标数据所需的旋转矩阵以及平移矩阵。投影设备通过标定后得到的旋转矩阵以及平移矩阵,可以将任意物体在第一空间坐标系下的第一坐标数据,转换为第二空间坐标系下对应的第二坐标数据。在一些实施方式中,投影设备可以通过重投影以及LM迭代算法结合的方式对其外参进行标定。
步骤S230:识别目标图像中的人体区域所在的区域图像,所述目标图像为深度相机针对所述投影设备的投影区域采集的图像。
在一些实施方式中,如图4所示,步骤S230中识别目标图像中的人体区域所在的区域图像,可以通过下述步骤实现:
步骤S231:基于所述深度相机中的彩色摄像头,对所述投影设备的投影区域进行图像采集,得到所述目标图像。
步骤S232:基于预先训练的人体识别模型,识别所述目标图像中的人体区域所在的区域图像。
在本申请实施例中,深度相机可以先通过彩色摄像头获取投影区域内的目标图像,其中目标图像为二维平面的三通道彩色图像,投影区域为投影设备固定投射画面的区域。此时的目标图像中的各个像素点并不包括深度信息。深度相机可以通过预先训练的人体识别模型,对投影区域的目标图像进行识别,以确定目标图像中的所有属于人体的像素点,进而确定目标图像中人体区域所在的区域图像。其中,若投影区域内包括多位用户,那么人体识别模型识别出来的人体区域所在的区域图像也可以不仅包括一个。
在一些实施方式中,人体识别模型在识别出所有的区域图像后,还可以对这些区域图像构成的面积大小进行判断,若目标区域图像的面积小于预设阈值,那么可以表明人体识别模型对这一部分的像素点识别出错,并且在最终确定的区域图像中去除目标区域图像,以避免投影设备在投射画面时出现画面斑驳的现象。
在一些实施方式中,深度相机中对目标图像进行识别的预先训练的人体识别模型,可以为用于图像分割的深度神经网络,例如,DeepLAB系列、BiSeNet系列等,也可以为专用于人体分割的深度神经网络,例如,BodyPix系列等。
具体来说,如图5所示,基于预先训练的人体识别模型,识别目标图像中的人体区域所在的区域图像的方法,可以通过以下步骤实现:
步骤S2321:将所述目标图像输入至所述人体识别模型,得到所述目标图像中每个像素点对应的分类结果,所述分类结果用于表征像素点是否为人体。
在本申请实施例中,深度相机可以将得到的目标图像输入至预先训练的人体识别模型,以得到目标图像中所有人体区域所在的区域图像。其中,人体区域可以为用户身体的任意部位,人体识别模型可以对输入的目标图像中的所有像素点进行分类,也就是判断每个像素点属于人体还是非人体,进而得到对目标图像中每个像素点的分类结果,用以基于分类结果确定目标图像中的所有人体区域。具体来说,以图像分割类型的人体识别模型为例,人体识别模型可以是基于输入图像中灰度值的不连续和相似的性质对目标图像进行分割。假设图像不同区域的边界彼此完全不同,且与背景不同,那么模型允许基于灰度的局部不连续性来进行边界检测;或者模型可以根据一组预定义的准则将目标图像分割为相似区域,如阈值处理、区域生长、区域分裂和区域聚合等都是基于这种方法形成的。
步骤S2322:基于所述每个像素点对应的分类结果,确定所述目标图像中的人体区域所在的区域图像。
在本申请实施例中,深度相机可以基于每个像素点的分类结果,将所有处于相同分类的像素点作为区域图像,其中,区域图像可以不作为一个完整的整体,而是包括多个不相连接的子区域图像。
在一些实施方式中,深度相机可以按照目标频率,识别目标图像中的人体区域所在的区域图像。
具体来说,为减少识别目标图像的计算负担,深度相机可以按照预设的目标频率,识别目标图像中人体区域的区域图像,也就是每间隔固定时长,获取一帧投影区域的目标图像,并识别目标图像中人体区域所在的区域图像,而不必在投影设备投射每一帧图像之前,都对投影区域的目标图像进行识别,由此能够在确保对人体区域的识别效果的基础上,减少大量计算步骤,降低深度相机以及投影设备的运算负担。其中,目标频率可以选取在确保人眼无法识别的情况下的最大的时间间隔。
在一些实施方式中,深度相机还可以通过以下步骤,对目标频率进行调整:
识别区域图像中的人体姿态;基于人体姿态,调整目标频率。
可以理解的,为了进一步降低深度相机对目标图像的识别频率,减少计算负荷,深度相机在对目标图像进行识别,得到人体区域所在的区域图像后,还可以对区域图像中的人体姿态进行判断,用以基于人体姿态,判断用户当前的使用状态,进而基于用户当前的使用状态调整深度相机识别目标图像的目标频率。在一些实施方式中,人体姿态可以包括用户在目标图像中的姿势属于站立姿态或者倚坐姿态等。显然,若人体处于站立姿态,那么用户在短时间内移动的概率可能会更大,若人体处于倚坐姿态,那么用户在短时间内移动的概率可能会更小。由此,深度相机可以基于不同的用户姿态,调整对目标图像的识别频率。
进一步的,深度相机在识别出区域图像中的人体姿态后,可以基于不同的人体姿态,判断用户在当前时刻之后出现大幅度移动的概率,进而对目标图像进行识别的目标频率进行相应的调整。具体来说,深度相机中可以预先存储不同大小的目标频率与各种人体姿态之间的对应关系。用以在每次基于人体区域所在的目标图像识别出人体姿态后,可以直接确定下一次获取投影区域的目标图像的时刻。
步骤S240:基于所述深度相机识别所述区域图像中各个像素点的深度,得到所述各个像素点在所述深度相机对应的第一空间坐标系中的第一坐标数据。
在一些实施方式中,如图6所示,深度相机可以通过以下方式得到第一坐标数据:
步骤S241:基于所述深度相机中的红外传感器,获取所述目标图像中目标像素点至所述深度相机所处垂直平面的距离,作为所述目标像素点的深度。
在本申请实施例中,深度相机不仅包括用于获取彩色二维图像的彩色摄像头,还包括用于获取深度图像的红外传感器。其中,红外传感器包括红外发射器以及红外接收器,红外发射器可以将具有一定结构特征的光线投射到被测物体上,通过红外接收器采集被物体反射的结构光图案,并将这种结构变化转换为目标图像中各个像素点的深度。以光栅投影(条纹投影)为例,深度相机通过计算机编程产生正弦条纹,基于红外发射器将该正弦条纹通过投影设备投影至被测物,利用红外接收器获取反射后的条纹受物体调制的弯曲程度,解调该弯曲条纹可以得到相位,再将相位转换为物体的高度,也就是目标图像中各个像素点的深度。
在一些实施方式中,深度相机还可以对红外发射器以及红外接收器之间的外参进行标定,以明确红外发射器与红外接收器之间的相对位置,以使基于红外接收器确定的像素点的深度准确。
步骤S242:基于所述各个像素点的深度以及所述各个像素点在所述目标图像对应的图像坐标系中的二维坐标数据,确定所述各个像素点在第一空间坐标系中的第一坐标数据。
在本申请实施例中,深度相机在通过彩色摄像头获取投影区域的二维图像信息,以及通过红外传感器获取目标图像的深度图像后,可以基于二维图像信息以及深度图像,确定目标图像中各个像素点在第一空间坐标系中的第一坐标数据。请参阅图7,其示出了获取投影区域中的目标像素点M在深度相机的第一空间坐标系下的第一坐标数据的原理示意图。深度相机通过获取目标像素点在二维图像信息中的二维平面坐标M’(m,n),以及深度图像中目标像素点M的深度,确定M点在第一空间坐标系OXYZ中的第一坐标数据。
步骤S250:基于所述第一空间坐标系与所述投影设备对应的第二空间坐标系之间的预设转换关系,将所述第一坐标数据转换为所述第二空间坐标系中的第二坐标数据,所述第二空间坐标系为所述投影设备的投影坐标系。
步骤S260:基于所述第二坐标数据,降低所述投影设备针对所述人体区域的投射亮度。
在本申请实施例中,步骤S250以及步骤S260可以参阅其他实施例的内容,在此不再赘述。
在一些实施方式中,如图8所示,可以通过以下步骤调整投射亮度:
步骤S261:识别所述区域图像中的衣物参数。
在本申请实施例中,投影设备可以进一步识别人体区域所在的区域图像中的衣物参数,如材质、颜色等,以确定对区域图像中的投射亮度的调整大小。在一些情况下,若用户穿着的衣物颜色判断为属于预设的淡色系列,那么在较强的投影光线的照射下,用户的隐私难以得到保护,这种情况下,投影设备可以通过使区域图像中的投射亮度进一步调整为预设亮度,例如降低到相对其他投影区域最大亮度的20%,或者直接置零,达到保护用户隐私的效果,也可以实现根据用户穿着衣物的不同材质如雪纺、网状,也可以相应地调整区域图像中的投射亮度。因此,投射设备还可以在确定所有人体区域所在的区域图像后,识别区域图像中的衣物材质,用以基于衣物参数调整区域图像中的投射亮度,动态地保护用户隐私。
步骤S262:将所述投影设备针对所述人体区域的投射亮度降低为所述衣物材质对应的亮度。
在本申请实施例中,投影设备中可以预先存储不同的衣物参数与投射亮度之间的对应关系,该对应关系中的衣物材质、颜色等,预设对应的亮度。投影设备可以在确定人体区域所在的区域图像中的衣物参数后,直接得到对应区域图像的投射亮度。其中,投影设备可以对所有不相连接的区域图像分别进行衣物识别的操作,以最大限度地实现调整投射亮度达到用户隐私的保护。
在一些实施方式中,为减少投影设备的计算量,提高投影设备的运行效率,投影设备可以对相同区域图像进行依次衣物识别的操作。投影设备可以在开始运行的一段时长内,或者向投影区域投射预设画面之前,针对投影区域中的区域图像进行衣物识别,得到区域图像对应的投射亮度后,在投影设备的后续运行过程中,就不再对区域图像中的衣物参数进行识别。当然,若出现一个新的与原有所有区域图像不相连接的区域图像,那么投影设备也可以对这个新的区域图像进行衣物参数的识别,以确定对这个新的区域图像的投射亮度。
本申请实施例提供的投影控制方法,通过识别目标图像中的人体区域所在的区域图像,基于深度相机识别区域图像中各个像素点的深度,得到各个像素点在深度相机对应的第一空间坐标系中的第一坐标数据,对深度相机的内参以及投影设备的内参进行标定,基于标定后的深度相机的内参以及投影设备的内参,对深度相机与投影设备的之间的相对位置关系进行标定,得到第一空间坐标系与第二空间坐标系之间的预设转换关系,基于第一空间坐标系与投影设备对应的第二空间坐标系之间的预设转换关系,将第一坐标数据转换为第二空间坐标系中的第二坐标数据,基于第二坐标数据,降低投影设备针对人体区域的投射亮度。通过深度相机采集的投影区域的目标图像中人体所在的区域以及深度相机识别的深度,确定人体区域对应于投影设备的投影坐标系中的第二坐标数据,并降低投影设备中第二坐标数据对应的区域的投影亮度,实现了对投影区域中的人体区域的动态遮罩,避免了投影光源对人体产生影响或伤害。
请参阅图9,其示出了本申请实施例提供的一种投影控制装置200的结构框图,投影控制装置200包括:区域识别模块210、深度获取模块220、坐标转换模块230以及亮度调整模块240。其中,区域识别模块210用于识别目标图像中的人体区域所在的区域图像,目标图像为深度相机针对投影设备的投影区域采集的图像;深度获取模块220用于基于深度相机识别区域图像中各个像素点的深度,得到各个像素点在深度相机对应的第一空间坐标系中的第一坐标数据;坐标转换模块230用于基于第一空间坐标系与投影设备对应的第二空间坐标系之间的预设转换关系,将第一坐标数据转换为第二空间坐标系中的第二坐标数据,第二空间坐标系为投影设备的投影坐标系;亮度调整模块240用于基于第二坐标数据,降低投影设备针对人体区域的投射亮度。
作为一种可能的实施方式,区域识别模块210包括:图像采集单元以及图像识别单元。其中,图像采集单元用于基于深度相机中的彩色摄像头,对投影设备的投影区域进行图像采集,得到目标图像;图像识别单元用于基于预先训练的人体识别模型,识别目标图像中的人体区域所在的区域图像。
作为一种可能的实施方式,图像识别单元还用于将目标图像输入至人体识别模型,得到目标图像中每个像素点对应的分类结果,分类结果用于表征像素点是否为人体;基于每个像素点对应的分类结果,确定目标图像中的人体区域所在的区域图像。
作为一种可能的实施方式,深度获取模块220还用于基于深度相机中的红外传感器,获取目标图像中目标像素点至深度相机所处垂直平面的距离,作为目标像素点的深度;基于各个像素点的深度以及各个像素点在目标图像对应的图像坐标系中的二维坐标数据,确定各个像素点在第一空间坐标系中的第一坐标数据。
作为一种可能的实施方式,投影控制装置200还包括内参标定模块以及外参标定模块。其中,内参标定模块用于对深度相机的内参以及投影设备的内参进行标定;外参标定模块用于基于标定后的深度相机的内参以及投影设备的内参,对深度相机与投影设备的之间的相对位置关系进行标定,得到第一空间坐标系与第二空间坐标系之间的预设转换关系。
作为一种可能的实施方式,亮度调整模块240还用于识别区域图像中的衣物材质;将投影设备针对人体区域的投射亮度降低为衣物材质对应的亮度。
作为一种可能的实施方式,区域识别模块210还用于按照目标频率,识别目标图像中的人体区域所在的区域图像。投影控制装置200还包括姿态识别模块以及频率调整模块。其中,姿态识别模块用于识别区域图像中的人体姿态;频率调整模块用于基于人体姿态,调整目标频率。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述装置和模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,模块相互之间的耦合可以是电性,机械或其它形式的耦合。
另外,在本申请各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
综上所述,本申请提供的方案,通过识别目标图像中的人体区域所在的区域图像;基于深度相机识别区域图像中各个像素点的深度,得到各个像素点在深度相机对应的第一空间坐标系中的第一坐标数据;基于第一空间坐标系与投影设备对应的第二空间坐标系之间的预设转换关系,将第一坐标数据转换为第二空间坐标系中的第二坐标数据;基于第二坐标数据,降低投影设备针对人体区域的投射亮度。通过深度相机采集的投影区域的目标图像中人体所在的区域以及深度相机识别的深度,确定人体区域对应于投影设备的投影坐标系中的第二坐标数据,并降低投影设备中第二坐标数据对应的区域的投影亮度,实现了对投影区域中的人体区域的动态遮罩,避免了投影光源对人体产生影响和伤害。
请参考图10,其示出了本申请实施例提供的一种投影设备300的结构框图。本申请中的投影设备300可以包括一个或多个如下部件:处理器310、存储器320、以及一个或多个应用程序,其中一个或多个应用程序可以被存储在存储器320中并被配置为由一个或多个处理器310执行,一个或多个程序配置用于执行如前述方法实施例所描述的方法。
处理器310可以包括一个或者多个处理核。处理器310利用各种接口和线路连接整个计算机设备内的各个部分,通过运行或执行存储在存储器320内的指令、程序、代码集或指令集,以及调用存储在存储器320内的数据,执行计算机设备的各种功能和处理数据。可选地,处理器310可以采用数字信号处理(Digital Signal Processing,DSP)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)、可编程逻辑阵列(Programmable LogicArray,PLA)中的至少一种硬件形式来实现。处理器310可集成中央处理器(CentralProcessing Unit,CPU)、图形处理器(Graphics Processing Unit,GPU)和调制解调器等中的一种或几种的组合。其中,CPU主要处理操作系统、用户界面和应用程序等;GPU用于负责显示内容的渲染和绘制;调制解调器用于处理无线通信。可以理解的是,上述调制解调器也可以不集成到处理器310中,单独通过一块通信芯片进行实现。
存储器320可以包括随机存储器(Random Access Memory,RAM),也可以包括只读存储器(Read-Only Memory)。存储器320可用于存储指令、程序、代码、代码集或指令集。存储器320可包括存储程序区和存储数据区,其中,存储程序区可存储用于实现操作系统的指令、用于实现至少一个功能的指令(比如触控功能、声音播放功能、图像播放功能等)、用于实现下述各个方法实施例的指令等。存储数据区还可以存储计算机设备在使用中所创建的数据(比如电话本、音视频数据、聊天记录数据)等。
请参考图11,其示出了本申请实施例提供的一种计算机可读存储介质的结构框图。该计算机可读介质800中存储有程序代码,所述程序代码可被处理器调用执行上述方法实施例中所描述的方法。
计算机可读存储介质800可以是诸如闪存、EEPROM(电可擦除可编程只读存储器)、EPROM、硬盘或者ROM之类的电子存储器。可选地,计算机可读存储介质800包括非易失性计算机可读介质(non-transitory computer-readable storage medium)。计算机可读存储介质800具有执行上述方法中的任何方法步骤的程序代码810的存储空间。这些程序代码可以从一个或者多个计算机程序产品中读出或者写入到这一个或者多个计算机程序产品中。程序代码810可以例如以适当形式进行压缩。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不驱使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (10)
1.一种投影控制方法,其特征在于,应用于投影设备,所述方法包括:
识别目标图像中的人体区域所在的区域图像,所述目标图像为深度相机针对所述投影设备的投影区域采集的图像;
基于所述深度相机识别所述区域图像中各个像素点的深度,得到所述各个像素点在所述深度相机对应的第一空间坐标系中的第一坐标数据;
基于所述第一空间坐标系与所述投影设备对应的第二空间坐标系之间的预设转换关系,将所述第一坐标数据转换为所述第二空间坐标系中的第二坐标数据,所述第二空间坐标系为所述投影设备的投影坐标系;
基于所述第二坐标数据,调整所述投影设备针对所述人体区域的投射亮度。
2.根据权利要求1所述的方法,其特征在于,所述识别目标图像中的人体区域所在的区域图像,包括:
基于所述深度相机中的彩色摄像头,对所述投影设备的投影区域进行图像采集,得到所述目标图像;
基于预先训练的人体识别模型,识别所述目标图像中的人体区域所在的区域图像。
3.根据权利要求2所述的方法,其特征在于,所述基于预先训练的人体识别模型,识别所述目标图像中的人体区域所在的区域图像,包括:
将所述目标图像输入至所述人体识别模型,得到所述目标图像中每个像素点对应的分类结果,所述分类结果用于表征像素点是否为人体;
基于所述每个像素点对应的分类结果,确定所述目标图像中的人体区域所在的区域图像。
4.根据权利要求1所述的方法,其特征在于,所述基于所述深度相机识别所述区域图像中各个像素点的深度,得到所述各个像素点在所述深度相机对应的第一空间坐标系中的第一坐标数据,包括:
基于所述深度相机中的红外传感器,获取所述目标图像中目标像素点至所述深度相机所处垂直平面的距离,作为所述目标像素点的深度;
基于所述各个像素点的深度以及所述各个像素点在所述目标图像对应的图像坐标系中的二维坐标数据,确定所述各个像素点在第一空间坐标系中的第一坐标数据。
5.根据权利要求1所述的方法,其特征在于,在所述基于所述第一空间坐标系与所述投影设备对应的第二空间坐标系之间的预设转换关系,将所述第一坐标数据转换为所述第二空间坐标系中的第二坐标数据之前,所述方法还包括:
对所述深度相机的内参以及所述投影设备的内参进行标定;
基于标定后的所述深度相机的内参以及所述投影设备的内参,对所述深度相机与所述投影设备的之间的相对位置关系进行标定,得到所述第一空间坐标系与所述第二空间坐标系之间的预设转换关系。
6.根据权利要求1-5任一项所述的方法,其特征在于,所述基于所述第二坐标数据,调整所述投影设备针对所述人体区域的投射亮度,包括:
识别所述区域图像中的衣物参数;
将所述投影设备针对所述人体区域的投射亮度降低为所述衣物参数对应的预设亮度。
7.根据权利要求1-5任一项所述的方法,其特征在于,所述识别目标图像中的人体区域所在的区域图像,包括:
按照目标频率,识别目标图像中的人体区域所在的区域图像;
所述方法还包括:
识别所述区域图像中的人体姿态;
基于所述人体姿态,调整所述目标频率。
8.一种投影控制装置,其特征在于,所述装置包括:区域识别模块、深度获取模块、坐标转换模块以及亮度调整模块,其中,
所述区域识别模块用于识别目标图像中的人体区域所在的区域图像,所述目标图像为深度相机针对所述投影设备的投影区域采集的图像;
所述深度获取模块用于基于所述深度相机识别所述区域图像中各个像素点的深度,得到所述各个像素点在所述深度相机对应的第一空间坐标系中的第一坐标数据;
所述坐标转换模块用于基于所述第一空间坐标系与所述投影设备对应的第二空间坐标系之间的预设转换关系,将所述第一坐标数据转换为所述第二空间坐标系中的第二坐标数据,所述第二空间坐标系为所述投影设备的投影坐标系;
所述亮度调整模块用于基于所述第二坐标数据,调整所述投影设备针对所述人体区域的投射亮度。
9.一种投影设备,其特征在于,所述投影设备包括,包括:
一个或多个处理器;
存储器;
一个或多个应用程序,其中所述一个或多个应用程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序配置用于执行如权利要求1-7任一项所述的方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有程序代码,所述程序代码可被处理器调用执行如权利要求1-7任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211217573.0A CN117853572A (zh) | 2022-09-30 | 2022-09-30 | 投影控制方法、装置、投影设备以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211217573.0A CN117853572A (zh) | 2022-09-30 | 2022-09-30 | 投影控制方法、装置、投影设备以及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117853572A true CN117853572A (zh) | 2024-04-09 |
Family
ID=90544913
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211217573.0A Pending CN117853572A (zh) | 2022-09-30 | 2022-09-30 | 投影控制方法、装置、投影设备以及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117853572A (zh) |
-
2022
- 2022-09-30 CN CN202211217573.0A patent/CN117853572A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109118569B (zh) | 基于三维模型的渲染方法和装置 | |
US11948282B2 (en) | Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data | |
US11010967B2 (en) | Three dimensional content generating apparatus and three dimensional content generating method thereof | |
US9710109B2 (en) | Image processing device and image processing method | |
US10304164B2 (en) | Image processing apparatus, image processing method, and storage medium for performing lighting processing for image data | |
US10091489B2 (en) | Image capturing device, image processing method, and recording medium | |
JP6352208B2 (ja) | 三次元モデル処理装置およびカメラ校正システム | |
CN110998659A (zh) | 图像处理系统、图像处理方法、及程序 | |
US11120535B2 (en) | Image processing method, apparatus, terminal, and storage medium | |
US20150278589A1 (en) | Image Processor with Static Hand Pose Recognition Utilizing Contour Triangulation and Flattening | |
CN112272292B (zh) | 投影校正方法、装置和存储介质 | |
CN108682050B (zh) | 基于三维模型的美颜方法和装置 | |
CN111598065B (zh) | 深度图像获取方法及活体识别方法、设备、电路和介质 | |
US10503969B2 (en) | Hand-raising detection device, non-transitory computer readable medium, and hand-raising detection method | |
US11113879B2 (en) | Systems and methods for generating augmented reality environments from two-dimensional drawings | |
WO2021046773A1 (zh) | 人脸防伪检测方法、装置、芯片、电子设备和计算机可读介质 | |
US11682234B2 (en) | Texture map generation using multi-viewpoint color images | |
WO2022087846A1 (zh) | 图像的处理方法、装置、设备以及存储介质 | |
CN105306819A (zh) | 一种基于手势控制拍照的方法及装置 | |
JP6552266B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
US20150278582A1 (en) | Image Processor Comprising Face Recognition System with Face Recognition Based on Two-Dimensional Grid Transform | |
CN108227923A (zh) | 一种基于体感技术的虚拟触控系统和方法 | |
WO2018042074A1 (en) | A method, apparatus and computer program product for indicating a seam of an image in a corresponding area of a scene | |
KR20200042781A (ko) | 입체 모델 생성 방법 및 장치 | |
CN117853572A (zh) | 投影控制方法、装置、投影设备以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication |