CN108769476B - 图像获取方法及装置、图像采集装置、计算机设备和可读存储介质 - Google Patents

图像获取方法及装置、图像采集装置、计算机设备和可读存储介质 Download PDF

Info

Publication number
CN108769476B
CN108769476B CN201810574253.8A CN201810574253A CN108769476B CN 108769476 B CN108769476 B CN 108769476B CN 201810574253 A CN201810574253 A CN 201810574253A CN 108769476 B CN108769476 B CN 108769476B
Authority
CN
China
Prior art keywords
depth
image
current
field
view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810574253.8A
Other languages
English (en)
Other versions
CN108769476A (zh
Inventor
张学勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority to CN201810574253.8A priority Critical patent/CN108769476B/zh
Publication of CN108769476A publication Critical patent/CN108769476A/zh
Priority to EP19815232.4A priority patent/EP3796634A4/en
Priority to PCT/CN2019/070853 priority patent/WO2019233106A1/zh
Application granted granted Critical
Publication of CN108769476B publication Critical patent/CN108769476B/zh
Priority to US17/104,775 priority patent/US20210084280A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • H04N5/2226Determination of depth image, e.g. for foreground/background separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Abstract

本发明公开了一种图像获取方法、图像获取装置、图像采集装置、非易失性计算机可读存储介质和计算机设备。本发明的图像获取方法包括:获取当前场景的深度图像;获取当前场景的可见光图像;根据所述深度图像和所述可见光图像获取所述当前场景中的目标物体的当前深度;获取在所述当前深度下所述深度图像的视场区域与所述可见光图像的视场区域之间的重合区域占整个所述可见光图像的视场区域的当前重合度;判断所述当前重合度是否在预设范围内;及,在所述当前重合度超出所述预设范围时,发出提示信息以供所述目标物体调整其深度。如此,目标物体与图像获取装置之间的距离合适,图像获取装置能够获取完整的深度数据,功率也比较低。

Description

图像获取方法及装置、图像采集装置、计算机设备和可读存储 介质
技术领域
本发明涉及图像处理领域,更具体而言,涉及一种图像获取方法、图像获取装置、图像采集装置、非易失性计算机可读存储介质和计算机设备。
背景技术
用户在使用深度相机采集人脸时,比如自拍、人脸识别,但由于可见光摄像头和红外((Infrared Radiation,IR)摄像头安装位置存在一定距离,导致可见光摄像头和IR摄像头的视场角存在不重合的部分,特别是用户与深度相机距离过近时,会导致人脸超出红外摄像头的视场角与可见光摄像头的视场范围的重叠区域,从而无法获取完整的人脸深度数据。
发明内容
本发明实施方式提供一种图像获取方法、图像获取装置、图像采集装置、非易失性计算机可读存储介质和计算机设备。
本发明实施方式的图像获取方法包括:
获取当前场景的深度图像;
获取当前场景的可见光图像;
根据所述深度图像和所述可见光图像获取当前场景中的目标物体的当前深度;
获取在所述当前深度下所述深度图像的视场区域与所述可见光图像的视场区域之间的重合区域占整个所述可见光图像的视场区域的当前重合度;
判断所述当前重合度是否在预设范围内;及
在所述当前重合度超出所述预设范围时,发出提示信息以供所述目标物体调整其深度。
本发明实施方式的图像获取装置包括第一获取模块、第二获取模块、第三获取模块、第四获取模块、判断模块及提示模块。第一获取模块用于获取当前场景的深度图像;第二获取模块用于获取当前场景的可见光图像;第三获取模块用于根据所述深度图像和所述可见光图像获取当前场景中的目标物体的当前深度;第四获取模块用于获取在所述当前深度下所述深度图像的视场区域与所述可见光图像的视场区域之间的重合区域占整个所述可见光图像的视场区域的当前重合度;判断模块用于判断所述当前重合度是否在预设范围内;及,提示模块用于在所述当前重合度超出所述预设范围时,发出提示信息以供所述目标物体调整其深度。
本发明实施方式的图像采集装置包括深度摄像模组、可见光摄像头及处理器。深度摄像模组用于获取当前场景的深度图像;可见光摄像头用于获取当前场景的可见光图像;处理器用于:根据所述深度图像和所述可见光图像获取当前场景中的目标物体的当前深度;获取在所述当前深度下所述深度图像的视场区域与所述可见光图像的视场区域之间的重合区域占整个所述可见光图像的视场区域的当前重合度;判断所述当前重合度是否在预设范围内;及,在所述当前重合度超出所述预设范围时,发出提示信息以供所述目标物体调整其深度。
本发明实施方式的一个或多个包含计算机可执行指令的非易失性计算机可读存储介质,当所述计算机可执行指令被一个或多个处理器执行时,使得所述处理器执行上述的图像获取方法。
本发明实施方式的计算机设备包括存储器及处理器,所述存储器中储存有计算机可读指令,所述指令被所述处理器执行时,使得所述处理器执行上述的图像获取方法。
本发明实施方式的图像获取方法、图像获取装置、图像采集装置、非易失性计算机可读存储介质和计算机设备根据目标物体的当前深度确定深度图像的视场区域与可见光图像的视场区域的重合区域占整个可见光图像的视场区域的当前重合度,判断当前重合度是否在预设范围内,并在当前重合度超出预设范围时,发出提示信息以供目标物体调整其深度,即增大目标物体的深度和减小目标物体的深度,如此,目标物体与图像获取装置之间的距离合适,也即是说,目标物体与图像获取装置之间的距离不会过近,以使图像获取装置能够获取完整的深度数据,目标物体与图像获取装置之间的距离也不会过远,以使图像获取装置在功率较低的情况下也能够获取较为精确的深度数据。
本发明的实施方式的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实施方式的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施方式的描述中将变得明显和容易理解,其中:
图1是本发明某些实施方式的图像获取方法的流程示意图。
图2是本发明某些实施方式的图像获取装置的模块示意图。
图3是本发明某些实施方式的图像采集装置的结构示意图。
图4是本发明某些实施方式的图像采集装置的原理示意图。
图5是本发明某些实施方式的计算机设备的结构示意图。
图6是本发明某些实施方式的图像获取方法的流程示意图。
图7是本发明某些实施方式的图像获取装置的模块示意图。
图8是本发明某些实施方式的图像获取方法的原理示意图。
图9是本发明实施方式的计算机可读存储介质和处理器的模块示意图。
图10是本发明实施方式的计算机设备的模块示意图。
具体实施方式
以下结合附图对本发明的实施方式作进一步说明。附图中相同或类似的标号自始至终表示相同或类似的元件或具有相同或类似功能的元件。另外,下面结合附图描述的本发明的实施方式是示例性的,仅用于解释本发明的实施方式,而不能理解为对本发明的限制。
请参阅图1,本发明提供一种图像获取方法,图像获取方法包括:
011:获取当前场景的深度图像;
012:获取当前场景的可见光图像;
013:根据深度图像和可见光图像获取当前场景中的目标物体的当前深度;
014:获取在当前深度下深度图像的视场区域与可见光图像的视场区域之间的重合区域占整个可见光图像的视场区域的当前重合度;
015:判断当前重合度是否在预设范围内;及
016:在当前重合度超出预设范围时,发出提示信息以供目标物体调整其深度。
请结合图2,本发明还提供一种图像获取装置10。图像获取装置10包括第一获取模块11、第二获取模块12、第三获取模块13、第三获取模块14、判断模块15及提示模块16。第一获取模块11用于获取当前场景的深度图像。第二获取模块12用于获取当前场景的可见光图像。第三获取模块13用于根据深度图像和可见光图像获取当前场景中的目标物体的当前深度。第三获取模块14用于获取在当前深度下深度图像的视场区域与可见光图像的视场区域之间的重合区域占整个可见光图像的视场区域的当前重合度。判断模块15用于判断当前重合度是否在预设范围内。提示模块16用于在当前重合度超出预设范围时,发出提示信息以供目标物体调整其深度。
请结合图3,本发明还提供一种图像采集装置100。图像采集装置100包括深度摄像模组20、可见光摄像头30及处理器40。深度摄像模组20用于获取当前场景的深度图像。可见光摄像头30用于获取当前场景的可见光图像。处理器40用于:根据深度图像和可见光图像获取当前场景中的目标物体的当前深度;获取在当前深度下深度图像的视场区域与可见光图像的视场区域之间的重合区域占整个可见光图像的视场区域的当前重合度;判断当前重合度是否在预设范围内;在当前重合度超出预设范围时,发出提示信息以供目标物体调整其深度。也即是说,步骤011可以由深度摄像模组20实现,步骤012可以由可见光摄像头30实现,步骤013至步骤016可以由处理器40实现。
其中,图像采集装置100可以为前置的图像采集装置100,也可为后置的图像采集装置100。
具体地,本实施方式中,深度摄像模组20为结构光摄像模组,包括结构光投射器22和红外光摄像头24。结构光投射器22向当前场景中投射红外光图案。红外光摄像头24采集被目标物体200(图4所示)调制后的红外光图案。处理器40采用图像匹配算法计算出该红外光图案的深度图像。图像采集装置100包括深度摄像模组20时,图像采集装置100同时还包括可见光摄像头30,可见光摄像头30用于获取当前场景的可见光图像,该可见光图像包含当前场景中各物体的色彩信息。
或者,在其他实施方式中,深度摄像模组20也可为TOF传感器模组。TOF传感器模组包括激光投射器22和红外光摄像头24。激光投射器22向当前场景投射均匀光线,红外光摄像头24接收反射回的光线并记录发射光线的时间点和接收光线的时间点,处理器40根据发射光线的时间点与接收光线的时间点之间的时间差和光速计算当前场景中物体对应的深度像素值并合并多个深度像素值得到深度图像。图像采集装置100包括TOF传感器模组时,图像采集装置100同时还包括可见光摄像头30,可见光摄像头30用于获取当前场景的可见光图像,该可见光图像包含当前场景中各物体的彩色信息。
请参阅图4,当前深度下深度图像的视场区域与可见光图像的视场区域之间的重合区域也是当前深度下红外光摄像头24的视场区域与可见光摄像头30的视场区域相重叠的区域。非重合区域包括可见光图像的视场区域的非重合区域及深度图像的视场区域的非重合区域,可见光图像的视场区域的非重合区域中仅仅具有可见光摄像头30能够拍摄到的场景,而不具有红外光摄像头24能拍摄到的场景;深度图像的视场区域的非重合区域中仅仅具有红外光摄像头24能够拍摄到的场景,而不具有可见光摄像头30能够拍摄到的场景。当前重合度指的是当前深度下深度图像的视场区域与可见光图像的视场区域之间的重合区域占整个可见光图像的视场区域的比值。例如:在深度h1下,当前重合度W1为深度图像的视场区域S1与可见光图像的视场区域R1之间的重合区域C1与可见光图像的视场区域R1的比值,即W1=C1/R1;而在深度h2下,当前重合度W2为深度图像的视场区域S2与可见光图像的视场区域R2之间的重合区域C2与可见光图像的视场区域R2的比值,即W2=C2/R2。
请参阅图5,本发明实施方式的图像采集装置100可以应用于本发明实施方式的计算机设备1000中,也即是说,本发明实施方式的计算机设备1000可以包括本发明实施方式的图像采集装置100。图像获取装置10(图2所示)可以设置在计算机设备1000中。计算机设备1000包括手机、平板电脑、笔记本电脑、智能手环、智能手表、智能头盔、智能眼镜等。本发明实施方式中,以计算机设备1000为手机为例进行说明,可以理解,计算机设备1000的具体形式并不限于手机。
当图像采集装置100为前置的图像采集装置100时,本发明的图像获取方法可以应用于自拍、人脸解锁、人脸加密、人脸支付等人脸识别的应用场景中,目标物体为用户的人脸。在一个例子中,在当前重合度小于预设范围的最小值时,发出提示信息以供目标物体增大其深度;和/或,在当前重合度大于预设范围的最大值时,发出提示信息以供目标物体减小其深度。例如,预设范围为[80%,90%],在预设范围内,例如人脸与深度相机(图像获取装置10、图像采集装置100、或计算机设备1000)之间的深度为40cm,当前重合度为85%,手机(深度相机)能够获得较完整且较精确的深度数据,表示当前人脸与手机(深度相机)之间的距离适当,手机不用发出提示信息,用户也不用做深度调整。在当前重合度小于80%时,表示当前人脸与手机(深度相机)之间的距离过近,例如人脸与手机(深度相机)之间的深度为20cm,当前重合度为65%,小于预设范围的最小值80%,深度相机只能覆盖部分人脸,在此当前距离下手机(深度相机)只能采集部分人脸的深度数据。因此,手机发出提示信息让用户增大用户与手机之间的当前距离。在当前重合度大于90%时,表示当前人脸与手机之间的距离过远,例如人脸与手机(深度相机)之间的深度为100cm,当前重合度为95%,小于预设范围的最大值90%,深度相机投射的激光图案密度较低,在此当前距离下,虽然手机(深度相机)能够采集完整的人脸深度数据,但是深度相机需增大投射功率以提高激光图案的密度,使得手机更加耗电。因此,手机发出提示信息让用户减小用户与手机(深度相机)之间的当前距离。因此,处理器40还用于实现以下步骤:在当前重合度小于预设范围的最小值时,发出提示信息以供目标物体增大其深度;和/或,在当前重合度大于预设范围的最大值时,发出提示信息以供目标物体减小其深度。
综上,本发明实施方式的图像获取方法、图像获取装置10、图像采集装置100和计算机设备1000根据目标物体的当前深度确定深度图像的视场区域与可见光图像的视场区域的重合区域占整个可见光图像的视场区域的当前重合度,判断当前重合度是否在预设范围内,并在当前重合度超出预设范围时,发出提示信息以供目标物体调整其深度,即增大目标物体的深度和减小目标物体的深度,如此,目标物体与图像获取装置10之间的距离合适,也即是说,目标物体与图像获取装置10之间的距离不会过近,以使图像获取装置10能够获取完整的深度数据,目标物体与图像获取装置10之间的距离也不会过远,以使图像获取装置10在功率较低的情况下也能够获取较为精确的深度数据。
请参阅图6,在某些实施方式中,步骤014包括以下子步骤:
0141:根据当前深度、可见光摄像头30的视场范围、红外光摄像头24的视场范围、及可见光摄像头30与红外光摄像头24之间的预设距离L(如图8)来获取深度图像的视场区域与可见光图像的视场区域的重合区域及非重合区域;及
0142:计算可见光图像的视场区域的重合区域占整个可见光图像的视场区域的比值以得到当前重合度。
请结合参阅图7,在某些实施方式中,第四获取模块14包括获取单元141和计算单元142。获取单元141用于根据可见光摄像头30的视场范围、红外光摄像头24的视场范围、及可见光摄像头30与红外光摄像头24之间的预设距离L来获取深度图像的视场区域与可见光图像的视场区域的重合区域及非重合区域。计算单元142用于计算可见光图像的视场区域的重合区域占整个可见光图像的视场区域的比值以得到当前重合度。
请结合图5,处理器40还可用于:根据当前深度、可见光摄像头30的视场范围、红外光摄像头24的视场范围、及可见光摄像头30与红外光摄像头24之间的预设距离L来获取深度图像的视场区域与可见光图像的视场区域的重合区域及非重合区域;及,计算可见光图像的视场区域的重合区域占整个可见光图像的视场区域的比值以得到当前重合度。也即是说,步骤0141至步骤0142可以由处理器40实现。
请参阅图8,具体地,视场角包括水平视场角α和垂直视场角β,水平视场角α和垂直视场角β确定了视场范围。本发明实施方式以红外光摄像头24和可见光摄像头30的垂直视场角β相同而水平视场角α不同进行说明。在红外光摄像头24和可见光摄像头30的水平视场角α相同,垂直视场角β不同、以及红外光摄像头24和可见光摄像头30的水平视场角和垂直视场角β均不同时原理类似,在此不再赘述。
请结合参阅图5,图像采集装置100或计算机设备1000在出厂时,可见光摄像头30的视场范围、红外光摄像头24的视场范围、及可见光摄像头30与红外光摄像头24之间的预设距离L就确定了,深度图像的视场区域和可见光图像的视场区域的重合区域及非重合区域的大小与目标物体的当前深度、可见光摄像头30的视场范围、红外光摄像头24的视场范围、及可见光摄像头30与红外光摄像头24之间的预设距离L存在对应关系,例如,在当前深度固定,可见光摄像头30的视场范围、红外光摄像头24的视场范围不变时,随着可见光摄像头30与红外光摄像头24之间的预设距离L越来越大,深度图像的视场区域和可见光图像的视场区域的重合区域递减,而二者视场区域的非重合区域递增;又例如,在当前深度固定,可见光摄像头30的视场范围不变、可见光摄像头30与红外光摄像头24之间的预设距离L不变时,随着红外光摄像头24的视场范围的增大,深度图像的视场区域和可见光图像的视场区域的重合区域递增,而二者视场区域的非重合区域递减;再例如,在当前深度固定,红外光摄像头24的视场范围不变、和可见光摄像头30与红外光摄像头24之间的预设距离L不变时,随着可见光摄像头30的视场范围的增大,深度图像的视场区域和可见光图像的视场区域的重合区域递增,而二者视场区域的非重合区域递减。
如此,可以根据目标物体200的当前深度、出厂时的可见光摄像头30和红外光摄像头24的预设参数来确定深度图像的视场区域和可见光图像的视场区域的重合区域、可见光图像的视场区域的非重合区域、及深度图像的视场区域的非重合区域,算法简单,从而快速确定可见光图像的视场区域的重合区域的大小和非重合区域的大小。然后,根据上述的公式计算当前重合度。
请继续参阅图4,在某些实施方式中,在可见光摄像头30和红外光摄像头24的预设距离相同时,当前重合度随着目标物体200的深度的增加而增加;和/或,在目标物体200的当前深度相同时,当前重合度随着可见光摄像头30和红外光摄像头24的预设距离增加而减小。例如,h1深度处的当前重合度小于h2深度处的当前重合度。
请参阅图9,本发明实施方式还提供了一种计算机可读存储介质200。一个或多个非易失性计算机可读存储介质200包含计算机可执行指令202,当计算机可执行指令202被一个或多个处理器执行时,使得处理器40执行上述任一实施方式的图像获取方法,例如执行步骤011:获取当前场景的深度图像;012:获取当前场景的可见光图像;013:根据深度图像和可见光图像获取当前场景中的目标物体的当前深度;014:获取在当前深度下深度图像的视场区域与可见光图像的视场区域之间的重合区域占整个可见光图像的视场区域的当前重合度;015:判断当前重合度是否在预设范围内;及,016:在当前重合度超出预设范围时,发出提示信息以供目标物体调整其深度。
请参阅图10,本发明实施方式提供一种计算机设备1000。计算机设备1000包括结构光投射器22、红外光摄像头24、可见光摄像头30、处理器40、红外补光灯70、显示屏80、扬声器90及存储器110。其中,处理器40包括微处理器42及应用处理器44。
目标物体的可见光图像可以由可见光摄像头30采集,可见光摄像头30可通过集成电路总线60、移动产业处理器接口32与应用处理器44连接。应用处理器44可用于使能可见光摄像头30、关闭可见光摄像头30或重置可见光摄像头30。可见光摄像头30可用于采集彩色图像,应用处理器44通过移动产业处理器接口32从可见光摄像头30中获取彩色图像,并将该彩色图像存入非可信执行环境444中。
目标物体的红外图像可以由红外光摄像头24采集,红外光摄像头24可以与应用处理器44连接,应用处理器44可用于控制红外光摄像头24的电源启闭、关闭(pwdn)红外光摄像头24或重置(reset)红外光摄像头24;同时,红外光摄像头24还可以与微处理器42连接,微处理器42与红外光摄像头24可以通过集成电路(Inter-Integrated Circuit,I2C)总线60连接,微处理器42可以给红外光摄像头24提供采集红外图像的时钟信息,红外光摄像头24采集的红外图像可以通过移动产业处理器接口(Mobile Industry ProcessorInterface,MIPI)422传输到微处理器42中。红外补光灯70可用于向外发射红外光,红外光被用户反射后被红外光摄像头24接收,红外补光灯70与应用处理器44可以通过集成电路总线60连接,应用处理器44可用于使能红外补光灯70,红外补光灯70还可以与微处理器42连接,具体地,红外补光灯70可以连接在微处理器42的脉冲宽度调制接口(Pulse WidthModulation,PWM)424上。
结构光投射器22可向目标物体投射激光。结构光投射器22可以与应用处理器44连接,应用处理器44可用于使能结构光投射器22并通过集成电路总线60连接;结构光投射器22还可以与微处理器42连接,具体地,结构光投射器22可以连接在微处理器42的脉冲宽度调制接口424上。
微处理器42可以是处理芯片,微处理器42与应用处理器44连接,具体地,应用处理器44可用于重置微处理器42、唤醒(wake)微处理器42、纠错(debug)微处理器42等,微处理器42可通过移动产业处理器接口422与应用处理器44连接,具体地,微处理器42通过移动产业处理器接口422与应用处理器44的可信执行环境442连接,以将微处理器42中的数据直接传输到可信执行环境442中存储。其中,可信执行环境442中的代码和内存区域都是受访问控制单元控制的,不能被非可信执行环境(Rich Execution Environment,REE)444中的程序所访问,可信执行环境442和非可信执行环境444均可以形成在应用处理器44中。
微处理器42可以通过接收红外光摄像头24采集的红外图像以获取红外图像,微处理器42可将该红外图像通过移动产业处理器接口422传输至可信执行环境442中,从微处理器42中输出的红外图像不会进入到应用处理器44的非可信执行环境444中,而使得该红外图像不会被其他程序获取,提高计算机设备1000的信息安全性。存储在可信执行环境442中的红外图像可作为红外模板。
微处理器42控制结构光投射器22向目标物体投射激光后,还可以控制红外光摄像头24采集由目标物体调制后的激光图案,微处理器42再通过移动产业处理器接口422获取该激光图案。微处理器42处理该激光图案以得利深度图像,具体地,微处理器42中可以存储有结构光投射器22投射的激光的标定信息,微处理器42通过处理激光图案与该标定信息得到目标物体不同位置的深度并形成深度图像。得到深度图像后,再通过移动产业处理器接口422传输至可信执行环境442中。存储在可信执行环境442中的深度图像可作为深度模板。
计算机设备1000中,将获取得到的红外模板和深度模板均存储在可信执行环境442中,在可信执行环境442中的验证模板不易被篡改和盗用,计算机设备1000内的信息的安全性较高。
在一个例子中,微处理器42与应用处理器44可以为两个彼此互相独立的单体结构;在另一个例子中,微处理器42与应用处理器44可以集成为一个单体结构,以形成一个处理器40。
显示屏80可为液晶显示屏(Liquid Crystal Display,LCD),也可以为有机发光二极管(Organic Light-Emitting Diode,OLED)显示屏。在当前重合度超出预设范围时,显示屏80可以用于发出图文提示信息。图文提示信息存储在计算机设备1000内。在一个例子中,提示信息仅为文字,例如文字为“用户当前距离计算机设备1000过近,请增大计算机设备1000与用户之间的距离。”或“用户当前距离计算机设备1000过远,请减小计算机设备1000与用户之间的距离。”在另一个例子中,显示屏80显示具有与预设范围对应的方框或圆圈,例如,预设范围为[80%,90%],则方框或圆圈占整个显示屏80的85%,并显示文字“请改变计算机设备1000与用户之间的距离,直至人脸保持在方框或圆圈范围内。”
扬声器90可以设置在计算机设备1000上,也可以为与计算机设备1000连接的外设设备,例如音响。在当前重合度超出预设范围时,扬声器90可以用于发出语音提示信息。语音提示信息存储在计算机设备1000内。在一个例子中,语音提示信息可以为“用户当前距离计算机设备1000过近,请增大计算机设备1000与用户之间的距离。”或“用户当前距离计算机设备1000过远,请减小计算机设备1000与用户之间的距离。”在本实施例中,提示信息可以为仅为图文提示信息,也可以仅为语音提示信息,还可以为同时包括图文和语音的提示信息。
运用图10中的处理器40可实现上述任一实施方式的图像获取方法的,例如,处理器40可用于执行以下步骤:011:获取当前场景的深度图像;012:获取当前场景的可见光图像;013:根据深度图像和可见光图像获取当前场景中的目标物体的当前深度;014:获取在当前深度下深度图像的视场区域与可见光图像的视场区域之间的重合区域占整个可见光图像的视场区域的当前重合度;015:判断当前重合度是否在预设范围内;及,016:在当前重合度超出预设范围时,发出提示信息以供目标物体调整其深度。再例如,运用图10中的处理器40还可实现:0141:根据当前深度、可见光摄像头30的视场范围、红外光摄像头24的视场范围、及可见光摄像头30与红外光摄像头24之间的预设距离来获取深度图像与可见光图像的视场区域的重合区域及非重合区域;及,0142:计算可见光图像的视场区域的重合区域占整个可见光图像的视场区域的比值以得到当前重合度。
存储器110与微处理器42和应用处理器44均连接。存储器110中储存有计算机可读指令111,计算机可读指令111被处理器40执行时,处理器40执行上述任一实施方式的深度获取方法。具体地,微处理器42可用于执行步骤011中的方法,应用处理器44用于执行步骤011、012、013、014、015、016、0141、0142中的方法。或者,微处理器42可用于执行步骤011、012、013、014、015、016、0141、0142中的方法。或者,微处理器42可用于执行步骤011、012、013、014、015、016、0141、0142中至少一个的方法,应用处理器44用于执行步骤011、012、013、014、015、016、0141、0142中剩余步骤的方法。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (11)

1.一种图像获取方法,应用于图像采集装置,其特征在于,所述图像采集装置包括深度摄像模组和可见光摄像头,所述深度摄像模组用于获取当前场景的深度图像,所述可见光摄像头用于获取当前场景的可见光图像,所述图像获取方法包括:
获取当前场景的深度图像;
获取当前场景的可见光图像;
根据所述深度图像和所述可见光图像获取当前场景中的目标物体的当前深度;
获取在所述当前深度下所述深度图像的视场区域与所述可见光图像的视场区域之间的重合区域占整个所述可见光图像的视场区域的当前重合度;
判断所述当前重合度是否在预设范围内;及
在所述当前重合度超出所述预设范围时,发出提示信息以供所述目标物体调整其深度。
2.根据权利要求1所述的图像获取方法,其特征在于,所述深度摄像模组包括红外光摄像头,所述获取在所述当前深度下所述深度图像的视场区域与所述可见光图像的视场区域之间的重合区域占整个所述可见光图像的视场区域的当前重合度的步骤包括:
根据所述当前深度、所述可见光摄像头的视场范围、所述红外光摄像头的视场范围、及所述可见光摄像头与所述红外光摄像头之间的预设距离来获取所述深度图像的视场区域与所述可见光图像的视场区域的重合区域及非重合区域;及
计算所述可见光图像的视场区域的重合区域占整个所述可见光图像的视场区域的比值以得到所述当前重合度。
3.根据权利要求2所述的图像获取方法,其特征在于,在所述预设距离相同时,所述当前重合度随着所述目标物体的深度的增加而增加;或/和
在所述当前深度相同时,所述当前重合度随着所述预设距离的增加而减小。
4.根据权利要求1所述的图像获取方法,其特征在于,所述图像获取方法还包括:
在所述当前重合度小于所述预设范围的最小值时,发出提示信息以供所述目标物体增大其深度;和/或
在所述当前重合度大于所述预设范围的最大值时,发出提示信息以供所述目标物体减小其深度。
5.一种图像获取装置,应用于图像采集装置,其特征在于,所述图像采集装置包括深度摄像模组和可见光摄像头,所述深度摄像模组用于获取当前场景的深度图像,所述可见光摄像头用于获取当前场景的可见光图像,所述图像获取装置包括:
第一获取模块,获取当前场景的深度图像;
第二获取模块,获取当前场景的可见光图像;
第三获取模块,根据所述深度图像和所述可见光图像获取当前场景中的目标物体的当前深度;
第四获取模块,获取在所述当前深度下所述深度图像的视场区域与所述可见光图像的视场区域之间的重合区域占整个所述可见光图像的视场区域的当前重合度;
判断模块,判断所述当前重合度是否在预设范围内;及
提示模块,在所述当前重合度超出所述预设范围时,发出提示信息以供所述目标物体调整其深度。
6.一种图像采集装置,其特征在于,所述图像采集装置包括:
深度摄像模组,获取当前场景的深度图像;
可见光摄像头,获取当前场景的可见光图像;
处理器,用于:
根据所述深度图像和所述可见光图像获取当前场景中的目标物体的当前深度;
获取在所述当前深度下所述深度图像的视场区域与所述可见光图像的视场区域之间的重合区域占整个所述可见光图像的视场区域的当前重合度;
判断所述当前重合度是否在预设范围内;及
在所述当前重合度超出所述预设范围时,发出提示信息以供所述目标物体调整其深度。
7.根据权利要求6所述的图像采集装置,其特征在于,所述深度摄像模组包括红外光摄像头,所述处理器还用于:
根据所述当前深度、所述可见光摄像头的视场范围、所述红外光摄像头的视场范围、及所述可见光摄像头与所述红外光摄像头之间的预设距离来获取所述深度图像的视场区域与所述可见光图像的视场区域的重合区域及非重合区域;及
计算所述可见光图像的视场区域的重合区域占整个所述可见光图像的视场区域的比值以得到所述当前重合度。
8.根据权利要求7所述的图像采集装置,其特征在于,在所述预设距离相同时,所述当前重合度随着所述目标物体的深度的增加而增加;或/和
在所述当前深度相同时,所述当前重合度随着所述预设距离的增加而减小。
9.根据权利要求7所述的图像采集装置,其特征在于,所述处理器还用于:
在所述当前重合度小于所述预设范围的最小值时,发出提示信息以供所述目标物体增大其深度;和/或
在所述当前重合度大于所述预设范围的最大值时,发出提示信息以供所述目标物体减小其深度。
10.一个或多个包含计算机可执行指令的非易失性计算机可读存储介质,当所述计算机可执行指令被一个或多个处理器执行时,使得所述处理器执行如权利要求1至4中任一项所述的图像获取方法。
11.一种计算机设备,包括存储器及处理器,所述存储器中储存有计算机可读指令,所述指令被所述处理器执行时,使得所述处理器执行如权利要求1至4中任一项所述的图像获取方法。
CN201810574253.8A 2018-06-06 2018-06-06 图像获取方法及装置、图像采集装置、计算机设备和可读存储介质 Active CN108769476B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201810574253.8A CN108769476B (zh) 2018-06-06 2018-06-06 图像获取方法及装置、图像采集装置、计算机设备和可读存储介质
EP19815232.4A EP3796634A4 (en) 2018-06-06 2019-01-08 IMAGE CAPTURE METHOD AND DEVICE, IMAGE RECORDING DEVICE, COMPUTER DEVICE AND READABLE STORAGE MEDIUM
PCT/CN2019/070853 WO2019233106A1 (zh) 2018-06-06 2019-01-08 图像获取方法及装置、图像采集装置、计算机设备和可读存储介质
US17/104,775 US20210084280A1 (en) 2018-06-06 2020-11-25 Image-Acquisition Method and Image-Capturing Device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810574253.8A CN108769476B (zh) 2018-06-06 2018-06-06 图像获取方法及装置、图像采集装置、计算机设备和可读存储介质

Publications (2)

Publication Number Publication Date
CN108769476A CN108769476A (zh) 2018-11-06
CN108769476B true CN108769476B (zh) 2019-07-19

Family

ID=63999031

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810574253.8A Active CN108769476B (zh) 2018-06-06 2018-06-06 图像获取方法及装置、图像采集装置、计算机设备和可读存储介质

Country Status (4)

Country Link
US (1) US20210084280A1 (zh)
EP (1) EP3796634A4 (zh)
CN (1) CN108769476B (zh)
WO (1) WO2019233106A1 (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108769476B (zh) * 2018-06-06 2019-07-19 Oppo广东移动通信有限公司 图像获取方法及装置、图像采集装置、计算机设备和可读存储介质
CN109241955B (zh) * 2018-11-08 2022-04-19 联想(北京)有限公司 识别方法和电子设备
CN110415287B (zh) * 2019-07-11 2021-08-13 Oppo广东移动通信有限公司 深度图的滤波方法、装置、电子设备和可读存储介质
CN113126072B (zh) * 2019-12-30 2023-12-29 浙江舜宇智能光学技术有限公司 深度相机及控制方法
CN111722240B (zh) * 2020-06-29 2023-07-21 维沃移动通信有限公司 电子设备、对象跟踪方法及装置
CN115022661B (zh) * 2022-06-02 2023-04-25 山西鑫博睿科技有限公司 一种视频直播环境监测分析调控方法、设备及计算机存储介质
CN115661668B (zh) * 2022-12-13 2023-03-31 山东大学 一种辣椒花待授粉花朵识别方法、装置、介质及设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104346816A (zh) * 2014-10-11 2015-02-11 京东方科技集团股份有限公司 一种深度确定方法、装置及电子设备
CN105303128A (zh) * 2014-07-31 2016-02-03 中国电信股份有限公司 一种防止未经授权使用移动终端的方法和移动终端
CN106683071A (zh) * 2015-11-06 2017-05-17 杭州海康威视数字技术股份有限公司 图像的拼接方法和装置
CN207248115U (zh) * 2017-08-01 2018-04-17 深圳市易尚展示股份有限公司 彩色三维扫描仪

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4812510B2 (ja) * 2006-05-17 2011-11-09 アルパイン株式会社 車両周辺画像生成装置および撮像装置の測光調整方法
US10477184B2 (en) * 2012-04-04 2019-11-12 Lifetouch Inc. Photography system with depth and position detection
CN103390164B (zh) * 2012-05-10 2017-03-29 南京理工大学 基于深度图像的对象检测方法及其实现装置
KR101956353B1 (ko) * 2012-12-05 2019-03-08 삼성전자주식회사 영상 처리 장치 및 3d 영상 생성 방법
CN106030614A (zh) * 2014-04-22 2016-10-12 史內普艾德有限公司 基于对一台摄像机所拍摄的图像的处理来控制另一台摄像机的系统和方法
TWI538508B (zh) * 2014-08-15 2016-06-11 光寶科技股份有限公司 一種可獲得深度資訊的影像擷取系統與對焦方法
KR101539038B1 (ko) * 2014-09-02 2015-07-24 동국대학교 산학협력단 복수의 깊이 카메라로부터 취득한 깊이 맵의 홀 필링 방법
CN105530503A (zh) * 2014-09-30 2016-04-27 光宝科技股份有限公司 深度图建立方法与多镜头相机系统
CN106161910B (zh) * 2015-03-24 2019-12-27 北京智谷睿拓技术服务有限公司 成像控制方法和装置、成像设备
CN204481940U (zh) * 2015-04-07 2015-07-15 北京市商汤科技开发有限公司 双目摄像头拍照移动终端
US9857167B2 (en) * 2015-06-23 2018-01-02 Hand Held Products, Inc. Dual-projector three-dimensional scanner
CN107862259A (zh) * 2017-10-24 2018-03-30 重庆虚拟实境科技有限公司 人像采集方法及装置、终端装置和计算机可读存储介质
CN108769476B (zh) * 2018-06-06 2019-07-19 Oppo广东移动通信有限公司 图像获取方法及装置、图像采集装置、计算机设备和可读存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105303128A (zh) * 2014-07-31 2016-02-03 中国电信股份有限公司 一种防止未经授权使用移动终端的方法和移动终端
CN104346816A (zh) * 2014-10-11 2015-02-11 京东方科技集团股份有限公司 一种深度确定方法、装置及电子设备
CN106683071A (zh) * 2015-11-06 2017-05-17 杭州海康威视数字技术股份有限公司 图像的拼接方法和装置
CN207248115U (zh) * 2017-08-01 2018-04-17 深圳市易尚展示股份有限公司 彩色三维扫描仪

Also Published As

Publication number Publication date
EP3796634A4 (en) 2021-06-23
WO2019233106A1 (zh) 2019-12-12
US20210084280A1 (en) 2021-03-18
EP3796634A1 (en) 2021-03-24
CN108769476A (zh) 2018-11-06

Similar Documents

Publication Publication Date Title
CN108769476B (zh) 图像获取方法及装置、图像采集装置、计算机设备和可读存储介质
TWI714131B (zh) 控制方法、微處理器、電腦可讀記錄媒體及電腦設備
CN104113688B (zh) 一种图像处理方法及其电子设备
US20090315869A1 (en) Digital photo frame, information processing system, and control method
CN108961195A (zh) 图像处理方法及装置、图像采集装置、可读存储介质和计算机设备
CN105874473A (zh) 利用了脸部构成要素距离的虹膜识别用图像的取得装置和方法
CN104380729A (zh) 摄像机参数的上下文驱动调整
CN107820005B (zh) 图像处理方法、装置和电子装置
WO2019109904A1 (zh) 智能终端控制方法、智能终端及具有存储功能的装置
JP2015513711A (ja) ディスプレイ映像の回転を制御する装置及びその方法
US20200084387A1 (en) Low power mode for one or more cameras of a multiple camera system
CN104423913B (zh) 光线参数测量方法、装置及屏幕调节方法、电子设备
CN104865701B (zh) 头戴式显示装置
CN105957499A (zh) 控制方法、控制装置及电子装置
CN109068036A (zh) 控制方法及装置、深度相机、电子装置及可读存储介质
CN109194873A (zh) 一种图像处理方法及装置
CN106507005A (zh) 背光亮度的调节方法及装置
CN109726694A (zh) 一种虹膜图像采集方法及装置
CN109960481A (zh) 显示系统及其控制方法、显示装置及其控制方法
CN108777784B (zh) 深度获取方法和装置、电子装置、计算机设备和存储介质
CN110135370A (zh) 人脸活体检测的方法及装置、电子设备、计算机可读介质
CN108595928A (zh) 人脸识别的信息处理方法、装置及终端设备
CN107800962A (zh) 图像处理方法、装置和电子装置
CN105959569A (zh) 一种智能终端拍照方法
CN104345772B (zh) 一种信息处理方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant