WO2020124577A1 - 相机拍摄参数的确定方法和装置 - Google Patents

相机拍摄参数的确定方法和装置 Download PDF

Info

Publication number
WO2020124577A1
WO2020124577A1 PCT/CN2018/122762 CN2018122762W WO2020124577A1 WO 2020124577 A1 WO2020124577 A1 WO 2020124577A1 CN 2018122762 W CN2018122762 W CN 2018122762W WO 2020124577 A1 WO2020124577 A1 WO 2020124577A1
Authority
WO
WIPO (PCT)
Prior art keywords
expression level
image
camera
rear camera
shooting parameters
Prior art date
Application number
PCT/CN2018/122762
Other languages
English (en)
French (fr)
Inventor
林威丞
Original Assignee
华为技术有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 华为技术有限公司 filed Critical 华为技术有限公司
Priority to CN201880090275.5A priority Critical patent/CN111771372A/zh
Priority to PCT/CN2018/122762 priority patent/WO2020124577A1/zh
Publication of WO2020124577A1 publication Critical patent/WO2020124577A1/zh

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Definitions

  • determining the shooting parameters of the rear camera according to the expression level includes: determining a parameter adjustment coefficient according to the expression level, and using the parameter adjustment coefficient to adjust the basic shooting parameters to obtain the shooting parameters.
  • determining the shooting parameters of the rear camera according to the expression level includes: determining a shooting scene according to the second image shot by the rear camera, the shooting scene is used to indicate the classification to which the second image belongs, based on the expression The level and shooting scene determine the shooting parameters.
  • the method further includes: adding a facial expression mark to the third image captured by the rear camera, the facial expression mark being identification information corresponding to the expression level.
  • the present application provides a device for determining camera shooting parameters, including: a recognition module for performing face recognition on a first image taken by a front camera to determine a target face present in the first image; a processing module Is used to determine the expression level corresponding to the target face, and the expression level is used to indicate the degree of joy and grief displayed by the expression of the target face; the determination module is used to determine the shooting parameters of the rear camera according to the expression level.
  • it further includes: an opening module, which is used to turn on the rear camera and the front camera.
  • the recognition module is specifically configured to perform face recognition on the first image to determine multiple faces; select one of the multiple faces as the target face.
  • the determination module is specifically configured to determine the parameter adjustment coefficient according to the expression level; the parameter adjustment coefficient is used to adjust the basic shooting parameters to obtain the shooting parameters.
  • the method further includes: a marking module, configured to add a facial expression mark to the third image captured by the rear camera, and the facial expression mark is identification information corresponding to the expression level.
  • 4a-4e are schematic diagrams showing the degree of joy and grief displayed by the expressions of the users corresponding to the five expression levels of the application;
  • FIG. 7 and 8 are schematic diagrams of two structures of Embodiment 2 of a device for determining camera shooting parameters of the present application;
  • FIG. 9 is a schematic structural diagram of an embodiment of an electronic device of the present application.
  • the terminal device can already recognize the scene (for example, landscape, food, portrait, etc.) of the currently captured image, and then adjust the image signal processor (image signal processor, ISP for short) of the camera (especially the rear camera) according to different scenes.
  • the setting of shooting parameters such as brightness, color and shutter speed, so that the captured image is more in line with the characteristics of the current scene.
  • the terminal device needs to perform face recognition on the first image taken by the front camera. This recognition process is based on image recognition technology, and it is necessary to first detect whether there is a face from the image. Due to the posture of the user holding the terminal device, the front camera may not capture the user's face during the shooting. If the terminal device recognizes the image, there is no face in the first image, or the face is incomplete ( In particular, the expression cannot be recognized from part of the human face of the image), the terminal device will use the default shooting parameters or scene-based shooting parameters to control the ISP of the rear camera.
  • the terminal device will determine how many faces are in the first image, and when the number of faces is one, the terminal device will determine the unique face For the target face.
  • the terminal device will select one of the multiple faces as the target face, for example, the face with the largest occupied area is determined as the target face, because the face with the largest occupied area Indicates that it is the person closest to the terminal device, most likely the user who is shooting with the terminal device.
  • the terminal device may determine the target face in other ways, for example, randomly select one of them as the target face.
  • Step 102 Determine the expression level corresponding to the target face.
  • the expression level is used to indicate the degree of joy and grief displayed by the expression of the target face.
  • the degree of joy and grief, or the mood of the character object can be expressed through the expression of the human face.
  • facial expressions are a surface reflection of a person’s mood. For example, when the user’s face does not have any expression, it means that the user’s mood is relatively calm and general. When a smile appears on the user’s face, it means that the user is at this time Is in a happy mood. When there is a big smile on the user's face, it means that the user's mood at this time is very happy.
  • this application uses the expression level to indicate the level of happiness and anxiety displayed by the user's expression, that is, the user's expression is divided into multiple levels, and the level value corresponding to each level is used to indicate the level of happiness and anxiety.
  • Figure 4a- Figure 4e is a schematic diagram showing the degree of joy and anxiety displayed by the user's expressions corresponding to the five expression levels of this application. It can be seen that the facial expressions of people in different mood states are different, and the expression levels include 1-5:1 for general Normal, 2 means a little happiness, 3 means ordinary happiness, 4 means very happy, and 5 means strong happiness.
  • Step 103 Determine the shooting parameters of the rear camera according to the expression level.
  • the terminal device may determine the product of the parameter adjustment coefficient and the basic shooting parameters as the shooting parameters, and the basic shooting parameters are the reference values in the shooting parameters.
  • facial expression_brightness basic_brightness ⁇ face expression_level (x), where basic_brightness is a fixed value, which can be regarded as the reference value of brightness , The value range of x is 1-5, the facial expression_brightness is the brightness value after adjusting the basic brightness according to the user's expression level.
  • the terminal device may also determine a shooting scene according to the second image shot by the rear camera, where the shooting scene is used to indicate the classification to which the second image belongs, and then determine shooting parameters according to the expression level and the shooting scene.
  • the shooting scene includes landscape, food, portrait, etc.
  • the terminal device determines which of the scene, food, or portrait is the shooting scene according to the second image captured by the rear camera.
  • the facial expression _brightness ⁇ post scene_brightness, last_brightness face expression_brightness
  • the facial expression_brightness ⁇ post scene_brightness, last_brightness post scene_brightness
  • the rear scene_brightness represents the brightness value corresponding to the shooting scene determined by the terminal device.
  • the terminal device compares the shooting parameter determined according to the expression level with the shooting parameter corresponding to the shooting scene, and the larger one is the final shooting parameter.
  • the shooting parameters of the rear camera of the terminal device have a range of values, and the final shooting parameters must be within this range.
  • Last_Brightness Allowable Minimum_Brightness. That is, the final shooting parameters are limited to the maximum and minimum values allowed by the ISP of the rear camera.
  • the terminal device will use the default shooting parameters or shooting parameters based on the shooting scene to control the ISP of the rear camera. If the expression level is 2-5, the terminal device increases the shooting parameters of the rear camera, and the degree of improvement is proportional to the expression level.
  • the front camera when shooting with the rear camera of the terminal device, the front camera is turned on to capture the user's facial expression, the shooting parameters of the rear camera are determined based on the user's expression level, and the user's mood is used as a reference factor for the shooting parameters, Make the captured image more in line with the user's current mood state.
  • the terminal device may add a facial expression mark to the third image captured by the rear camera.
  • the third image is captured according to the photographing parameters determined in step 103, and may be used for
  • the other one or more images captured after determining the second image of the shooting scene may also be the second image itself.
  • the facial expression mark is identification information corresponding to the expression level.
  • the facial expression mark (such as an expression image) is displayed in the image interface world on the screen to prompt the user of the expression level. Therefore, the facial expression mark obtained from the first image captured by the front camera can be superimposed on one or more images captured by the rear camera.
  • the terminal device can record facial expression markers in an exchangeable image file (exchangeable image file format, EXIF for short).
  • EXIF is specifically set for the photo of a digital camera and can record the shooting data and attribute information of the digital photo.
  • the mark may be an emoji displayed on the image. This makes it easier for users to search for such images in the future.
  • FIG. 5 is a schematic structural diagram of a device for determining camera shooting parameters of the present application.
  • ISP image signal processor
  • FIG. 5 shows that after the image is captured by the front camera of the device, the image is processed by an image signal processor (ISP) of the front camera. , And then through the face recognition, target face selection and expression level prediction and other functional modules, and finally output the expression level.
  • ISP image signal processor
  • the function and structure of the front ISP and rear ISP in Figure 5 are similar. They are used to perform automatic exposure control, various Class correction and processing.
  • At least one of face recognition, target face selection, and expression level prediction can be implemented by CNN, such as a neural processing unit (Neural-network Processing Unit, NPU) built-in CNN model).
  • NPU Neural-network Processing Unit
  • the shooting parameters determined by the expression level of 2-5 are used to control the autoexposure (AE) module, Gamma module, color correction (CC) module or color in the ISP of the rear camera of the electronic device
  • AE autoexposure
  • Gamma Gamma
  • CC color correction
  • CE enhancement
  • the module in the rear ISP is shown in FIG. 5 and includes multiple serial modules to form an image signal processing channel.
  • the AE module is used to control the shutter speed and automatic exposure brightness
  • the Gamma module is used to control the Gamma calibration of the image
  • the CC module and the CE module are used to control the color saturation, so to control the color saturation
  • the CC module or the CE module can be used to select Either one or both can be selected.
  • the brightness can be controlled on the AE module or Gamma module. Choose one or both.
  • the automatic white balance (AWB) module is used to balance the color temperature.
  • the device of FIG. 5 may be located in the electronic device mentioned in the previous embodiment. Specifically, the device may include a circuit board, a chip, a chipset, or necessary driver software, operating system software, or application software for the operation thereof, or a module including the above part .
  • the terminal device can control the ISP of the rear camera according to at least one of brightness, color saturation, or shutter speed, specifically including the following at least One operation: control at least one of the correction of the AE module or the Gamma module according to the brightness; control at least one of the CC module or the CE module according to the color saturation; or, control the AE module according to the shutter speed.
  • At least one of the front camera and the rear camera may be various types of cameras, including optical lenses and image acquisition devices, such as image sensors.
  • Any ISP is a processing device used to process the captured image, also called processing channel.
  • ISP usually includes a large number of hardware such as algorithm circuits or logic circuits, but it can also be implemented by combining software and hardware, for example, a processor runs a software program to implement image processing.
  • the CNN can be implemented by a processor, such as an NPU, which can selectively run software program instructions or be implemented by hardware such as logic circuits. Therefore, it can be understood that in each component in FIG. 5 of this embodiment, the camera is hardware, and any one or more of the other components may be implemented by hardware, software, or a combination of software and hardware.
  • Embodiment 1 is a schematic structural diagram of Embodiment 1 of an apparatus for determining camera shooting parameters of the present application.
  • the apparatus of this embodiment may be built into an electronic device, including: an identification module 11, a processing module 12, and a determination module 13, wherein ,
  • the recognition module 11 is used to perform face recognition on the first image taken by the front camera to determine the target face present in the first image;
  • the processing module 12 is used to determine the expression level corresponding to the target face
  • the expression level is used to indicate the degree of joy and grief displayed by the expression of the target face;
  • the determination module 13 is used to determine the shooting parameters of the rear camera according to the expression level.
  • Any one of the modules in FIG. 6 may be located in an electronic device, and may be implemented by software or hardware or a combination of the two.
  • the processor may be a central processing unit or other processor.
  • the determination module 13 may be a software module running by the central processing unit; the identification module 11 and the processing module 12 may be hardware components or running software modules in the NPU, corresponding to face recognition and target face selection in FIG. 5 And functional modules such as expression level prediction.
  • the device of this embodiment may be used to execute the technical solutions of the method embodiments shown in FIG. 2 to FIG. 4.
  • the recognition module 11 is specifically configured to perform face recognition on the first image to determine multiple faces; select one of the multiple faces as the target face.
  • the processing module 12 is specifically configured to process the target human face through a CNN obtained by pre-training to determine the expression level corresponding to the target human face.
  • the determination module 13 is specifically configured to determine a parameter adjustment coefficient according to the expression level; use the parameter adjustment coefficient to adjust a basic shooting parameter to obtain the shooting parameter.
  • the determination module 13 is specifically configured to determine a shooting scene based on the second image captured by the rear camera, and the shooting scene is used to indicate the classification to which the second image belongs; The expression level and the shooting scene determine the shooting parameters.
  • FIG. 7 and FIG. 8 are respectively two schematic structural diagrams of Embodiment 2 of the apparatus for determining camera shooting parameters of the present application.
  • the apparatus of this embodiment also It may include: an opening module 14, a marking module 15 and a control module 16.
  • the starting module 14 is used to turn on the rear camera and the front camera.
  • the marking module 15 is configured to add a facial expression mark to the third image captured by the rear camera, and the facial expression mark is identification information corresponding to the expression level.
  • the control module 16 is used for at least one of the following operations: controlling at least one of the correction of the AE module or the Gamma module according to the brightness; controlling at least one of the CC module or the CE module according to the color saturation; or, according to the The shutter speed controls the AE module.
  • Any one of the opening module 14, the marking module 15 and the control module 16 may also be implemented by software, hardware or a combination of the two, for example, a hardware component in a central processing unit or a running software module. Therefore, the device corresponding to any one of FIGS. 6 to 8 is at least a part of the processor in the electronic device as shown in FIG. 5 or a software program device running the same.
  • any of the modules When any of the modules is implemented by hardware, it may be an algorithm circuit, an analog circuit, a digital circuit, a hardware acceleration device, or a programmable logic device. When any of the modules is implemented by software, it can run on the processor and be stored in the memory.
  • FIG. 9 is a schematic structural diagram of an embodiment of an electronic device of the present application.
  • the electronic device includes a processor 20, a memory 21, an input device 22, and an output device 23;
  • the number of the processors 20 may be one or more, and one processor 20 is taken as an example in FIG. 9; the processor 20, the memory 21, the input device 22, and the output device 23 in the electronic device may be connected through a bus or other means,
  • FIG. 9 Take the connection through the bus as an example.
  • the memory 21 is a computer-readable storage medium and can be used to store software programs, computer executable programs, and modules, such as program instructions/modules corresponding to the method steps in the previous method embodiments.
  • the processor 20 executes various functional applications and data processing of the electronic device by running software programs, instructions, and modules stored in the memory 21, corresponding to the functional modules of face recognition, expression determination, and expression level prediction in FIG. 5 To achieve the above method for determining the camera shooting parameters.
  • the memory 21 may mainly include a storage program area and a storage data area, where the storage program area may store an operating system and application programs required for at least one function; the storage data area may store data created according to the use of the terminal, and the like.
  • the memory 21 may include a high-speed random access memory, and may also include a non-volatile memory, such as at least one magnetic disk storage device, a flash memory device, or other non-volatile solid-state storage devices.
  • the memory 21 may further include memories remotely provided with respect to the processor 20, and these remote memories may be connected to electronic devices through a network. Examples of the aforementioned network include, but are not limited to, the Internet, intranet, local area network, mobile communication network, and combinations thereof.
  • the input device 22 can be used to receive input digital or character information, and generate key signal input related to user settings and function control of the electronic device, for example, corresponding to a touch screen or a keyboard.
  • the output device 23 may include a display device such as a display screen.
  • the present application provides a computer-readable storage medium, where the computer-readable storage medium stores instructions, and when the instructions run on a computer, it is used to perform the method in the foregoing method embodiments.
  • the present application provides a computer program, which is used to execute the method in the foregoing method embodiments when the computer program is executed by a computer.
  • the disclosed device and method may be implemented in other ways.
  • the device embodiments described above are only schematic.
  • the division of the units is only a logical function division, and there may be other divisions in actual implementation, for example, multiple units or components may be combined or Can be integrated into another system, or some features can be ignored, or not implemented.
  • the displayed or discussed mutual coupling or direct coupling or communication connection may be indirect coupling or communication connection through some interfaces, devices or units, and may be in electrical, mechanical, or other forms.
  • each functional unit in each embodiment of the present application may be integrated into one processing unit, or may be each Units exist physically alone, or two or more units can be integrated into one unit.
  • the above integrated unit can be implemented in the form of hardware, or in the form of hardware plus software functional units.
  • the above integrated unit implemented in the form of a software functional unit may be stored in a computer-readable storage medium.
  • the above software functional unit is stored in a storage medium, and includes several instructions to enable a computer device (which may be a personal computer, server, or network device, etc.) or processor to execute the method described in each embodiment of the present application Partial steps.
  • the foregoing storage media include various media that can store program codes, such as a U disk, a mobile hard disk, a read-only memory (Read-Only Memory, ROM), a random access memory (Random Access Memory, RAM), a magnetic disk, or an optical disk.

Abstract

本申请提供一种相机拍摄参数的确定方法和装置。本申请相机拍摄参数的确定方法,包括:对前置相机拍摄的第一图像进行人脸识别以确定第一图像中存在的目标人脸;确定目标人脸对应的表情等级,表情等级用于指示目标人脸的表情所展示的喜忧程度;根据表情等级确定后置相机的拍摄参数。本申请将用户的心情作为拍摄参数的参考因素,使拍摄的图像更符合用户的当下心情状态。

Description

相机拍摄参数的确定方法和装置 技术领域
本申请涉及图像拍摄技术,尤其涉及一种相机拍摄参数的确定方法和装置。
背景技术
相机拍摄的图像的亮度、色彩和相机的快门速度都可以在一定范围内进行调整,容许用户依喜好自行设定其数值。一般用户多将相机设定为“自动模式”,在该模式下基于均衡性的考虑,亮度、色彩和快门速度均会设定于一个较保守的状态。目前,包括相机(尤其是后置相机)的电子设备,如手机,已经可以识别当前拍摄的场景(例如,风景、美食、人像等),对于不同的场景给予不同的亮度、色彩和快门速度设定,以突显当前场景特色,让用户对相机有更好的体验。
现有技术中,除了基于场景调整亮度、色彩和快门速度的设定外,还可以利用电子设备的前置相机获取用户的人脸信息,再根据用户的人脸信息确定拍摄过程中后置相机的对焦区域,以供后置相机进行自动对焦。即确定用户在拍摄预览界面中的注视区域,将该注视区域确定为对焦区域。由于对焦区域一定是用户真实想拍摄的区域,因此提高了对焦准确性。
但是,上述方法只关注用户眼部对应的注视区域,主要用于后置相机的准确对焦(即只涉及相机焦距的调整),而对于相机的亮度、色彩和快门速度的调整均不能使用该方法。
发明内容
本申请提供一种相机拍摄参数的确定方法和装置,使拍摄的图像更符合用户的当下心情状态。
第一方面,本申请提供一种相机拍摄参数的确定方法,包括:对前置相机拍摄的第一图像进行人脸识别以确定第一图像中存在的目标人脸,然后确定目标人脸对应的表情等级,该表情等级用于指示目标人脸的表情所展示的喜忧程度,最后根据表情等级确定后置相机的拍摄参数。
本申请通过在使用电子设备的后置相机拍摄时,开启前置相机拍摄用户的面部表情识别,基于用户的表情等级确定后置相机的拍摄参数,将用户的心情作为拍摄参数的参考因素,使拍摄的图像更符合用户的当下心情状态。
在一种可能的实现方式中,在对前置相机拍摄的第一图像进行人脸识别以确定第一图像中存在的目标人脸之前,还包括:开启后置相机和前置相机。
在一种可能的实现方式中,对前置相机拍摄的第一图像进行人脸识别以确定第一图像中存在的目标人脸,包括:对第一图像进行人脸识别以确定多个人脸,从多个人脸中选择一个作为目标人脸。
在一种可能的实现方式中,确定目标人脸对应的表情等级,包括:通过预先训练得到的CNN对目标人脸进行处理,以确定目标人脸对应的表情等级。
在一种可能的实现方式中,根据表情等级确定后置相机的拍摄参数,包括:根据表情等级确定参数调整系数,利用参数调整系数调整基础拍摄参数以得到拍摄参数。
在一种可能的实现方式中,根据表情等级确定后置相机的拍摄参数,包括:根据后置相机拍摄的第二图像确定拍摄场景,该拍摄场景用于指示第二图像属于的分类,根据表情等级和拍摄场景确定拍摄参数。
在一种可能的实现方式中,还包括:在后置相机拍摄的第三图像中加注人脸表情标记,该人脸表情标记为与表情等级对应的标识信息。
在一种可能的实现方式中,拍摄参数包括:亮度、色彩饱和度或快门速度中的至少一项。在根据表情等级确定后置相机的拍摄参数之后,还包括如下操作的至少一个:根据所述亮度控制后置相机的自动曝光AE或Gamma校正中的至少一个;根据所述色彩饱和度控制后置相机的色彩校正CC或色彩增强CE中的至少一个;或,根据所述快门速度控制所述AE。
第二方面,本申请提供一种相机拍摄参数的确定装置,包括:识别模块,用于对前置相机拍摄的第一图像进行人脸识别以确定第一图像中存在的目标人脸;处理模块,用于确定目标人脸对应的表情等级,表情等级用于指示目标人脸的表情所展示的喜忧程度;确定模块,用于根据表情等级确定后置相机的拍摄参数。
在一种可能的实现方式中,还包括:开启模块,用于开启后置相机和前置相机。
在一种可能的实现方式中,识别模块,具体用于对第一图像进行人脸识别以确定多个人脸;在多个人脸中选择一个作为目标人脸。
在一种可能的实现方式中,处理模块,具体用于通过预先训练得到的卷积神经网络网络CNN对目标人脸进行处理,以确定目标人脸对应的表情等级。
在一种可能的实现方式中,确定模块,具体用于根据表情等级确定参数调整系数;利用参数调整系数调整基础拍摄参数以得到拍摄参数。
在一种可能的实现方式中,确定模块,具体用于根据后置相机拍摄的第二图像确定拍摄场景,拍摄场景用于指示第二图像属于的分类;根据表情等级和拍摄场景确定拍摄参数。
在一种可能的实现方式中,还包括:标记模块,用于在后置相机拍摄的第三图像中加注人脸表情标记,人脸表情标记为与表情等级对应的标识信息。
在一种可能的实现方式中,拍摄参数包括:亮度、色彩饱和度或快门速度中的至少一项。控制模块,用于如下操作的至少一个:根据所述亮度控制后置相机的自动曝光AE或Gamma校正中的至少一个;根据所述色彩饱和度控制后置相机的色彩校正CC或色彩增强CE中的至少一个;或,根据所述快门速度控制所述AE。
第三方面,本申请提供一种相机拍摄参数的确定设备,包括:一个或多个处理器。可选地,该处理器可以是中央处理单元或其他处理器。该相机拍摄参数的确定设备进一步包括存储器,用于存储一个或多个程序;当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如上述第一方面中任一项的方法。
第四方面,本申请提供一种可读存储介质,可读存储介质存储有指令,当指令在电子设备或处理器上运行时,用于执行上述第一方面中任一项的方法。
第五方面,本申请提供一种程序,其特征在于,当程序被电子设备或处理器执行时,用于执行上述第一方面中任一项的方法。
附图说明
图1为本申请终端设备的结构示意图;
图2为本申请相机拍摄参数的确定方法实施例的流程图;
图3为本申请用户使用终端设备拍摄的场景示意图;
图4a-图4e为本申请五个表情等级对应的用户的表情所展示的喜忧程度示意图;
图5为本申请相机拍摄参数的确定设备的结构示意图;
图6为本申请相机拍摄参数的确定装置实施例一的结构示意图;
图7和图8分别为本申请相机拍摄参数的确定装置实施例二的两种结构示意图;
图9为本申请电子设备实施例的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合本申请中的附图,对本申请中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例涉及的电子设备包括但不限于具有通信功能的终端设备和不具有通信功能的电子设备。后续描述以所述终端设备为例但不用于限定。所述终端设备包括但不限于手机、可穿戴设备、平板电脑或物联网设备。所述不具有通信功能的电子设备包括但不限于具有拍摄能力的游戏机。
图1为本申请终端设备的结构示意图,如图1所示,这是用户面对终端设备屏幕的示意图,终端设备的前置相机(屏幕上方的相机)为设置于与终端设备的屏幕同一面的相机,后置相机(虚线表示)为设置于与终端设备的屏幕相背一面的相机。前置相机多用于自拍,后置相机则用于其他非自拍的大部分情况下的场景拍摄。本实施例中的相机也叫摄像头,包括但不限于光学器件和图像传感器,用于生成拍摄的图像。终端设备已经可以识别当前拍摄的图像属于的场景(例如,风景、美食、人像等),再依据不同的场景调整相机(尤其是后置相机)的图像信号处理器(imagesignalprocessor,简称:ISP)的亮度、色彩和快门速度等拍摄参数的设定,这样拍出的图像更符合当前场景特色。
除了拍摄的场景,用户拍摄时的心情也可以作为确定相机的拍摄参数的一个因素,例如,当用户面对一个令人感到快乐有趣的场景时,可以调高图像亮度,提升色彩鲜艳度,使拍摄出的图像效果明亮、鲜丽且活泼生动,符合用户的心情。但是终端设备无法侦查出当前场景是否为用户感到有趣的场景,也就无法在确定后置相机的拍摄参数时将用户的心情考虑进去。
本申请提供了一种相机拍摄参数的确定方法,下面通过几个实施例进行说明。图2为本申请相机拍摄参数的确定方法实施例的流程图,如图2所示,本实施例的方法可以由图1所示的终端设备执行,该方法可以包括:步骤101、对前置相机拍摄的第一图像进行人脸识别以确定第一图像中存在的目标人脸。本申请确定后置相机的拍摄参数需要参照用户的心情,因此在用户通过按键触发后置相机开启的同时终端设备也要开启前置相机,后置相机用于拍摄用户想拍摄的场景,前置相机用于捕捉用户的面部表情。图3为本申请用户使用终端设备拍摄的场景示意图,如图3所示,用户举着终端设备,其后置相机正对着前方和小狗玩的孩子,其前置相机正对着拍摄的用户的脸部。本实施例以及后续实施例涉及 的拍摄图像操作即对图像进行捕获,包括但不限于受用户控制的拍摄和用户控制拍摄前的预览拍摄。因此一个相机拍摄的图像即由该相机捕获的图像。
终端设备需要对前置相机拍摄的第一图像进行人脸识别,该识别过程基于图像识别技术,需要先从图像中检测是否存在人脸。由于用户手持终端设备拍摄的姿势的关系,有可能在拍摄时前置相机没有捕捉到用户的脸部,如果终端设备对图像的识别结果是第一图像中不存在人脸,或者人脸不全(尤其是不能从图像的部分人脸上识别到表情),终端设备将会使用默认的拍摄参数或者基于场景的拍摄参数来控制后置相机的ISP。如果终端设备对图像的识别结果是第一图像中存在人脸,终端设备会确定该第一图像中有几个人脸,当人脸个数为一个时,终端设备就会将这唯一人脸确定为目标人脸。当人脸个数为两个以上时,终端设备就会从多个人脸中选择一个作为目标人脸,例如将占用面积最大的人脸确定为目标人脸,这是因为占用面积最大的人脸表示其是离终端设备最近的人,最有可能是正在使用终端设备拍摄的用户。或者,终端设备可以其他方式确定目标人脸,例如随机选择其中的一个作为目标人脸。
步骤102、确定目标人脸对应的表情等级,该表情等级用于指示目标人脸的表情所展示的喜忧程度。该喜忧程度或者可以说是人物对象的心情,可以通过人脸的表情被表达出来。通常面部表情是人心情的一个表面反映,例如,当用户的面部没有任何表情时,表示该用户此时的心情是比较平静、一般的,当用户的脸上流露出微笑时,表示该用户此时的心情是愉悦的,当用户的脸上有大笑时,表示该用户此时的心情是非常开心的。因此本申请通过表情等级来表示用户的表情所展示的喜忧程度,即将用户的表情划分为多个等级,每个等级对应的等级值用于表示喜忧程度,示例性的,图4a-图4e为本申请五个表情等级对应的用户的表情所展示的喜忧程度示意图,可见人在不同的心情状态下,其面部表情呈现是各不相同的,表情等级包括1-5:1表示一般普通,2表示些微快乐,3表示普通快乐,4表示非常快乐,5表示强烈快乐。终端设备通过预先训练完成的内置于该终端设备的神经网络,例如卷积神经网络网络(convolutionalneuralnetwork,简称:CNN)对步骤101确定的目标人脸进行处理,确定该目标人脸对应的表情等级,下文以CNN为例作介绍,但其可以被深度神经网络(Deep Neural Network,简称:DNN)等其他神经网络代替。
步骤103、根据表情等级确定后置相机的拍摄参数。终端设备可以根据表情等级确定参数调整系数,示例性的,以下是表情等级和参数调整系数之间的对应关系:人脸表情_等级(1)=1.0,人脸表情_等级(2)=1.05,人脸表情_等级(3)=1.10,人脸表情_等级(4)=1.2,人脸表情_等级(5)=1.25。利用参数调整系数调整基础拍摄参数以得到拍摄参数,终端设备可以将参数调整系数和基础拍摄参数的乘积确定为拍摄参数,该基础拍摄参数为拍摄参数中的基准值。示例性的,以确定拍摄的亮度为例进行说明,人脸表情_亮度=基础_亮度×人脸表情_等级(x),其中,基础_亮度是一个固定值,可视为亮度的基准值,x的取值范围为1-5,人脸表情_亮度是根据用户的表情等级对基础亮度调整后的亮度值。
在一种可能的实现方式中,终端设备还可以根据后置相机拍摄的第二图像确定拍摄场景,该拍摄场景用于指示第二图像属于的分类,然后根据表情等级和拍摄场景确定拍摄参数。拍摄场景包括风景、美食、人像等,终端设备根据后置相机所拍摄的第二图像确定拍摄场景是风景、美食或者人像中的哪一种。示例性的,如果人脸表情_亮度≥后置场景_亮 度,最后_亮度=人脸表情_亮度,如果人脸表情_亮度<后置场景_亮度,最后_亮度=后置场景_亮度,其中后置场景_亮度表示终端设备确定出来的拍摄场景对应的亮度值,终端设备比较根据表情等级确定的拍摄参数和拍摄场景对应的拍摄参数,取较大者为最终的拍摄参数。
通常终端设备的后置相机的拍摄参数有一个取值范围,最终确定的拍摄参数一定要在这个范围内,示例性的,如果最后_亮度>容许最高_亮度,最后_亮度=容许最高_亮度,如果最后_亮度<容许最低_亮度,最后_亮度=容许最低_亮度。即最终的拍摄参数被限定于后置相机的ISP所允许的最大与最小值的范围之内。
另外,若是表情等级为1,则终端设备会使用默认的拍摄参数或者基于拍摄场景的拍摄参数来控制后置相机的ISP。若表情等级为2-5,则终端设备对后置相机的拍摄参数进行提升,提升的程度与表情等级成正比。
本实施例,通过在使用终端设备的后置相机拍摄时,开启前置相机拍摄用户的面部表情,基于用户的表情等级确定后置相机的拍摄参数,将用户的心情作为拍摄参数的参考因素,使拍摄的图像更符合用户的当下心情状态。
在上述技术方案的基础上,终端设备可以在后置相机拍摄的第三图像中加注人脸表情标记,该第三图像是根据步骤103确定的拍照参数进行拍摄得到的,既可以是用于确定拍摄场景的第二图像之后的拍摄到的其他一个或多个图像,也可以是第二图像本身。该人脸表情标记为与表情等级对应的标识信息。该人脸表情标记(例如表情图像)被显示在屏幕上的图像界面界中,以提示用户所述表情等级。因此,根据前置相机拍摄的第一图像得到的人脸表情标记可以叠加在后置相机拍摄的一个或多个图像上。
本申请中,当用户按下拍摄静态图片或动态录像的按键时,相当于进行了控制拍摄,此时可对表情等级为2-5对应的后置相机拍摄的图像加注人脸表情标记,或者该过程可以在用户打开相机但没有控制拍摄时预览拍摄的图像做所述加注。例如,终端设备可以将人脸表情标记记录于可交换图像文件(exchangeableimagefileformat,简称:EXIF)中,EXIF是为专门为数字相机的照片设定的,可以记录数码照片的拍摄数据与属性信息,该标记可以是显示于图像上的表情符号。这样便于用户日后对此类图像的搜索。
图5为本申请相机拍摄参数的确定设备的结构示意图,如图5所示,该设备的前置相机拍摄图像后经过前置相机的图像信号处理器(imagesignalprocessor,简称:ISP)对图像进行处理,然后经过人脸识别、目标人脸选取以及表情等级预测等功能模块的处理,最后输出表情等级,图5中的前置ISP与后置ISP功能和结构类似,用于执行自动曝光控制、各类校正和处理。人脸识别、目标人脸选取和表情等级预测的至少一个可以通过CNN实现,比如内置CNN模型的神经处理单元(网络处理器(Neural-network Processing Unit,简称:NPU)来实现)。表情等级为2-5确定的拍摄参数被用于控制电子设备的后置相机的ISP内的自动曝光(autoexposure,简称:AE)模块、Gamma模块、色彩校正(colorcorrection,简称:CC)模块或色彩增强(colorenhancement,简称:CE)模块中的至少一个,后置ISP中的模块如图5所示,包括多个串行的模块,以形成一个图像信号处理通道。AE模块用于控制快门速度与自动曝光亮度,Gamma模块用于控制图像的Gamma校准,CC模块和CE模块用于控制色彩饱和度,因此要控制色彩饱和度可以通过CC模块或CE模块,选择其中之一,也可以两个都选择,同样的,要控制亮度可在AE模块或Gamma 模块上,选择其中之一,也可以两个都选择。自动白平衡(automatic white balance,简称:AWB)模块则用于平衡色温。图5的设备可以位于之前实施例提到的电子设备中,具体该设备可以包括电路板、芯片、芯片组或其运行的必要驱动软件、操作系统软件或应用软件等或包括以上部分的模组。
在图5所示的设备结构的基础上,终端设备确定了后置相机的拍摄参数后,可以根据亮度、色彩饱和度或快门速度中的至少一项控制后置相机的ISP,具体包括以下至少一个操作:根据亮度控制AE模块或Gamma模块校正中的至少一个;根据色彩饱和度控制CC模块或CE模块中的至少一个;或,根据快门速度控制AE模块。
在图5对应的实施例中,前置相机和后置相机的至少一个可以是各类相机,包括光学镜头和图像采集设备,例如图像传感器。任一ISP是一种用于对被拍摄图像做处理的处理设备,也叫处理通道。ISP通常包括大量算法电路或逻辑电路等硬件,但是也可以软件与硬件结合实现,例如由处理器运行软件程序实现图像处理。CNN可以由处理器,如NPU实现,该NPU可以选择性的运行软件程序指令或者以逻辑电路等硬件实现。因此可以理解,在本实施例图5中的各个部件中,相机是硬件,其他部件的任一个或多个可以由硬件、软件或软件与硬件结合来实现。
图6为本申请相机拍摄参数的确定装置实施例一的结构示意图,如图6所示,本实施例的装置可以内置于电子设备,包括:识别模块11、处理模块12和确定模块13,其中,识别模块11,用于对前置相机拍摄的第一图像进行人脸识别以确定所述第一图像中存在的目标人脸;处理模块12,用于确定所述目标人脸对应的表情等级,所述表情等级用于指示所述目标人脸的表情所展示的喜忧程度;确定模块13,用于根据所述表情等级确定后置相机的拍摄参数。该图6中的任一模块可以位于电子设备内,可以软件或硬件或二者结合实现,如可以是处理器中的硬件加速部件或运行的软件模块,该处理器可以是中央处理单元或其他处理器。例如,其中确定模块13可以是中央处理单元运行的软件模块;识别模块11和处理模块12可以是NPU内的硬件部件或运行的软件模块,对应于图5中的人脸识别、目标人脸选取以及表情等级预测等功能模块。
本实施例的装置,可以用于执行图2-图4所示方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。在上述技术方案的基础上,所述识别模块11,具体用于对所述第一图像进行人脸识别以确定多个人脸;在所述多个人脸中选择一个作为所述目标人脸。在上述技术方案的基础上,所述处理模块12,具体用于通过预先训练得到的CNN对所述目标人脸进行处理,以确定所述目标人脸对应的所述表情等级。在上述技术方案的基础上,所述确定模块13,具体用于根据所述表情等级确定参数调整系数;利用所述参数调整系数调整基础拍摄参数以得到所述拍摄参数。在上述技术方案的基础上,所述确定模块13,具体用于根据所述后置相机拍摄的第二图像确定拍摄场景,所述拍摄场景用于指示所述第二图像属于的分类;根据所述表情等级和所述拍摄场景确定所述拍摄参数。
在图6所示实施例的基础上,图7和图8分别为本申请相机拍摄参数的确定装置实施例二的两种结构示意图,如图7和图8所示,本实施例的装置还可以包括:开启模块14、标记模块15和控制模块16。其中,开启模块14,用于开启所述后置相机和所述前置相机。标记模块15,用于在所述后置相机拍摄的第三图像中加注人脸表情标记,所述人脸表情标记为与所述表情等级对应的标识信息。控制模块16,用于如下操作的至少一个:根据 所述亮度控制AE模块或Gamma模块校正中的至少一个;根据所述色彩饱和度控制CC模块或CE模块中的至少一个;或,根据所述快门速度控制所述AE模块。开启模块14、标记模块15和控制模块16的任一也可以由软件,硬件或二者结合实现,例如是中央处理单元中的硬件部件或运行的软件模块。因此,图6至图8中任一个对应的装置是如图5所示的电子设备中的处理器的至少部分或其运行的软件程序装置。所述任一模块由硬件实现的时候,可以是算法电路、模拟电路、数字电路、硬件加速器件或可编程逻辑器件。所述任一模块由软件实现的时候,可以运行在处理器上,并保存在存储器中。
为了进一步清晰的描述实施例,图9为本申请电子设备实施例的结构示意图,如图9所示,该电子设备包括处理器20、存储器21、输入装置22和输出装置23;电子设备中处理器20的数量可以是一个或多个,图9中以一个处理器20为例;电子设备中的处理器20、存储器21、输入装置22和输出装置23可以通过总线或其他方式连接,图9中以通过总线连接为例。
存储器21作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块,如之前方法实施例中的方法步骤所对应的程序指令/模块。处理器20通过运行存储在存储器21中的软件程序、指令以及模块,从而执行电子设备的各种功能应用以及数据处理,对应于图5中的人脸识别、表情确定以及表情等级预测等功能模块,以实现上述的相机拍摄参数的确定方法。存储器21可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据终端的使用所创建的数据等。此外,存储器21可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实例中,存储器21可进一步包括相对于处理器20远程设置的存储器,这些远程存储器可以通过网络连接至电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置22可用于接收输入的数字或字符信息,以及产生与电子设备的用户设置以及功能控制有关的键信号输入,例如对应于触摸屏或键盘。输出装置23可包括显示屏等显示设备。在一种可能的实现方式中,本申请提供一种计算机可读存储介质,该计算机可读存储介质存储有指令,当该指令在计算机上运行时,用于执行上述方法实施例中的方法。在一种可能的实现方式中,本申请提供一种计算机程序,当所述计算机程序被计算机执行时,用于执行上述方法实施例中的方法。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述该作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(RandomAccessMemory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
本领域技术人员可以清楚地了解到,为描述的方便和简洁,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。上述描述的装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
最后应说明的是:以上各实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述各实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的范围。

Claims (21)

  1. 一种相机拍摄参数的确定方法,其特征在于,包括:
    对前置相机拍摄的第一图像进行人脸识别以确定所述第一图像中存在的目标人脸;
    确定所述目标人脸对应的表情等级,所述表情等级用于指示所述目标人脸的表情所展示的喜忧程度;
    根据所述表情等级确定后置相机的图像信号处理器拍摄参数。
  2. 根据权利要求1所述的方法,其特征在于,所述对前置相机拍摄的第一图像进行人脸识别以确定所述第一图像中存在的目标人脸之前,还包括:
    开启所述后置相机和所述前置相机。
  3. 根据权利要求1或2所述的方法,其特征在于,所述对前置相机拍摄的第一图像进行人脸识别以确定所述第一图像中存在的目标人脸,包括:
    对所述第一图像进行人脸识别以确定多个人脸;
    在所述多个人脸中选择一个作为所述目标人脸。
  4. 根据权利要求1-3中任一项所述的方法,其特征在于,所述确定所述目标人脸对应的表情等级,包括:
    通过预先训练得到的卷积神经网络网络CNN对所述目标人脸进行处理,以确定所述目标人脸对应的所述表情等级。
  5. 根据权利要求1-4中任一项所述的方法,其特征在于,所述根据所述表情等级确定后置相机的拍摄参数,包括:
    根据所述表情等级确定参数调整系数;
    利用所述参数调整系数调整基础拍摄参数以得到所述拍摄参数。
  6. 根据权利要求5所述的方法,其特征在于,所述根据所述表情等级确定后置相机的拍摄参数,包括:
    根据所述后置相机拍摄的第二图像确定拍摄场景,所述拍摄场景用于指示所述第二图像属于的分类;
    根据所述表情等级和所述拍摄场景确定所述拍摄参数。
  7. 根据权利要求1-6中任一项所述的方法,其特征在于,还包括:
    在所述后置相机拍摄的第三图像中加注人脸表情标记,所述人脸表情标记为与所述表情等级对应的标识信息。
  8. 根据权利要求1-7中任一项所述的方法,其特征在于,所述拍摄参数包括:亮度、色彩饱和度或快门速度中的至少一项。
  9. 根据权利要求8所述的方法,其特征在于,所述根据所述表情等级确定后置相机的拍摄参数之后,还包括如下操作的至少一个:
    根据所述亮度控制后置相机的自动曝光AE或Gamma校正中的至少一个;
    根据所述色彩饱和度控制后置相机的色彩校正CC或色彩增强CE中的至少一个;或,
    根据所述快门速度控制所述AE。
  10. 一种相机拍摄参数的确定装置,其特征在于,包括:
    识别模块,用于对前置相机拍摄的第一图像进行人脸识别以确定所述第一图像中存在 的目标人脸;
    处理模块,用于确定所述目标人脸对应的表情等级,所述表情等级用于指示所述目标人脸的表情所展示的喜忧程度;
    确定模块,用于根据所述表情等级确定后置相机的拍摄参数。
  11. 根据权利要求10所述的装置,其特征在于,还包括:
    开启模块,用于开启所述后置相机和所述前置相机。
  12. 根据权利要求10或11所述的装置,其特征在于,所述识别模块,具体用于对所述第一图像进行人脸识别以确定多个人脸;在所述多个人脸中选择一个作为所述目标人脸。
  13. 根据权利要求10-12中任一项所述的装置,其特征在于,所述处理模块,具体用于通过预先训练得到的CNN对所述目标人脸进行处理,以确定所述目标人脸对应的所述表情等级。
  14. 根据权利要求10-13中任一项所述的装置,其特征在于,所述确定模块,具体用于根据所述表情等级确定参数调整系数;利用所述参数调整系数调整基础拍摄参数以得到所述拍摄参数。
  15. 根据权利要求14所述的装置,其特征在于,所述确定模块,具体用于根据所述后置相机拍摄的第二图像确定拍摄场景,所述拍摄场景用于指示所述第二图像属于的分类;根据所述表情等级和所述拍摄场景确定所述拍摄参数。
  16. 根据权利要求10-15中任一项所述的装置,其特征在于,还包括:
    标记模块,用于在所述后置相机拍摄的第三图像中加注人脸表情标记,所述人脸表情标记为与所述表情等级对应的标识信息。
  17. 根据权利要求10-16中任一项所述的装置,其特征在于,所述拍摄参数包括:亮度、色彩饱和度或快门速度中的至少一项。
  18. 根据权利要求17所述的装置,其特征在于,还包括:
    控制模块,用于如下操作的至少一个:
    根据所述亮度控制后置相机的自动曝光AE或Gamma校正中的至少一个;
    根据所述色彩饱和度控制后置相机的色彩校正CC或色彩增强CE中的至少一个;或,
    根据所述快门速度控制所述AE。
  19. 一种相机拍摄参数的确定设备,其特征在于,包括:
    一个或多个处理器;
    存储器,用于存储一个或多个程序;
    当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-9中任一所述方法。
  20. 一种可读存储介质,其特征在于,所述可读存储介质存储有指令,当所述指令在电子设备或处理器上运行时,用于执行权利要求1-9中任一项所述的方法。
  21. 一种程序,其特征在于,当所述程序被电子设备或处理器执行时,用于执行权利要求1-9中任一项所述的方法。
PCT/CN2018/122762 2018-12-21 2018-12-21 相机拍摄参数的确定方法和装置 WO2020124577A1 (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201880090275.5A CN111771372A (zh) 2018-12-21 2018-12-21 相机拍摄参数的确定方法和装置
PCT/CN2018/122762 WO2020124577A1 (zh) 2018-12-21 2018-12-21 相机拍摄参数的确定方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2018/122762 WO2020124577A1 (zh) 2018-12-21 2018-12-21 相机拍摄参数的确定方法和装置

Publications (1)

Publication Number Publication Date
WO2020124577A1 true WO2020124577A1 (zh) 2020-06-25

Family

ID=71102464

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2018/122762 WO2020124577A1 (zh) 2018-12-21 2018-12-21 相机拍摄参数的确定方法和装置

Country Status (2)

Country Link
CN (1) CN111771372A (zh)
WO (1) WO2020124577A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111860530A (zh) * 2020-07-31 2020-10-30 Oppo广东移动通信有限公司 电子设备、数据处理方法及相关装置
CN114173061A (zh) * 2021-12-13 2022-03-11 深圳万兴软件有限公司 一种多模态摄像控制方法、装置、计算机设备及存储介质
CN115514892A (zh) * 2022-09-20 2022-12-23 北京拙河科技有限公司 一种摄像头精度分层选择方法及装置
WO2023236225A1 (zh) * 2022-06-10 2023-12-14 北京小米移动软件有限公司 终端、终端控制方法及其装置、图像处理方法及其装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116347220B (zh) * 2023-05-29 2023-07-21 合肥工业大学 人像拍摄方法及相关设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101478639A (zh) * 2008-01-04 2009-07-08 华晶科技股份有限公司 场景模式自动选择方法
US20100064259A1 (en) * 2008-09-11 2010-03-11 Lg Electronics Inc. Controlling method of three-dimensional user interface switchover and mobile terminal using the same
CN101825947A (zh) * 2010-05-04 2010-09-08 中兴通讯股份有限公司 智能控制移动终端的方法、装置及移动终端
US20110032378A1 (en) * 2008-04-09 2011-02-10 Canon Kabushiki Kaisha Facial expression recognition apparatus, image sensing apparatus, facial expression recognition method, and computer-readable storage medium
CN103079034A (zh) * 2013-01-06 2013-05-01 北京百度网讯科技有限公司 一种感知拍摄方法及系统
CN103269415A (zh) * 2013-04-16 2013-08-28 广东欧珀移动通信有限公司 一种脸部识别的自动拍照方法及移动终端
CN106951867A (zh) * 2017-03-22 2017-07-14 成都擎天树科技有限公司 基于卷积神经网络的人脸识别方法、装置、系统及设备

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8743269B2 (en) * 2009-06-15 2014-06-03 Olympus Imaging Corp. Photographing device, photographing method, and playback method
CN106056533B (zh) * 2016-05-26 2019-08-20 维沃移动通信有限公司 一种拍照的方法及终端
CN106101541A (zh) * 2016-06-29 2016-11-09 捷开通讯(深圳)有限公司 一种终端、拍照设备及其基于人物情绪的拍摄方法
CN106713764A (zh) * 2017-01-24 2017-05-24 维沃移动通信有限公司 一种拍照方法及移动终端

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101478639A (zh) * 2008-01-04 2009-07-08 华晶科技股份有限公司 场景模式自动选择方法
US20110032378A1 (en) * 2008-04-09 2011-02-10 Canon Kabushiki Kaisha Facial expression recognition apparatus, image sensing apparatus, facial expression recognition method, and computer-readable storage medium
US20100064259A1 (en) * 2008-09-11 2010-03-11 Lg Electronics Inc. Controlling method of three-dimensional user interface switchover and mobile terminal using the same
CN101825947A (zh) * 2010-05-04 2010-09-08 中兴通讯股份有限公司 智能控制移动终端的方法、装置及移动终端
CN103079034A (zh) * 2013-01-06 2013-05-01 北京百度网讯科技有限公司 一种感知拍摄方法及系统
CN103269415A (zh) * 2013-04-16 2013-08-28 广东欧珀移动通信有限公司 一种脸部识别的自动拍照方法及移动终端
CN106951867A (zh) * 2017-03-22 2017-07-14 成都擎天树科技有限公司 基于卷积神经网络的人脸识别方法、装置、系统及设备

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111860530A (zh) * 2020-07-31 2020-10-30 Oppo广东移动通信有限公司 电子设备、数据处理方法及相关装置
CN114173061A (zh) * 2021-12-13 2022-03-11 深圳万兴软件有限公司 一种多模态摄像控制方法、装置、计算机设备及存储介质
CN114173061B (zh) * 2021-12-13 2023-09-29 深圳万兴软件有限公司 一种多模态摄像控制方法、装置、计算机设备及存储介质
WO2023236225A1 (zh) * 2022-06-10 2023-12-14 北京小米移动软件有限公司 终端、终端控制方法及其装置、图像处理方法及其装置
CN115514892A (zh) * 2022-09-20 2022-12-23 北京拙河科技有限公司 一种摄像头精度分层选择方法及装置
CN115514892B (zh) * 2022-09-20 2023-04-18 北京拙河科技有限公司 一种摄像头精度分层选择方法及装置

Also Published As

Publication number Publication date
CN111771372A (zh) 2020-10-13

Similar Documents

Publication Publication Date Title
WO2020124577A1 (zh) 相机拍摄参数的确定方法和装置
CN112585940B (zh) 为基于人工智能的图像捕获设备提供反馈的系统和方法
KR102598109B1 (ko) 이미지 분석에 기반하여, 디스플레이를 통해 표시된 영상과 메모리에 저장된 영상과 관련하여 알림을 제공하는 전자 장치 및 방법
US8558921B2 (en) Systems and methods for suggesting meta-information to a camera user
JP4640456B2 (ja) 画像記録装置、画像記録方法、画像処理装置、画像処理方法、プログラム
CN111491102B (zh) 拍照场景的检测方法、系统、移动终端及存储介质
US20170163878A1 (en) Method and electronic device for adjusting shooting parameters of camera
CN111327824B (zh) 拍摄参数的选择方法、装置、存储介质及电子设备
WO2022028184A1 (zh) 一种拍摄控制方法、装置、电子设备及存储介质
US10225484B2 (en) Method and device for photographing dynamic picture
US20170161553A1 (en) Method and electronic device for capturing photo
TWI532361B (zh) 自動尋景拍攝方法及其系統
WO2021169686A1 (zh) 一种拍摄控制方法、装置及计算机可读存储介质
CN112153272B (zh) 一种图像拍摄方法与电子设备
KR20120038721A (ko) 감성 기반의 영상을 얻을 수 있는 디지털 영상 처리 장치 및 디지털 영상 처리 방법
US10375298B2 (en) Imaging apparatus
US9041828B2 (en) Imaging apparatus, imaging method, image processing apparatus, and image processing method for a set execution condition
WO2015150889A1 (en) Image processing method and apparatus, and electronic device
US20220329729A1 (en) Photographing method, storage medium and electronic device
US9743009B2 (en) Image processing method and image processing device
EP4047923A1 (en) Electronic device comprising camera and method of same
CN106060287A (zh) 一种拍摄方法、装置及终端
CN108259767B (zh) 图像处理方法、装置、存储介质及电子设备
CN111294502A (zh) 拍照方法、具有拍照功能的装置、设备及存储介质
JP2012257112A (ja) 撮像装置およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18943968

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18943968

Country of ref document: EP

Kind code of ref document: A1