CN109101873B - 用于提供针对兴趣对象的外部光源的特性信息的电子设备 - Google Patents

用于提供针对兴趣对象的外部光源的特性信息的电子设备 Download PDF

Info

Publication number
CN109101873B
CN109101873B CN201810641836.8A CN201810641836A CN109101873B CN 109101873 B CN109101873 B CN 109101873B CN 201810641836 A CN201810641836 A CN 201810641836A CN 109101873 B CN109101873 B CN 109101873B
Authority
CN
China
Prior art keywords
image
processor
light source
external light
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810641836.8A
Other languages
English (en)
Other versions
CN109101873A (zh
Inventor
权纯焕
曹正根
郭贤美
金俊基
S.金
郑名起
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of CN109101873A publication Critical patent/CN109101873A/zh
Application granted granted Critical
Publication of CN109101873B publication Critical patent/CN109101873B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D44/005Other cosmetic or toiletry articles, e.g. for hairdressers' rooms for selecting or displaying personal cosmetic colours or hairstyle
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • A61B5/445Evaluating skin irritation or skin trauma, e.g. rash, eczema, wound, bed sore
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • G02B27/022Viewing apparatus
    • G02B27/024Viewing apparatus comprising a light source, e.g. for viewing photographic slides, X-ray transparancies
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/3406Control of illumination source
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/34Microprocessors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/36Memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/38Displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Human Computer Interaction (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Dermatology (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

提供了基于外部光源的特性信息引导图像捕获的电子设备和方法。电子设备包括照相机、显示器和处理器。处理器被配置为:使用照相机获得图像;识别包括在图像中的面部;确定针对所识别的面部的第一区域的第一亮度值和针对所识别的面部的第二区域的第二亮度值;基于第一亮度值和第二亮度值,确定针对所识别的面部的外部光源的特性信息;并且通过显示器提供与针对所识别的面部的外部光源的特性信息相对应的引导信息。

Description

用于提供针对兴趣对象的外部光源的特性信息的电子设备
优先权
本申请要求在2017年6月21日提交的韩国专利申请第10-2017-0078329号的优先权,其内容通过引用并入本文。
技术领域
本公开一般涉及提供针对兴趣对象的外部光源的特性信息。
背景技术
随着针对皮肤护理的兴趣和需求已经增加,已经开发了用于测量用户的身体的皮肤状态、用于使用测量的皮肤状态信息向用户通知皮肤健康状态、并且用于基于皮肤健康状态推荐皮肤护理疗程或化妆品的应用,以及提供应用的运行环境的电子设备。例如,电子设备可以使用照相机获得用户的皮肤的图像,并且可以通过分析图像确定用户的皮肤状态。之后,电子设备可以在显示器上输出与所确定的用户的皮肤健康状态相对应的对象。
作为皮肤分析的部分,电子设备可以通过使用所获得的图像的成像特征(例如,与周围皮肤区域的色差)来确定皱纹、色素沉着、痤疮等的存在。
用于皮肤分析的电子设备可以在通过使电子设备的照相机与皮肤紧密接触来阻挡外部光源的同时捕获皮肤的图像。换句话说,电子设备可以控制可能影响皮肤分析的外部因素,诸如照度、阴影、皮肤的色温、要捕获的皮肤区域的对准状态、捕获时的摇动(或清晰度)、噪声(或图像传感器的灵敏度)等。
然而,因为用户经常在任意环境中执行图像捕获,所以诸如智能电话的电子设备可能不能够充分地控制这些外部因素。因此,当电子设备基于其中外部因素未被控制的所捕获的图像执行皮肤分析时,皮肤分析中的准确度可能降低。结果,皮肤分析的结果可能不落在指定的误差范围内,并且因此,皮肤分析的可靠性不足。
发明内容
因此,提供本公开以解决至少上述问题和/或缺点并且提供至少下述优点。
本公开的一方面将提供支持图像处理方法的电子设备,该电子设备在捕获用于皮肤分析的图像时提供引导,以均匀地保持影响皮肤分析的外部因素的至少部分。
本公开的另一方面将提供支持图像处理方法的电子设备,其中,均匀地保持皮肤区域的对准状态,并且因此,当管理关于皮肤状态的历史信息时,保持要分析的目标的一致性。
根据本公开的一方面,提供了电子设备,该电子设备包括照相机、显示器和处理器。处理器被配置为:使用照相机获得图像;识别包括在图像中的面部;确定针对所识别的面部的第一区域的第一亮度值和针对所识别的面部的第二区域的第二亮度值;基于第一亮度值和第二亮度值,确定针对所识别的面部的外部光源的特性信息;并且通过显示器,提供与针对所识别的面部的外部光源的特性信息相对应的引导信息。
根据本公开的另一方面,提供了电子设备,该电子设备包括照相机、显示器和处理器。处理器被配置为:获得通过照相机捕获的图像;确定图像中的面部;确定所确定的面部内的第一区域和第二区域;计算与第一区域相对应的第一亮度值;计算与第二区域相对应的第二亮度值;基于第一亮度值与第二亮度值之间的差值确定外部光源的位置;并且在显示器上显示与和所确定的面部相关联的所确定的位置相对应的引导信息。
根据本公开的另一方面,提供了计算机可读记录介质,该计算机可读记录介质具有存储其上用于运行方法的程序。该方法包括:通过照相机获得图像;识别包括在图像中的面部;确定针对所识别的面部的第一区域的第一亮度值和针对所识别的面部的第二区域的第二亮度值;基于第一亮度值和第二亮度值,确定针对所识别的面部的外部光源的特性信息;并且通过显示器,提供与和所识别的面部相关联的特性信息相对应的引导信息。
附图说明
从以下结合附图的描述,本公开的某些实施例的以上和其它方面、特征以及优点将变得更加明显,其中:
图1示出根据实施例的电子设备;
图2是示出根据实施例的操作电子设备的方法的流程图;
图3是示出根据实施例的操作电子设备的方法的流程图;
图4示出根据实施例的从图像提取特征点的方法;
图5示出根据实施例的设置图像中的比较区域的方法;
图6A示出根据实施例的设置图像中的比较区域的方法;
图6B示出根据实施例的将比较区域的亮度值彼此比较的方法;
图7示出根据实施例的引导外部光源的位置的对象;
图8示出根据实施例的在图像上显示引导外部光源的位置的对象的方法;
图9示出根据实施例的图像质量与外部光源的位置之间的相关性;
图10示出根据实施例的在图像上显示引导外部光源的位置的对象的方法;
图11示出根据实施例的在图像上显示引导外部光源的位置的对象的方法;
图12示出根据实施例的在图像上显示引导外部光源的位置的对象的方法;
图13示出根据实施例的提供用于保持要捕获的皮肤区域的对准状态的引导的对象;并且
图14示出根据实施例的网络环境中的电子设备。
具体实施方式
在下文中,将参考附图描述本公开的各种实施例。然而,本领域的普通技术人员将理解,本公开不限于特定实施例,并且能够在不脱离本公开的范围的情况下,对本文描述的各种实施例做出各种修改、等同和/或替代。
在整个附图及其描述中,相似的参考标号可以用于描绘和引用相同或类似的元件、特征和结构。
本文使用的本公开的各种实施例和术语并非旨在将本公开中描述的技术限制为特定实施例,并且应该理解,实施例和术语包括对本文描述的相应实施例的修改、等同和/或替代。
除非另有指定,否则单数形式的术语可以包括复数形式。如本文使用的表达“A或B”、“A和/或B中的至少一个”、“A、B或C”、“A、B和/或C中的至少一个”等可以包括相关联的所列项目中的一个或多个的任何和所有组合。
诸如“第一”、“第二”等的数词表达可以用于将一个元件和另一元件区分开,而不管它们的优先级或重要性。当元件(例如,第一元件)被称为“(可操作地或通信地)耦合到”另一元件(例如,第二元件)/“与另一元件耦合”或“连接到”另一元件时,第一元件可以直接地耦合到第二元件/与第二元件耦合或连接到第二元件,或者中间元件(例如,第三元件)可以存在于其间。
根据情形,本文使用的表达“被适配为”或“被配置为”可以互换地用作在硬件或软件中“适合于”、“具有……的能力”、“改变为”、“使”、“能够”或“被设计为”。表达“被配置为……的设备”可以指示设备“能够”与另一设备或其它组件一起操作。例如,“被配置为(或设置为)执行A、B和C的处理器”可以指示用于执行相应操作的专用处理器(例如,嵌入式处理器)或通过运行存储在存储器设备中的一个或多个软件程序执行相应操作的通用处理器(例如,中央处理单元(central processing unit,CPU)或应用处理器(applicationprocessor,AP))。
本文中,术语“模块”可以包括用硬件、软件或固件实施的单元,并且可以与术语“逻辑”、“逻辑块”、“组件”、“电路”等可互换地使用。“模块”可以是集成组件的最小单元或其部分,或者可以是用于执行一个或多个功能的最小单元或其部分。“模块”可以机械地或电子地实施,并且可以包括,例如,已知或将要开发的用于执行某些操作的专用集成电路(application-specific integrated circuit,ASIC)芯片、现场可编程门阵列(field-programmable gate array,FPGA)和可编程逻辑器件。
图1示出根据实施例的电子设备。
参考图1,电子设备100包括照相机110、处理器130和显示器150。然而,电子设备100的元件不限于此。例如,电子设备100可以包括附加元件,诸如用于与外部电子设备的通信的通信模块(或通信电路)、存储器等。
电子设备100可以基于通过照相机110捕获的图像来分析用户身体的部分(例如,用户的面部)的皮肤状态。例如,电子设备100可以通过使用所捕获的图像的特征(例如,区域之间的色差)来确定皱纹、色素沉着或痤疮的存在。
电子设备100可以提供用于控制外部因素的引导,诸如照度、阴影、皮肤的色温、要捕获的皮肤区域的对准、捕获时的摇动(或清晰度)、噪声等,外部因素可能影响使用图像的皮肤分析。例如,电子设备100可以在通过照相机110捕获的预览图像上显示外部光源的位置,并且可以引导捕获构造(composition)(例如,照相机110与主体之间的位置关系)以最小化由外部光源制造的阴影的影响。作为另一示例,电子设备100可以将引导要捕获的皮肤区域的对准状态(例如,面部区域的大小和位置)的对象输出到预览图像上。当通过用户移动照相机110或用户的身体将要捕获的皮肤区域(例如,面部区域)与引导对象对准时,电子设备100可以捕获皮肤区域并且可以分析捕获的图像。因此,因为要经受皮肤分析的皮肤区域在皮肤区域的大小和位置上一致,所以可以有机地管理皮肤状态的历史信息。
当通过分析图像确定用户的皮肤状态时,包括通信模块的电子设备100可以将关于用户的皮肤状态的信息发送到通过通信模块连接的外部电子设备。例如,外部设备可以是与医疗机构、美容公司、化妆品公司或商场相关联的服务器设备。另外,电子设备100可以从外部电子设备接收基于用户的皮肤状态的反馈信息,例如关于皮肤治疗、皮肤护理疗程、化妆品、皮肤相关商品等的推荐信息。
包括存储器的电子设备100可以将与电子设备100中的至少一个其它元件相关联的命令或数据存储在存储器中。存储器可以存储软件和/或程序。例如,存储器可以存储用于支持通过照相机110捕获的图像的应用(例如,照相机应用)。存储器可以存储通过照相机110捕获的图像。存储器可以包括易失性存储器和/或非易失性存储器。
存储器可以包括存储与所捕获的图像相对应的数据的帧缓冲器。例如,帧缓冲器可以存储与通过照相机110捕获的预览图像相对应的数据。可以将数据转换为处于指定图像格式(例如,YCbCr格式,其中Y是照度分量(或亮度分量),Cb和Cr是色差分量,Cb代表照度与蓝色分量之间的差,Cr代表照度与红色分量之间的差),并且可以将转换的结果存储在帧缓冲器中。顺序地捕获的预览图像可以以指定帧速率更新到帧缓冲器中。
照相机110可以捕获静止图像或运动图像。照相机110可以包括以下各项中的至少一个:接收主体的图像光并形成图像的镜头,调节穿过镜头的光量的光圈,打开和关闭光圈使得图像传感器暴露于穿过镜头的光达特定时间的快门(或拍摄按钮),接收通过镜头形成作为光学信号的图像的图像传感器,以及可以临时存储所捕获的图像的内部存储器。内部存储器可以在操纵快门之前存储通过图像传感器形成的图像。
处理器130可以运行与包括在电子设备100中的元件的控制和/或通信相关联的算术操作或数据处理。处理器130可以通过运行操作系统(operating system,OS)或嵌入式软件程序来控制与处理器130连接的多个硬件元件。处理器130可以通过将命令或数据加载到易失性存储器中,来处理从其它元件中的至少一个(例如,非易失性存储器)接收的命令或数据,并且可以将各条数据存储在非易失性存储器中。处理器130可以通过将命令或数据加载到易失性存储器中,以指定的程序例程处理存储在存储器中的、与图像处理相关的命令或数据。处理器130可以包括一个或多个CPU、AP和通信处理器(communication processor,CP)。
处理器130可以与包括在照相机110中的镜头、光圈、图像传感器、快门和/或内部存储器电连接,以控制与照相机110相关联的功能。处理器130可以控制照相机110的功能,诸如自动对焦、自动曝光、自定义白平衡、放大、缩小、拍摄、连续拍摄、定时拍摄、闪光开/关、滤镜等。
处理器130可以包括多个模块,以执行与图像捕获、图像分析或引导提供相关联的功能。处理器130包括图像获得模块131、图像分析模块133、针对外部光源的特性信息的确定模块135和引导提供模块137。
图像获得模块131可以获得通过照相机110捕获的图像。图像获得模块131可以将捕获的图像存储在包括在照相机110中的内部存储器或存储器中。例如,图像获得模块131可以将与所捕获的图像相对应的数据转换为处于指定图像格式(例如,YCbCr格式),并且可以将经转换的数据存储在包括在存储器中的帧缓冲器中。图像获得模块131可以将与在操纵快门时捕获的图像相对应的数据存储在内部存储器中,并且可以基于来自用户输入设备的指定用户输入的发生和设置信息,将与所捕获的图像相对应的数据存储在存储器中。
处理器130可以将通过照相机110捕获的图像输出到显示器150上。例如,处理器130可以将存储在内部存储器中的图像作为预览图像(或实时观览图像)输出到显示器150上。
图像分析模块133可以分析图像。图像分析模块133可以从图像检测对象。例如,图像分析模块133可以基于诸如边缘检测滤波的图像处理,提取包括在图像中的对象的边缘。图像分析模块133可以检测由边缘彼此区分的区域,作为一个单独对象。
图像分析模块133可以仅当边缘的形状对应于预定义形状时,才检测区域作为一个单独对象。预定义形状可以是与人类的面部形状相对应的欧米茄(omega)形状。与预定义形状相关联的信息可以被存储在存储器中并被管理。
图像分析模块133可以识别检测到的对象。图像分析模块133可以通过确定每个对象的特性(例如,形状)而将对象彼此区分开。图像分析模块133可以确定从图像检测到的对象是否是对应于人、动物、或物品的对象。并且,图像分析模块133可以通过确定人体的部位(例如,面部)、动物的类型或物品的类型而将对象彼此区分开。
当包括在图像中的对象被确定为与用户的面部相对应的对象时,图像分析模块133可以从对象提取特征点。作为代表检测、追踪或识别特定区域的特定区域(例如,面部)的特征的点,特征点可以包括来自图像的、即使改变图像的每个区域的形状、大小或者位置也容易识别的点。另外,特征点可以包括来自图像的、即使改变照相机110或外部光源(例如,照明)的捕获角度也容易识别的点。特征点可以被设置为每个区域的拐角点或边界点。当从对象中提取特征点时,处理器130可以基于所提取的特征点来检测与面部的部分相对应的区域,诸如脸颊、人中或鼻梁。
图像分析模块133可以在与用户的身体部位(例如,用户的面部)相对应的对象中设置比较区域。图像分析模块133可以在与用户的面部相对应的对象中将左右对称于彼此的左侧区域(例如,左侧脸颊区域或左侧颊骨区域)和右侧区域(例如,右侧脸颊区域或右颊骨区域)设置为比较区域。作为另一示例,图像分析模块133可以在与用户的面部相对应的区域中将经受阴影的最小影响的区域(例如,鼻梁)和经受阴影的最大影响的区域(例如,人中)设置为比较区域。经受阴影的最小影响的区域可以包括在面部区域中具有突出到外部的最长长度的区域。经受阴影的最大影响的区域可以包括在面部区域中具有突出到外部的最短长度(或具有向内凹陷的最长长度)的区域。
图像分析模块133可以计算所设置的比较区域的照度值(或亮度值)。例如,在存储在帧缓冲器中的数据被转换为处于指定图像格式(例如,YCbCr格式)之后,图像分析模块133可以从该数据中分别地提取与比较区域相对应的数据的照度分量(例如,Y值)。
针对外部光源的特性信息的确定模块135可以通过使用比较区域的照度值来确定外部光源的特性信息。外部光源的特性信息可以包括关于外部光源的位置(例如,外部光源与主体之间的位置关系)或者类型(例如,可以基于外部光源的亮度对外部光的类型进行分类)的信息。针对外部光源的特性信息的确定模块135可以将比较区域的照度值彼此进行比较,并且可以通过使用照度值之间的差值来确定外部光源的位置,例如,如以下参考图5、图6A和图6B将要更详细地描述的。
当确定外部光源的特性信息时,引导提供模块137可以创建包括外部光源的特性信息的对象,并且可以将创建的对象输出到显示器150上。例如,引导提供模块137可以通过使用关于外部光源的位置的信息创建对象,并且可以将创建的对象输出到显示器150上。通过使用关于外部光源的位置的信息创建的对象可以包括代表通过照相机110捕获的主体与外部光源之间的位置关系的信息。
引导提供模块137可以在输出通过使用外部光源的位置信息创建的对象的同时,将引导捕获构造(或捕获方向)的对象输出到显示器150上,以最小化由外部光源制造的阴影的影响。例如,当外部光源位于主体的前方(例如,主体面向照相机110的方向)的左侧时,因为可能在主体(例如,用户的面部)的右侧制造阴影,所以引导提供模块137可以将引导用户向左转动他/她的身体的对象输出到显示器150上。因此,当用户向左转以使得外部光源位于主体的前方中心方向时,从外部光源发射的光被均匀地照射到主体的前表面,最小化阴影的影响。
当外部光源位于主体的前方的右侧时,因为可能在主体的左侧制造阴影,所以引导提供模块137可以将引导用户向右转动他/她的身体的对象输出到显示器150上。当外部光源位于主体的后方时(在背光的情况下),因为可能在主体的前方的整体区域制造阴影,所以引导提供模块137可以将引导用户转动他/她的身体使得外部光源直接地在用户前面的对象输出到显示器150上。类似地,引导提供模块137可以将引导用户的移动以直接地面向外部光源使得从外部光源发射的光被均匀地照射到用户的前方的对象输出到显示器150上。
引导提供模块137可以将引导主体(其通过照相机110被捕获)的对准状态(例如,与用户的面部相对应的对象的大小和位置)的对象输出到显示器150上。例如,引导提供模块137可以将引导主体的移动使得主体位于照相机110的捕获区域的指定区域的对象(例如,适配引导对象)输出到显示器150上。
当主体位于照相机110的成像区域的指定区域时,处理器130可以基于用户的输入(例如,按下快门的输入)或设置值(例如,用于自动拍摄的设置值)执行捕获功能。例如,处理器130可以控制照相机110以当主体与指定区域匹配(对准)时自动地捕获主体。
当通过照相机110捕获主体时,处理器130可以基于所捕获的图像针对主体执行皮肤分析。例如,处理器130可以基于取决于到主体中的光的吸收率而体现在图像的像素中的颜色来确定主体的皮肤状态。
显示器150可以为用户显示各种内容(例如,文本、图像、视频、图标和/或符号)。显示器150可以输出通过照相机110捕获的图像。所捕获的图像可以包括在操纵照相机110的快门之前获得的预览图像或者在操纵快门之后获得的所捕获的图像。显示器150可以包括液晶显示器(liquid crystal display,LCD)、发光二极管(light-emitting diode,LED)显示器、有机LED(organic LED,OLED)显示器、微机电系统(microelectromechanicalsystem,MEMS)显示器和/或电子纸显示器。显示器150可以包括用于接收使用电子笔或用户的身体的部分的触摸、手势、接近或悬停输入的触摸屏幕。
如上所述,电子设备包括照相机、显示器和处理器。处理器可以被配置为:通过使用照相机获得一个或多个外部对象的图像,识别包括在图像中的一个或多个外部对象中的、与面部相对应的兴趣对象,其中兴趣对象的识别包括针对兴趣对象确定用于识别面部的第一区域和第二区域,确定针对第一区域的第一亮度值和针对第二区域的第二亮度值,至少基于第一亮度值和第二亮度值,确定针对兴趣对象的外部光源的特性信息,并且通过显示器提供与针对兴趣对象的外部光源的特性信息相对应的引导信息。
处理器可以进一步被配置为:当第一亮度值与第二亮度值之间的差值满足指定条件时,获得兴趣对象的另一图像。
处理器可以进一步被配置为:在获得另一图像之前,与另一图像的获得相关联,通过显示器提供代表针对兴趣对象的大小的参考的第一指示符和取决于兴趣对象的大小而变化的第二指示符。
处理器可以被配置为:额外地基于第一指示符在大小上实质等于第二指示符的确定来获得另一图像。
处理器可以进一步被配置为:允许引导信息的至少部分包括外部光源的位置信息。
处理器可以被配置为:允许引导信息的至少部分进一步包括关于引导用于将外部光源定位在针对兴趣对象的指定方向上的捕获方向的信息。
电子设备可以进一步包括存储器,并且处理器可以被配置为:将与图像相对应的数据转换为处于指定图像格式,并且将数据存储在存储器中,作为图像的获得的至少部分。
处理器可以进一步被配置为:允许指定图像格式的至少部分包括与图像相对应的亮度信息。
处理器可以进一步被配置为:至少基于亮度信息确定第一亮度值和第二亮度值。
处理器可以被配置为:获得通过照相机捕获的图像,在图像中确定与面部相对应的兴趣对象,确定兴趣对象内的第一区域和第二区域,计算与第一区域相对应的第一亮度值和与第二区域相对应的第二亮度值,至少基于第一亮度值与第二亮度值之间的差值确定外部光源的位置,并且在显示器上显示与和兴趣对象相关联的位置相对应的引导信息。
电子设备可以进一步包括存储器,并且处理器可以被配置为:将与图像相对应的数据转换为处于指定图像格式,并且将数据存储在存储器中作为图像的获得的至少部分。
处理器可以进一步被配置为:允许指定图像格式的至少部分包括与图像相对应的亮度信息。
处理器可以被配置为:至少基于亮度信息计算第一亮度值和第二亮度值。
处理器可以被配置为:将兴趣对象内的指定区域确定为第一区域,并且将对称于指定区域的另一指定区域确定为第二区域。
处理器可以被配置为:将兴趣对象内具有突出到外部的最长长度的区域确定为第一区域,并且将兴趣对象内具有突出到外部的最短长度的区域确定为第二区域。
处理器可以被配置为允许引导信息的至少部分包括关于引导用于将外部光源定位在针对兴趣对象的指定方向上的捕获方向的信息。
处理器可以进一步被配置为在显示器上显示与兴趣对象和指定区域对准的状态相关联的另一引导信息。
图2是示出根据实施例的操作电子设备的方法的流程图。
参考图2,在操作210中,电子设备100的处理器130通过使用照相机110获得一个或多个外部对象的图像。例如,处理器可以获得由通过使用照相机捕获主体(例如,用户的面部)所制造的图像。处理器可以在操纵快门之前通过照相机获得预览图像。处理器可以将与所获得的图像相对应的数据转换为处于指定图像格式(例如,YCbCr格式)并且可以将经转换的数据存储在帧缓冲器中。
在操作230中,处理器在包括在图像中的一个或多个外部对象中确定与用户的面部相对应的兴趣对象。例如,处理器可以从所获得的图像提取特征点。处理器可以从图像提取特征点以便检测包括在图像中的对象,并且可以检测由特征点当中的相邻特征点制造的形状(例如,欧米茄形状),作为一个对象(例如,面部)。特征点可以是图像中的拐角点或边界点。另外,处理器可以检测面部区域。
处理器可以通过使用特征点来检测包括在图像中的对象,并且可以确定检测到的对象是否对应于面部。处理器可以通过使用与存储在存储器中的预定义形状相关联的信息来确定检测到的对象是否对应于面部。例如,处理器可以通过使用与存储在存储器中的面部形状(例如,欧米茄形状)相关联的信息来确定检测到的对象是否对应于面部。当确定检测到的对象对应于面部时,处理器可以检测(或确定)图像中由检测到的对象占据的区域,作为面部区域。处理器可以通过检测(或确定)面部区域来确定与面部区域相对应的兴趣对象。
当确定兴趣对象时,处理器可以针对兴趣对象确定与识别面部相关联的第一区域和第二区域。第一区域和第二区域可以被用作比较区域。处理器可以将面部区域中左右对称于彼此的左区域(例如,左脸颊区域或左颊骨区域)和右区域(例如,右脸颊区域或右颊骨区域)设置为比较区域。例如,处理器可以将左区域确定为第一区域,并且将右区域确定为第二区域。
处理器可以将面部区域中要经受阴影的最小影响的区域(例如,鼻子的鼻梁区域)和要经受阴影的最大影响的区域(例如,人中区域)设置为比较区域。也就是说,处理器可以将面部区域中具有突出到外部的最长长度的区域确定为第一区域,并且可以将面部区域中具有突出到外部的最短长度的区域确定为第二区域。比较区域可以是用于确定外部光源的特性信息的参考区域。
在操作250中,处理器确定比较区域的照度值(亮度值)。处理器可以从在转换为处于指定图像格式(例如,YCbCr格式)之后存储在帧缓冲器中的数据,分别地提取与比较区域相对应的数据的照度分量(例如,Y值)。
在操作270中,处理器通过使用比较区域的照度值来确定外部光源的特性信息。处理器可以将比较区域的亮度值彼此比较,并且可以通过使用照度值之间的差值来确定外部光源的位置。处理器可以通过使用照度值来确定外部光源的类型或外部光源的数量。例如,处理器可以通过基于照度值的大小取决于外部光源的亮度对外部光源进行分类,来确定外部光源的类型。作为另一示例,处理器可以通过使用照度值来确定阴影区域,并且可以基于阴影区域的数量、阴影区域的暗密度和/或阴影区域倾斜的方向来确定外部光源的数量。
在操作290中,处理器提供引导信息。处理器可以创建包括外部光源的特性信息的对象,并且可以将创建的对象输出到显示器(例如,显示器150)上。处理器可以通过使用外部光源的位置信息来创建对象,并且可以将创建的对象输出到显示器上。处理器可以在显示器上输出引导捕获构造(或捕获方向)以便最小化由外部光源制造的阴影的影响(以最小化阴影区域的面积)的对象。例如,处理器可以基于外部光源的位置信息来确定外部光源的偏置程度,并且可以在显示器上输出提供引导使得外部光源位于针对面部的指定方向(例如,前方中心方向)上的对象。
图3是示出根据实施例的操作电子设备的方法的流程图。
参考图3,在操作310中,电子设备100的处理器130提供引导信息。等同或类似于图2的操作290,处理器可以提供引导信息。处理器可以创建包括外部光源的特性信息的对象,并且可以将创建的对象输出到显示器150上。用户可以基于所提供的引导信息来转动他/她的面部和/或照相机110,使得外部光源位于针对用户的面部的指定方向(例如,前方中心方向)上。
在操作330中,处理器由通过照相机110捕获主体(例如,用户的面部)而获得图像。等同或类似于图2的操作210,处理器可以获得图像。处理器可以在操纵快门之前通过照相机获得预览图像。处理器可以将与所获得的图像相对应的数据转换为处于指定图像格式(例如,YCbCr格式),并且可以将经转换的数据存储在帧缓冲器中。
在已经获得预览图像之后,等同或类似于图2的操作230,处理器可以从获得的预览图像中确定与用户的面部相对应的兴趣对象。例如,处理器可以从预览图像提取特征点,并且可以通过使用特征点来检测包括在预览图像中的对象。另外,处理器可以确定检测到的对象是否对应于面部。当确定检测到的对象对应于面部时,处理器可以将预览图像中由检测到的对象占据的区域确定为面部区域。另外,处理器可以将面部区域的部分设置为比较区域。
在操作350中,处理器确定比较区域的照度值。等同或类似于图2的操作250,处理器可以确定比较区域的照度值。例如,处理器可以从在转换为处于指定图像格式(例如,YCbCr格式)之后存储在帧缓冲器中的数据,分别地提取与比较区域相对应的数据的照度分量(例如,Y值)。
在操作370中,处理器确定亮度值的比较结果是否满足指定条件。处理器可以确定照度值之间的差值是否包括在指定大小范围内。指定大小范围可以代表与外部光源位于针对面部的指定方向(例如,前方中心方向)上的状态相对应的范围。
当在操作370中照度值的比较结果满足指定条件时,处理器在操作390中执行捕获功能。例如,处理器可以控制照相机捕获主体。处理器可以将引导通过照相机捕获的主体的对准状态(例如,与用户的面部相对应的对象的大小和位置)的对象输出到显示器上,并且当主体位于照相机的成像区域的指定区域时可以自动地执行捕获功能。例如,即使外部光位于针对面部的指定方向(例如,前方中心方向)上,当与面部相对应的对象不位于照相机的成像区域的指定区域时,处理器也不执行捕获功能。当用户基于所提供的引导信息移动面部,并且因此,与用户的面部相对应的对象位于照相机的成像区域的指定区域时,处理器可以执行捕获功能。
当在步骤370中照度值的比较结果不满足指定条件时,方法返回到操作310。
处理器可以执行操作310至370,直到比较区域的照度值的比较结果满足指定条件。例如,处理器可以提供包括外部光源的位置信息的对象和/或引导捕获构造直到外部光源位于针对面部的指定方向(例如,前方中心方向)上的对象。
图4示出根据实施例的从图像提取特征点的方法。
参考图4,电子设备100的处理器130从图像400(例如,预览图像)提取特征点411,以便检测包括在图像400中的对象(例如,与面部相对应的对象)。特征点411可以包括图像400中的特定区域的拐角点或边界点。
当特征点411的相邻特征点(例如,位于小于指定大小的距离处的特征点)通过虚拟线410彼此连接时,并且当由虚拟线410形成的形状对应于面部的形状时,处理器可以将虚拟线410内的区域确定为面部区域。
处理器可以提取由用户的每个面部部分占据的区域的拐角点或边界点作为特征点。例如,处理器可以提取由用户的眉毛、眼睛、鼻子、人中、嘴唇或下巴部分占据的区域的拐角点或边界点作为特征点。
图5示出了根据实施例的设置图像中的比较区域的方法。
参考图5,当在用于皮肤分析的捕获中在面部区域中制造阴影时,电子设备100的处理器130可能不充分地分析图像500中具有阴影的区域。更具体地,当处理器通过使用用于分析皮肤的算法来分析图像500时,对于处理器可能难以确定在所捕获的没有阴影的面部的皮肤状态与所捕获的有阴影的面部的皮肤状态之间的差别。因此,处理器可以提供引导信息以捕获面部区域中没有阴影的面部的图像。
例如,阴影的形式可以包括:当外部光源从面部的前方中心偏置到左或右侧时制造的侧表面阴影,以及当外部光源偏置到面部的特定点(例如,鼻子的端部)的上或下侧时制造的上下阴影。
处理器可以将在面部区域中左右对称于彼此的左侧区域和右侧区域设置为比较区域,从而确定侧表面阴影的影响。
图5示出处理器将左颊骨区域510和右颊骨区域530设置为比较区域。在这种情况下,处理器可以从与图像500的左颊骨区域510相对应的数据中提取第一照度分量,并且可以从与图像500的右颊骨区域530相对应的数据中提取第二照度分量。另外,处理器可以计算第一照度分量与第二照度分量之间的差值。当差值被包括在指定大小范围内时,处理器可以确定外部光源位于面部的前方中心,也就是说,侧表面阴影的影响被最小化。
图6A示出根据实施例的设置图像中的比较区域的方法。
参考图6A,电子设备100的处理器130可以将在面部区域中左右对称于彼此的区域(例如,左颊骨区域510和右颊骨区域530)设置为比较区域,以便确定侧表面阴影的影响,如图5中所示。然而,如在图6A中所示,处理器可以将在面部区域中左右对称于彼此的左区域610(例如,包括左脸颊区域和左颊骨区域的区域)和右区域630(例如,包括右脸颊区域和右颊骨区域的区域)、几乎不制造阴影的鼻子的鼻梁区域650和容易制造阴影的人中区域670设置为比较区域,从而确定侧表面阴影的影响和上下阴影的影响。然而,被设置为比较区域的区域不限于此。至于比较区域,处理器可以在经过面部区域中的鼻梁和人中的虚拟垂直线上设置特定区域,从而确定上下阴影的影响。
图6B示出根据实施例的将比较区域的照度值彼此比较的方法。
参考图6B,第一等式601和第二等式603用于将比较区域的照度值彼此进行比较。具体地,第一等式601用于确定侧表面阴影的影响,并且第二等式603用于确定上下阴影的影响。
如第一等式601中所示,处理器计算从与左区域610相对应的数据中提取的第一照度分量(YL)和从与右区域630相对应的数据中提取的第二照度分量(YR)之间的差值(diff(YL,YR))。之后,处理器将计算的差值除以第一照度分量与第二照度分量之间的最小值(min(YL,YR)),并且计算第一比较值(Delta1)。
如第二等式603中所示,处理器计算从与鼻子的鼻梁区域650相对应的数据中提取的第三照度分量(YN)和从与人中区域670相对应的数据中提取的第四照度分量(YP)之间的差值(diff(YN,YP))。之后,处理器将计算的差值除以第四照度分量,并且计算第二比较值(Delta2)。在第二等式603中,因为第四照度分量一般小于第三照度分量,所以将差值除以第四照度分量。
可替代地,处理器可以将第一亮度分量、第二亮度分量、第三亮度分量和第四亮度分量分别地计算为针对左区域610、右区域630、鼻子的鼻梁区域650和人中区域670的照度值的平均值。
在第一比较值和第二比较值接近指定值(例如,零值)时,处理器也可以确定外部光源的阴影的影响最小化。
图7示出根据实施例的引导外部光源的位置的对象。
参考图7,电子设备100的处理器130可以创建引导外部光源的位置的对象。对象可以基于图6B中计算的照度分量的比较值(例如,Delta1或Delta2)被创建。
对象可以包括垂直轴711和水平轴713。垂直轴711可以对应于经过面部区域中的鼻梁和人中的虚拟垂直线,并且水平轴713可以对应于经过面部区域中左右对称于彼此的区域的中间点的虚拟水平线。另外,垂直轴711和水平轴713彼此相遇的第一中心点715,可以对应于垂直线和水平线彼此相遇的点。
对象可以包括代表针对比较值所允许的大小的范围的第一圆圈710。例如,第一圆圈710的第一中心点715可以对应于垂直轴711与水平轴713相遇的点。第一圆圈710的半径可以对应于比较值的绝对值。因为比较值变成在“-1”到“+1”的范围中的特定值,所以第一圆圈710的半径可以是“1”。
对象可以包括代表外部光源的位置信息的第二圆圈730。也就是说,第二圆圈730的第二中心点731可以分别地对应于通过图6B的第一等式601和第二等式603计算的第一比较值(Delta1)和第二比较值(Delta2)。
例如,第二中心点731的水平轴坐标值(d1)751可以对应于代表外部光源的左右偏置程度的第一比较值,并且第二中心点731的垂直轴坐标值(d2)753可以对应于代表外部光源的上下偏置程度的第二比较值。当第一比较值是负(-)值时,第二中心点731的水平轴坐标值(d1)751具有负(-)值,并且位于水平轴713上从第一中心点715向左移动了第一比较值的绝对值的距离处。当第一比较值是正(+)值时,第二中心点731的水平轴坐标值(d1)751具有正(+)值,并且位于水平轴上713上从第一中心点715向右移动了第一比较值的绝对值的距离处。
作为另一示例,当第二比较值是负(-)值时,第二中心点731的垂直轴坐标值753具有负(-)值,并且位于垂直轴711上从第一中心点715向下移动了第二比较值的绝对值的距离处。当第二比较值是正(+)值时,第二中心点731的垂直轴坐标值753具有正(+)值,并且位于垂直轴711上从第一中心点715向上移动了第二比较值的绝对值的距离处。
图8示出根据实施例的在图像上显示引导外部光源的位置的对象的方法。
参考图8,电子设备100的处理器130可以在显示器150上显示引导外部光源的位置的对象。处理器可以用预览图像800的指定区域(例如,右上区域)覆盖对象。
处理器可以以目标板的形式创建对象。例如,处理器可以允许对象的垂直轴811对应于经过面部区域中的鼻梁和人中的虚拟垂直线801,并且可以允许对象的水平轴813对应于经过面部区域中左右对称于彼此的区域之间的中心部分的虚拟水平线803。在这种情况下,垂直轴811和水平轴813彼此相遇的第一中心点815可以对应于虚拟垂直线801和虚拟水平线803彼此相遇的中间点805。
另外,处理器可以进一步将代表图6B中计算的照度分量的比较值(例如,Delta1或Delta2)允许的大小的范围的第一圆圈810、以及还有第一圆圈810中共享第一圆圈810的第一中心点815的至少另一电路包括到对象中。另外,处理器可以将代表外部光源的位置信息的第二圆圈830包括到对象中。
图9示出根据实施例的图像质量与外部光源的位置之间的相关性。
参考图9,电子设备930的处理器130可以引导捕获构造,使得通过最小化由外部光源950制造的阴影的影响来提高图像质量。在这种情况下,处理器可以通过使用外部光源950与主体910(例如,用户的面部)之间的位置相关性来创建引导捕获构造的对象990。
处理器可以将外部光源950位于针对主体910的指定方向上确定为最佳捕获状态。指定方向可以代表,以指定大小在将主体910链接到电子设备930的照相机的虚拟线与将主体910链接到外部光源950的虚拟线之间制造出角度970的方向,使得外部光源950位于主体910的前方(从主体910面向电子设备930的方向),而不向主体910的中心垂直轴的左或右偏置。当外部光源950位于指定方向上时,代表外部光源950的位置信息的圆圈(例如,第二圆圈730和830)可以被标记在对象990的中心点991上。
图10示出根据实施例的在图像上显示引导外部光源的位置的对象的方法。
参考图10,电子设备100的处理器130可以基于外部光源的位置信息来确定外部光源的左右偏置程度,并且可以在预览图像1000的水平轴1010上显示代表外部光源的左右偏置程度的对象1031。例如,当外部光源向左偏置时,处理器可以在水平轴1010的左侧显示代表外部光源的左右偏置程度的对象1031。当外部光源向右偏置时,处理器可以在水平轴1010的右侧显示代表外部光源的左右偏置程度的对象1031。
处理器可以显示代表外部光源的左右偏置程度的对象1031,同时进一步显示提供引导使得外部光源的左右偏置程度处于指定大小范围中的对象1033。具体地,图10示出在外部光源向左偏置时、以文本形式显示对象1033引导用户将他/她的身体向左转的处理器。
当用户基于包括在文本对象1033中的引导信息在一个方向(例如,左)上转向时,处理器可以再次确定外部光源的左右偏置程度,并且可以在水平轴1010上在与一个方向(例如,左)相反的方向1050(例如,右)上移动代表外部光源的左右偏置程度的对象1031。
虽然参考图10仅已经描述了外部光源的左右偏置程度,但是本公开不限于此。根据各种实施例,以上描述将等同地或类似地应用于甚至外部光源的上下偏置程度。
图11示出根据实施例的在图像上显示引导外部光源的位置的对象的方法。具体地,图11示出了通过使用图形特征来表达基于外部光源的位置信息而确定的外部光源的左右偏置程度的方法。
参考图11,电子设备100的处理器130可以基于外部光源的位置信息来确定外部光源的左右偏置程度,并且可以在预览图像1100的指定区域(例如,左下区域)上显示代表外部光源的左右偏置程度的对象1110。代表外部光源的左右偏置程度的对象1110可以包括图像。
处理器可以取决于外部光源的左右偏置程度来改变与代表外部光源的左右偏置程度的对象1110相对应的图像。例如,当外部光位于主体的后方(例如,背光)时,处理器可以将与代表外部光源的左右偏置程度的对象1110相对应的图像改变(指定)为第一图像1111。作为另一示例,当外部光源向右偏置时,处理器可以将与代表外部光源的左右偏置程度的对象1110相对应的图像改变(或指定)为第二图像1113。当外部光源向左偏置时,处理器可以将与代表外部光源的左右偏置程度的对象1110相对应的图像改变(或指定)为第三图像1115。当外部光未偏置时,处理器可以将与代表外部光源的左右偏置程度的对象1110相对应的图像改变(指定)为第四图像1117。
第一图像1111可以具有完全暗的背景,并且第四图像1117可以具有完全亮的背景。另外,在第二图像1113中,背景的右区域可以比背景的左区域更亮。在第三图像1115中,背景的左区域可以比背景的右区域更亮。
图12示出根据实施例的在图像上显示引导外部光源的位置的对象的方法。具体地,图12示出通过使用图形特征来表达基于外部光源的位置信息而确定的外部光源的左右偏置程度的方法,以及额外地表达提供引导使得外部光源的左右偏置程度被包括在指定大小范围中的对象的方法。
参考图12,电子设备100的处理器130可以基于外部光源的位置信息来确定外部光源的左右偏置程度,并且可以在预览图像1200的指定区域(例如,底部区域)上显示代表外部光源的左右偏置程度的对象。代表外部光源的左右偏置程度的对象可以包括图像。
处理器可以取决于外部光源的左右偏置程度来改变与代表外部光源的左右偏置程度的对象相对应的图像。例如,如第一状态1201中示出,当外部光源向左偏置时,处理器可以将与代表外部光源的左右偏置程度的对象相对应的图像改变(或指定)为第一图像1211。然而,如第二状态1203中示出,当外部光源向右偏置时,处理器可以将与代表外部光源的左右偏置程度的对象相对应的图像改变(或指定)为第二图像1213。
如第三状态1205中示出,当外部光源未偏置时,处理器可以将与代表外部光源的左右偏置程度的对象相对应的图像改变(或指定)为第三图像1215。
在第一图像1211中,背景的左区域可以比背景的右区域更亮。在第二图像1213中,背景的右区域可以比背景的左区域更亮。另外,第三图像1215可以具有亮背景。
处理器可以取决于外部光源的左右偏置程度来改变与代表外部光源的左右偏置程度的对象相对应的图像,同时进一步显示提供引导使得外部光源的左右偏置程度被包括在指定大小范围中的对象。例如,如第一状态1201中示出,当外部光源向左偏置时,处理器显示左箭头1231以引导用户将他/她的身体向左转。如第二状态1203中示出,当外部光源向右偏置时,处理器可以显示右箭头1233以引导用户将他/她的身体向右转。如第三状态1205中示出,当外部光源未偏置时,处理器可以显示代表非偏置状态的文本对象1235。
图13示出根据实施例的提供用于保持要捕获的皮肤区域的对准状态的引导的对象。
参考图13,电子设备100的处理器130可以在预览图像1300上显示用于引导通过照相机110捕获的主体的对准状态的引导对象1330。例如,处理器可以在预览图像1300上显示用于引导主体的移动的引导对象1330,使得主体(即用户的面部)位于照相机的成像区域的指定区域。
如第一状态1301中示出,即使外部光源位于针对面部的指定方向(例如,前方中心方向)上,当与面部相对应的对象1310未与引导对象1330对准时,处理器也可以不执行捕获功能。
如第二状态1303中示出,当用户移动面部或移动照相机时,处理器可以确定与面部相对应的对象1310的大小或位置,并且可以基于该确定来改变与面部相对应的对象1310的大小或位置。
如第三状态1305中示出,当用户通过移动他/她的面部或照相机将与面部相对应的对象1310与引导对象1330对准时,处理器可以执行捕获功能。例如,处理器可以基于用户的输入(例如,按下快门的输入)或设置值(例如,用于自动拍摄的设置值)来执行捕获功能。另外,处理器可以在预览图像1300上显示用于指导用户别移动的对象1351。
图14示出根据实施例的网络环境中的电子设备。
参考图14,电子设备1401可以包括各种形式的设备。例如,电子设备1401可以包括便携式通信设备(例如,智能电话)、计算机设备(例如,个人数字助理(personal digitalassistant,PDA)、平板个人计算机(personal computer,PC)、膝上型PC、台式PC、工作站或服务器)、便携式多媒体设备(例如,电子书阅读器或运动图像专家组(Motion PictureExperts Group,MPEG)(MPEG-1或MPEG-2)音频层3(MPEG Audio Layer 3,MP3)播放器)、便携式医疗设备(例如,心跳测量设备、血糖监测设备、血压测量设备和体温测量设备)、照相机或可穿戴设备。可穿戴设备可以包括配件型设备(例如,手表、戒指、手镯、脚链、项链、眼镜、隐形眼镜或头戴式设备(head-mounted-device,HMD))、织物或衣服集成型设备(例如,电子服装)、身体附着型设备(例如,皮肤垫或纹身)或生物可植入型设备(例如,可植入电路)。
电子设备1401可以包括电视机(television,TV)、数字多功能盘(digitalversatile disk,DVD)播放器、音频设备、音频配件设备(例如,扬声器、耳机或耳麦)、冰箱、空调、清洁器、烤箱、微波炉、洗衣机、空气净化器、机顶盒、家庭自动化控制面板、安全控制面板、游戏机、电子词典、电子钥匙、摄像机或电子相框。
电子设备1401可以包括导航设备、卫星导航系统(例如,全球导航卫星系统(Global Navigation Satellite System,GNSS))、事件数据记录器(event datarecorder,EDR)(例如,用于汽车、船或飞机的黑匣子)、车辆信息娱乐设备(例如,用于车辆的平视显示器)、工业或家庭机器人、无人机、自动取款机(automatic teller machine,ATM)、销售点(point of sales,POS)设备、测量仪器(例如,水表、电表或气表)或物联网(IoT)设备(例如,灯泡、洒水设备、火警警报器、恒温器或路灯)。
然而,电子设备1401不限于上述设备,并且可以提供像智能电话的多个设备的功能,这些设备具有个人生物测定信息(例如,心率或血糖水平)的测量功能。
本文中,术语“用户”可以指代使用电子设备1401的人或者可以指代使用电子设备1401的设备(例如,人工智能电子设备)。
在网络环境1400中,电子设备1401可以通过本地无线通信1498与电子设备1402进行通信,或者可以通过网络1499与电子设备1404和/或服务器1408进行通信。电子设备1401可以通过服务器1408与电子设备1404进行通信。
电子设备1401包括总线1410、处理器1420、存储器1430、输入设备1450(例如,微型电话或鼠标)、显示设备1460、音频模块1470、传感器模块1476、接口1477、触觉模块1479、照相机模块1480、电力管理模块1488、电池1489、通信模块1490和订户识别模块1496。电子设备1401可以省略上述元件中的至少一个(例如,显示设备1460或照相机模块1480)或者可以进一步包括(多个)其它元件。
总线1410可以互连上述元件1420至1490,并且可以包括用于在上述元件之间传达信号(例如,控制消息或数据)的电路。
处理器1420可以包括CPU、AP、图形处理单元(graphic processing unit,GPU)、照相机的图像信号处理器(image signal processor,ISP)或CP中的一个或多个。处理器1420可以用片上系统(system on chip,SoC)或系统级封装(system in package,SiP)实施。例如,处理器1420可以驱动OS或应用以控制连接到处理器1420的另一元件(例如,硬件或软件元件)中的至少一个,并且可以处理和计算各种数据。处理器1420可以将从其它元件中的至少一个(例如,通信模块1490)接收的命令或数据加载到易失性存储器1432中,以处理该命令或数据,并且可以将结果数据存储到非易失性存储器1434中。
存储器1430包括易失性存储器1432和非易失性存储器1434。易失性存储器1432可以包括随机存取存储器(random access memory,RAM)(例如,动态RAM(dynamic RAM,DRAM)、静态RAM(static RAM,SRAM)或同步DRAM(synchronous DRAM,SDRAM))。非易失性存储器1434可以包括可编程只读存储器(programmable read-only memory,PROM)、一次性PROM(one time PROM,OTPROM)、可擦除PROM(erasable PROM,EPROM)、电EPROM(electrically EPROM,EEPROM)、掩模ROM(read-only memory,只读存储器)、闪存ROM、闪存、硬盘驱动器(hard disk drive,HDD)或固态驱动器(solid-state drive,SSD)。另外,根据与电子设备1401的连接,非易失性存储器1434可以被配置为处于内部存储器1436的形式或者通过连接而可用的外部存储器1438的形式。
外部存储器1438可以进一步包括闪存驱动器,诸如紧凑式闪存(compact flash,CF)、安全数字(secure digital,SD)、微型安全数字(micro secure digital,Micro-SD)、迷你安全数字(mini secure digital,Mini-SD)、极限数字(extreme digital,xD)、多媒体卡(multimedia card,MMC)或记忆棒。外部存储器1438可以以有线方式(例如,电缆或通用串行总线(USB))或无线(例如,蓝牙)方式,操作地或物理地与电子设备1401连接。
存储器1430可以存储电子设备1401的至少一个不同的软件元件,诸如与程序1440相关联的指令或数据。程序1440包括内核1441、库1443、应用框架1445和应用程序(应用)1447。
输入设备1450可以包括麦克风、鼠标或键盘。键盘可以包括物理地连接的键盘或通过显示器1460显示的虚拟键盘。
显示器1460可以包括显示器、全息设备或投影仪,以及用于控制相关设备的控制电路。屏幕可以包括LCD、LED显示器、OLED显示器、MEMS显示器或电子纸显示器。显示器1460可以灵活地、透明地或可穿戴地实施。显示器1460可以包括能够检测用户的输入(诸如手势输入、接近输入或悬停输入)的触摸电路,或者能够测量触摸的压力的强度的压力传感器(或力传感器)。触摸电路或压力传感器可以与显示器集成地实施,或者可以用分离于显示器的至少一个传感器实施。全息设备可以使用光的干涉在空间中显示立体图像。投影仪可以将光投影到屏幕上以显示图像。屏幕可以位于电子设备1401内部或外部。
音频模块1470可以从声音转换成电信号或从电信号转换成声音。音频模块1470可以通过输入设备1450(例如,麦克风)获取声音,或者可以通过包括在电子设备1401中的输出设备(例如,扬声器或接收器)、外部电子设备(例如,电子设备1402(例如,无线扬声器或无线耳机))或与电子设备1401连接的电子设备1406(例如,有线扬声器或有线耳机)输出声音。
传感器模块1476可以测量或检测电子设备1401的内部操作状态(例如,电力或温度)或外部环境状态(例如,海拔、湿度或亮度)以生成与测量的状态或检测的状态的信息相对应的电信号或数据值。传感器模块1476可以包括手势传感器、陀螺仪传感器、大气压力传感器、磁传感器、加速度传感器、抓握传感器、接近传感器、颜色传感器(例如,红色、绿色、蓝色(red,green,blue,RGB)传感器)、红外传感器、生物测定传感器(例如,虹膜传感器、指纹传感器、心跳速率监视(heartbeat rate monitoring,HRM)传感器、电子鼻传感器、肌电图(electromyography,EMG)传感器、脑电图(electroencephalogram,EEG)传感器、心电图(electrocardiogram,ECG)传感器)、温度传感器、湿度传感器、照度传感器或UV传感器中的至少一个。传感器模块1476可以进一步包括用于控制其中包括的至少一个或多个传感器的控制电路。
可以通过使用处理器1420或分离于处理器1420的处理器(例如,传感器集线器)来控制传感器模块1476。当使用分离的处理器(例如,传感器集线器)时,尽管处理器1420处于睡眠状态,分离的处理器也可以在不唤醒处理器1420的情况下操作以控制传感器模块1476的操作或状态的至少部分。
接口1477可以包括高清晰度多媒体接口(definition multimedia interface,HDMI)、通用串行总线(universal serial bus,USB)、光学接口、推荐标准232(recommendedstandard 232,RS-232)、D超小型接口(D-subminiature,D-sub)、移动高清链接(mobilehigh-definition link,MHL)接口、SD卡/MMC(multi-media card,多媒体卡)接口或音频接口。
连接器1478可以物理地连接电子设备1401和电子设备1406。连接器1478可以包括USB连接器、SD卡/MMC连接器或音频连接器(例如,耳机连接器)。
触觉模块1479可以将电信号转换成机械刺激(例如,振动或运动)或电刺激。例如,触觉模块1479可以向用户施加触觉或动觉刺激。触觉模块1479可以包括发动机、压电元件或电刺激器。
照相机模块1480可以捕获静止的图像和/或运动的图片。照相机模块1480可以包括至少一个镜头(例如,广角镜头和长焦镜头,或者前镜头和后镜头)、图像传感器、图像信号处理器或者闪光灯(例如,光发射二极管或氙灯)。
用于管理电子设备1401的电力的电力管理模块1488可以构成电力管理集成电路(power management integrated circuit,PMIC)的至少部分。
电池1489可以包括原电池(primary cell)、蓄电池(secondary cell)或燃料电池(fuel cell),并且可以由外部电源再充电以向电子设备1401的至少一个元件供电。
通信模块1490可以在电子设备1401与外部设备(例如,第一外部电子设备1402、第二外部电子设备1404或服务器1408)之间建立通信信道。通信模块1490可以通过建立的通信信道支持有线通信或无线通信。通信模块1490包括无线通信模块1492和有线通信模块1494。通信模块1490可以通过无线通信模块1492或有线通信模块1494当中的相关模块,通过第一网络1498(例如,诸如蓝牙或红外数据协会(Infrared Data Association,IrDA)的无线局域网络)或第二网络1499(例如,诸如蜂窝网络的无线广域网络)与外部设备通信。
无线通信模块1492可以支持蜂窝通信、本地无线通信或全球导航卫星系统(GNSS)通信。蜂窝通信可以包括长期演进(long-term evolution,LTE)、LTE高级(LTE Advance,LTE-A)、码分多址(code division multiple access,CDMA)、宽带CDMA(wideband CDMA,WCDMA)、通用移动电信系统(universal mobile telecommunications system,UMTS)、无线宽带(wireless broadband,WiBro)或全球移动通信系统(global system for mobilecommunications,GSM)。本地无线通信可以包括Wi-Fi、WiFi直连、光保真(light fidelity,Li-Fi)、蓝牙、蓝牙低功耗(Bluetooth low energy,BLE)、Zigbee、近场通信(near fieldcommunication,NFC)、磁安全发送(magnetic secure transmission,MST)、射频(radiofrequency,RF)或体域网(body area network,BAN)。GNSS可以包括全球定位系统(globalpositioning system,GPS)、全球导航卫星系统(global navigation satellite system,Glonass)、北斗导航卫星系统(北斗)、欧洲全球卫星导航系统(伽利略)等中的至少一个。在本公开中,“GPS”和“GNSS”可以互换使用。
当无线通信模块1492支持蜂窝通信时,无线通信模块1492可以使用订户识别模块(SIM)1496(例如,SIM卡)识别或认证通信网络内的电子设备1401。
无线通信模块1492可以包括分离于处理器1420的CP(例如,AP)。在这种情况下,CP(而不是处理器1420)可以执行与电子设备1401的元件1410至1496中的至少一个相关联的功能的至少部分,例如,当处理器1420处于非活跃(睡眠)状态时;并且CP可以与处理器1420一起执行与电子设备1401的元件1410至1496中的至少一个相关联的功能的至少部分,例如,当处理器1420处于活跃状态时。无线通信模块1492可以包括多个通信模块,每个通信模块支持蜂窝通信、本地无线通信或GNSS通信当中的相关通信方案。
有线通信模块1494可以包括局域网(local area network,LAN)服务、电力线通信或普通老式电话服务(plain old telephone service,POTS)。
例如,第一网络1498可以通过电子设备1401与第一外部电子设备1402之间的无线直接连接,采用Wi-Fi直连或蓝牙,以用于发送或接收命令或数据。第二网络1499可以包括电信网络(例如,诸如LAN或WAN的计算机网络,互联网,或电话网络),以用于在电子设备1401和第二电子设备1404之间发送或接收命令或数据。
可以通过与第二网络1499连接的服务器1408在电子设备1401和第二外部电子设备1404之间发送或接收命令或数据。第一外部电子设备1402和第二外部电子设备1404中的每一个可以是与电子设备1401相同或不同类型的设备。
电子设备1401将执行的操作的全部或部分可以由另一电子设备或多个电子设备(例如,电子设备1402和1404或服务器1408)运行。当电子设备1401自动地或响应于请求来运行功能或服务而不是内在地执行功能或服务时,电子设备1401可以替代地或额外地将针对与电子设备1401相关联的功能的至少部分的请求发送到电子设备1402或1404或服务器1408。电子设备1402或1404或服务器1408可以运行所请求的功能或额外的功能,并且可以将运行结果发送到电子设备1401。电子设备1401可以使用接收的结果来提供所请求的功能或服务,或者可以额外地处理接收的结果以提供所请求的功能或服务。为此,可以使用云计算、分布式计算或客户端-服务器计算。
根据各种实施例,装置的至少部分(例如,其模块或功能)或方法的至少部分(例如,操作)可以由存储在计算机可读存储介质(例如,存储器1430)的指令以程序模块的形式实施。指令在由处理器(例如,处理器1420)运行时可以使得处理器执行与指令相对应的功能。计算机可读记录介质可以包括硬盘、软盘、磁介质(例如,磁带)、光介质(例如,光盘只读存储器(compact disc read only memory,CD-ROM)和DVD、磁光介质(例如,光磁盘))、嵌入式存储器等。一个或多个指令可以包含由编译器编译的代码或可由解释器运行的代码。
根据各种实施例,计算机可读存储(或记录)介质可以具有用于运行方法的程序,该方法包括:通过相机获得一个或多个外部对象的图像,识别包括在图像中的一个或多个外部对象中与面部相对应的兴趣对象,并且针对兴趣对象确定与识别面部相关联的第一区域和第二区域,确定针对第一区域的第一亮度值和针对第二区域的第二亮度值,至少基于第一亮度值和第二亮度值来确定针对兴趣对象的外部光源的特性信息,并且通过显示器提供与和兴趣对象相关联的特性信息相对应的引导信息。
方法可以进一步包括:当第一亮度值与第二亮度值之间的差值满足指定条件时,获得针对兴趣对象的另一图像。
方法可以进一步包括:在获得另一图像之前,与另一图像的获得相关联,通过显示器提供代表针对兴趣对象的大小的参考的第一指示符和取决于兴趣对象的大小而变化的第二指示符。
根据各种实施例的每个元件(例如,模块或程序模块)可以由单个实体或多个实体组成,上述子元件的部分可以被省略或者可以进一步包括其它子元件。可替代地或额外地,在集成在一个实体中之后,一些元件(例如,模块或程序模块)可以在集成之前相同地或类似地执行由每个相应的元件运行的功能。由模块、程序模块或其它元件运行的操作可以通过连续方法、并行方法、重复方法或启发式方法运行,或者操作的至少一部分可以以不同顺序运行或省略。可替代地,可以添加其它操作。
如上所述,根据本公开中的上述实施例,引导外部光源的位置,由此支持图像捕获,同时最小化其中阴影的影响。
尽管已经参考本公开的各种实施例示出和描述了本公开,但是本领域技术人员将会理解,可以在其中做出形式和细节上的各种改变而不脱离如由所附权利要求及其等同物定义的本公开的范围。

Claims (11)

1.一种电子设备,包括:
照相机;
显示器;和
处理器,被配置为:
使用照相机获得图像;
识别包括在图像中的面部;
确定针对所识别的面部的第一区域的第一亮度值和针对所识别的面部的第二区域的第二亮度值;
基于第一亮度值和第二亮度值,确定针对所识别的面部的外部光源的特性信息;以及
基于所述特性信息,通过显示器提供引导信息,所述引导信息引导移动面部的方向以使得面部位于相对于外部光源的特定位置。
2.根据权利要求1所述的电子设备,其中所述处理器进一步被配置为:当第一亮度值与第二亮度值之间的差值满足指定条件时,获得针对所识别的面部的第二图像。
3.根据权利要求2所述的电子设备,其中所述处理器进一步被配置为:在获得第二图像之前,通过显示器,提供代表针对所识别的面部的大小的参考的第一指示符和取决于所识别的面部的大小而变化的第二指示符。
4.根据权利要求3所述的电子设备,其中所述处理器进一步被配置为:进一步基于第一指示符在大小上实质等于第二指示符的确定来获得第二图像。
5.根据权利要求1所述的电子设备,其中所述处理器进一步被配置为:在所述引导信息中包括外部光源的位置信息。
6.根据权利要求1所述的电子设备,进一步包括存储器,
其中所述处理器进一步被配置为:
将与所述图像相对应的数据转换为处于指定图像格式,以及
在存储器中存储经转换的数据。
7.根据权利要求6所述的电子设备,其中所述指定图像格式包括与所述图像相对应的亮度信息。
8.根据权利要求7所述的电子设备,其中所述处理器进一步被配置为基于亮度信息确定第一亮度值和第二亮度值。
9.一种其上存储用于运行方法的程序的非暂时性计算机可读记录介质,所述方法包括:
通过照相机获得图像;
识别包括在图像中的面部;
确定针对所识别的面部的第一区域的第一亮度值和针对所识别的面部的第二区域的第二亮度值;
基于第一亮度值和第二亮度值,确定针对所识别的面部的外部光源的特性信息;以及
基于所述特性信息,通过显示器提供引导信息,所述引导信息引导移动面部的方向以使得面部位于相对于外部光源的特定位置。
10.根据权利要求9所述的非暂时性计算机可读记录介质,其中,所述方法进一步包括:当第一亮度值与第二亮度值之间的差值满足指定条件时,获得针对所识别的面部的第二图像。
11.根据权利要求10所述的非暂时性计算机可读记录介质,其中,所述方法进一步包括:在获得第二图像之前,通过显示器,提供代表针对所识别的面部的大小的参考的第一指示符和取决于所识别的面部的大小而变化的第二指示符。
CN201810641836.8A 2017-06-21 2018-06-21 用于提供针对兴趣对象的外部光源的特性信息的电子设备 Active CN109101873B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020170078329A KR102333101B1 (ko) 2017-06-21 2017-06-21 관심 객체에 대한 외부 광원의 속성 정보를 제공하는 방법을 지원하는 전자 장치
KR10-2017-0078329 2017-06-21

Publications (2)

Publication Number Publication Date
CN109101873A CN109101873A (zh) 2018-12-28
CN109101873B true CN109101873B (zh) 2023-12-29

Family

ID=62845926

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810641836.8A Active CN109101873B (zh) 2017-06-21 2018-06-21 用于提供针对兴趣对象的外部光源的特性信息的电子设备

Country Status (5)

Country Link
US (1) US10827126B2 (zh)
EP (1) EP3419024B1 (zh)
KR (1) KR102333101B1 (zh)
CN (1) CN109101873B (zh)
WO (1) WO2018236058A1 (zh)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109508587A (zh) * 2017-09-15 2019-03-22 丽宝大数据股份有限公司 身体信息分析装置及其底妆分析方法
CN108134903B (zh) * 2017-12-25 2020-01-14 Oppo广东移动通信有限公司 拍摄方法及相关产品
US20190205634A1 (en) * 2017-12-29 2019-07-04 Idemia Identity & Security USA LLC Capturing Digital Images of Documents
US10574881B2 (en) * 2018-02-15 2020-02-25 Adobe Inc. Smart guide to capture digital images that align with a target image model
CN110740252A (zh) * 2018-07-20 2020-01-31 华为技术有限公司 一种图像获取的方法、装置及终端
CN111053356A (zh) * 2018-10-17 2020-04-24 丽宝大数据股份有限公司 电子化妆镜装置及其显示方法
WO2020149646A1 (en) 2019-01-17 2020-07-23 Samsung Electronics Co., Ltd. Method of acquiring outside luminance using camera sensor and electronic device applying the method
US10997453B2 (en) * 2019-01-29 2021-05-04 Adobe Inc. Image shadow detection using multiple images
JP2020162873A (ja) * 2019-03-29 2020-10-08 株式会社エクォス・リサーチ 脈波検出装置、及び脈波検出プログラム
JP7211266B2 (ja) * 2019-05-27 2023-01-24 富士フイルムビジネスイノベーション株式会社 情報処理装置、及び情報処理プログラム
CN110532965B (zh) * 2019-08-30 2022-07-26 京东方科技集团股份有限公司 年龄识别方法、存储介质及电子设备
CN112449103B (zh) * 2019-09-05 2022-03-08 华为技术有限公司 一种影像处理方法以及相关设备
CN111540443A (zh) * 2020-04-28 2020-08-14 青岛海信医疗设备股份有限公司 医学影像显示方法和通信终端
US20220070236A1 (en) * 2020-08-28 2022-03-03 Tmrw Foundation Ip S. À R.L. Graphical representation-based user authentication system and method
US12034785B2 (en) 2020-08-28 2024-07-09 Tmrw Foundation Ip S.Àr.L. System and method enabling interactions in virtual environments with virtual presence
US20220070235A1 (en) 2020-08-28 2022-03-03 Tmrw Foundation Ip S.Àr.L. System and method enabling interactions in virtual environments with virtual presence
US11999357B2 (en) * 2020-12-08 2024-06-04 Endera Corporation Vehicle-based wellness diagnostic platform
US11509819B2 (en) * 2021-01-19 2022-11-22 Adobe Inc. Providing contextual augmented reality photo pose guidance

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102291481A (zh) * 2010-06-15 2011-12-21 Lg电子株式会社 移动终端和在其中显示对象相关信息的方法
CN105794196A (zh) * 2013-10-21 2016-07-20 诺基亚技术有限公司 用于修改图像中的照度的方法、装置和计算机程序产品
KR20170019167A (ko) * 2015-08-11 2017-02-21 삼성전자주식회사 이미지 처리 방법 및 이를 사용하는 전자 장치
CN106548455A (zh) * 2015-09-17 2017-03-29 三星电子株式会社 用于调整图像的亮度的设备和方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4911544A (en) 1987-11-13 1990-03-27 Walsh John P Skin condition analyzer for cosmetologists
JP4831223B2 (ja) * 2009-09-29 2011-12-07 カシオ計算機株式会社 画像表示装置及び方法並びにプログラム
FR2952519B1 (fr) * 2009-11-13 2012-07-20 O Ts Team Creatif Procede et dispositif pour l'analyse de la tendance d'une peau a etre plus ou moins seche.
US8315461B2 (en) * 2010-01-25 2012-11-20 Apple Inc. Light source detection from synthesized objects
JP2012010162A (ja) * 2010-06-25 2012-01-12 Kyocera Corp カメラ装置
JP2013034081A (ja) 2011-08-02 2013-02-14 Sony Corp 画像処理装置、その制御方法およびプログラム
US9536345B2 (en) * 2012-12-26 2017-01-03 Intel Corporation Apparatus for enhancement of 3-D images using depth mapping and light source synthesis
KR102099635B1 (ko) * 2013-04-09 2020-04-13 삼성전자 주식회사 카메라의 가이드 제공 방법 및 그 전자 장치
WO2015137788A1 (en) 2014-03-14 2015-09-17 Samsung Electronics Co., Ltd. Electronic apparatus for providing health status information, method of controlling the same, and computer-readable storage medium
US9507420B2 (en) * 2014-05-13 2016-11-29 Qualcomm Incorporated System and method for providing haptic feedback to assist in capturing images
KR20160024143A (ko) * 2014-08-25 2016-03-04 삼성전자주식회사 영상 처리 방법 및 전자 장치
EP3692896A1 (en) * 2014-11-04 2020-08-12 Samsung Electronics Co., Ltd. Electronic device, and method for analyzing face information in electronic device
KR102424986B1 (ko) 2014-11-04 2022-07-26 삼성전자주식회사 전자 장치 및 전자 장치에서 얼굴 정보를 분석하는 방법
TWI701018B (zh) * 2015-01-29 2020-08-11 日商新力股份有限公司 資訊處理裝置、資訊處理方法、及程式
US9843761B2 (en) * 2015-02-05 2017-12-12 Polycom, Inc. System and method for brightening video image regions to compensate for backlighting
KR102507567B1 (ko) * 2015-06-09 2023-03-09 삼성전자주식회사 이미지를 처리하는 전자 장치 및 그 제어 방법
KR20170016248A (ko) * 2015-08-03 2017-02-13 엘지전자 주식회사 전자기기 및 그의 촬영 가이드 방법
CN105654043B (zh) * 2015-12-24 2019-02-12 Oppo广东移动通信有限公司 控制方法、控制装置及拍照系统
EP3207823A1 (en) * 2016-02-16 2017-08-23 Braun GmbH Interactive system setup concept
CN106845455B (zh) * 2017-03-01 2021-03-12 中国科学院上海高等研究院 基于肤色检测的图像处理方法、系统及服务器

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102291481A (zh) * 2010-06-15 2011-12-21 Lg电子株式会社 移动终端和在其中显示对象相关信息的方法
CN105794196A (zh) * 2013-10-21 2016-07-20 诺基亚技术有限公司 用于修改图像中的照度的方法、装置和计算机程序产品
KR20170019167A (ko) * 2015-08-11 2017-02-21 삼성전자주식회사 이미지 처리 방법 및 이를 사용하는 전자 장치
CN106548455A (zh) * 2015-09-17 2017-03-29 三星电子株式会社 用于调整图像的亮度的设备和方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
采用图像直方图特征函数的高速相机自动曝光方法;马泽龙;高慧斌;余毅;蔡立华;;光学精密工程(第04期);全文 *

Also Published As

Publication number Publication date
WO2018236058A1 (en) 2018-12-27
KR102333101B1 (ko) 2021-12-01
CN109101873A (zh) 2018-12-28
EP3419024B1 (en) 2023-09-06
KR20180138300A (ko) 2018-12-31
US10827126B2 (en) 2020-11-03
US20180376072A1 (en) 2018-12-27
EP3419024A1 (en) 2018-12-26

Similar Documents

Publication Publication Date Title
CN109101873B (zh) 用于提供针对兴趣对象的外部光源的特性信息的电子设备
US11263469B2 (en) Electronic device for processing image and method for controlling the same
US10917552B2 (en) Photographing method using external electronic device and electronic device supporting the same
KR102328098B1 (ko) 전자장치의 초점 검출 장치 및 방법
KR102317820B1 (ko) 이미지 처리 방법 및 이를 지원하는 전자장치
KR102636243B1 (ko) 이미지를 처리하기 위한 방법 및 그 전자 장치
KR20170136920A (ko) 화면 출력 방법 및 이를 지원하는 전자 장치
US11263790B2 (en) Method for correcting image processing region corresponding to skin and electronic device
KR20180013277A (ko) 그래픽 객체를 표시하기 위한 전자 장치 및 컴퓨터 판독 가능한 기록 매체
CN109565548B (zh) 控制多视场图像的方法和支持该方法的电子设备
US20200213494A1 (en) Method for processing image on basis of external light, and electronic device supporting same
US20190364186A1 (en) Image processing method and electronic device supporting same
US11132537B2 (en) Electronic device for determining position of user based on image pixels, and method of controlling said device
KR102423364B1 (ko) 영상을 제공하는 방법 및 이를 지원하는 전자 장치
KR20180109217A (ko) 얼굴 영상 보정 방법 및 이를 구현한 전자 장치
US10091436B2 (en) Electronic device for processing image and method for controlling the same
US10909420B2 (en) Method and apparatus for continuously displaying images on basis of similarity of images
KR20160134428A (ko) 이미지를 처리하는 전자 장치 및 그 제어 방법
KR102317624B1 (ko) 전자 장치 및 그의 이미지 처리 방법
KR20170046005A (ko) 얼굴 검출 방법 및 이를 지원하는 전자 장치

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant