CN113692599A - 移动通信设备和应用服务器 - Google Patents

移动通信设备和应用服务器 Download PDF

Info

Publication number
CN113692599A
CN113692599A CN201980095419.0A CN201980095419A CN113692599A CN 113692599 A CN113692599 A CN 113692599A CN 201980095419 A CN201980095419 A CN 201980095419A CN 113692599 A CN113692599 A CN 113692599A
Authority
CN
China
Prior art keywords
persons
image
mobile communication
communication device
present
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201980095419.0A
Other languages
English (en)
Inventor
T·阿恩格伦
P·奥克维斯特
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Telefonaktiebolaget LM Ericsson AB
Original Assignee
Telefonaktiebolaget LM Ericsson AB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Telefonaktiebolaget LM Ericsson AB filed Critical Telefonaktiebolaget LM Ericsson AB
Publication of CN113692599A publication Critical patent/CN113692599A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/179Human faces, e.g. facial parts, sketches or expressions metadata assisted face recognition

Abstract

提供了一种包括相机的移动通信设备(110)(MCD)和应用服务器(130)(AS)。所述MCD可操作以使用所述相机来捕获图像(112),向所述AS(130)发送指示捕获所述图像的时间的信息以及与所述相机的视场(111)有关的信息以及从所述AS(130)接收与在所述已捕获图像中可能存在的一个或多个人(113)有关的识别信息。所述AS(130)可操作以接收与人在各时间的位置有关的信息,在数据库(140)中存储所接收的与人在各时间的位置有关的信息,从所述MCD(110)接收指示由被包括在所述MCD(110)中的相机捕获图像的时间的信息以及与所述相机的视场(111)有关的信息,选择在所述已捕获图像中可能存在的一个或多个人,获取与所述一个或多个所选择的人有关的识别信息,以及向所述MCD(110)发送与所述已捕获图像中可能存在的一个或多个人有关的所获取的识别信息的至少一部分。

Description

移动通信设备和应用服务器
技术领域
本发明涉及移动通信设备、应用服务器、由移动通信设备执行的方法、由应用服务器执行的方法,以及对应的计算机程序、计算机可读存储介质和数据载波信号。
背景技术
近年来,配备有相机的移动通信设备(诸如智能手机、头戴式显示器(HMD)、生活记录器、智能手表和相机眼镜)已经变得无处不在。与此同时,用于分享图像或视频的互联网服务越来越受欢迎。这些服务通常由如Facebook、Twitter、YouTube等的社交网络提供,这些社交网络通常使用基于云的平台。随着第一人称相机设备(诸如相机眼镜(例如,GoogleGlass))的广泛使用,可预期图像/视频内容的持续捕获和共享(通过经由无线通信网络上传到基于云的服务)将在一直连接的未来社会中变得更加突出和普遍接受。
基于面部识别算法,许多社交网络具有用图像中表示的人的身份来标记这些图像的能力,该面部识别算法应用于由用户捕获的图像以用于经由社交网络共享这些图像的目的。面部识别可在已捕获图像的移动通信设备上执行,即在图像被上传到社交网络平台之前,或者在使用社交网络基础设施来上传之后。在此类情况下,通常只能针对已捕获图像的用户已知的人的面部执行面部识别。通常,这些人是用户的社交网络联系人。
发明内容
本发明的目的是提供上述技术和现有技术的改进替代方案。
更具体地说,本发明的目的是提供一种改进的解决方案,其用于通过面部识别来识别由移动通信设备捕获的图像中存在的面部。
本发明的这些和其他目的通过本发明的不同方面来实现,如由独立权利要求所定义的。本发明的实施例的特征在于从属权利要求。
根据本发明的第一方面,提供了一种移动通信设备。移动通信设备包括相机、定位传感器、取向传感器、无线网络接口和处理电路。所述处理电路致使所述移动通信设备操作可操作以:使用所述相机来捕获图像,向应用服务器发送指示捕获所述图像的时间的信息以及与捕获所述图像期间所述相机的视场有关的信息以及从所述应用服务器接收与在所述已捕获图像中可能存在的一个或多个人有关的识别信息。
根据本发明的第二方面,提供了一种应用服务器。应用服务器包括网络接口和处理电路。所述处理电路致使所述应用服务器可操作以:接收与人在各时间的位置有关的信息以及在数据库中存储所接收的与人在各时间的位置有关的信息。所述处理电路致使所述应用服务器还可操作以从所述移动通信设备接收指示由被包括在所述移动通信设备中的相机捕获图像的时间的信息以及与捕获所述图像期间所述相机的视场有关的信息。所述处理电路致使所述应用服务器还可操作以选择在所述已捕获图像中可能存在的一个或多个人,获取与在所述已捕获图像中可能存在的一个或多个所选择的人有关的识别信息,以及向所述移动通信设备发送与所述已捕获图像中可能存在的一个或多个人有关的所获取的识别信息的至少一部分。
根据本发明的第三方面,提供了一种由移动通信设备执行的方法。所述方法包括:使用所述移动通信设备中包括的相机来捕获图像,向应用服务器发送指示捕获所述图像的时间的信息以及与捕获所述图像期间所述相机的视场有关的信息以及从所述应用服务器接收与在所述已捕获图像中可能存在的一个或多个人有关的识别信息。
根据本发明的第四方面,提供了一种计算机程序。所述计算机程序包括指令,当所述计算机程序由移动通信设备中包括的处理器执行时,所述指令使所述移动通信设备执行根据本发明第三方面的方法。
根据本发明的第五方面,提供了一种计算机可读存储介质。所述计算机可读存储介质在其上存储有根据本发明的第四方面的计算机程序。
根据本发明的第六方面,提供一种数据载波信号。所述数据载波信号承载根据本发明第四方面的计算机程序。
根据本发明的第七方面,提供了一种由应用服务器执行的方法。所述方法包括:接收与人在各时间的位置有关的信息,在数据库中存储所接收的与人在各时间的位置有关的信息。所述方法还包括从所述移动通信设备接收指示由被包括在所述移动通信设备中的相机捕获图像的时间的信息以及与捕获所述图像期间所述相机的视场有关的信息。所述方法还包括:选择在所述已捕获图像中可能存在的一个或多个人,获取与在所述已捕获图像中可能存在的所述一个或多个所选人有关的识别信息,以及向所述移动通信设备发送与所述已捕获图像中可能存在的一个或多个人有关的所获取的识别信息的至少一部分。
本发明利用这样的理解,即对由移动通信设备(诸如移动电话、智能电话、平板电脑、智能手表、数字相机、相机眼镜、增强现实/虚拟现实(AR/VR)头戴式装置、头戴显示器或生活记录器)捕获的图像执行的面部识别可通过获取在已捕获图像中可能存在的人(即其面部可能存在在已捕获图像中的人)的识别信息来改进。这通过将此类可能存在的人选择为在捕获图像期间位于相机的视场内的人来实现。所获取的识别信息由面部识别算法用于识别在已捕获图像中存在的面部。
尽管在一些情况下已经参考本发明的第一方面和第二方面的实施例描述了本发明的优点,但对应的推理适用于本发明的其他方面的实施例。
当研究以下详细公开内容、附图和所附权利要求时,本发明的进一步目的、特征和优点将变得显而易见。本领域技术人员认识到,可组合本发明的不同特征以创建除以下描述的实施例之外的实施例。
附图说明
通过以下参照附图的对本发明的实施例的示意性和非限制性详细描述,将更好地理解本发明的上述以及附加目的、特征和优点,其中:
图1示出了根据本发明的实施例的在应用服务器的辅助下识别在由移动通信设备捕获的图像中存在的面部;
图2示出了根据本发明的实施例的示出识别在由移动通信设备捕获的图像中存在的面部的序列图,其中面部识别在移动通信设备中执行;
图3示出了根据本发明的其他实施例的示出识别在由移动通信设备捕获的图像中存在的面部的序列图,其中面部识别由应用服务器执行;
图4示出了根据本发明的实施例的移动通信设备;
图5示出了根据本发明的实施例的应用服务器;
图6示出了根据本发明的实施例的示出由移动通信设备执行的方法的流程图;以及
图7示出了根据本发明的实施例的示出由应用服务器执行的方法的流程图。
所有的图都是示意性的,不一定是按比例的,并且通常只示出了为了阐明本发明而必需的部分,其中其他部分可省略或仅是建议。
具体实施方式
现在将在参照附图后在此更全面地描述本发明,附图中示出了本发明的某些实施例。然而,本发明可以许多不同的形式体现并且不应被解释为限于本文所述的实施例。相反,这些实施例以示例的方式提供,使得本公开将是透彻和完整的,并且将向本领域技术人员充分传达本发明的范围。
在图1中,示出了识别在分别由移动通信设备(MCD)110A和110B捕获的图像112A和112B(统称为112)中存在的面部113C和113D(统称为113)。面部113C和113D是分别携带其他移动通信设备110C和110D的用户的面部。识别在图像中存在的面部的过程被称为面部识别,并且在本领域中是众所周知的。例如,可用于当今智能手机的照片应用程序能够识别智能手机的用户已知的人的面部。
在本上下文中,图像被理解为表示由数字相机捕获(即,记录和存储)的数字内容的数据。在本上下文中,术语图像还可包括含有一系列图像的视频。移动通信设备110A-110D(统称为110)可具体体现为用户设备,诸如智能手机、移动电话、平板电脑、智能手表、具有无线连接的数字相机、相机眼镜、增强/虚拟现实(AR/VR)头戴式装置、头戴式显示器、生活记录器等,其具有捕获(即记录和存储)图像以用于使用面部识别算法的后续图像处理的能力。
对由用户的移动通信设备110捕获的图像的面部识别可由移动通信设备110在捕获图像之后执行,或者由应用服务器130执行,已捕获图像或表示在已捕获图像中存在的一个或多个人的面部的数据被转移到该应用服务器。应用服务器130可例如是社交网络提供商的服务器,并且可实现为网络节点或云环境中的虚拟实例。如果面部识别已经成功,则被成功识别的面部的名称或其他合适的标识符(或者更确切地说,其面部已经被成功识别的人的名称)可与图像相关联地存储,例如作为元数据,或者存储在数据库中。名称可以是真实姓名、用户名、昵称、别名、电子邮件地址、用户ID、名称标记和标签的任意一者或组合。
用于识别在由移动通信设备捕获的图像中存在的人的面部的已知解决方案通常限于已捕获该图像的用户已知的人。这些人的联系人信息通常存储在用户的移动通信设备中或可由其访问,并且可包括用户的社交网络联系人。该情况是因为面部识别算法基于从已知(即已识别)的人的面部图像中提取的面部特征来对图像中存在的面部进行分类。例如,这些可以是在这样的图像中存在的面部,该图像已经被用户存储在他/她的移动通信设备中或者在用户的移动通信设备可访问的云存储装置或应用服务器中,并且该图像与联系人信息相关联。例如,此类图像可作为简档图片来与联系人信息关联地存储,或者通过用图像中可见的一个或多个人的名称标记图像来与联系人信息关联地存储。标记捕获若干面部的图像可通过存储识别图像中的面部的位置的元数据来实现,例如,使用定义面部的中心或包围面部的边界框的坐标集以及识别人的信息(诸如名称或其他合适的标识符)。作为替代方案,识别图像中的面部的位置的信息和识别人的信息可关联地存储在移动通信设备中包括的或可由移动通信设备访问的数据库中。
在图1所描绘的场景中,访问位置的两个用户分别用他们的移动通信设备110A和110B(例如,该移动通信设备可以是智能手机)捕获场景的图像112A和112B。移动通信设备110A和110B分别具有视场111A和111B(在图1中示出为由虚线111A/B限定的锐角,并共同标记为111),其由被包括在移动通信设备110A和110B中的相机410(参见图4)的属性确定。
相机的视场可通过修改相机的光学器件来调整,例如,通过改变其焦距(又名光学变焦)或通过裁剪由相机捕获的图像的区域(又名数字变焦)。也就是说,视场是每个已捕获图像的特性,并且可基于相机的当前配置(例如,如果使用光学变焦)或在智能手机上执行的相机应用程序的设置(例如,如果使用数字变焦)来确定。通常,视场可用视锥的角大小来表示(作为视角)。对于常规相机透镜,对角线视场FoV可被计算为
Figure BDA0003302153820000061
其中SensorSize是相机传感器的大小并且f是其焦距。
在图1中还示出了携带移动通信设备110C和110D的两个其他用户,其被描绘为位于移动通信设备110A的视场111A内。此外,移动通信设备110D的用户被描绘为位于移动通信设备110B的视场111B内。因此,移动通信设备110C的用户可能在由移动通信设备110A捕获的图像112A中存在(即可见),并且移动通信设备110D的用户可能在分别由移动通信设备110A和110B捕获的图像112A和112B中存在。因此,取决于移动通信设备110C和110D的用户的注视方向,他们的面部113C和113D可在由移动通信设备110A和110B捕获的图像112A和112B中可见。这在图1中举例说明,其示意性地示出由移动通信设备110A捕获的图像112A,分别存在移动通信设备110C和110D的用户的面部113C和113D。对应地,由移动通信设备110B捕获的图像112B可存在移动通信设备110D的用户的面部113D(尽管与图像112A相比以不同的角度)。
本文提供的解决方案涉及协助识别在由移动通信设备(诸如移动通信设备110A/B)捕获的图像112中存在的面部113(又名面部识别),这些面部113是携带其他移动通信设备(诸如移动通信设备110C/D)的用户的面部。如果用户在旅行期间携带他们的移动通信设备110A和110B,例如用于捕获他们正在访问的景象的图像112,则可能是这种情况。作为可能的情况,携带其移动通信设备110C和110D的其他人在捕获图像112期间可能意外地位于相机的视场111内,并且这些人(特别是他们的面部113)可因此有可能存在于已捕获图像112中。
下面,参照图2和图3描述了移动通信设备110和应用服务器130的实施例,这些图示出了示出识别在由移动通信设备110捕获的图像112中存在的面部113的序列图,其中面部识别分别由移动通信设备110(图2)或应用服务器130(图3)执行。
图4中示意性示出的移动通信设备110的实施例包括相机410、定位传感器420、取向传感器430、无线网络接口440和处理电路450。
相机410是例如在目前的智能手机中普遍存在的CMOS类型的数字相机,并且被配置为通过视场111捕获图像,该视场由相机410在空间中的当前位置和取向(以及相应地,相机410固定到的移动通信设备110的当前位置和取向)确定。
定位传感器420被配置为确定移动通信设备110以及相应地相机410的当前位置。它可基于全球定位系统(GPS)、全球导航卫星系统(GNSS)、中国北斗导航卫星系统(BDS)、GLONASS或伽利略,或者可经由无线网络接口440例如从定位服务器接收位置信息。位置信息可例如基于与无线通信网络的接入点(例如,小区ID或WLAN SSID)的已知位置相关联的无线电三角测量、无线电指纹或众包标识符。移动通信设备110的当前位置可例如经由移动通信设备110的操作系统所提供的应用程序编程接口(API)而可用。在捕获图像时的当前位置可作为元数据与图像一起被存储,或者被存储在单独的数据记录中,例如,被存储在移动通信设备110中包括的或可由移动通信设备访问的数据库中。
取向传感器430被配置为确定移动通信设备110以及相应地相机410相对于参考系(例如,重力方向)的当前取向。它可包括一个或多个不同类型的传感器,诸如加速度计、陀螺仪和磁强计,这些在目前的智能手机中是常见的。移动通信设备110的当前取向可例如经由移动通信设备110的操作系统所提供的API而可用。在捕获图像时的当前取向可作为元数据与图像一起被存储,或者被存储在单独的数据记录中,例如,被存储在移动通信设备110中包括的或可由移动通信设备访问的数据库中。
无线网络接口440被配置为接入无线通信网络120,并且由此使得移动通信设备110能够在任一方向(上行链路或下行链路)上与应用服务器130以及可选地与经由无线通信网络120可访问的任何其他网络节点(例如,定位服务器)通信(即交换数据)。例如,它可包括蜂窝调制解调器(例如,GSM、UMTS、LTE、5G、NR/NX)、WLAN/Wi-Fi调制解调器、蓝牙调制解调器、可见光通信(VLC)调制解调器等中的一者或多者。
处理电路450可包括一个或多个处理器451,诸如中央处理单元、微处理器、专用处理器、图形处理单元和包括图像处理器的数字信号处理器,或其组合;以及存储器452,该存储器包括含有指令的计算机程序453。当由处理器451执行时,计算机程序453被配置为致使移动通信设备110根据本文描述的本发明的实施例执行。计算机程序453可作为承载计算机程序453的数据载体信号通过无线网络接口440被下载到存储器452。处理器451还可包括一个或多个专用集成电路(ASIC)、现场可编程门阵列(FPGA)等,其与计算机程序453协作或作为替代地被配置为致使移动通信设备110根据本文描述的本发明的实施例执行。
移动通信设备110还可包括数据库(图4中未示出),作为存储器452的一部分,或者作为单独的数据存储装置(诸如在目前的智能手机中经常用于存储图像的可移除存储卡)。数据库可用于存储由移动通信设备110捕获的图像,以及其他数据(诸如联系人信息、联系人的简档图像、联系人的参考面部特征、被成功识别的面部的名称等)。
图5中示意性示出的应用服务器130的实施例包括网络接口510和处理电路520。
网络接口510被配置为使得应用服务器130能够经由无线通信网络120在任一方向上与移动通信设备110通信(即交换数据),并且可选地与其他网络节点通信,其他网络节点例如用于存储人的名称或其他适当标识符、表示这些人的面部的图像、从这些图像中提取的面部特征等的外部数据库140。它可以是任何类型的有线或无线网络接口,例如以太网、WLAN/Wi-Fi等。
处理电路520可包括一个或多个处理器521,诸如CPU、微处理器、专用处理器、GPU和包括图像处理器的DS,或其组合;以及存储器522,该存储器包括含有指令的计算机程序523。当由处理器521执行时,计算机程序523被配置为致使应用服务器130根据本文描述的本发明的实施例执行。计算机程序523可作为承载计算机程序523的数据载体信号,通过网络接口510被下载到存储器522。处理器521还可包括一个或多个ASIC、FPGA等,其与计算机程序指令523协作或作为计算机程序指令523的替代以被配置为致使应用服务器130根据本文描述的本发明的实施例执行。
参考图2和图3,本文描述的实施例通过以下方式帮助识别由移动通信设备110A/B捕获的图像112中存在的面部113:向应用服务器130发送218/318指示捕获该图像的时间的信息以及与捕获该图像期间的相机410的视场111有关的信息,以及从应用服务器130接收224/324与已捕获图像中可能存在的一个或多个人有关的识别信息。应用服务器130将在已捕获图像中可能存在的一个或多个人选择221为在捕获图像期间位于相机的视场111内的人。更具体地说,可基于指示捕获该图像的时间的信息、与捕获该图像期间相机的视场111有关的信息、以及在捕获该图像期间一个或多个人的位置来选择221他们。一个或多个人的位置可以是应用服务器130从移动通信设备110C和110D接收202的带时间戳的位置信息。
将在由移动通信设备110A或110B捕获的图像120中可能存在的一个或多个人选择221为在捕获该图像期间位于相机的视场111内的人是基于这样的理解,即在捕获图像时,这些人一直携带他们的移动通信设备110C和110D。换句话说,移动通信设备110C和110D的位置被假定为其相应用户的位置。
在本上下文中,“在已捕获图像中可能存在,并且被应用服务器130将一个或多个人选择为在捕获图像期间位于相机的视场111内的人的”被理解为覆盖这样的场景:其中在捕获图像期间其移动通信设备110C或110D位于相机的视场111内的用户的面部不存在于已捕获图像中。情况可能如此,例如,如果在捕获图像期间用户的面部背离相机,在捕获图像期间用户或他/她的面部被另一个人或物体遮掩,或者用户的面部实际上在相机的视场111之外,这可能是因为在捕获图像期间移动通信设备110C或110D位于用户裤子的口袋中。
有利的是,本文提出的解决方案不需要在捕获图像的用户与其面部存在于已捕获图像中的其他用户之间的任何先前关系。由于定位传感器和取向传感器在诸如智能手机的现代移动通信设备中普遍存在,因此所描述的解决方案提供了改进由移动通信设备捕获的图像中的面部识别的有效方式。
尽管应用服务器130的实施例在本文中被描述为利用从移动通信设备110C和110D接收的位置信息,但将理解应用服务器130可另选地从由用户携带并且可确定和报告其随时间推移的位置的电子设备(而不是移动通信设备110)接收位置信息。例如,这可能是定位设备,如GPS跟踪器、健身可穿戴设备等。
更具体地,并且参考图2和图3,移动通信设备110A/B可操作性以使用相机来捕获211图像。捕获图像可由移动通信设备110的用户触发,例如,通过按压相机按钮(该相机按钮可以是设置在移动通信设备110的表面上的硬件按钮),或者按压虚拟按钮(该虚拟按钮作为相机应用程序的用户界面的一部分显示在移动通信设备110中包括的触摸屏上),如本领域已知的。另选地,捕获图像可以可重复地、周期性地或有规律地,或者如果移动通信设备110的当前位置已经改变超过阈值(其可以可选地由移动通信设备110的用户配置)时,以始终在线的相机或生活记录器类型的方式来实现。
移动通信设备110还可操作以向应用服务器130发送218/318指示捕获图像的时间的信息以及与捕获该图像期间的相机410的视场111有关的信息。指示捕获图像的时间的信息以及与捕获该图像期间的相机视场有关的信息可在单个消息交换中一起被发送,或者在移动通信设备110和应用服务器130之间的分开的消息交换中被发送。指示捕获图像的时间的信息可例如包括从移动通信设备110中包括的时钟获得的时间戳。例如,可经由移动通信设备110的操作系统所提供的API来获得当前时间。捕获图像的时间可作为元数据与已捕获图像一起被存储,或者被存储在分开的数据记录中。
移动通信设备110还可操作以从应用服务器130接收224/324与已捕获图像中可能存在的一个或多个人有关的识别信息。如前所述,应用服务器130将在已捕获图像中可能存在的一个或多个人选择221为在捕获图像期间位于相机的视场111内的人。
移动通信设备110可以可操作以基于从定位传感器420和取向传感器430接收的信息来确定在捕获图像期间相机410的视场111。更具体地说,移动通信设备110可以可操作以使用定位传感器420来确定215在捕获图像期间的移动通信设备110的位置,并且使用取向传感器430来确定216在捕获图像期间相机410指向的方向。信息可分别从定位传感器420和取向传感器430直接接收,或者经由移动通信设备110的操作系统的API接收。
可选地,移动通信设备110可以可操作以进一步基于从相机410接收的信息来确定在捕获图像期间的相机410的视场111。更具体地说,移动通信设备110可以可操作以基于与相机410的配置有关的信息来确定217在捕获图像期间的相机410的视角。信息可经由操作系统的API直接从相机410接收(如上文所述),或者经由相机应用程序的API接收,该相机应用程序在移动通信设备110上执行,并且被设置用于经由移动通信设备110的(可选地基于触摸的)用户接口来控制相机410。信息可例如涉及相机410的当前焦距设置、相机410的传感器的尺寸、相机410的当前视角等中的一个或多个。
所发送218/318的与捕获图像期间的相机的视场111有关的信息包括所确定215的位置和所确定216的方向。可选地,它可以还包括所确定217的视角。
为了帮助其他移动通信设备执行根据本发明的实施例的面部识别的目标,移动通信设备110还可以可操作以使用定位传感器420来确定201移动通信设备110的位置,并且向应用服务器130发送202与所确定的移动通信设备110的位置有关的信息。移动通信设备110的位置可定期地、周期性地、根据应用服务器130的请求地、或在移动通信设备110的位置已改变超过阈值距离的情况下被报告。位置信息可一次一个地发送202,可选地与指示确定201发送位置的时间的信息一起被发送,或者作为位置-时间对的序列被发送。
进一步参考图2和图3,应用服务器130可操作以接收202与人在各时间的位置有关的信息,并且将所接收的与人在各时间的位置有关的信息存储203在数据库中。具体地,应用服务器130可以可操作以从人携带的其他移动通信设备110C/D接收202与人在各时间的位置有关的信息作为定位信息。数据库可被包括在应用服务器130中或与应用服务器位于一处(诸如图5所示的数据库530),或者与应用服务器130分开设置并且由应用服务器130经由网络接口510可访问(诸如图1所示的数据库140),例如,作为基于云的存储装置。附加地或可选地,应用服务器130可以可操作以从定位设备(诸如GPS跟踪器、健身可穿戴设备等)接收202与人在各时间的位置有关的信息作为定位信息。
应用服务器130还可操作以从移动通信设备110接收218/318指示由被包括在移动通信设备110中的相机捕获图像的时间的信息以及与在捕获该图像期间的相机的视场111有关的信息。指示捕获图像的时问的信息以及与捕获该图像期间的相机视场111有关的信息可在单个消息交换中一起被接收218/318,或者在移动通信设备110和应用服务器130之间的分开的消息交换中被接收。
应用服务器130还可操作以选择221在已捕获图像112中可能存在的一个或多个人,具体地作为在捕获图像期间位于相机的视场111内的人。更具体地说,应用服务器130可以可操作以基于所接收218/318的指示捕获图像的时间的信息、所接收218/318的与捕获图像期间的相机的视场111有关的信息,以及存储203在数据库140/530中的人在各时间的位置,来选择221在已捕获图像中可能存在的一个或多个人。也就是说,如果在捕获图像时人的位置在相机的视场111内,则该人被选择221为在已捕获图像中可能存在的人。
如上文所述,所选择221的在已捕获图像中可能存在的一个或多个人或他们的面部可以不一定存在于该已捕获图像中,例如,由于以下事实:在捕获图像期间用户的面部背离相机,在捕获图像期间用户或他/她的面部被另外的一个或多个人或物体遮掩,或者用户的面部实际上在相机的视场111之外,这可能是因为在捕获图像期间移动通信设备110C或110D位于用户裤子的口袋中。也可能是由于较差图像质量而使人的面部无法识别的情况。
应用服务器130可以可操作以进一步接收202与人在各时间的注视方向有关的信息,在数据库140/530中存储203所接收到的与人在各时间的注视方向有关的信息,以及进一步基于他们在捕获图像期间的注视方向来选择221在已捕获图像中可能存在的一个或多个人。例如,可优先考虑在捕获图像期间朝向移动通信设备110注视的人,因为更有可能可成功地识别他们的面部。例如,假设一个人在走路时向前看,他的注视方向可根据其移动导出。另选地,注视方向可从用户佩戴的谷歌眼镜或HMD,或从人在捕获图像或进行语音呼叫时握持的移动电话导出,因为可从移动电话的取向(分别握持在用户面部前面或靠近用户耳朵)导出注视方向。
可选地,应用服务器130可以可操作以进一步基于在捕获图像期间人与移动通信设备110的位置之间的距离来选择221在已捕获图像中可能存在的一个或多个人。例如,这可通过使用阈值距离或者通过基于距离对所选人进行优先排序来实现。可优先考虑在捕获图像期间被定位在与移动通信设备110相距较短距离处的人,因为更有可能可成功地识别他们的面部。
应用服务器130还可操作以获取222与已捕获图像中可能存在的一个或多个所选择221的人有关的识别信息。更具体地说,所获取222的与已捕获图像中可能存在的一个或多个人有关的识别信息包括一个或多个人的参考面部特征,以及与一个或多个人相关联的名称。参考面部特征和名称可例如从数据库140/530检索,该数据库可由社交网络服务器托管。可替换地,应用服务器130能够可操作以从数据库140/530检索存在人的面部的图像,诸如社交网络简档图像,并且从所检索的图像中提取参考面部特征。
所获取222的识别信息可不必包括所有所选择221的在已捕获图像中可能存在的人的参考面部特征,例如,因为其他移动通信设备110的用户的面部特征可能不可用,或者只有在其用户已经选择加入(即同意为了面部识别的目的使其面部特征可用)的情况下才可用,或者没有选择退出使其面部特征可用。这可例如通过允许或防止对参考面部特征或可从中提取参考面部特征的图像的共享的隐私设置来实现。
应用服务器130还可操作以向移动通信设备110发送224/324所获取222的与已捕获图像中可能存在的一个或多个人有关的识别信息的至少一部分。
在下面,并参考图2,描述本发明的某些实施例,其依赖于由移动通信设备110使用从应用服务器130接收224的识别信息来执行的面部识别。
应用服务器130可操作以作为与已捕获图像中可能存在的一个或多个人有关的识别信息,向移动通信设备110发送224一个或多个人的参考面部特征以及与一个或多个人相关联的名称。移动通信设备110还可操作以尝试231通过使用所接收224的参考面部特征对已捕获图像执行面部识别来识别一个或多个人的面部,并且关联地存储232被成功识别的面部的名称,或者更确切地说与其面部已经被成功识别的人相关联的名称。例如,其面部已被成功识别231的人的名称或其他适当标识符可作为元数据与已捕获图像一起被存储232,或被存储在移动通信设备110中包括的或可由移动通信设备访问的数据库中。
在下面,并参考图3,描述依赖于由应用服务器130执行的面部识别的本发明可选实施例。
移动通信设备110还可操作以检测312在已捕获图像中存在的一个或多个人的面部,并且向应用服务器130发送318表示已捕获图像中存在的一个或多个人的已检测面部的数据。表示已检测面部的数据可与指示捕获图像的时间的信息以及与捕获图像期间的相机的视场111有关的信息一起被发送318,或者在分开的消息交换中被发送。在这种情况下,从应用服务器接收324的识别信息包括与一个或多个人相关联的名称。这些是其面部被应用服务器130成功识别的人的名称。
所发送318的表示已捕获图像中存在的一个或多个人的已检测面部的数据可包括表示已检测面部的图像数据。例如,这可以是已捕获图像或从其导出的图像,例如,包围已检测面部的裁剪区域。可选地,已捕获图像或包围一个或多个面部的裁剪区域可以按照与它们被相机410捕获的格式相同的格式(即,以原始数据格式或压缩文件格式)或作为具有减小的分辨率和/或颜色空间的已捕获图像的压缩版本而被发送318,由此减小经由无线通信网络120和任何其他互连通信网络向应用服务器130发送318图像数据所需的带宽。
可选地,移动通信设备110可以可操作以提取313已检测面部的面部特征,并且发送318所提取的面部特征作为表示已捕获图像中存在的一个或多个人的已检测面部的所发送数据。
可选地,移动通信设备110可以可操作以尝试314使用可由移动通信设备110访问的参考面部特征来识别已检测面部,其中表示已捕获图像中存在的一个或多个人的已检测面部的所发送318数据仅表示尚未成功识别的面部。可由移动通信设备110访问的参考面部特征可具体地包括移动通信设备110的用户已知的人的参考面部特征。例如,这可以是可从存储在移动通信设备110中的或可由移动通信设备访问的图像中提取的参考面部特征,该移动通信设备存在移动该通信设备的用户已知的人的面部。参考面部特征可例如存储在移动通信设备中包括的或可由移动通信设备访问的数据库中,或者与人的简档图像一起作为元数据被存储。另选地,此类参考面部特征也可通过社交网络提供者而可用。
进一步参考图3,应用服务器130可操作以从移动通信设备110接收318表示在已捕获图像中存在的一个或多个人的已检测面部的数据。与上述内容相对应,表示已检测面部的数据可与指示捕获图像的时间的信息以及与捕获图像期间相机的视场111有关的信息一起被接收318,或者在分开的消息交换中被接收。
表示已捕获图像中存在的一个或多个人的已检测面部的所接收318数据可包括表示已检测面部的图像数据。例如,这可以是已捕获图像或从其导出的图像,例如,包围已检测面部的裁剪区域。可选地,已捕获图像或包围一个或多个面部的裁剪区域可以按照与它们被移动通信设备110的相机410捕获的格式相同的格式(即,以原始数据格式或压缩文件格式)或作为具有减小的分辨率和/或颜色空间的已捕获图像的压缩版本而被接收318,由此减小经由无线通信网络120和任何其他互连通信网络从移动通信设备110接收318图像数据所需的带宽。
另选地,表示已捕获图像中存在的一个或多个人的已检测面部的所接收318数据可包括已检测面部的已提取面部特征。
应用服务器130还可操作以尝试323通过以下方式来识别一个或多个人的已检测面部:使用所获取222的参考面部特征对表示已捕获图像中存在的一个或多个人的已检测面部的所接收318数据执行面部识别。发送324到移动通信设备的识别信息包括与其面部已被成功识别的一个或多个人相关联的名称。
应当理解,与由应用服务器130接收202的人在各时间的位置有关,并且用于基于在111捕获图像期间的视场来选择221在由移动通信设备110捕获的图像中可能存在的一个或多个人的信息可能与捕获图像的时间不完全一致。在这种情况下,可内插所接收202的与人在各时间的位置有关的信息(位置信息)以估计在捕捉图像的各时间人的近似位置。可替换地,可基于针对在时间上与捕获图像的时间接近的时间接收202的位置信息,并且可选地进一步基于人在相关时间的速度,来选择221人。例如,如果人在特定持续时间期间基本静止,则选择221不需要位置时间戳与捕获时间的精确匹配。
移动通信设备110和应用服务器130之间的数据和信息交换,具体地,从移动通信设备110向应用服务器130发送218/318指示捕获图像的时间的信息以及与捕获图像期间相机的视场有关的信息,以及从应用服务器130接收224/324与移动通信设备110捕获的图像中可能存在的一个或多个人有关的识别信息,是经由无线通信网络120来实现,该无线通信网络例如,无线电接入网(RAN),诸如蜂窝电信网络(例如,GSM、UMTS、LTE、5G、NR/NX)、无线局域网(WLAN)/Wi-Fi网络、蓝牙或任何其他类型的基于无线电或基于光的通信技术。除了无线通信网络120之外,移动通信设备110和应用服务器130之间的数据和信息的交换可涉及诸如互联网(图1中未示出)的附加通信网络。
移动通信设备110可操作以使用任何合适的网络协议、网络协议的组合或协议栈来与应用服务器130交换信息。例如,移动通信设备110可以可操作以利用超文本传输协议(HTTP)、传输控制协议(TCP)、互联网协议(IP)、用户数据报协议(UDP)、受限应用协议(CoAP)等。应用服务器130可操作以使用一个或多个对应的网络协议来与移动通信设备110以及可选地与外部数据库140交换信息。
在下面,参考图6描述了由移动通信设备(诸如移动通信设备110)执行的方法600的实施例。
方法600包括:使用移动通信设备中包括的相机来捕获603图像,以及向应用服务器发送610指示捕获所述图像的时间的信息以及与捕获所述图像期间所述相机的视场111有关的信息。方法600还包括从应用服务器接收612与已捕获图像中可能存在的一个或多个人有关的识别信息。在所述已捕获图像中可能存在的一个或多个人可作为在捕获图像期间位于相机的视场111内的人。具体地,可基于指示捕获所述图像的时间的信息、与捕获所述图像期间所述相机的视场111有关的信息、以及在捕获所述图像期间的一个或多个人的位置,来选择在所述已捕获图像中可能存在的一个或多个人。
可选地,所接收的与已捕获图像中可能存在的一个或多个人有关的识别信息包括所述一个或多个人的参考面部特征,以及与所述一个或多个人相关联的名称。方法600还包括:尝试613通过使用所接收的参考面部特征对已捕获图像执行面部识别来识别所述一个或多个人的面部,以及关联地存储614被成功识别的面部的名称。
可选地,方法600还包括:检测604在已捕获图像中存在的一个或多个人的面部,以及向应用服务器发送611表示在已捕获图像中存在的一个或多个人的已检测面部的数据。所接收的识别信息包括与所述一个或多个人相关联的名称。表示在已捕获图像中存在的一个或多个人的已检测面部的所发送数据可包括表示已检测面部的图像数据。另选地,方法600还可包括提取605已检测面部的面部特征,其中表示在已捕获图像中存在的一个或多个人的已检测面部的所发送数据包括所提取的面部特征。
可选地,方法600还包括尝试606使用可由移动通信设备访问的参考面部特征来识别已检测面部,其中表示在已捕获图像中存在的一个或多个人的已检测面部的所发送数据仅表示尚未成功识别的面部。可由移动通信设备访问的参考面部特征可包括移动通信设备的用户已知的人的参考面部特征。
可选地,基于从被包括在移动通信设备中的定位传感器和取向传感器接收的信息来确定在捕获图像期间相机的视场111。可进一步基于从相机接收的信息来确定在捕获图像期间相机的视场111。
可选地,方法600还包括:使用被包括在移动通信设备中的定位传感器来确定607在捕获图像期间所述移动通信设备的位置,以及使用被包括在所述移动通信设备中的取向传感器来确定608在捕获图像期间所述相机指向的方向。与捕获图像期间的相机的视场111有关的信息包括所确定的位置和所确定的方向。方法600还可包括基于与相机的配置有关的信息来确定609在捕获图像期间所述相机的视角,其中与捕获图像期间所述相机的视场111有关的信息还包括所确定的视角。
可选地,方法600还包括使用被包括在移动通信设备中的定位传感器来确定601移动通信设备的位置,以及向应用服务器发送602与所确定的移动通信设备的位置有关的信息。
将理解,方法600可包括根据整个本公开描述的附加的、可替换的或修改的步骤。方法600的实施例可被实现为包括指令的计算机程序453,当计算机程序由被包括在移动通信设备110中的处理器451执行时,该指令致使移动通信设备110执行方法600的实施例。计算机程序453可存储在诸如存储棒、随机存取存储器(RAM)、只读存储器(ROM)、闪存存储器、CDROM、DVD等的计算机可读存储介质452上。可替换地,例如,当计算机程序经由被包括在移动通信设备110中的无线网络接口440下载到移动通信设备110时,计算机程序453可由数据载波信号承载。
下面,参照图7描述由应用服务器(诸如应用服务器130)执行的方法700的实施例。
方法700包括接收701与人在各时间的位置有关的信息,并且将所接收的与人在各时间的位置有关的信息存储702在数据库中。方法700还包括:从移动通信设备接收703指示由被包括在移动通信设备中的相机捕获图像的时间的信息以及与在捕获图像期间相机的视场111有关的信息;以及选择705在已捕获图像中可能存在的一个或多个人。方法700还包括:获取706与在已捕获图像中可能存在的一个或多个所选择的人有关的识别信息,以及向移动通信设备发送708所获取的与已捕获图像中可能存在的一个或多个人有关的识别信息的至少一部分。在已捕获图像中可能存在的一个或多个人可以被选择705为在捕获图像期间位于相机的视场111内的人。具体地,可基于指示捕获图像的时间的接收信息、与捕获图像期间相机的视场111有关的接收信息、以及存储在数据库中的人在各时间的位置来选择705在已捕获图像中可能存在的一个或多个人。
可选地,方法700还可包括接收与人在各时间的注视方向有关的信息,以及在数据库中存储所接收的与人在各时间的注视方向有关的信息,其中选择705在已捕获图像中可能存在的一个或多个人进一步基于在捕获图像期间他们的注视方向。
可选地,所获取的与已捕获图像中可能存在的一个或多个人有关的识别信息可包括一个或多个人的参考面部特征,以及与一个或多个人相关联的名称,并且所获取的识别信息被发送708到移动通信设备。
可选地,所获取的与已捕获图像中可能存在的一个或多个所选人有关的识别信息可包括一个或多个人的参考面部特征,以及与一个或多个人相关联的名称,并且方法700还包括:从移动通信设备接收表示在已捕获图像中存在的一个或多个人的已检测面部的数据704,尝试707通过以下方式来识别一个或多个人的已检测面部:使用所获取的参考面部特征对表示在已捕获图像中存在的一个或多个人的已检测面部的所接收数据执行面部识别。所发送708的识别信息包括与其面部已被成功识别的一个或多个人相关联的名称。表示在已捕获图像中存在的一个或多个人的已检测面部的所接收数据可包括表示已检测面部的图像数据。可替换地,表示在已捕获图像中存在的一个或多个人的已检测面部的所接收数据可包括已检测面部的已提取面部特征。
可选地,可从人携带的其他移动通信设备接收701与人在各时间的位置有关的信息作为定位信息。
可选地,可从社交网络服务器获取与在已捕获图像中可能存在的一个或多个所选择的人有关的识别信息。
将理解,方法700可包括根据整个本公开描述的附加的、可替换的或修改的步骤。方法700的实施例可被实现为包括指令的计算机程序523,当计算机程序由应用服务器130中包括的处理器521执行时,该指令致使应用服务器130执行方法700的实施例。计算机程序523可存储在诸如存储棒、随机存取存储器(RAM)、只读存储器(ROM)、闪存存储器、CDROM、DVD等的计算机可读存储介质522上。可替换地,例如,当计算机程序经由被包括在应用服务器130中的网络接口510下载到应用服务器130时,计算机程序523可由数据载波信号承载。
本领域技术人员意识到,本发明绝不限于上述实施例。相反,在所附权利要求的范围内,许多修改和变化是可能的。

Claims (52)

1.一种移动通信设备(110),包括:
相机(410),
定位传感器(420),
取向传感器(430),
无线网络接口(440),以及
处理电路(450),所述处理电路致使所述移动通信设备可操作以:
使用所述相机来捕获图像(112),
向应用服务器(130)发送(218,318)指示捕获所述图像的时间的信息以及与捕获所述图像期间所述相机(410)的视场(111)有关的信息,以及
从所述应用服务器(130)接收(224,324)与在所述已捕获图像中可能存在的一个或多个人(113)有关的识别信息。
2.根据权利要求1所述的移动通信设备,其中,在所述已捕获图像中可能存在的所述一个或多个人是在捕获所述图像期间位于所述相机的所述视场(111)内的人。
3.根据权利要求1或2所述的移动通信设备,其中,基于所述指示捕获所述图像的时间的信息、所述与捕获所述图像期间所述相机的视场(111)有关的信息、以及在捕获所述图像期间所述一个或多个人的位置,来选择在所述已捕获图像中可能存在的所述一个或多个人。
4.根据权利要求1至3中任一项所述的移动通信设备,其中,与在所述已捕获图像中可能存在的一个或多个人有关的所接收(224)的识别信息包括所述一个或多个人的参考面部特征以及与所述一个或多个人相关联的名称,所述移动通信设备还可操作以:
尝试(231)通过使用所接收(224)的参考面部特征对所述已捕获图像执行面部识别来识别所述一个或多个人的面部(113),以及
关联地存储(232)被成功识别的面部的名称。
5.根据权利要求1至3中任一项所述的移动通信设备,还可操作以:
检测(312)在所述已捕获图像中存在的一个或多个人的面部(113),以及
向所述应用服务器(130)发送(318)表示在所述已捕获图像中存在的一个或多个人的已检测面部(113)的数据,其中所接收(324)的识别信息包括与所述一个或多个人相关联的名称。
6.根据权利要求5所述的移动通信设备,其中,表示在所述已捕获图像中存在的所述一个或多个人的所述已检测面部(113)的所发送(318)数据包括表示所述已检测面部(113)的图像数据。
7.根据权利要求5所述的移动通信设备,还可操作以提取(313)所述已检测面部(113)的面部特征,其中表示在所述已捕获图像中存在的所述一个或多个人的所述已检测面部(113)的所发送(318)数据包括所提取的面部特征。
8.根据权利要求5至7中任一项所述的移动通信设备,还可操作以尝试(314)使用可由所述移动通信设备访问的参考面部特征来识别所述已检测面部,其中表示在所述已捕获图像中存在的所述一个或多个人的所述已检测面部的所发送(318)数据仅表示尚未成功识别的面部。
9.根据权利要求8所述的移动通信设备,其中,可由所述移动通信设备访问的所述参考面部特征包括所述移动通信设备的用户已知的人的参考面部特征。
10.根据权利要求1至9中任一项所述的移动通信设备,可操作以基于从所述定位传感器(420)和所述取向传感器(430)接收的信息,来确定在捕获所述图像期间所述相机(410)的所述视场(111)。
11.根据权利要求10所述的移动通信设备,可操作以进一步基于从所述相机(410)接收的信息,来确定在捕获所述图像期间所述相机(410)的所述视场(111)。
12.根据权利要求1至9中任一项所述的移动通信设备,还可操作以:
使用所述定位传感器(420)来确定(215)在捕获所述图像期间所述移动通信设备的位置,以及
使用所述取向传感器(430)来确定(216)在捕获所述图像期间所述相机指向的方向,
其中,与捕获所述图像期间所述相机(410)的所述视场(111)有关的所述信息包括所确定的位置和所确定的方向。
13.根据权利要求12所述的移动通信设备,还可操作以:
基于与所述相机(410)的配置有关的信息来确定(217)在捕获所述图像期间所述相机(410)的视角,
其中,所述与捕获所述图像期间所述相机的所述视场(111)有关的信息还包括所确定的视角。
14.根据权利要求1至13中任一项所述的移动通信设备,还可操作以:
使用所述定位传感器(420)来确定(201)所述移动通信设备的位置,以及
向所述应用服务器(130)发送(202)与所确定的所述移动通信设备的位置有关的信息。
15.根据权利要求1至14中任一项所述的移动通信设备(110),所述移动通信设备是以下中的任一者:移动电话,智能电话,平板电脑,智能手表,数字相机,相机眼镜,增强现实/虚拟现实AR/VR,头戴式装置,头戴显示器HMD,和生活记录器。
16.一种应用服务器(130),包括:
网络接口(510),以及
处理电路(520),所述处理电路致使所述应用服务器可操作以:
接收(202)与人在各时间的位置有关的信息,
在数据库(140/530)中存储(203)所接收的与人在各时间的位置有关的信息,
从所述移动通信设备(110)接收(218,318)指示由被包括在移动通信设备(110)中的相机(410)捕获图像的时间的信息以及与捕获所述图像期间所述相机(410)的视场(111)有关的信息,
选择(221)在已捕获图像中可能存在的一个或多个人,
获取(222)与在所述已捕获图像中可能存在的一个或多个所选择的人有关的识别信息,以及
向所述移动通信设备(110)发送(224,324)与在所述已捕获图像中可能存在的一个或多个人有关的所获取的识别信息的至少一部分。
17.根据权利要求16所述的应用服务器,可操作以将在所述已捕获图像中可能存在的所述一个或多个人选择(221)为在捕获所述图像期间位于所述相机的所述视场(111)内的人。
18.根据权利要求16或17所述的应用服务器,可操作以基于所接收(218,318)的指示捕获所述图像的时间的信息、所接收(218,318)的与捕获所述图像期间所述相机的视场(111)有关的信息、以及被存储(203)在所述数据库(140,530)中的人在各时间的所述位置,来选择(221)在所述已捕获图像中可能存在的所述一个或多个人。
19.根据权利要求16至18中任一项所述的应用服务器,可操作以进一步接收与所述人在所述时间的注视方向有关的信息,并且在所述数据库(140,530)中存储所接收的与所述人在所述时间的注视方向有关的信息,以及
进一步基于在捕获所述图像期间的所述一个或多个人的注视方向来选择(221)在所述已捕获图像中可能存在的所述一个或多个人。
20.根据权利要求16至19中任一项所述的应用服务器,其中,与在所述已捕获图像中可能存在的所述一个或多个所选择的人有关的所获取(222)的识别信息包括所述一个或多个人的参考面部特征以及与所述一个或多个人相关联的名称,并且所述所获取的识别信息被发送(224)到所述移动通信设备(110)。
21.根据权利要求16至19中任一项所述的应用服务器,其中,与在所述已捕获图像中可能存在的所述一个或多个所选择的人有关的所获取(222)的识别信息包括所述一个或多个人的参考面部特征以及与所述一个或多个人相关联的名称,所述应用服务器还可操作以:
从所述移动通信设备(110)接收(318)表示在所述已捕获图像中存在的一个或多个人的已检测面部(113)的数据,以及
尝试(323)通过以下操作来识别所述一个或多个人的所述已检测面部(113):使用所获取的参考面部特征对表示在所述已捕获图像中存在的所述一个或多个人的已检测面部的所接收数据执行面部识别,
其中所发送(324)的识别信息包括与其面部已被成功识别的一个或多个人相关联的名称。
22.根据权利要求21所述的应用服务器,其中,表示在所述已捕获图像中存在的所述一个或多个人的已检测面部(113)的所接收(318)数据包括表示所述已检测面部(113)的图像数据。
23.根据权利要求21所述的应用服务器,其中,表示在所述已捕获图像中存在的所述一个或多个人的已检测面部(113)的所接收(318)数据包括所述已检测面部(113)的已提取面部特征。
24.根据权利要求16至23中任一项所述的应用服务器,可操作以从人携带的其他移动通信设备(110)接收(202)与所述人在各时间的位置有关的信息作为定位信息。
25.根据权利要求15至24中任一项所述的应用服务器,可操作以从社交网络服务器获取(222)与在所述已捕获图像中可能存在的所述一个或多个所选择的人有关的识别信息。
26.一种由移动通信设备(110)执行的方法(600),所述方法包括:
使用在所述移动通信设备中包括的相机(410)来捕获(603)图像,
向应用服务器(130)发送(610)指示捕获所述图像的时间的信息以及与捕获所述图像期间所述相机的视场(111)有关的信息,以及
从所述应用服务器(130)接收(612)与在已捕获图像中可能存在的一个或多个人有关的识别信息。
27.根据权利要求26所述的方法,其中,在所述已捕获图像中可能存在的所述一个或多个人是在捕获所述图像期间位于所述相机的所述视场(111)内的人。
28.根据权利要求26或27所述的方法,其中,基于所述指示捕获所述图像的时间的信息、所述与捕获所述图像期间所述相机的视场(111)有关的信息、以及在捕获所述图像期间所述一个或多个人的位置,来选择在所述已捕获图像中可能存在的所述一个或多个人。
29.根据权利要求27至28中任一项所述的方法,其中,与在所述已捕获图像中可能存在的一个或多个人有关的所接收的识别信息包括所述一个或多个人的参考面部特征以及与所述一个或多个人相关联的名称,所述方法还包括:
尝试(613)通过使用所接收的参考面部特征对所述已捕获图像执行面部识别来识别所述一个或多个人的面部,以及
关联地存储(614)被成功识别的面部的名称。
30.根据权利要求26至28中任一项所述的方法,还包括:
检测(604)在所述已捕获图像中存在的一个或多个人的面部,以及
向所述应用服务器(130)发送(611)表示在所述已捕获图像中存在的一个或多个人的已检测面部的数据,其中所接收的识别信息包括与所述一个或多个人相关联的名称。
31.根据权利要求30所述的方法,其中,表示在所述已捕获图像中存在的所述一个或多个人的所述已检测面部的所发送数据包括表示所述已检测面部的图像数据。
32.根据权利要求30所述的方法,还包括提取(605)所述已检测面部的面部特征,其中表示在所述已捕获图像中存在的所述一个或多个人的所述已检测面部的所发送数据包括所提取的面部特征。
33.根据权利要求30至32中任一项所述的方法,还包括尝试(606)使用可由所述移动通信设备访问的参考面部特征来识别所述已检测面部,其中表示在所述已捕获图像中存在的所述一个或多个人的所述已检测面部的所发送数据仅表示尚未成功识别的面部。
34.根据权利要求33所述的方法,其中可由所述移动通信设备访问的所述参考面部特征包括所述移动通信设备的用户已知的人的参考面部特征。
35.根据权利要求26至34中任一项所述的方法,其中,在捕获所述图像期间所述相机的所述视场(111)是基于从被包括在所述移动通信设备中的定位传感器(420)和取向传感器(430)接收的信息来确定的。
36.根据权利要求35所述的方法,其中,在捕获所述图像期问所述相机的所述视场(111)是进一步基于从所述相机(410)接收的信息来确定的。
37.根据权利要求26至34中任一项所述的方法,还包括:
使用被包括在所述移动通信设备中的定位传感器来确定(607)在捕获所述图像期间所述移动通信设备的位置,
使用被包括在所述移动通信设备中的取向传感器来确定(608)在捕获所述图像期间所述相机指向的方向,
其中,与捕获所述图像期间所述相机的所述视场(111)有关的所述信息包括所确定的位置和所确定的方向。
38.根据权利要求37所述的方法,还包括:
基于与所述相机的配置有关的信息来确定(609)在捕获所述图像期间所述相机(410)的视角,
其中,所述与捕获所述图像期间所述相机的所述视场(111)有关的信息还包括所确定的视角。
39.根据权利要求26至38中任一项所述的方法,还包括:
使用被包括在所述移动通信设备中的定位传感器来确定(601)所述移动通信设备的位置,以及
向所述应用服务器(130)发送(602)与所确定的所述移动通信设备的位置有关的信息。
40.一种计算机程序(453),其包括指令,当所述计算机程序由在移动通信设备(110)中包括的处理器(451)执行时,所述指令致使所述移动通信设备执行根据权利要求26至39中任一项所述的方法。
41.一种计算机可读存储介质(452),其上存储有根据权利要求40所述的计算机程序(453)。
42.一种数据载波信号,其承载根据权利要求40所述的计算机程序(453)。
43.一种由应用服务器(130)执行的方法(700),所述方法包括:
接收(701)与人在各时间的位置有关的信息,
在数据库中存储(702)所接收的与人在各时间的位置有关的信息,
从所述移动通信设备(110)接收(703)指示由被包括在所述移动通信设备(110)中的相机捕获图像的时间的信息以及与捕获所述图像期间所述相机的视场(111)有关的信息,
选择(705)在所述已捕获图像中可能存在的一个或多个人,
获取(706)与在所述已捕获图像中可能存在的一个或多个所选择的人有关的识别信息,以及
向所述移动通信设备(110)发送(708)与在所述已捕获图像中可能存在的一个或多个人有关的所获取的识别信息的至少一部分。
44.根据权利要求43所述的方法,其中,在所述已捕获图像中可能存在的所述一个或多个人被选择(705)为在捕获所述图像期间位于所述相机的所述视场内的人。
45.根据权利要求43或44所述的方法,其中,在所述已捕获图像中可能存在的所述一个或多个人是基于所接收的指示捕获所述图像的时间的信息、所接收的与捕获所述图像期间所述相机的视场有关的信息、以及被存储在所述数据库中的人在各时间的所述位置来选择(705)的。
46.根据权利要求43至45中任一项所述的方法,还包括:接收与所述人在各时间的注视方向有关的信息,并且在所述数据库中存储所接收的与所述人在各时间的注视方向有关的信息,其中所述选择(705)在所述已捕获图像中可能存在的所述一个或多个人进一步基于在捕获所述图像期间他们的注视方向。
47.根据权利要求43至46中任一项所述的方法,其中,与在所述已捕获图像中可能存在的一个或多个人有关的所获取的识别信息包括所述一个或多个人的参考面部特征以及与所述一个或多个人相关联的名称,并且所述所获取的识别信息被发送(708)到所述移动通信设备。
48.根据权利要求43至46中任一项所述的方法,其中,与在所述已捕获图像中可能存在的一个或多个所选择的人有关的所获取的识别信息包括所述一个或多个人的参考面部特征以及与所述一个或多个人相关联的名称,所述方法还包括:
从所述移动通信设备接收(704)表示在所述已捕获图像中存在的一个或多个人的已检测面部的数据,以及
尝试(707)通过以下操作来识别所述一个或多个人的所述已检测面部:使用所获取的参考面部特征对表示在所述已捕获图像中存在的所述一个或多个人的所述已检测面部的所接收数据执行面部识别,
其中所发送(708)的识别信息包括与其面部已被成功识别的一个或多个人相关联的名称。
49.根据权利要求48所述的方法,其中,表示在所述已捕获图像中存在的所述一个或多个人的已检测面部的所接收数据包括表示所述已检测面部的图像数据。
50.根据权利要求48所述的方法,其中,表示在所述已捕获图像中存在的所述一个或多个人的已检测面部的所接收数据包括所述已检测面部的已提取面部特征。
51.根据权利要求43至50中任一项所述的方法,其中,从人携带的其他移动通信设备接收(701)与人在各时间的位置有关的信息作为定位信息。
52.根据权利要求43至51中任一项所述的方法,其中,从社交网络服务器获取与在所述已捕获图像中可能存在的所述一个或多个所选择的人有关的识别信息。
CN201980095419.0A 2019-04-15 2019-04-15 移动通信设备和应用服务器 Withdrawn CN113692599A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2019/059691 WO2020211923A1 (en) 2019-04-15 2019-04-15 Mobile communications device and application server

Publications (1)

Publication Number Publication Date
CN113692599A true CN113692599A (zh) 2021-11-23

Family

ID=66218106

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980095419.0A Withdrawn CN113692599A (zh) 2019-04-15 2019-04-15 移动通信设备和应用服务器

Country Status (4)

Country Link
US (1) US20220198829A1 (zh)
EP (1) EP3956854A1 (zh)
CN (1) CN113692599A (zh)
WO (1) WO2020211923A1 (zh)

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8392957B2 (en) * 2009-05-01 2013-03-05 T-Mobile Usa, Inc. Automatic content tagging, such as tagging digital images via a wireless cellular network using metadata and facial recognition
US8818025B2 (en) * 2010-08-23 2014-08-26 Nokia Corporation Method and apparatus for recognizing objects in media content
US9685001B2 (en) * 2013-03-15 2017-06-20 Blackberry Limited System and method for indicating a presence of supplemental information in augmented reality
EP3365838A4 (en) * 2015-10-21 2019-08-28 15 Seconds Of Fame, Inc. METHODS AND APPARATUS FOR MINIMIZING FALSE POSITIVES IN FACIAL RECOGNITION APPLICATIONS
US9818126B1 (en) * 2016-04-20 2017-11-14 Deep Labs Inc. Systems and methods for sensor data analysis through machine learning
US10089521B2 (en) * 2016-09-02 2018-10-02 VeriHelp, Inc. Identity verification via validated facial recognition and graph database
CN109154979A (zh) * 2016-10-26 2019-01-04 奥康科技有限公司 用于分析图像和提供反馈的可佩戴设备和方法
WO2018215827A1 (en) * 2017-04-23 2018-11-29 Orcam Technologies Ltd. Wearable apparatus and methods for analyzing images
US10567321B2 (en) * 2018-01-02 2020-02-18 Snap Inc. Generating interactive messages with asynchronous media content

Also Published As

Publication number Publication date
EP3956854A1 (en) 2022-02-23
WO2020211923A1 (en) 2020-10-22
US20220198829A1 (en) 2022-06-23

Similar Documents

Publication Publication Date Title
EP2974268B1 (en) Always-on camera sampling strategies
JP6460105B2 (ja) 撮影方法、撮影システムおよび端末装置
CN108399349B (zh) 图像识别方法及装置
US10491865B2 (en) Camera control and image streaming
JP6079566B2 (ja) 情報処理装置、情報処理方法、及びプログラム
EP2905953A1 (en) Content acquisition device, portable device, server, information processing device and storage medium
JP2014067131A (ja) 画像処理装置、画像処理システム、画像処理方法およびコンピュータプログラム
JP2015233204A (ja) 画像記録装置及び画像記録方法
US9742988B2 (en) Information processing apparatus, information processing method, and program
CN113692599A (zh) 移动通信设备和应用服务器
CN114051100B (zh) 一种实时共享拍照信息的方法、系统及其终端设备
WO2015194082A1 (ja) 画像処理方法および画像処理システム
KR101706371B1 (ko) 라이프로그 서비스를 수행하는 이동 단말기 및 서버
CN107426522B (zh) 基于虚拟现实设备的视频方法和系统
WO2020164726A1 (en) Mobile communications device and media server
JP6256634B2 (ja) ウェアラブルデバイス、ウェアラブルデバイスの制御方法、及びプログラム
CN116703742B (zh) 识别模糊图像的方法和电子设备
WO2022018836A1 (ja) 情報処理装置、情報処理方法及びプログラム
JPWO2018079043A1 (ja) 情報処理装置、撮像装置、情報処理システム、情報処理方法、およびプログラム
JP6414313B2 (ja) 携帯装置、携帯装置の制御方法、及びプログラム
JP2016213658A (ja) 通信システム、サーバ、及び画像提供方法
CN117714833A (zh) 图像处理方法、装置、芯片、电子设备及介质
JP2014179743A (ja) 電子機器、および電子機器を制御するための方法
CN116703742A (zh) 识别模糊图像的方法和电子设备
CN105635247A (zh) 基于图像的交互服务系统及其方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20211123

WW01 Invention patent application withdrawn after publication