CN104520828B - 自动媒体发布 - Google Patents

自动媒体发布 Download PDF

Info

Publication number
CN104520828B
CN104520828B CN201380041500.3A CN201380041500A CN104520828B CN 104520828 B CN104520828 B CN 104520828B CN 201380041500 A CN201380041500 A CN 201380041500A CN 104520828 B CN104520828 B CN 104520828B
Authority
CN
China
Prior art keywords
picture
different
people
information
optical sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201380041500.3A
Other languages
English (en)
Other versions
CN104520828A (zh
Inventor
M·X·龚
W·孙
H·W·豪斯科尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of CN104520828A publication Critical patent/CN104520828A/zh
Application granted granted Critical
Publication of CN104520828B publication Critical patent/CN104520828B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/60Extraction of image or video features relating to illumination properties, e.g. using a reflectance or lighting model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/10Recognition assisted with metadata

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

依据一些实施例,无线设备可以自动形成ad hoc网络,以能使媒体在设备之间更有效的共享,并在一些情况下更有效对捕捉的媒体进行面部识别。在一些实施例中,可以在本地层面实现自动故事发展而不涉及后端服务器。

Description

自动媒体发布
背景技术
本文一般涉及在无线设备之间共享媒体。
无线设备不仅能够使用蜂窝通信系统通信,而且能够使用板载传感器和互联网连接来接收并记录大量的信息。例如,大多数蜂窝电话现在都具有成像设备,使用WiFi、蓝牙甚至在一些情况下为近场通信的无线联网能力。
因此,记录图像的用户可能希望将这些图像标记有用户的名字。传统上,这在社交联网站点中通过以下完成:上载照片,以便网站运行面部识别软件,将每个新的照片与已在服务器上标记出并存储的照片进行匹配。然而,一些用户可能偏好不使服务器涉及该活动,并可能希望更详尽且更自动的媒体处理(包含捕捉的图片、来自网站的数据、音频文件、剪辑等)。
附图说明
关于下面的附图描述一些实施例:
图1是依据一个实施例的用于ad hoc联网序列的流程图;
图2是依据另一个实施例的网络信息共享序列;
图3是依据又一个实施例的用于媒体共享的序列;
图4是依据又一个实施例的用于面部识别的序列;
图5是依据一个实施例的用于自动故事发展的序列;以及
图6是用于一个实施例的概要绘图。
具体实施方式
依据一些实施例,无线设备可以自动形成ad hoc网络,以能使媒体在设备之间更有效的共享,并在一些情况下更有效对捕捉的媒体进行面部识别。在一些实施例中,可以实现自动故事发展。
参考图1,序列10可以被用于自动建立ad hoc网络。最初如框12表明的那样,给定的无线设备可以识别范围内无线设备。然后可以选择群组参与者,如框14表明的那样。换言之,每个范围内设备不是自动放置在群组中,而是存在:通过使2个电话对于近场通信足够接近或者接收QR码,来敲击(tap)设备的第一次设置过程,以加入ad hoc网络。识别附近的设备可以使用无线疏远媒体、近场通信、短距离通信(诸如蓝牙)、以及扫描QR码来完成,以屏显或者选择群组参与者。在一些情况下,可以在近场通信芯片或者QR码中对安全网络信息进行编码,以进一步便于建立自动网络。之前已配对的2个设备可以保存彼此的证书,使其能够自动识别彼此,而不需要再次经过设置过程。
一旦已选择了一组参与者,然后可以收集网络和安全信息,如框16表明的那样。最终,可以在选择的参与者之间建立ad hoc无线网络,如框18表明的那样。在一些实施例中可以不要求无线基础设施支持,并且该网络能够在运行中(on the fly)设置并解除。此外,在网络中没有主节点的实施例中,即使当启动了网络的设备离开场景时,网络也可以保持功能。
一旦设置了网络,相同网络的移动设备自动并安全地交换用户信息(诸如用户名、用户化身(avatar)、或者用户图像),使得每个参与者能够保持该ad hoc网络内的用户的数据库。移动设备还能够交换时刻信息并计算关于彼此的时间偏移。基于该时间偏移的同步机构能够基于嵌入在捕捉的媒体内的时间戳,帮助后期图像处理。
一旦ad hoc网络上用户的数据库在网络内的每个设备上建立,面部识别算法能够被用于分析由网络内的任何设备捕捉的图片。面部识别算法可以使用捕捉的图像,与网络设置阶段中交换的与用户相关联的化身或者其他用户图像进行比较。
因此参考图2,网络信息共享算法20可以通过确定是否有新的网络设备来开始,如框22表明的那样。如果是,那么可以获得并存储用户名和化身,如框24表明的那样。尤其是,信息可以存储在与其他群组成员链接的数据库中,如框26表明的那样。
接下来转到图3,媒体共享算法30可以被用于在不同联网设备之间共享媒体。首先,在菱形32处的检查确定是否有新的媒体(诸如新的数字照片、电影、音频记录、剪辑或者电子文件)。如果是,那么可以运行面部识别,如框34表明的那样。在一些实施例中,媒体可以包含具有多个绘出的人的图像。在菱形36处的检查确定是否已识别出在图片内的人。如果是,那么在媒体中绘出的每个识别的人可以标记有名字,如框38表明的那样。每个名字可以与地址相关联。然后,标记出的媒体可以自动分发给媒体中或者群组内的识别的人。分配媒体的一个方式是经由电子邮件(使用与名字相关联的地址或者无线地)。但是,也可以使用任何其他媒体共享技术。使用面部识别的一个方式是对图像与建立群组时针对群组成员的先前存储的化身进行比较。
用于以有效的方式实现面部识别的序列40可以被用于一些实施例中。序列40可以通过确定是否已接收新的媒体而开始,如框42表明的那样。光传感器读数可以与所有捕捉并存储的图像(包含用户化身)一起保存。在一些实施例中,如果接收了新的媒体,那么光传感器读数数据可以与捕捉的媒体一起保存,并被用于补偿数据库中保存的用户化身或者媒体的不足或者过度光照效果,如框44表明的那样。例如,由照相机提供的光传感器读数可以与数据库中的其他化身和其他存储的媒体进行比较,其对于补偿捕捉的媒体与存储的媒体之间的光照差异(以便于面部识别)可能是有用的。如果使用了定向传感器,那么定向传感器的读数能够帮助确定捕捉的媒体上的阴影,因此改善面部精度或者识别算法。
对于不同的捕捉的媒体,光照条件也将不同。例如,如果图片曝光不足,那么光传感器信息可以被用于确定图片是曝光不足还是曝光过度,因为人们的肤色不同,结果这会导致即使光照条件相同像素读数也不同。使用光传感器能帮助面部识别算法确定多少补偿要应用到每个图像,以使要比较的所有图片为大致相同的光照条件。并非校正图片(这在一些实施例中是不可能的),曝光条件的信息能够与图片一起记录,进而被用于出于面部识别目的,或者出于其他识别目的(包含手势识别目的)来改善图片与存储的图片之间的比较。
具体而言,如果图片曝光过度,那么可知每个像素可能都曝光过度,因此,与之前存储的图像的比较可以考虑所有像素都需要处理,就好像其略深一样。因此,出于比较的目的,可以从曝光过度的图片的像素强度值减去偏移,以校正曝光过度。同样,偏移可以增加至曝光不足的图片。在一个实施例中,偏移的值可以从将传感器读数与偏移相互关联的查找表中导出。
因为光照条件可能不是均一的,例如因为太阳可能从某些方向照射,所以人们的脸上经常出现阴影,使得面部识别更难。定向传感器读数可以被用于识别光照的方向,因而帮助识别人们脸上的阴影或者脸的不同部分上的不同光照。
这可以改善图像分析技术的能力,用于当匹配实际上存在时找到匹配。这在当前图片与存储的图片比较的任何情况下可能都是有用的。存储的图片可以具有允许补偿的数据,并且当前图片可以具有允许补偿的数据。数据可以包含从光传感器获得并与图片一起记录的曝光信息。在其他实施例中,可能不使用传感器数据。
然而,在任何情况下,可以识别出范围内候选者,如框46表明的那样。通过确定范围内候选者的物理位置(例如使用从范围内候选者接收的全球位置系统坐标、三角测量技术,或者通过挑选短距离无线通信协议(诸如蓝牙或者WiFi)的范围外的用户/移动设备),从而识别范围内候选者。因此,群组内的人可以基于其是否充分接近候选者来剔除出去,使得有可能是他们实际上在刚接收的图片内。
此外,在一些实施例中,可以识别方向相关的候选者,如框48表明的那样。这可以使用WiFi定向天线和/或装载有照相机的方位传感器与全球定位系统读数组合来完成。很多芯片集能够支持定向天线。基于照相机的视场,定向天线或者天线阵列能够将其波束倾斜朝向照相机的视场的期望方向,以弄清哪些设备在照相机的方向范围内,或者更具体而言大致在照相机的视场内。
定向天线或者天线阵列可以在照相机/图像设备的相同侧上。在一些实施例中,定向天线或者天线阵列能够覆盖类似于或者略大于照相机的视场的区域。此外,很多移动设备配备有方位传感器,其还能够被用于确定照相机瞄准方向。
在菱形50处的检查确定面部识别是否成功。如果是,那么可以标记出图像,这意味着在图片上放置视觉标签,以表明用户的名字或者化身,如框52表明的那样。然后,用户的图像可以增加至数据库,用于接下来的面部识别操作。
如果面部识别不成功,那么图像的弹出可以设置有从在范围内(并如框46和48中确定的那样方向相关)的候选者的列表导出的建议的候选者名字的列表,如框56表明的那样。然后在菱形58处,系统等待用户选择正确的名字。如果接收了选择,那么图像可以标记有用户的选择的化身或者名字,如框52表明的那样。否则流程结束。
除了自动图片标记和共享,可以从移动平台并从互联网获得上下文信息,来自动叙述在ad hoc网络内由人们捕捉的媒体。要么直接从传感器在平台上通过简单的计算,要么从互联网,能够容易获得上下文信息(诸如位置、一天中的时间、一年中的季节、速度、高度改变、光照条件)。基于板载上下文信息,能够从互联网获得其他环境信息(诸如天气、温度、地点历史意义)。在不同位置采集但属于相同事件的图片、或者在相同的ad hoc网络内由不同用户采集的图片可以基于定时位置和上下文信息,自动编译并叙述。
例如,一系列群组图片可以自动根据下面的示例叙述。能够基于用户的位置,从网站信息自动地获得远足路径的地图。沿着远足路径捕捉的图片可以基于所附图片的位置信息放置在地图上。例如,基于板载和环境信息,可以自动编译故事线,诸如“2012年2月11日、星期六、晴朗、温和、东风、温度50°F、吉姆、弗兰克、南希、以及汤姆来到优胜美地国家公园,并沿着Old Big Oak Trail远足。大约9:35a.m.开始,从海拔为4900英尺处的HodgdonMeadow起,并且持续直到4:50p.m.。
对于每个图片而言,叙述可以基于设备的相对位置、用户的面部识别以及其他信息而自动生成。因此,例如故事可以自动生成如下:“吉姆和南希在图片中,看起来非常高兴,图片由弗兰克摄影。汤姆在20英尺远处。”用户还可以选择包含其他信息(诸如当天的新闻、或者与访问地点相关的历史意义的项目)。
在一些情况下,可以提供句子模板,其中,用于选择句子主语以及句子的正确宾语的标准是预定义的。例如,主语可以是图片采集者、或者对其采集了图片的人。系统能够识别这些人,定位其名字,并容易在模板中插入信息。在其他情况下,可以使用自然语言开发系统,诸如结合interbots和其他类似的机器人语音生成技术使用的系统。
因此参考图5,故事发展序列60可以通过接收图片而开始,如框62表明的那样。与这些图片相关联的位置信息可以被用于例如在互联网上找到该区域的地图,如框64表明的那样。然后,图片可以基于与图片相关联的位置信息放置在地图上,如框66表明的那样。可以收集下个环境信息(诸如关于位置、其历史重要性、其海拔、当前天气、当前条件的信息),都如框68表明的那样。最终,可以基于环境信息、地图和图片中对象的识别(诸如参与者的名字及其面部特征,诸如微笑、悲伤或者高兴)来开发故事,如框70表明的那样。
在一些实施例中,在图1-5中示出的序列可以在软件、固件和/或硬件中实现。在软件和固件实施例中,该序列可以由存储在一个或多个非暂时性计算机可读介质中的计算机执行的指令实现。计算机可读介质的示例包含半导体、磁或者光学存储设备。
参考图6,对于结合本发明的实施例有用的移动设备80可以包含处理器82。作为示例,移动设备可以是蜂窝电话、成像设备、移动互联网设备、平板或者膝上型计算机。处理器82可以与无线接口84通信,无线接口84可以包含天线(诸如天线86和88)。在一些实施例中,天线86和88可以是定向或者波束成形天线。处理器82还可以耦合至显示器90、成像设备92和麦克风94。全球定位系统设备96可以耦合至处理器以及存储设备102。
在一些实施例中,存储设备102中可以包含媒体数据库104,其含有对面部识别有用的信息,并还包含关于各种ad hoc网络及其数量的信息。此外,出于面部识别目的,可以使用光传感器100来改善图像。在一些实施例中,在硬件或者软件中实现的面部识别模块98可以耦合至处理器82。
下面的条款和/或示例属于其他实施例:
一个示例实施例可以是一种方法,其使用面部识别技术来识别在数字图片中绘出的人,以及将图片自动发送给所识别的人。该方法可以包含使用光传感器信息对所述图片与用于面部识别而存储的图片进行比较。该方法可以包含使用所述人距离成像设备的距离,以减小用于面部识别而分析的存储的图片的数量。该方法可以包含使用从所述成像设备到所述人的方向,以减小用于面部识别而分析的存储的图片的数量。该方法可以包含使用关于在所述图片中绘出的人的身份的信息,来自动组成文本故事。该方法可以包含使用带有指令的句子模板,所述指令有关如何填充所述句子的主语或者宾语中的至少一个。该方法可以包含开发可能被绘出在图片中的候选人的可点击列表,当条目被点击时,用选择的身份来标记所述图片。该方法可以包含建立无线设备的ad hoc网络。该方法可以包含建立ad hoc网络的用户的身份,包含获得所述用户的化身。该方法可以包含使用群组中的用户的身份,以限定用于面部识别的搜索栏。
在另一个示例实施例中,一个或多个计算机可读介质可以存储指令,所述指令能使计算机执行如下方法,包含:使用面部识别技术来识别数字图片中绘出的人;将所述人与地址相关联;以及将图片自动发送给识别的人。该介质可以进一步存储指令来执行方法,包含:使用光传感器信息对所述图片与用于面部识别而存储的图片进行比较。该介质可以进一步存储有指令来执行方法,包含:使用对象距离成像设备的距离,以减小用于面部识别而分析的存储的图片的数量。该介质可以进一步存储有指令来执行方法,包含:使用从所述成像设备到所述对象的方向,以减小用于面部识别而分析的存储的图片的数量。该介质可以进一步存储有指令来执行方法,包含:使用关于在所述图片中绘出的人的身份的信息,来自动组成文本故事。该介质可以进一步存储有指令来执行方法,包含:使用带有指令的句子模板,所述指令有关如何填充句子的主语或者宾语中的至少一个。该介质可以进一步存储有指令来执行方法,包含:开发可能被绘出在图片中的候选人的可单击列表,当条目被点击时,用选择的身份来标记所述图片。该介质可以进一步存储有指令来执行方法,包含:建立无线设备的ad hoc网络。该介质可以进一步存储有指令来执行方法,包含:建立ad hoc网络的用户的身份,包含获得所述用户的化身。该介质可以进一步存储有指令来执行方法,包含群组中的用户的身份,以限定用于面部识别的搜索栏。
另一个示例实施例可以是一种装置,包括用于执行面部识别的处理器;以及耦合至所述处理器的光传感器,其出于面部识别目的,比较当采集了2个不同图片时与光照相关的信息,以便于所述图片的比较。所述装置可以包含定向光传感器,用于当比较2个图片时补偿光照效果。该装置可以包含用于使用对象距离成像设备的距离,以减小出于面部识别目的而分析的存储的图片的数量的处理器。该装置可以包含用于使用从所述成像设备到所述对象的方向,以减小为了面部识别而分析的存储的图片的数量的处理器。该装置还可以包含所述装置,所述装置通过对人的图片和与所述人相关联的化身进行比较来执行面部识别。
遍及该描述书提到的“一个实施例”或者“实施例”是指与实施例相关地描述的特定功能、构造、或者特征包含在落入本发明的至少一个实施方式中。因此,词组“一个实施例”或者“在实施例中”不一定是指相同的实施例。此外,特定功能、构造、或者特征可以组成为其他适当形式而非示出的特定实施例,并且所有这样的形式可以落入本申请的权利要求中。
本发明已相对于有限数量的实施例进行了描述,但本领域的技术人员将会理解来自于此的大量的修改和变化。预期的是所附的权利要求覆盖落入本发明真正精神和范围内的所有这样的修改和变化。

Claims (25)

1.一种用于自动媒体发布的方法,包括:
使用面部识别技术,通过从光传感器获得当采集两个不同的图片时关于光照的信息以及从图像传感器获得所述两个不同的图片中像素的信息,来识别在数字图片中绘出的人,所述图像传感器和光传感器是不同的设备,并且出于面部识别的目的,比较当采集两个不同的图片时来自所述光传感器的信息,从而确定所述两个不同的图片中不同的像素读数是否是由于不同的曝光条件;
针对所述不同的曝光条件对两个不同的图片之间的光照差异进行补偿;以及
对所补偿的两个不同的图片进行比较。
2.如权利要求1所述的方法,包括使用光传感器信息对捕捉的图片与用于面部识别而存储的图片进行比较。
3.如权利要求1所述的方法,包括使用所述人距离成像设备的距离,以便于对所述人的识别。
4.如权利要求3所述的方法,包括使用从所述成像设备到所述人的方向,以便于对所述人的识别。
5.如权利要求1所述的方法,包括使用关于在捕捉的图片中绘出的人的身份的信息,来自动组成文本故事。
6.如权利要求5所述的方法,包括使用带有指令的句子模板,所述指令有关如何填充句子的主语或者宾语中的至少一个。
7.如权利要求1所述的方法,包括开发能够被绘出在捕捉的图片中的候选人的可点击列表,当条目被点击时,用选择的身份来标记所述捕捉的图片。
8.如权利要求1所述的方法,还包括建立无线设备的ad hoc网络。
9.如权利要求8所述的方法,包括建立ad hoc网络的用户的身份,包括获得所述用户的化身。
10.如权利要求9所述的方法,包括使用群组中的用户的身份,以限定用于面部识别的搜索栏。
11.一种用于自动媒体发布的装置,包括:
用于使用面部识别技术,通过从光传感器获得当采集两个不同的图片时关于光照的信息以及从图像传感器获得所述两个不同的图片中像素的信息,来识别在数字图片中绘出的人,所述图像传感器和光传感器是不同的设备,并且出于面部识别的目的,比较当采集两个不同的图片时来自所述光传感器的信息,从而确定所述两个不同的图片中不同的像素读数是否是由于不同的曝光条件的单元;
用于针对所述不同的曝光条件对两个不同的图片之间的光照差异进行补偿的单元;以及
用于对所补偿的两个不同的图片进行比较的单元。
12.如权利要求11所述的装置,其进一步包括用于使用光传感器信息对捕捉的图片与用于面部识别而存储的图片进行比较的单元。
13.如权利要求11所述的装置,其进一步包括用于使用对象距离成像设备的距离,以便于对所述人的识别的单元。
14.如权利要求13所述的装置,其进一步包括用于使用从所述成像设备到所述对象的方向,以便于对所述人的识别的单元。
15.如权利要求11所述的装置,其进一步包括用于使用关于在捕捉的图片中绘出的人的身份的信息,来自动组成文本故事的单元。
16.如权利要求15所述的装置,其进一步包括用于使用带有指令的句子模板的单元,所述指令有关如何填充句子的主语或者宾语中的至少一个。
17.如权利要求11所述的装置,其进一步包括用于开发能够被绘出在捕捉的图片中的候选人的可点击列表的单元,当条目被点击时,用选择的身份来标记所述捕捉的图片。
18.如权利要求11所述的装置,其进一步包括用于建立无线设备的ad hoc网络的单元。
19.如权利要求18所述的装置,其进一步包括用于建立ad hoc网络的用户的身份,包括获得所述用户的化身的单元。
20.如权利要求19所述的装置,其进一步包括群组中的用户的身份,以限定用于面部识别的搜索栏。
21.一种用于自动媒体发布的装置,包括:
图像传感器;
不同于所述图像传感器的光传感器;以及
耦合至所述光传感器和所述图像传感器的处理器,用于通过从所述光传感器获得当采集两个不同的图片时关于光照的信息以及从所述图像传感器获得所述两个不同的图片中像素的信息,来执行面部识别,并且出于面部识别的目的,比较当采集两个不同的图片时来自所述光传感器的信息,确定所述两个不同的图片中不同的像素读数是否是由于不同的曝光条件,针对所述不同的曝光条件对两个不同的图片之间的光照差异进行补偿,以及对所补偿的两个不同的图片进行比较。
22.如权利要求21所述的装置,包括定向光传感器,用于当比较所述两个不同的图片时补偿光照效果。
23.如权利要求21所述的装置,包括用于使用对象距离成像设备的距离,以便于对所述人的识别的处理器。
24.如权利要求23所述的装置,包括用于使用从所述成像设备到所述对象的方向,以便于对所述人的识别的处理器。
25.如权利要求21所述的装置,所述装置通过对人的捕捉的图片和与所述人相关联的化身进行比较来执行面部识别。
CN201380041500.3A 2012-09-04 2013-08-28 自动媒体发布 Expired - Fee Related CN104520828B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/602,446 2012-09-04
US13/602,446 US9141848B2 (en) 2012-09-04 2012-09-04 Automatic media distribution
PCT/US2013/056966 WO2014039342A1 (en) 2012-09-04 2013-08-28 Automatic media distribution

Publications (2)

Publication Number Publication Date
CN104520828A CN104520828A (zh) 2015-04-15
CN104520828B true CN104520828B (zh) 2017-07-18

Family

ID=50187673

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201380041500.3A Expired - Fee Related CN104520828B (zh) 2012-09-04 2013-08-28 自动媒体发布

Country Status (4)

Country Link
US (1) US9141848B2 (zh)
EP (1) EP2893454A4 (zh)
CN (1) CN104520828B (zh)
WO (1) WO2014039342A1 (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9361626B2 (en) * 2012-10-16 2016-06-07 Google Inc. Social gathering-based group sharing
US9825944B2 (en) * 2014-01-24 2017-11-21 Microsoft Technology Licensing, Llc Secure cryptoprocessor for authorizing connected device requests
EP3323083A4 (en) * 2015-07-15 2019-04-17 15 Seconds Of Fame, Inc. APPARATUS AND METHODS FOR FACIAL RECOGNITION AND VIDEO ANALYSIS FOR IDENTIFYING INDIVIDUALS IN CONTEXTUAL VIDEO STREAMS
SG10201912947XA (en) 2015-10-21 2020-02-27 15 Seconds Of Fame Inc Methods and apparatus for false positive minimization in facial recognition applications
US10552472B2 (en) * 2017-04-03 2020-02-04 Leigh M. Rothschild System and method for identifying and tagging individuals present in an image
US10936856B2 (en) * 2018-08-31 2021-03-02 15 Seconds of Fame, Inc. Methods and apparatus for reducing false positives in facial recognition
US20200274906A1 (en) * 2019-02-27 2020-08-27 Hoc Drop, LLC Methods and systems for real-time media content sharing
US11010596B2 (en) 2019-03-07 2021-05-18 15 Seconds of Fame, Inc. Apparatus and methods for facial recognition systems to identify proximity-based connections
US11443036B2 (en) * 2019-07-30 2022-09-13 Hewlett Packard Enterprise Development Lp Facial recognition based security by a management controller
US20210081651A1 (en) * 2019-09-16 2021-03-18 David Gorodyansky System and method for picture sharing via artificial intelligence
US11341351B2 (en) 2020-01-03 2022-05-24 15 Seconds of Fame, Inc. Methods and apparatus for facial recognition on a user device
US11443539B2 (en) * 2020-02-03 2022-09-13 Leigh M. Rothschild System and method for identifying and tagging individuals present in an image

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPP400998A0 (en) * 1998-06-10 1998-07-02 Canon Kabushiki Kaisha Face detection in digital images
JP3575679B2 (ja) * 2000-03-31 2004-10-13 日本電気株式会社 顔照合方法と該照合方法を格納した記録媒体と顔照合装置
US6999111B2 (en) * 2001-06-26 2006-02-14 Eastman Kodak Company Electronic camera and system for transmitting digital over a communication network
US7908629B2 (en) 2001-06-28 2011-03-15 Intel Corporation Location-based image sharing
US20040243671A9 (en) 2001-07-26 2004-12-02 Needham Bradford H. Method and system for image sharing based on faces in an image
WO2004081855A1 (en) * 2003-03-06 2004-09-23 Animetrics, Inc. Generation of image databases for multifeatured objects
US8896725B2 (en) * 2007-06-21 2014-11-25 Fotonation Limited Image capture device with contemporaneous reference image capture mechanism
US8189096B2 (en) * 2005-06-16 2012-05-29 Sensible Vision, Inc. Video light system and method for improving facial recognition using a video camera
US7660861B2 (en) 2005-06-21 2010-02-09 Data Laboratory, L.L.C. System and method for verifying the identity of a sender of electronic mail and preventing unsolicited bulk email
WO2009094661A1 (en) * 2008-01-24 2009-07-30 The Trustees Of Columbia University In The City Of New York Methods, systems, and media for swapping faces in images
US9104984B2 (en) * 2008-11-13 2015-08-11 Sony Corporation Method and device relating to information management
TW201025147A (en) * 2008-12-19 2010-07-01 Micro Star Int Co Ltd Method for adjusting light source threshold value for face recognition
US20110066431A1 (en) * 2009-09-15 2011-03-17 Mediatek Inc. Hand-held input apparatus and input method for inputting data to a remote receiving device
US8531523B2 (en) * 2009-12-08 2013-09-10 Trueposition, Inc. Multi-sensor location and identification
US9202091B2 (en) * 2010-09-02 2015-12-01 Intelleflex Corporation RFID reader with camera, video, and/or audio capture device
US20120086792A1 (en) * 2010-10-11 2012-04-12 Microsoft Corporation Image identification and sharing on mobile devices
TW201223209A (en) 2010-11-30 2012-06-01 Inventec Corp Sending a digital image method and apparatus thereof
US9436816B2 (en) * 2010-12-16 2016-09-06 Microsoft Technology Licensing, Llc Supplementing biometric identification with device identification
EP2659429B1 (en) * 2010-12-30 2023-10-25 Nokia Technologies Oy Methods, apparatuses and computer program products for efficiently recognizing faces of images associated with various illumination conditions
US8396265B1 (en) * 2012-06-26 2013-03-12 Google Inc. Facial recognition

Also Published As

Publication number Publication date
EP2893454A1 (en) 2015-07-15
CN104520828A (zh) 2015-04-15
WO2014039342A1 (en) 2014-03-13
US9141848B2 (en) 2015-09-22
US20140064576A1 (en) 2014-03-06
EP2893454A4 (en) 2016-10-05

Similar Documents

Publication Publication Date Title
CN104520828B (zh) 自动媒体发布
US9805065B2 (en) Computer-vision-assisted location accuracy augmentation
US8891832B2 (en) Computer-vision-assisted location check-in
KR101136648B1 (ko) 컨텐트를 캡처하는 기회를 특정하기 위한 방법 및 장치
US20120086792A1 (en) Image identification and sharing on mobile devices
US20120062597A1 (en) Adding metadata apparatus
TW201011696A (en) Information registering device for detection, target sensing device, electronic equipment, control method of information registering device for detection, control method of target sensing device, information registering device for detection control progr
JP5544250B2 (ja) 表示画像検索方法
WO2013192270A1 (en) Visual signatures for indoor positioning
CN104284092A (zh) 拍照方法及智能终端、云端服务器
JP2008530676A (ja) 取得した画像を使用したアクセスのための情報の格納
KR100788605B1 (ko) 컨텐츠 서비스 장치 및 방법
US20110188770A1 (en) Automatic super-resolution transformation for images
CN112702521B (zh) 图像拍摄方法及装置、电子设备、计算机可读存储介质
JP2015002423A (ja) 画像処理装置、サーバ及び記憶媒体
CN107483830B (zh) 一种基于移动终端的照片拍摄控制方法、系统及存储介质
CN102272673A (zh) 用于为本人自动拍摄照片的方法、装置和计算机程序产品
CN102496147A (zh) 图像处理装置、图像处理方法和图像处理系统
US20120075482A1 (en) Image blending based on image reference information
US20160171004A1 (en) Method and system for improving the location precision of an object taken in a geo-tagged photo
CN107343142A (zh) 一种照片的拍摄方法及拍摄装置
CN110503123B (zh) 图像定位方法、装置、计算机设备和存储介质
CN107945353B (zh) 一种基于深度学习的自助导游系统
US20180053332A1 (en) Method, device, and system for marking objects in an image and retrieving details of the objects from the image
CN107016351A (zh) 拍摄指导信息的获取方法以及装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170718

Termination date: 20210828

CF01 Termination of patent right due to non-payment of annual fee