CN104205799A - 信息处理装置、信息处理方法及程序 - Google Patents

信息处理装置、信息处理方法及程序 Download PDF

Info

Publication number
CN104205799A
CN104205799A CN201380015462.4A CN201380015462A CN104205799A CN 104205799 A CN104205799 A CN 104205799A CN 201380015462 A CN201380015462 A CN 201380015462A CN 104205799 A CN104205799 A CN 104205799A
Authority
CN
China
Prior art keywords
image
user
unit
change
information processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201380015462.4A
Other languages
English (en)
Inventor
森麻纪
笠原俊一
繁田修
铃木诚司
深泽辽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN104205799A publication Critical patent/CN104205799A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19613Recognition of a predetermined image pattern or behaviour pattern indicating theft or intrusion

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Studio Devices (AREA)
  • Facsimiles In General (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

为了容易掌握捕获图像中拍摄对象的网络服务的状态变化。提供一种信息处理装置,具有:图像获取单元,用于获取捕获图像;变化检测单元,用于检测从所述捕获图像识别的拍照对象的网络服务中的状态的变化;以及描绘改变单元,被配置为在所述变化检测单元检测到所述状态的变化的情况下,改变所述捕获图像中显示的所述拍照对象的动作。

Description

信息处理装置、信息处理方法及程序
技术领域
本发明涉及信息处理装置、信息处理方法及程序。
背景技术
近年来,已经开发了用于指定捕获图像中示出的人员的技术。例如,公开了一种技术,其中针对事先准备的脸部图像检查捕获图像中所示的脸部区域,并基于检查结果指定捕获图像中所示的人员(例如,参见专利文献1)。根据该技术,在已经成功指定人员的情况下开/关门,并且因此,可以实现更高的安全性。
用于指定捕获图像中示出的人员的技术不仅用于提高安全性,而且应用于各种场合。
引用列表
专利文献
专利文献1:JP 2009-3659A
发明内容
技术问题
但是,需要容易地找到捕获图像中所示拍照对象(subject)的状态。例如,如果用户能够容易地找到捕获图像中示出的网络服务中的拍照对象状态的变化,则对于用户的方便性得到了提高。因此,希望实现用于容易地找到捕获图像中示出的网络服务中拍照对象状态的变化的技术。
问题的解决方案
根据本公开,提供一种信息处理装置,包括:图像获取单元,被配置为获取捕获图像;变化检测单元,被配置为检测从所述捕获图像识别的网络服务中的拍照对象的状态的变化;以及描绘改变单元,被配置为在所述变化检测单元检测到所述状态的变化的情况下,改变所述捕获图像中示出的所述拍照对象的描绘。
根据本公开,提供一种信息处理方法,包括:获取捕获图像;检测从所述捕获图像识别的网络服务中的拍照对象的状态的变化;以及在检测到所述状态的变化的情况下,改变所述捕获图像中示出的所述拍照对象的描绘。
根据本公开,提供一种使得计算机充当信息处理装置的程序,所述信息处理装置包括:图像获取单元,被配置为获取捕获图像;变化检测单元,被配置为检测从所述捕获图像识别的网络服务中的拍照对象的状态的变化;以及描绘改变单元,被配置为在所述变化检测单元检测到所述状态的变化的情况下,改变所述捕获图像中示出的所述拍照对象的描绘。
本发明的有益效果
根据上述本公开,可以容易地找到捕获图像中所示网络服务中拍照对象状态的变化。
附图说明
图1是示出根据本实施例的简要概述的示意图。
图2是示出根据本实施例的信息处理系统的配置的示意图。
图3是示出根据本实施例的信息处理装置的功能配置的方框图。
图4是示出信息处理装置的用户指定功能的简要概述的示意图。
图5是示出在用户指定失败时便携终端的显示示例的示意图。
图6是示出在用户指定成功时便携终端的显示示例的示意图。
图7是示出在用户指定失败时便携终端的显示示例的示意图。
图8是示出在用户指定失败时便携终端的显示示例的示意图。
图9是示出在用户指定失败时便携终端的显示示例的示意图。
图10是示出信息处理装置的构图决定功能(composition decisionfunction)的简要概述的示意图。
图11是示出在设置第一模式时的显示图像的示意图。
图12是示出在设置第二模式时的显示图像的示意图。
图13是示出确定显示图像的技术的变型的示意图。
图14是示出确定的显示图像的示例的示意图。
图15是示出信息处理装置的构图决定操作的流程的流程图。
图16是示出信息处理装置的描绘改变功能的示例的示意图。
图17是示出信息处理装置的描绘改变功能的另一示例的示意图。
图18是示出信息处理装置的描绘改变功能的另一示例的示意图。
图19是示出信息处理装置的描绘改变功能的另一示例的示意图。
图20是示出信息处理装置的描绘改变功能的另一示例的示意图。
图21是示出信息处理装置的描绘改变功能的另一示例的示意图。
图22是示出信息处理装置的描绘改变功能的另一示例的示意图。
图23是示出信息处理装置的描绘改变操作的流程的流程图。
具体实施方式
下面参照附图详细描述本公开的优选实施例。注意,在说明书和附图中,用相同的附图标记表示功能和结构基本上相同的结构元件,并省略这些结构元件的重复说明。
此外,在说明书和附图中,功能基本上相同的多个结构元件中的每个元件在有些情况下通过向相同的附图标记附加不同的字母来区分。但是,如果没有必要区分功能基本上相同的结构元件,就用相同的附图标记来表示它们。
首先,根据下列顺序描述“具体实施方式”。
1.用户指定功能
2.构图决定功能
3.描绘改变功能
4.结论
根据本实施例的信息处理装置的功能被宽泛地分为用户指定功能、构图决定功能和描绘改变功能。在描述每个功能之前,首先描述作为每个功能的前提的条件。
图1是示出根据本实施例的简要概述的示意图。如图1所示,在真实空间中出现具有便携终端20的用户U。用户U可以出现在真实空间中任何地方。此外,在便携终端20中安装显示图像的功能,并且对于用户U而言,可以观看通过便携终端20显示的画面。用户U被独立于便携终端20设置的成像装置30捕获。对于要设置成像装置30的位置没有特别限制。例如,可将成像装置设置在建筑中(例如在监测相机中),也可将成像装置设置在移动物体中(例如车辆)。此外,对于成像装置30的种类没有特别限制,例如可以是红外相机等等。
图2是示出根据本实施例的信息处理系统的配置的示意图。如图2所示,信息处理系统1包括信息处理装置10、便携终端20和成像装置30。虽然在图2中经由网络40将信息处理装置10与便携终端20相连接,但是连接到网络40的便携终端20的数量可以不是一个。例如,可以出现多个便携终端20,并且可将每个便携终端20连接到网络40。
此外,如图2所示,信息处理装置10连接到成像装置30。虽然在图2所示的示例中将一个成像装置30连接到信息处理装置10,但是成像装置30的数量可以不是一个。例如,可以出现多个成像装置30,并且可将每个成像装置30连接到信息处理装置10。
此外,虽然在图2所示的示例中将信息处理装置10配置为独立于便携终端20和成像装置30,但是也可将信息处理装置嵌入在便携终端20中,或者也可将信息处理装置嵌入在成像装置30中。通过成像装置30捕获的捕获图像经由信息处理装置10提供给便携终端20,并且对于便携终端20而言,可以显示捕获图像。信息处理装置10可以利用成像装置30提供的捕获图像来运用用户指定功能、构图决定功能和描绘改变功能。
图3是示出根据本实施例的信息处理装置10的功能配置的方框图。如图3所示,信息处理装置10包括处理控制单元100、显示控制单元160和存储单元50。此外,处理控制单元100包括图像获取单元111、参数获取单元112、候选提取单元113、指定单元114和认证单元115。图像获取单元111、参数获取单元112、候选提取单元113、指定单元114和认证单元115是主要与信息处理装置10的用户指定功能相关联的块。
此外,处理控制单元100包括识别单元121、条件决定单元122、信息添加单元123、模式设置单元124、构图决定单元125和图像确定单元126。处理控制单元100是,并且识别单元121、条件决定单元122、信息添加单元123、模式设置单元124、构图决定单元125和图像确定单元126是主要与信息处理装置10的构图决定功能相关联的块。
此外,处理控制单元100包括变化检测单元131和描绘改变单元132。变化检测单元131和描绘改变单元132是主要与信息处理装置10的描绘改变功能相关联的块。
处理控制单元100和显示控制单元160对应于诸如CPU(中央处理器)或者DSP(数字信号处理器)的处理器。处理控制单元100和显示控制单元160通过执行存储单元50或者其他存储介质中存储的程序,运用处理控制单元100和显示控制单元160的各种功能。
存储单元50利用诸如半导体存储器或硬盘这样的存储介质来存储程序和数据,用于要由处理控制单元100和显示控制单元160执行的处理。例如,存储单元50存储用于识别物体的特征量词典。此外,存储单元50可以存储作为物体识别的结果产生的识别结果。虽然在图3所示示例中将存储单元50配置为嵌入信息处理装置10,但是也可将存储单元50配置为独立于信息处理装置10。
已经描述了各个功能的前提。下面按顺序描述每个功能。
<1.用户指定功能>
首先描述信息处理装置10的用户指定功能。图4是示出信息处理装置10的用户指定功能的简要概述的示意图。图像获取单元111首先获取通过成像装置30捕获的捕获图像。在图4所示示例中,通过图像获取单元111获取捕获图像Img,在该捕获图像Img中捕获了图1所示的真实空间。通过图像获取单元111获取的捕获图像通过显示控制单元160被控制为在便携终端20上显示。
根据用户指定功能,从通过图像获取单元111获取的捕获图像所示出的拍照对象中指定用户。用户指定的目的没有特别限制。但是,这里假定,通过信息处理装置10提供网络服务,并执行用户指定,从而允许用户U经由便携终端20登录网络服务。
此外,网络服务的种类没有特别限制。但是,这里假定,服务允许用户利用其中完成了登录网络服务的便携终端来写入消息或者读取通过用户或者另一个用户写入的消息。虽然用于指定用户的定时没有特别限制,但是可以利用在便携终端20上进行用于用户请求用户指定的操作的定时。用于请求用户指定的操作可以是用于请求登录网络服务的操作。
为了从捕获图像所示的拍照对象指定用户,参数获取单元112获取与要指定的用户相关联的参数。虽然用于参数获取单元112获取参数的定时没有特别限制,但是例如,可以事先从用户的便携终端20获取参数,也可以在指定用户时从便携终端20获取参数。
要通过参数获取单元112获取的参数的种类没有特别限制。例如,如图4所示,参数获取单元112可以获取用户的脸部图像作为参数P1,也可以获取表示用户的移动的传感器数据作为参数P2。捕获用户的脸部图像的装置没有特别限制。例如,用户的脸部图像可以是通过便携终端20捕获的脸部图像,也可以是通过另一个装置捕获的脸部图像。
此外,检测用户的移动的传感器没有特别限制。检测用户的移动的传感器可以是加速度传感器、接收GPS信号的传感器以及接收从Wi-Fi基站传输的无线电波的传感器。此外,检测用户的移动的传感器可以嵌入便携终端20,也可以安装在用户的身体上。
在通过指定单元114指定用户之前,可通过候选提取单元113指定用户的候选(步骤S11)。例如,在指出通过输入便携终端20的用户操作(例如,触摸板的触摸操作)而在便携终端20中显示的捕获图像上的坐标时,参数获取单元112获取坐标,并且候选提取单元113可将通过坐标选择的拍照对象(例如,坐标上出现的拍照对象)指定为用户的候选。通过指定用户的候选,减少指定用户所必须的负荷。
指定单元114基于通过参数获取单元112获取的参数,尝试从捕获图像中指定用户(步骤S12)。例如,在通过参数获取单元112获取用户的脸部图像作为参数P1时,指定单元114可将基于针对脸部图像对于通过图像获取单元111获取的捕获图像中示出的拍照对象的脸部区域的检查而提取的拍照对象指定为用户。例如,指定单元114可将具有用户的脸部图像以及相似度超过阈值的脸部区域的拍照对象指定为用户。
此外,例如,在通过参数获取单元112获取表示用户的移动的传感器数据作为参数P2时,指定单元114可将基于针对传感器数据对于从通过图像获取单元111获取的捕获图像检测的拍照对象的移动的检查而提取的拍照对象指定为用户。例如,指定单元114可将其中检测到了捕获图像中用户的移动以及相似度超过阈值的传感器数据的拍照对象指定为用户。此外,在指定用户的候选时,指定单元114可以基于来自用户的候选的参数指定用户。
作为指定单元114尝试指定用户的结果,还假定用户未被指定。例如,相似度不超过阈值的情况对应于上面假定的情形。因此,在没有通过指定单元114指定用户时,显示控制单元160控制便携终端20,以在便携终端20中显示指示用于指定用户所必须的用户的移动的信息。根据显示控制单元160的控制,在移动终端20中显示指示用户的移动的信息(步骤S13)。
图5是示出在用户指定失败时便携终端20的显示示例的示意图。例如,在没有通过指定单元114指定用户时,显示控制单元160可以控制便携终端20,以在便携终端20中显示提示用户将他或她的脸部转向成像装置的信息。在图5中,示出这样的示例,其中假定成像装置30是监测相机,并且显示控制单元160控制便携终端20,以在便携终端20中显示指示“请将您的脸部转向监测相机”的消息M1。
再参照图4进行描述。当通过指定单元114指定用户时,在流程进行到步骤S15之前,认证单元115可以在指定单元114指定的便携终端20上进行认证处理(步骤S14)。具体而言,例如,如图4所示,当通过输入便携终端20的用户操作输入密码时,认证单元115可以通过确定输入的密码与事先登记的密码是否匹配来确定成功和失败。当认证成功时,流程进行到步骤S15。当认证失败时,可以重新进行认证处理,而不是进行到步骤S15。
当流程进行到步骤S15时,例如,完成登录网络服务(步骤S15),并且显示控制单元160控制便携终端20,以通过便携终端20显示捕获图像和附加信息。根据显示控制单元160的控制,在便携终端20中显示捕获图像和附加信息(步骤S16)。虽然附加信息没有特别限制,但是例如,附加信息可以是通过用户他/她自己或者其他用户写入的消息。
图6是示出在用户指定成功时便携终端20的显示示例的示意图。例如,当通过指定单元114指定用户时,显示控制单元160控制便携终端20,以显示捕获图像和附加信息。图6示出这样的示例,其中控制单元160控制便携终端20,以将其他用户写入的消息显示为附加信息。
此外,提示用户将他或她的脸部转向成像装置的信息不限于图5所示的示例。图7是示出在用户指定失败时便携终端20的显示示例的示意图。显示控制单元160可以控制便携终端20,以基于通过候选提取单元113提取的用户的候选的位置以及事先设置的成像装置30的位置,在便携终端20中显示指示用于指定用户所必须的用户的移动的信息。
例如,如图7所示,显示控制单元160可以控制便携终端20,以使便携终端20利用用户的候选的位置作为参考,沿着用户的候选朝向的方向显示直线,以及沿着其中出现成像装置30的方向显示直线。此外,如图7所示,显示控制单元160可以控制便携终端20,从而在便携终端20中显示箭头,该箭头表示从沿着用户的候选朝向的方向的直线到沿着其中出现成像装置30的方向的直线的旋转方向。此外,如图7所示,显示控制单元160可以控制便携终端20,从而显示消息M2“向左转”,作为在便携终端20中表示用户看到的旋转方向的消息。
此外,在没有通过指定单元114指定用户时,可以切换指定用户的技术。图8是示出在用户指定失败时便携终端20的显示示例的示意图。在没有通过指定单元114指定用户时,显示控制单元160可以控制便携终端20,以使在便携终端20中显示指示通过另一种技术指定用户的信息。例如,显示控制单元160可以控制便携终端20,从而显示消息M3“切换指定用户的技术”,作为在便携终端20中指示通过另一种技术指定用户的信息。指定单元114可以指定通过另一种指示技术提取的拍照对象作为用户。
例如,指定单元114尝试将基于针对用户的脸部图像对于捕获图像中示出的拍照对象的脸部区域的检查而提取的拍照对象指定为用户。在这种情况下,当没有指定用户时,指定单元114可以尝试将基于针对传感器数据对于通过捕获图像检测的拍照对象的移动的检查而提取的拍照对象指定为用户。此外,可以按照相反的顺序尝试用户指定。
此外,在没有通过指定单元114指定用户时,可以提示用户使得捕获图像中示出的另一个拍照对象与用户的移动之间的差异变清楚。因此,当从捕获图像检测到移出限定的正常范围的拍照对象时,对于指定单元114而言可将拍照对象指定为用户。
图9是示出在用户指定失败时便携终端20的显示示例的示意图。例如,在没有通过指定单元114指定用户时,显示控制单元160可以控制便携终端20,以在移动终端20中显示提示用户移动便携终端20的信息,作为指示用于指定用户所必须的用户的移动的信息。例如,如图9所示,显示控制单元160可以控制便携终端20,以在便携终端20中显示消息M4“请移动您的移动终端”,作为提示用户移动便携终端20的消息。
如上所述,根据信息处理装置10的指定功能,基于与便携终端的用户相关联的参数从捕获图像尝试用户指定,并且显示控制单元160控制便携终端20,以在没有指定用户时,在移动终端20中显示指示用于指定用户所必须的用户的移动的信息。因此,有望从捕获图像容易地指定用户。
<2.构图决定功能>
下面描述信息处理装置10的构图决定功能。图10是示出信息处理装置10的构图决定功能的简要概述的示意图。如上所示,在通过成像装置30捕获捕获图像时,在用户的便携终端20中显示捕获图像。对于用户而言可以观看便携终端20中显示的捕获图像。这里假定这样的场合,其中用户在观看捕获图像时向目的地移动。下面描述对于优选构图的决定,作为用户观看的捕获图像。
首先,假定指示用户目的地的信息。可以通过用户操作输入将指示用户目的地的信息输入便携终端20,并且可以通过便携终端20运行的应用来设置该指示用户目的地的信息。例如,在真实空间中的位置描绘指示用户目的地的信息。通过信息处理装置10获取指示用户目的地的信息。构图决定单元125基于指示用户目的地的信息以及基于图像获取单元111获取的捕获图像的用户的识别结果决定构图。构图是示出图像中物体的理想位置(或者物体的理想方向)的示意图。
用户的识别结果至少包括真实空间中的用户位置及用户的行进方向。例如,通过识别单元121获取用户的识别结果。换言之,识别单元121基于捕获图像,通过识别用户来获得识别结果。在图10所示的示例中,将真实空间中的用户位置表示为Pu,将用户的行进方向表示为V1,以及将使用用户位置Pu作为参考的用户的目的地的方向表示为V2。
例如,在将用户位置识别为识别结果时,构图决定单元125可以基于使用用户位置作为参考的用户的目的地的方向决定构图。例如,在图10所示的示例中,构图决定单元125可以基于使用用户位置Pu作为参考的用户的目的地的方向V2决定构图。例如,在基于V2决定构图时,构图决定单元125可以决定这样的图像作为构图,在这样的图像中将沿着使用用户位置Pu作为参考的方向V2的区域包括为大于沿着与使用用户位置Pu作为参考的、与方向V2相反的方向的区域。在图10中将如上决定的构图的示例示出为K2。点C2指示构图K2的中点。
此外,例如,在将用户的行进方向识别为识别结果时,构图决定单元125可以基于用户的行进方向决定构图。例如,在图10所示的示例中,构图决定单元125可以基于用户的行进方向V1决定构图。例如,在基于V1决定构图时,构图决定单元125可以决定这样的图像作为构图,其中将沿着使用用户位置Pu作为参考的方向V1的区域包括为大于沿着与使用用户位置Pu作为参考的方向V1相反的方向的区域。在图10中将如上决定的构图的示例示出为K1。点C1指示构图K1的中点。
构图决定单元125可以基于用户的行进方向V1一致地决定构图,可以基于使用用户位置Pu作为参考的用户的目的地的方向V2一致地决定构图,也可以选择性地使用上述任何一种决定技术。换言之,当其中基于用户的行进方向V1决定构图的模式是第一模式,其中基于使用用户位置Pu作为参考的用户的目的地的方向V2决定构图的模式是第二模式时,模式设置单元124可以设置这两种模式的任何一种。在这种情况下,构图决定单元125可以根据模式设置单元124设置的模式决定构图。可以基于输入便携终端20的用户操作来设置模式,也可以通过便携终端20运行的应用来设置模式。
图像确定单元126基于构图决定单元125决定的构图确定显示图像。例如,图像确定单元126可将符合构图决定单元125决定的构图的图像确定为显示图像,也可将可选择范围内最接近构图决定单元125决定的构图的图像确定为显示图像。显示控制单元160控制便携终端20,以在便携终端20中显示通过图像确定单元126确定的显示图像。
图11是示出在设置第一模式时的显示图像的示意图。例如,在如图10所示获取捕获图像Img并且通过模式设置单元124设置第一模式时,基于用户的行进方向V1决定构图K1。在这种情况下,例如,如图11所示,图像确定单元126可将符合构图K1的图像确定为显示图像D1。此外,构图决定单元125可以决定其中用户出现在中间的构图。如图11所示,可以决定其中用户出现在与中间相隔预定距离d1的位置的构图。
此外,可以决定当前的捕获条件。换言之,条件决定单元122可以决定是否准备用于捕获用户的条件,并且信息添加单元123可以当条件决定单元122决定不准备条件时、添加指示不准备条件的信息至显示图像。例如,当条件决定单元122决定能够捕获的区域时,信息添加单元123可以向显示图像添加指示能够被捕获的区域的边界的对象(object)。
此外,当条件决定单元122决定沿着使用用户位置Pu作为参考的用户的行进方向V1能够捕获的区域的边界时,信息添加单元123可以向显示图像添加指示能够捕获的区域的边界的对象。因为在图11中决定了沿着使用用户位置Pu作为参考的用户的行进方向V1能够捕获的区域的边界,所以向显示图像D1添加指示能够捕获的区域的边界的对象作为A1。或者,当条件决定单元122决定用户位置Pu与能够捕获的区域的边界之间的距离小于阈值时,信息添加单元123可以向显示图像添加指示能够捕获的区域的边界的对象。
此外,当条件决定单元122决定捕获图像的亮度小于阈值时,信息添加单元123可以向显示图像添加指示捕获条件的恶化的对象。虽然通过这种处理可以提示用户改变行进方向,但是向用户提供的信息不限于添加的对象。例如,信息添加单元123可以控制便携终端20振动,也可以控制便携终端20产生报警音。
图12是示出在设置第二模式时的显示图像的示意图。例如,在如图10所示获取捕获图像Img以及通过模式设置单元124设置第二模式时,使用用户位置Pu作为参考、基于用户的目的地的方向V2决定构图K2。在这种情况下,例如,如图12所示,图像确定单元126可将符合构图K2的图像确定为显示图像D2。此外,虽然构图决定单元125决定其中用户出现在中间的构图,但是构图决定单元可以决定其中用户出现在与中间相隔预定距离d2的位置的构图,如图12所示。
至此,图像确定单元126使用了这样的技术,基于构图决定单元125决定的构图,通过切除成像装置30捕获的捕获图像的一部分来确定显示图像。当成像装置30是一个固定相机时,仅采用上述技术。但是,当成像装置30是方向可调相机或者视角可调相机时,或者当成像装置30以多个提供时,可以采用其他技术。
在这种情况下,固定相机意味着捕获方向或视角不可调的相机。方向可调相机意味着可移动相机,并且可以是具有摇摄功能(pan function)的相机或者具有倾斜功能的相机。视角可调相机意味着能够改变视角的相机。图13是示出确定显示图像的技术的变型的示意图。如图13所示,当捕获相机30是固定相机时,图像确定单元126采用将从捕获图像选择的区域确定为显示图像的技术。
此外,如图13所示,当捕获相机30是方向可调相机时,图像确定单元126确定提供捕获图像的成像装置30的捕获方向,并将沿着确定的捕获方向捕获的捕获图像确定为显示图像。例如,图像确定单元126基于构图决定单元125决定的构图确定成像装置30的捕获方向。具体而言,图像确定单元126可将这样的方向确定为成像装置30的捕获方向:在该方向能够捕获最接近构图决定单元125决定的构图的图像。
此外,如图13所示,当捕获相机30是视角可调相机时,图像确定单元126确定提供捕获图像的成像装置30的视角,并将以确定的视角捕获的捕获图像确定为显示图像。例如,图像确定单元126基于构图决定单元125决定的构图确定成像装置30的视角。具体而言,图像确定单元126可将这样的视角确定为成像装置30的视角:在该视角能够捕获最接近构图决定单元125决定的构图的图像。
此外,如图13所示,当通过图像获取单元111获取从各个成像装置30提供的捕获图像时,图像确定单元126将从各个成像装置30提供的捕获图像中选择的捕获图像确定为显示图像。例如,基于构图决定单元125决定的构图,图像确定单元126将从各个成像装置30提供的捕获图像中选择的捕获图像确定为显示图像。具体而言,图像确定单元126可以从各个成像装置30提供的捕获图像中选择最接近构图决定单元125决定的构图的捕获图像,并且可将选择的捕获图像确定为显示图像。
此外,在上述示例中,将最接近构图决定单元125决定的构图的图像用作显示图像。但是,当仅获取差异超过图像与构图之间的阈值的图像时,显示图像可能不能确定。在这种情况下,也假定对于图像确定单元126而言,难以基于构图决定单元125决定的构图确定显示图像。因此,在这种情况下,图像确定单元126可以基于检测数据而不是构图来确定显示图像。
检测数据没有特别限制。例如,对于图像确定单元126而言,可以将这样的图像确定为显示图像,在该图像中捕获到与基于传感器数据通过指定单元114指定的用户位置最接近的位置。此外,图像确定单元126可将图像中示出的人员数量最少的图像确定为显示图像,或者将图像中示出的人员密度最小的图像确定为显示图像。此外,图像确定单元126可将其中捕获到最大范围的图像确定为显示图像,或者将最常用的捕获图像确定为显示图像。
此外,当成像装置30没有出现等等时,也假定不通过图像获取单元111获取捕获图像。在这种情况下,图像确定单元126可将根据指示用户目的地的信息以及基于除了捕获图像之外的数据检测到的用户位置的图像确定为显示图像。
例如,在基于接收GPS信号的传感器接收的信号获取用户的位置信息时,图像确定单元126可以利用位置信息以及指示用户目的地的信息,从网页等等搜索图像。图像可以是绘制的地图,或者是捕获的照片。此外,当通过搜索获取多个图像时,图像确定单元126可将通过合成多个图像产生的新图像确定为显示图像。
图14是示出确定的显示图像的示例的示意图。如图14所示,显示控制单元160可将指示与作为参考的用户位置Pu的距离的对象Obj1添加于用户的目的地,将指示到达目的地的估计时间以及与目的地的距离等等的对象Obj2添加于显示图像D2。
此外,如图14所示,显示控制单元160可将指示方位的对象Obj3、指示使用用户位置Pu作为参考的、用户的目的地的方向的对象Obj4等等添加于显示图像D2。此外,如图14所示,显示控制单元160可将指示使用用户位置Pu作为参考的用户的目的地的方向的对象Obj5添加于用户位置Pu,并且可将指示用户位置Pu的对象Obj6添加于显示图像D2中的用户位置。
下面描述信息处理装置的构图决定操作的流程。图15是示出信息处理装置10的构图决定操作的流程的流程图。如图15所示,在没有通过图像获取单元111获取捕获图像时(步骤S21中“否”),识别单元121从除了捕获图像之外的数据识别用户(步骤S22),并且流程进行到步骤S26。
另一方面,在通过图像获取单元111获取捕获图像时(步骤S21中“是”),识别单元121从捕获图像识别用户(步骤S23),并且条件决定单元122决定是否准备了用于捕获的条件(步骤S24)。当条件决定单元122决定准备了用于捕获的条件时(步骤S24中“是”),流程进行到步骤S26。另一方面,当条件决定单元122决定未准备用于捕获的条件时(步骤S24中“否”),信息添加单元123将指示未准备条件的信息添加于捕获图像(步骤S25),并且流程进行到步骤S26。
当流程进行到步骤S26时,模式设置单元124设置第一模式和第二模式中的任何一个(步骤S26),并且构图决定单元125基于识别单元121的识别结果、根据模式设置单元124设置的模式决定构图(步骤S27)。然后,图像确定单元126尝试基于构图决定单元125决定的构图来确定显示图像(步骤S28)。
在这种情况下,当通过图像确定单元126确定显示图像时(步骤S29中“是”),流程进行到步骤S31。另一方面,当没有通过图像确定单元126确定显示图像时(步骤S29中“否”),图像确定单元126基于除了构图之外的检测数据确定显示图像(步骤S30),并且流程进行到步骤S31。显示控制单元160控制便携终端20,从而在便携终端20中显示通过图像确定单元126确定的显示图像(步骤S31),并且流程结束。
如上所述,根据信息处理装置10的构图决定功能,基于指示用户目的地的信息以及基于捕获图像的识别结果来决定构图。此外,基于确定的构图来确定显示图像。根据这种控制,有望为用户确定方便性更高的显示图像。
<3.描绘改变功能>
下面描述信息处理装置10的描绘改变功能。如上所述,假定信息处理装置10并且在用户U经由便携终端20登录网络服务时向便携终端20提供网络服务。
登录网络服务不限于用户U,并且可由其他用户进行。换言之,有可能在捕获图像中示出的人员(下面也称为拍照对象)享用网络服务。下面描述容易地发现捕获图像中示出的网络服务中拍照对象状态的变化的功能。此外,捕获图像中所示拍照对象可通过使用与用户指定的技术相同的技术的识别单元121来识别。
变化检测单元131检测从通过图像获取单元111获取的捕获图像识别的网络服务中拍照对象状态的变化。网络服务中的状态没有特别限制。例如,状态可以是指示拍照对象的便携终端是否登录网络服务的信息。换言之,当变化检测单元131检测到拍照对象的便携终端已经登录网络服务时,描绘改变单元132可以改变捕获图像中示出的拍照对象的描绘。
此外,网络服务中的状态可以是指示在登录网络服务时是否执行特定处理的信息。换言之,当变化检测单元131检测到网络服务中拍照对象的便携终端的移动满足预定条件时,描绘改变单元132可以改变捕获图像中示出的拍照对象的描绘。预定条件没有特别限制。例如,预定条件可以是写入消息的条件,也可以是在预定时间里写入消息的条件。
当通过变化检测单元131检测到状态的变化时,描绘改变单元132改变捕获图像中示出的拍照对象的描绘。可以通过描绘改变单元132以任何方式得出捕获图像中示出的拍照对象的区域。例如,当没有示出拍照对象的捕获图像与示出拍照对象的捕获图像之间的差异出现时,可以发现它们之间的差异区域作为拍照对象的区域。此外,改变拍照对象的描绘的方法没有特别限制。
例如,在通过指定单元114指定用户时,描绘改变单元132可以通过突出捕获图像中示出的用户来改变用户的描绘。此外,突出用户的方法没有特别限制。显示控制单元160控制便携终端20,从而在便携终端20中显示可通过使得描绘改变单元132改变描绘来获得的显示图像。
下面参照附图描述强调用户的技术。图16是示出信息处理装置10的描绘改变功能的示例的示意图。如图16所示,描绘改变单元132可通过降低捕获图像中的拍照对象而不是用户U的清晰度来突出用户U。
图17是示出信息处理装置10的描绘改变功能的另一示例的示意图。如图17所示,描绘改变单元132可通过突出捕获图像中用户U的轮廓L1来突出用户U。例如,可通过使得捕获图像中用户U的轮廓L1变粗来突出用户U。
图18是示出信息处理装置10的描绘改变功能的另一示例的示意图。如图18所示,描绘改变单元132可通过改变捕获图像中除了用户U之外的拍照对象的像素值来突出用户U。例如,可通过降低捕获图像中除了用户U之外的拍照对象的亮度来突出用户U。
图19是示出信息处理装置10的描绘改变功能的另一示例的示意图。如图19所示,描绘改变单元132可以突出用户U,从而用户U在捕获图像中被放大并显示。此外,如图19所示,描绘改变单元132可在执行放大显示之后缩小并显示用户U。
图20是示出信息处理装置10的描绘改变功能的另一示例的示意图。描绘改变单元132可通过在捕获图像中显示在用户的位置或者用户附近的位置处的对象来突出用户。可以事先限定包围用户的区域。在图20所示的示例中,描绘改变单元132通过向捕获图像中围绕用户的位置添加对象Obj8和Obj9来突出用户U。
此外,突出用户U的程度可以是常数,也可以根据情况改变。例如,描绘改变单元132可根据捕获图像中用户的尺寸改变突出用户的程度。图21是示出信息处理装置10的描绘改变功能的另一示例的示意图。例如,描绘改变单元132可将突出用户的程度增加到与捕获图像中用户的尺寸减少的程度相同的程度。
在图21所示的示例中,当用户U的位置离成像装置30较远时,捕获图像中用户的尺寸较小。因此,描绘改变单元132通过使得具有小尺寸的用户的轮廓L0相比于具有大尺寸的用户的轮廓L1更粗来增加突出具有小尺寸的用户U的程度。以这种方式,通过将突出用户的程度增加到与捕获图像中用户的尺寸减少的程度相同的程度,来更容易地找到捕获图像中的用户。
此外,可将用户U隐藏在捕获图像中其他物体后面。例如,在捕获图像中通过其他物体隐藏和示出一部分用户或者整个用户时,描绘改变单元132可以改变突出用户的技术。图22是示出信息处理装置10的描绘改变功能的另一示例的示意图。如图22所示,在捕获图像中通过其他拍照对象隐藏一部分用户U。因此,描绘改变单元132通过向捕获图像中用户U周围的位置添加对象Obj10来改变突出用户U的技术。可以事先限定包围用户U的范围。
下面描述信息处理装置10的描绘改变操作的流程。图23是示出信息处理装置10的描绘改变操作的流程的流程图。如图23所示,当没有通过图像获取单元111获取捕获图像时(步骤S41中“否”),流程结束。另一方面,当通过图像获取单元111获取捕获图像时(步骤S41中“是”),通过识别单元121从捕获图像识别拍照对象(步骤S42)。然后变化检测单元131决定是否检测到网络服务中拍照对象状态的变化(步骤S43)。
当通过变化检测单元131没有检测到网络服务中拍照对象状态的变化时(步骤S43中“否”),流程结束。另一方面,当通过变化检测单元131检测到网络服务中拍照对象状态的变化时(步骤S43中“是”),描绘改变单元132改变拍照对象的描绘(步骤S44)。显示控制单元160控制通过改变描绘的描绘改变单元132可获得的显示图像的显示(步骤S44),并且流程结束。
如上所述,根据信息处理装置10的描绘改变功能,检测从捕获图像中识别的网络服务中拍照对象状态的变化。此外,在检测到状态的变化时,改变捕获图像中示出的拍照对象的描绘。根据这种控制,有望容易地发现捕获图像中示出的网络服务中拍照对象状态的变化。
<4.结论>
如上所述,根据本实施例的信息处理装置10的用户指定功能,提供一种信息处理装置10,包括图像获取单元111、参数获取单元112、指定单元114和显示控制单元160,该图像获取单元111获取捕获图像,该参数获取单元112获取与便携终端20的用户相关联的参数,该指定单元114基于参数从捕获图像指定用户,该显示控制单元160控制便携终端,以使在没有通过指定单元114指定用户时在便携终端20中显示指示用于指定用户所必须的用户的移动的信息。
根据上述配置,在没有通过指定单元114指定用户时,通过便携终端20显示指示用于指定用户所必须的用户的移动的信息,并且观看信息的用户可以移动,从而从捕获图像指定用户。因此,有望容易地从捕获图像指定用户。
此外,根据本实施例的信息处理装置10的构图决定功能,提供一种信息处理装置10,包括图像获取单元111、构图决定单元125和图像确定单元126,该图像获取单元111获取捕获图像,构该成决定单元125基于指示用户目的地的信息以及基于捕获图像的用户的识别结果决定构图,图像确定单元126基于构图决定单元125决定的构图确定显示图像。
根据这种配置,基于指示用户目的地的信息以及基于捕获图像的用户的识别结果决定构图,且基于构图确定显示图像。例如,通过构图决定单元125,基于指示用户位置的信息以及指示目的地的信息决定构图。因此,有望为用户确定方便性更高的显示图像。
此外,根据本实施例的信息处理装置10的描绘改变功能,提供一种信息处理装置10,包括图像获取单元111、变化检测单元131和描绘改变单元132,图像获取单元111获取捕获图像,变化检测单元131检测从捕获图像识别的网络服务中拍照对象状态的变化,描绘改变单元132在通过变化检测单元131检测到状态的变化时改变捕获图像中所示拍照对象的描绘。
根据这种配置,在检测到网络服务中拍照对象状态的变化时,改变捕获图像中示出的拍照对象的描绘。对于观看捕获图像的用户而言可以从捕获图像容易地发现网络服务中拍照对象的状态变化。
本领域技术人员应当理解,根据设计要求和其他因素,可以想到各种修改、组合、子组合和变型,只要它们涵盖于后附权利要求书及其等同物的范围之内。
此外,例如,描述了这样的示例,其中信息处理装置10包括所有处理控制单元100和显示控制单元160。但是,除了信息处理装置10之外的装置可以具有一部分块或者全部块。例如,服务器可具有一部分处理控制单元100和显示控制单元160,并且便携终端20可具有其余的部分。通过这种方式,也可将本公开的技术应用于云计算。
此外,不一定按照流程图所述的顺序,以时间序列处理本说明书的信息处理装置10的操作中的每个步骤。例如,信息处理装置10的操作中的每个步骤可以按照不同于流程图所述顺序的顺序来处理,也可以并行处理。
此外,可以生成计算机程序,使得嵌入信息处理装置10中诸如CPU、ROM和RAM的硬件运用与上述信息处理装置10的配置相同的功能。此外,还提供其中存储计算机程序的存储介质。
此外,也可将本技术配置如下。
(1)一种信息处理装置,包括:
图像获取单元,被配置为获取捕获图像;
变化检测单元,被配置为检测从所述捕获图像识别的网络服务中的拍照对象的状态的变化;以及
描绘改变单元,被配置为在所述变化检测单元检测到所述状态的变化的情况下,改变所述捕获图像中示出的所述拍照对象的描绘。
(2)根据(1)的信息处理装置,进一步包括:
指定单元,被配置为从所述捕获图像中指定便携终端的用户,
其中,所述描绘改变单元通过突出所述捕获图像中示出的所述用户,改变所述用户的描绘。
(3)根据(2)的信息处理装置,进一步包括:
显示控制单元,被配置为按照在所述便携终端上显示由通过所述描绘改变单元正在改变的描绘获得的显示图像的方式进行控制。
(4)根据(1)至(3)任一项的信息处理装置,
其中,在所述变化检测单元检测到所述拍照对象的便携终端登录所述网络服务的情况下,所述描绘改变单元改变所述捕获图像中示出的所述拍照对象的描绘。
(5)根据(1)至(3)任一项的信息处理装置,
其中,在所述变化检测单元检测到所述网络服务中所述拍照对象的便携终端的移动满足预定条件的情况下,所述描绘改变单元改变所述捕获图像中示出的所述拍照对象的描绘。
(6)根据(2)或(3)的信息处理装置,
其中,所述描绘改变单元根据所述捕获图像中所述用户的尺寸改变突出所述用户的程度。
(7)根据(6)的信息处理装置,
其中,所述描绘改变单元在所述捕获图像中所述用户的尺寸缩小时增加突出所述用户的程度。
(8)根据(2)或(3)的信息处理装置,
其中,在所述捕获图像中所述用户的一部分或者所述用户的全部通过其他物体隐藏和示出的情况下,所述描绘改变单元改变突出所述用户的技术。
(9)根据(2)或(3)的信息处理装置,
其中,所述描绘改变单元通过降低拍照对象的清晰度而不是所述捕获图像中所述用户的清晰度来突出所述用户。
(10)根据(2)或(3)的信息处理装置,
其中,所述描绘改变单元通过突出所述捕获图像中所述用户的轮廓来突出所述用户。
(11)根据(2)或(3)的信息处理装置,
其中,所述描绘改变单元通过改变拍照对象的像素值而不是所述捕获图像中所述用户的像素值来突出所述用户。
(12)根据(2)或(3)的信息处理装置,
其中,所述描绘改变单元通过在所述捕获图像中所述用户的显示中进行缩放来突出所述用户。
(13)根据(2)或(3)的信息处理装置,
其中,所述描绘改变单元通过在所述捕获图像中在所述用户的位置或者所述用户周围的位置增加对象来突出所述用户。
(14)一种信息处理方法,包括步骤:
获取捕获图像;
检测从所述捕获图像识别的网络服务中的拍照对象的状态的变化;以及
在检测到所述状态的变化的情况下,改变所述捕获图像中示出的所述拍照对象的描绘。
(15)一种使得计算机用作信息处理装置的程序,所述信息处理装置包括:
图像获取单元,被配置为获取捕获图像;
变化检测单元,被配置为检测从所述捕获图像识别的网络服务中的拍照对象的状态的变化;以及
描绘改变单元,被配置为在所述变化检测单元检测到所述状态的变化的情况下,改变所述捕获图像中示出的所述拍照对象的描绘。
附图标记列表
1    信息处理系统
10   信息处理装置
20   便携终端
30   成像装置
40   网络
50   存储单元
100  处理控制单元
111  图像获取单元
112  参数获取单元
113  候选提取单元
114  指定单元
115  认证单元
121  识别单元
122  条件决定单元
123  信息添加单元
124  模式设置单元
125  构图决定单元
126  图像确定单元
131  变化检测单元
132  描绘改变单元
160  显示控制单元

Claims (15)

1.一种信息处理装置,包括:
图像获取单元,被配置为获取捕获图像;
变化检测单元,被配置为检测从所述捕获图像识别的网络服务中的拍照对象的状态的变化;以及
描绘改变单元,被配置为在所述变化检测单元检测到所述状态的变化的情况下,改变所述捕获图像中示出的所述拍照对象的描绘。
2.根据权利要求1所述的信息处理装置,进一步包括:
指定单元,被配置为从所述捕获图像中指定便携终端的用户,
其中,所述描绘改变单元通过突出所述捕获图像中示出的所述用户,改变所述用户的描绘。
3.根据权利要求2所述的信息处理装置,进一步包括:
显示控制单元,被配置为按照在所述便携终端上显示由通过所述描绘改变单元正在改变的描绘获得的显示图像的方式进行控制。
4.根据权利要求1所述的信息处理装置,
其中,在所述变化检测单元检测到所述拍照对象的便携终端登录所述网络服务的情况下,所述描绘改变单元改变所述捕获图像中示出的所述拍照对象的描绘。
5.根据权利要求1所述的信息处理装置,
其中,在所述变化检测单元检测到所述网络服务中所述拍照对象的便携终端的移动满足预定条件的情况下,所述描绘改变单元改变所述捕获图像中示出的所述拍照对象的描绘。
6.根据权利要求2所述的信息处理装置,
其中,所述描绘改变单元根据所述捕获图像中所述用户的尺寸改变突出所述用户的程度。
7.根据权利要求6所述的信息处理装置,
其中,所述描绘改变单元在所述捕获图像中所述用户的尺寸缩小时增加突出所述用户的程度。
8.根据权利要求2所述的信息处理装置,
其中,在所述捕获图像中所述用户的一部分或者所述用户的全部通过其他物体隐藏和示出的情况下,所述描绘改变单元改变突出所述用户的技术。
9.根据权利要求2所述的信息处理装置,
其中,所述描绘改变单元通过降低拍照对象的清晰度而不是所述捕获图像中所述用户的清晰度来突出所述用户。
10.根据权利要求2所述的信息处理装置,
其中,所述描绘改变单元通过突出所述捕获图像中所述用户的轮廓来突出所述用户。
11.根据权利要求2所述的信息处理装置,
其中,所述描绘改变单元通过改变拍照对象的像素值而不是所述捕获图像中所述用户的像素值来突出所述用户。
12.根据权利要求2所述的信息处理装置,
其中,所述描绘改变单元通过在所述捕获图像中所述用户的显示中进行缩放来突出所述用户。
13.根据权利要求2所述的信息处理装置,
其中,所述描绘改变单元通过在所述捕获图像中在所述用户的位置或者所述用户周围的位置增加对象来突出所述用户。
14.一种信息处理方法,包括:
获取捕获图像;
检测从所述捕获图像识别的网络服务中的拍照对象的状态的变化;以及
在检测到所述状态的变化的情况下,改变所述捕获图像中示出的所述拍照对象的描绘。
15.一种使得计算机用作信息处理装置的程序,所述信息处理装置包括:
图像获取单元,被配置为获取捕获图像;
变化检测单元,被配置为检测从所述捕获图像识别的网络服务中的拍照对象的状态的变化;以及
描绘改变单元,被配置为在所述变化检测单元检测到所述状态的变化的情况下,改变所述捕获图像中示出的所述拍照对象的描绘。
CN201380015462.4A 2012-03-27 2013-02-12 信息处理装置、信息处理方法及程序 Pending CN104205799A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012071333 2012-03-27
JP2012-071333 2012-03-27
PCT/JP2013/053204 WO2013145900A1 (ja) 2012-03-27 2013-02-12 情報処理装置、情報処理方法およびプログラム

Publications (1)

Publication Number Publication Date
CN104205799A true CN104205799A (zh) 2014-12-10

Family

ID=49259183

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201380015462.4A Pending CN104205799A (zh) 2012-03-27 2013-02-12 信息处理装置、信息处理方法及程序

Country Status (7)

Country Link
US (1) US9836644B2 (zh)
EP (1) EP2833627A4 (zh)
JP (1) JP6064995B2 (zh)
CN (1) CN104205799A (zh)
BR (1) BR112014023249A8 (zh)
IN (1) IN2014DN07843A (zh)
WO (1) WO2013145900A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6455763B2 (ja) * 2014-05-27 2019-01-23 パナソニックIpマネジメント株式会社 遠隔撮影方法及び遠隔撮影制御装置
JP6547856B2 (ja) * 2018-01-09 2019-07-24 カシオ計算機株式会社 情報表示装置、誘導表示方法およびプログラム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7688306B2 (en) * 2000-10-02 2010-03-30 Apple Inc. Methods and apparatuses for operating a portable device based on an accelerometer
JP2002175538A (ja) * 2000-12-08 2002-06-21 Mitsubishi Electric Corp 似顔絵生成装置及び似顔絵生成方法及び似顔絵生成プログラムを記録した記録媒体及び通信用端末及び通信用端末による通信方法
US7487214B2 (en) * 2004-11-10 2009-02-03 Microsoft Corporation Integrated electronic mail and instant messaging application
JP2006174195A (ja) 2004-12-17 2006-06-29 Hitachi Ltd 映像サービスシステム
US7633076B2 (en) * 2005-09-30 2009-12-15 Apple Inc. Automated response to and sensing of user activity in portable devices
WO2008072374A1 (ja) * 2006-12-11 2008-06-19 Nikon Corporation 電子カメラ
DE102007033391A1 (de) * 2007-07-18 2009-01-22 Robert Bosch Gmbh Informationsvorrichtung, Verfahren zur Information und/oder Navigation von einer Person sowie Computerprogramm
JP5012247B2 (ja) 2007-06-21 2012-08-29 ソニー株式会社 認証装置、入場管理装置、入退場管理装置、入場管理システム、入退場管理システム、認証処理方法およびプログラム
US8086071B2 (en) * 2007-10-30 2011-12-27 Navteq North America, Llc System and method for revealing occluded objects in an image dataset
KR101446772B1 (ko) * 2008-02-04 2014-10-01 삼성전자주식회사 디지털 영상 처리 장치 및 그 제어 방법
US7952596B2 (en) * 2008-02-11 2011-05-31 Sony Ericsson Mobile Communications Ab Electronic devices that pan/zoom displayed sub-area within video frames in response to movement therein
KR101016556B1 (ko) * 2010-05-06 2011-02-24 전성일 증강 현실을 이용하여 인물의 정보에 접근하기 위한 방법, 서버 및 컴퓨터 판독 가능한 기록 매체
KR101687613B1 (ko) * 2010-06-21 2016-12-20 엘지전자 주식회사 이동 단말기 및 이것의 그룹 생성 방법
US8326001B2 (en) * 2010-06-29 2012-12-04 Apple Inc. Low threshold face recognition
KR101347518B1 (ko) * 2010-08-12 2014-01-07 주식회사 팬택 필터의 선택이 가능한 증강 현실 사용자 장치 및 방법, 그리고, 증강 현실 서버
JP2012058838A (ja) * 2010-09-06 2012-03-22 Sony Corp 画像処理装置、プログラム及び画像処理方法
US8315674B2 (en) * 2010-10-08 2012-11-20 Research In Motion Limited System and method for displaying object location in augmented reality
US8994499B2 (en) * 2011-03-16 2015-03-31 Apple Inc. Locking and unlocking a mobile device using facial recognition
US9111130B2 (en) * 2011-07-08 2015-08-18 Microsoft Technology Licensing, Llc Facilitating face detection with user input
US8560004B1 (en) * 2012-08-31 2013-10-15 Google Inc. Sensor-based activation of an input device
US9408076B2 (en) * 2014-05-14 2016-08-02 The Regents Of The University Of California Sensor-assisted biometric authentication for smartphones

Also Published As

Publication number Publication date
WO2013145900A1 (ja) 2013-10-03
US9836644B2 (en) 2017-12-05
JP6064995B2 (ja) 2017-01-25
JPWO2013145900A1 (ja) 2015-12-10
EP2833627A4 (en) 2015-11-11
IN2014DN07843A (zh) 2015-04-24
EP2833627A1 (en) 2015-02-04
US20150049909A1 (en) 2015-02-19
BR112014023249A8 (pt) 2017-07-25
BR112014023249A2 (zh) 2017-06-20

Similar Documents

Publication Publication Date Title
US9661214B2 (en) Depth determination using camera focus
US9922431B2 (en) Providing overlays based on text in a live camera view
EP3084683B1 (en) Distributing processing for imaging processing
US9916514B2 (en) Text recognition driven functionality
US9342930B1 (en) Information aggregation for recognized locations
EP2864932B1 (en) Fingertip location for gesture input
EP2444918B1 (en) Apparatus and method for providing augmented reality user interface
US9094670B1 (en) Model generation and database
US10147399B1 (en) Adaptive fiducials for image match recognition and tracking
US9691000B1 (en) Orientation-assisted object recognition
US9536161B1 (en) Visual and audio recognition for scene change events
KR20140114832A (ko) 사용자 인식 방법 및 장치
US9400575B1 (en) Finger detection for element selection
US9262689B1 (en) Optimizing pre-processing times for faster response
CN104205013A (zh) 信息处理装置、信息处理方法以及程序
CN104205799A (zh) 信息处理装置、信息处理方法及程序
EP3239814B1 (en) Information processing device, information processing method and program
US9911237B1 (en) Image processing techniques for self-captured images
KR20140103021A (ko) 객체 인식이 가능한 전자 장치
US9690384B1 (en) Fingertip location determinations for gesture input

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20141210