CN104205013A - 信息处理装置、信息处理方法以及程序 - Google Patents
信息处理装置、信息处理方法以及程序 Download PDFInfo
- Publication number
- CN104205013A CN104205013A CN201380015453.5A CN201380015453A CN104205013A CN 104205013 A CN104205013 A CN 104205013A CN 201380015453 A CN201380015453 A CN 201380015453A CN 104205013 A CN104205013 A CN 104205013A
- Authority
- CN
- China
- Prior art keywords
- user
- unit
- portable terminal
- photographic images
- signal conditioning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 8
- 238000003672 processing method Methods 0.000 title claims description 6
- 230000003750 conditioning effect Effects 0.000 claims description 89
- 238000003384 imaging method Methods 0.000 claims description 50
- 238000005516 engineering process Methods 0.000 claims description 29
- 238000000605 extraction Methods 0.000 claims description 15
- 238000007689 inspection Methods 0.000 claims description 8
- 230000001815 facial effect Effects 0.000 claims description 6
- 239000000284 extract Substances 0.000 claims description 4
- 239000000203 mixture Substances 0.000 description 96
- 238000010586 diagram Methods 0.000 description 47
- 238000000034 method Methods 0.000 description 29
- 230000000007 visual effect Effects 0.000 description 10
- 238000004590 computer program Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000000151 deposition Methods 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/167—Detection; Localisation; Normalisation using comparisons between temporally consecutive images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/60—Static or dynamic means for assisting the user to position a body part for biometric acquisition
- G06V40/67—Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/029—Location-based management or tracking services
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/52—Details of telephonic subscriber devices including functional features of a camera
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Studio Devices (AREA)
- Collating Specific Patterns (AREA)
- Stored Programmes (AREA)
- Telephone Function (AREA)
Abstract
[问题]为了容易地从拍摄图像中识别用户。[解决方案]提供了一种信息处理装置,配置有:图像获取单元,用于获取拍摄图像;参数获取单元,用于获取与移动终端用户相关联的参数;识别单元,用于基于该参数从拍摄图像中识别用户;以及显示控制单元,其以如下方式执行控制:在用户未被识别单元识别的情况下,将表示识别用户所需的用户行为的信息显示在移动终端上。
Description
技术领域
本发明涉及信息处理装置、信息处理方法以及程序。
背景技术
近年来,已开发了用于指定在所拍摄的图像中示出的人的技术。例如,公开了这样的技术,其中,相对于预先准备的面部图像来检查所拍摄图像中示出的面部区域并且基于检查结果来指定所拍摄的图像中示出的人(例如,参见专利文献1)。根据该技术,在对人的指定成功的情况下打开/关闭房门,因此,能够实现增强的安全性。
用于指定在所拍摄的图像中示出的人的技术不仅应用于增强安全性,而且还应用于各种场景。
引用列表
专利文件
专利文献1:JP2009-3659A
发明内容
技术问题
然而,在试图从拍摄图像中指定用户的情况中,不一定能成功地指定用户。例如,假设用户可能没有面对成像装置的情形。在这种情况下,在拍摄图像中没有示出用户的特征部分,因此,对用户的指定会失败。因此,期望实现一种从拍摄图像中容易地指定用户的技术。
问题的解决方案
根据本公开,提供了一种信息处理装置,包括:图像获取单元,其配置成获取拍摄图像;参数获取单元,其配置成获取与便携式终端的用户相关联的参数;指定单元,其配置成基于该参数从拍摄图像中指定用户;以及显示控制单元,其配置成以如下方式执行控制:在用户未被指定单元指定的情况下,将表示指定用户所需的用户移动的信息显示在便携式终端中。
根据本公开,提供了一种信息处理方法,包括:获取拍摄图像;获取与便携式终端的用户相关联的参数;基于所述参数从拍摄图像中示出的一个或更多个主体中指定用户;以及以如下方式执行控制:在用户未被指定的情况下,将表示指定用户所需的用户移动的信息显示在便携式终端中。
根据本公开,提供了一种使计算机用作信息处理装置的程序,包括:图像获取单元,其配置成获取拍摄图像;参数获取单元,其配置成获取与便携式终端的用户相关联的参数;指定单元,其配置成基于该参数从拍摄图像中示出的一个或更多个主体中指定用户;以及显示控制单元,其配置成以如下方式执行控制:在用户未被指定单元指定的情况下,将表示指定用户所需的用户移动的信息显示在便携式终端中。
发明的有益效果
根据上述本公开,能够从拍摄图像中容易地指定用户。
附图说明
图1是例示根据本实施例的简要概述的示图。
图2是例示根据本实施例的信息处理系统的配置的示图。
图3是例示根据实施例的信息处理装置的功能配置的示图。
图4是例示信息处理装置的用户指定功能的简要概述的示图。
图5是例示当用户指定失败时便携式终端的显示示例的示图。
图6是例示当用户指定成功时便携式终端的显示示例的示图。
图7是例示当用户指定失败时便携式终端的显示示例的示图。
图8是例示当用户指定失败时便携式终端的显示示例的示图。
图9是例示当用户指定失败时便携式终端的显示示例的示图。
图10是例示信息处理装置的构图决定功能的简要概述的示图。
图11是例示在设定第一模式时的显示图像的示图。
图12是例示在设定第二模式时的显示图像的示图。
图13是例示确定显示图像的技术的变化的示图。
图14是例示所确定的显示图像的示例的示图。
图15是例示信息处理装置的构图决定操作的流程的流程图。
图16是例示信息处理装置的描绘改变功能的示例的示图。
图17是例示信息处理装置的描绘改变功能的另一示例的示图。
图18是例示信息处理装置的描绘改变功能的再一示例的示图。
图19是例示信息处理装置的描绘改变功能的又一示例的示图。
图20是例示信息处理装置的描绘改变功能的又一示例的示图。
图21是例示信息处理装置的描绘改变功能的又一示例的示图。
图22是例示信息处理装置的描绘改变功能的又一示例的示图。
图23是例示信息处理装置的描绘改变操作的流程的流程图。
具体实施方式
下文中将参考附图详细描述本公开的优选实施例。注意,在本说明书和附图中,具有实质上相同的功能和结构的结构元件用相同的附图标记来表示,并且将省略对这些结构元件的重复的描述。
此外,在本说明书和附图中,在某些情况下,具有实质上相同的功能的多个结构元件中的每一个通过对相同的附图标记附加不同的字母来区分。然而,当没有必要区分具有实质上相同的功能的结构元件时,这些结构元件通过相同的附图标记来表示。
首先,将按照下列顺序来描述“具体实施方式”。
1.用户指定功能
2.构图决定功能
3.描绘改变功能
4.结论
根据本实施例的信息处理装置的功能大致分为用户指定功能、构图指定功能以及描绘改变功能。首先,在描述每个功能之前,将描述作为每个功能的前提的条件。
图1是例示本实施例的简要概述的视图。如图1中所示,具有便携式终端20的用户U出现在真实空间中。用户U可出现在真实空间中的任何地方。另外,显示图像的功能安装在便携式终端20中,用户U可观看通过便携式终端20显示的屏幕。由设置成与便携式终端20分离的成像装置30来拍摄用户U的图像。不特别限制设置成像装置30的位置。例如,成像装置可设置在建筑中,例如在监视摄像机中,或者可以设置在移动对象中,例如在汽车中。另外,不特别限制成像装置30的种类,但可以是例如红外摄像机等。
图2例示了根据本实施例的信息处理系统的配置的示图。如图2中所示,信息处理系统1包括信息处理装置10、便携式终端20以及成像装置30。尽管图2中信息处理装置10和便携式终端20经由网络40连接,但连接至网络40的便携式终端20的数量可以不是一个。例如,可存在多个便携式终端20,并且每个便携式终端20可以连接至网络40。
另外,如图2中所示,信息处理装置10连接至成像装置30。尽管在图2中示出的示例中一个成像装置30被连接至信息处理装置10,但成像装置30的数量可以不是一个。例如,可存在多个成像装置30,每个成像装置30可以连接至信息处理装置10。
另外,尽管在图2中示出的示例中信息处理装置10配置成与便携式终端20和成像装置30分离,但信息处理装置可以嵌入在便携式终端20中,或者可以嵌入在成像装置30中。由成像装置30拍摄的拍摄图像经由信息处理装置10被提供至便携式终端20,便携式终端20可显示该拍摄图像。信息处理装置10可使用从成像装置30提供的拍摄图像来执行用户指定功能、构图决定功能以及描绘改变功能。
图3是根据本实施例的信息处理装置10的功能配置的块图。如图3中所示,信息处理装置10包括处理控制单元100、显示控制单元160以及存储单元50。另外,处理控制单元100具有图像获取单元111、参数获取单元112、候选提取单元113、指定单元114、以及认证单元115。图像获取单元111、参数获取单元112、候选提取单元113、指定单元114、以及认证单元115是主要与信息处理装置10的用户指定功能相关联的块。
另外,处理控制单元100具有识别单元121、条件决定单元122、信息添加单元123、模式设定单元124、构图决定单元125以及图像确定单元126。处理控制单元100是主要与信息处理装置10的构图决定功能相关联的块,进而识别单元121、条件决定单元122、信息添加单元123、模式设定单元124、构图决定单元125以及图像确定单元126是主要与信息处理装置10的构图决定功能相关联的块。
另外,处理控制单元100具有改变检测单元131和描绘改变单元132。改变检测单元131和描绘改变单元132是主要与信息处理装置10的描绘改变功能相关联的块。
处理控制单元100和显示控制单元160对应于诸如CPU(中央处理器,Central Processing Unit)或DSP(数字信号处理器,Digital SignalProcessor)等处理器。处理控制单元100和显示控制单元160通过执行在存储单元50或其他存储介质中所存储的程序来执行处理控制单元100和显示控制单元160的各种功能。
存储单元50使用存储介质(例如半导体存储器或硬盘)来存储待由处理控制单元100和显示控制单元160执行的处理的程序和数据。例如,存储单元50存储用于识别对象的特征量词典(feature amountdictionary)。此外,存储单元50可存储作为对象识别的结果产生的识别结果。尽管在图3中例示的示例中存储单元50配置成嵌入在信息处理装置10中,但存储单元50可配置成与该信息处理装置10分离。
已描述了相应功能的前提。下文中,将按顺序描述每个功能。
<1.用户指定功能>
首先,将描述信息处理装置10的用户指定功能。图4是例示信息处理装置10的用户指定功能的简要概述的示图。图像获取单元111首先获取由成像装置30拍摄的拍摄图像。在图4中例示的示例中,作为拍摄图像的示例,由图像获取单元111来获取拍摄图像Img,在该拍摄图像Img中图1中所示的真实空间被拍摄。对图像获取单元111获取的拍摄图像进行控制以通过显示控制单元160显示在便携式终端20上。
根据用户指定功能,根据图像获取单元111获取的拍摄图像中示出的对象来指定用户。不特别限制用户指定的目的。然而,本文中,假设通过信息处理装置10来提供网络服务,并且执行用户指定以允许用户U经由便携式终端20登录进网络服务。
另外,不特别限制网络服务的种类。然而,本文中假设了允许用户利用完成了对网络服务的登录的便携式终端写入或读取由该用户或其他用户写入的消息的服务。尽管不特别限制指定用户的定时,但可以使用在便携式终端20上执行用户请求用户指定的操作的定时。请求用户指定的操作可以是请求登录进网络服务的操作。
为了根据在拍摄图像中示出的主体来指定用户,参数获取单元112获取与要被指定的用户相关联的参数。尽管不特别限制参数获取单元112获取参数的定时,但例如可预先从用户的便携式终端20获取参数,或者可以在指定用户时从便携式终端20获取该参数。
不特别限制参数获取单元112要获取的参数的种类。例如,如图4中所示,参数获取单元112可获取用户的面部图像作为参数P1,并且可获取表示用户的移动的传感器数据作为参数P2。不特别限制拍摄用户的面部图像的装置。例如,用户的面部图像可以是便携式终端20所拍摄的面部图像,或者可以是其他装置所拍摄的面部图像。
另外,不特别限制检测用户的移动的传感器。检测用户的移动的传感器可以是加速度传感器、接收GPS信号的传感器以及接收从Wi-Fi基站发送的无线电波的传感器。另外,检测用户的移动的传感器可以嵌入在便携式终端20中,并且可以安装在用户的身体上。
在用户被指定单元114指定之前,候选提取单元113会指定用户的候选(步骤S11)。例如,当通过输入至便携式终端20的用户操作(例如,对触摸面板的触摸操作)指定了在便携式终端20中显示的拍摄图像上的坐标时,参数获取单元112获取该坐标,并且候选提取单元113可将经由坐标而选择的主体(例如,出现在坐标上的主体)指定为用户的候选。通过指定用户的候选,来减少指定用户所必需的工作量。
指定单元114基于参数获取单元112所获取的参数尝试从拍摄图像中指定用户(步骤S12)。例如,当用户的面部图像被参数获取单元112获取作为参数P1时,指定单元114可将基于如下检查而提取的主体指定为用户:即,相对于面部图像对图像获取单元111获取的拍摄图像中所示出的主体的面部区域进行检查。例如,指定单元114可将具有用户的面部图像和具有相似度超过阈值的面部区域的主体指定为用户。
另外,例如,当表示用户的移动的传感器数据作为参数P2被参数获取单元112获取时,指定单元114可将以下主体指定为用户:该主体基于相对于传感器数据对从图像获取单元111获取的拍摄图像中检测到的主体的移动进行检查来提取。例如,指定单元114可以将以下主体指定为用户:在该主体中检测到拍摄图像中的用户移动和相似度超过阈值的传感器数据。另外,当指定了用户的候选时,指定单元114可基于来自用户的候选的参数来指定用户。
作为指定单元114尝试指定用户的结果,还假定用户未被指定。例如,相似度没有超过对应于上面假定的情形的阈值的情况。因此,当用户未被指定单元114指定时,显示控制单元160控制便携式终端20以在便携式终端20中显示表示指定用户所需的用户移动的信息。根据显示控制单元160的控制,在便携式终端20中显示表示用户移动的信息(步骤S13)。
图5是例示当用户指定失败时便携式终端20的显示示例的示图。例如,当用户未被指定单元114指定时,显示控制单元160可控制便携式终端20,使得在便携式终端20中显示提示用户将用户的面部转向成像装置的信息。在图5中,示出了这样的示例,其中假设成像装置30是监视摄像机并且显示控制单元160控制便携式终端20使得在便携式终端20中显示表示“请将您的面部转向监视摄像机”的消息M1。
将回来参考图4进行描述。当指定单元114指定了用户时,在流程前进至步骤S15之前,认证单元115可对指定单元114指定的便携式终端20执行认证处理(步骤S14)。具体地,例如,如图4中所示,当通过输入至便携式终端20的用户操作来输入口令时,认证单元115可通过确定输入口令是否与预先寄存的口令匹配来确定成功或失败。当认证成功时,流程前进至步骤S15。当认证失败时,可再次执行认证处理,而不是前进至步骤S15。
当流程前进至步骤S15时,例如,登录进网络服务完成(步骤S15),并且显示控制单元160控制便携式终端20,使得通过便携式终端20显示拍摄图像和添加信息。根据显示控制单元160的控制,在便携式终端20中显示拍摄图像和添加信息(步骤S16)。尽管不特别限制添加信息,例如,添加信息可以是用户自己或其他用户所写入的消息。
图6是例示当用户指定成功时便携式终端20的显示示例的示图。例如,当指定单元114指定了用户时,显示控制单元160控制便携式终端20,以便显示拍摄图像和添加信息。图6中示出了这样的示例,其中,显示控制单元160控制便携式终端20,使得另一用户所写入的消息作为添加信息被显示。
另外,提示用户将其面部转向成像装置的信息不限于图5中示出的示例。图7是例示当用户指定失败时便携式终端20的显示示例的示图。显示控制单元160可控制便携式终端20,以便基于候选提取单元113所提取的用户的候选的位置和预先设定的成像装置30的位置在便携式终端20中显示表示指定用户所需的用户移动的信息。
例如,如图7中所示,显示控制单元160可以控制便携式终端20,使得便携式终端20利用用户候选的位置作为参考来显示在用户候选所面对的方向上的直线和在成像装置30存在的方向上的直线。另外,如图7中所示,显示控制单元160可控制便携式终端20,使得表示从在用户候选所面对的方向上的直线到在成像装置30存在的方向上的直线的旋转方向的箭头显示在便携式终端20中。另外,如图7中所示,显示控制单元160可控制便携式终端20,使得在便携式终端20中显示消息M2“向左转”作为用户已看到的表示旋转方向的消息。
另外,当用户未被指定单元114指定时,可以切换指定用户的技术。图8是例示当用户指定失败时便携式终端20的显示示例的示图。当用户未被指定单元114指定时,显示控制单元160可以控制便携式终端20,使得在便携式终端20中显示表示通过另一技术来指定用户的信息。例如,显示控制单元160可控制便携式终端20,使得在便携式终端20中显示消息M3“切换了指定用户的技术”作为表示通过另一技术来指定用户的信息。指定单元114可将由另一指定技术所提取的主体指定为用户。
例如,指定单元114尝试将基于以下检查而提取的主体指定为用户:即,相对于用户的面部图像,对拍摄图像中所示的主体的面部区域来进行检查。在这种情况下,当用户未被指定时,指定单元114会尝试将基于以下检查而提取的主体指定为用户:即,相对于传感器数据,对通过拍摄图像所检测的主体的移动进行检查。另外,可以以相反顺序来尝试用户指定。
另外,当用户未被指定单元114指定时,可提示用户:使拍摄图像中所示的另一主体的移动与用户的移动之间的差异明显。因此,当从拍摄图像中检测到移出所限定的正常范围的主体时,指定单元114可将该主体指定为用户。
图9是例示当用户指定失败时便携式终端20的显示示例的示图。例如,当用户未被指定单元114指定时,显示控制单元160可控制便携式终端20,使得在便携式终端20中显示提示用户移动便携式终端20的信息作为表示指定用户所需的用户移动的信息。例如,如图9中所示,显示控制单元160可控制便携式终端20,使得在便携式终端20中显示消息M4“请移动你的便携式终端”作为提示用户移动便携式终端20的信息。
如上所述,根据信息处理装置10的用户指定功能,基于与便携式终端的用户相关联的参数来尝试从拍摄图像中指定用户,并且显示控制单元160控制便携式终端20,使得当用户未被指定时在便携式终端20中显示表示指定用户所需的用户移动的信息。因此,预期能够根据拍摄图像容易地指定用户。
<2.构图决定功能>
接下来,将描述信息处理装置10的构图决定功能。图10是例示信息处理装置10的构图决定功能的简要概述的示图。如上面所描述的,当成像装置30拍摄了拍摄图像时,在用户的便携式终端20上显示拍摄图像。用户可观看到在便携式终端20中显示的拍摄图像。本文中假设用户在观看拍摄图像的同时向目的地移动的情形。将描述关于将优选构图作为用户所看到的拍摄图像的决定。
首先,假设表示用户的目的地的信息。表示用户的目的地的信息可通过输入至便携式终端20的用户操作来输入,并且可以通过便携式终端20所运行的应用来设定。例如,表示用户的目的地的信息描绘在真实空间中的位置处。信息处理装置10获取表示用户的目的地的信息。构图决定单元125基于表示用户的目的地的信息和根据图像获取单元111获取的拍摄图像的用户识别结果来决定构图。构图是示出对象在图像中的理想位置(或对象的理想方向)的示图。
对用户的识别结果至少包括在真实空间中的用户位置和用户的行进方向。例如,通过识别单元121来获取对用户的识别结果。换言之,识别单元121通过基于拍摄图像而识别用户来获得识别结果。在图10中示出的示例中,在真实空间中的用户位置表示为Pu,用户的行进方向表示为V1,利用用户位置Pu作为参考的用户目的地方向表示为V2。
例如,当用户位置被识别为识别结果时,构图决定单元125可基于利用用户位置作为参考的用户目的地方向来决定构图。例如,在图10中所示的示例中,构图决定单元125可基于利用用户位置Pu作为参考的用户目的地方向V2来决定构图,例如,当基于V2来决定构图时,构图决定单元125可将以下图像决定为构图:在该图像中包括了在利用用户位置Pu作为参考的方向V2上的区域,该区域比在与利用用户位置Pu作为参考的方向V2相反的方向上的区域更大。如上面所决定的构图的示例在图10中作为K2示出。点C2表示构图K2的中间点。
另外,例如,当用户的行进方向被识别为识别结果时,构图决定单元125可基于用户的行进方向来决定构图。例如,在图10中示出的示例中,构图决定单元125可基于用户的行进方向V1来决定构图。例如,当基于V1来决定构图时,构图决定单元125可将以下图像决定为构图:该图像中包括了在利用用户位置Pu作为参考的方向V1上的区域,该区域比在与利用用户位置Pu作为参考的方向V1相反的方向上的区域更大。
构图决定单元125可一律基于用户的行进方向V1来决定构图,可一律基于利用用户位置Pu作为参考的用户目的地方向V2来决定构图,或者可选择地使用上述任意一种决定技术。换言之,当基于用户的行进方向V1来决定构图的模式是第一模式并且基于利用用户位置Pu作为参考的用户目的地方向V2来决定构图的模式是第二模式时,模式设定单元124可设定这两种模式中的任意一种模式。在这种情况下,构图决定单元125可根据模式设定单元124设定的模式来决定构图。模式可基于输入至便携式终端20的用户操作来设定,或者可以通过便携式终端20所运行的应用来设定。
图像确定单元126基于构图决定单元125所决定的构图来确定显示图像。例如,图像确定单元126可将符合构图决定单元125所决定的构图的图像确定为显示图像,或者可将可选范围内与构图决定单元125所决定的构图最接近的图像确定为显示图像。显示控制单元160控制便携式终端20,使得图像确定单元126所确定的图像显示在便携式终端20上。
图11是例示在设定第一模式时的显示图像的示图。例如,当获取了如图10中所示的拍摄图像Img并且通过模式设定单元124设定第一模式时,基于用户的行进方向V1来决定构图K1。在这种情况下,例如,如图11所示,图像确定单元126可将与构图K1吻合的图像确定为显示图像D1。另外,构图决定单元125可决定用户出现在中间的构图。如图11中所示,可决定用户出现在与中间间隔预定距离d1的位置处的构图。
另外,可以决定当前拍摄条件。换言之,条件决定单元122可决定拍摄用户的条件是否准备好,并且当条件决定单元122决定出条件没准备好时信息添加单元123可将表示条件没准备好的信息添加至显示图像。例如,当条件决定单元122决定了能够被拍摄的区域时,信息添加单元123可将表示能够被拍摄的区域的边界的对象添加至显示图像。
另外,当条件决定单元122决定了在利用用户位置Pu作为参考的用户行进方向V1上能够被拍摄的区域的边界时,信息添加单元123可将表示能够被拍摄的区域的边界的对象添加至显示图像。由于在图11中已决定了在利用用户位置Pu作为参考的用户行进方向V1上能够被拍摄的区域的边界,所以将表示能够被拍摄的区域的边界的对象作为A1添加至显示图像D1。替代地,当条件决定单元122决定出用户位置Pu与能够被拍摄的区域的边界之间的距离短于阈值时,信息添加单元123可将表示能够被拍摄的区域的边界的对象添加至显示图像。
另外,当条件决定单元122决定出拍摄图像的亮度小于阈值,则信息添加单元123可将表示拍摄条件劣化的对象添加至显示图像。尽管通过这样的过程可提示用户改变行进方向,但提供至用户的信息不限于所添加的对象。例如,信息添加单元123可控制便携式终端20以进行振动,并且可控制便携式终端20以产生报警音。
图12是例示在设定第二模式时的显示图像的示图。例如,当获取了如图10中所示的拍摄图像Img并且模式设定单元124设定了第二模式时,基于利用用户位置Pu作为参考的用户目的地方向V2来决定构图K2。在这种情况下,例如,如图12中所示,图像确定单元126可确定符合构图K2的图像作为显示图像D2。另外,尽管构图决定单元125决定了用户出现在中间的构图,但构图决定单元可决定如图12中所示的用户出现在与中间间隔预定距离d2的位置处的构图。
迄今为止,图像确定单元126已使用了通过基于构图决定单元125所决定的构图而剪切掉成像装置30拍摄的拍摄图像的一部分来确定显示图像的技术。当成像装置30是一个固定摄像机时,仅采用上述技术。然而,当成像装置30是方向可调摄像机或视角可调摄像机时,或者当提供了多个成像装置30时,可以采用其他技术。
在这种情况下,固定摄像机意味着拍摄方向和视角不可调的摄像机。方向可调摄像机意味着可移动摄像机,并且可以是具有全景功能(panfunction)的摄像机或具有倾斜功能的摄像机。视角可调摄像机意味着能够改变视角的摄像机。图13是例示确定显示图像的技术的变化的示图。如图13所示,当拍摄摄像机30是固定摄像机时,图像确定单元126采用将从拍摄图像选择的区域确定为显示图像的技术。
另外,如图13中所示,当成像装置30是方向可调摄像机时,图像确定单元126确定提供拍摄图像的成像装置30的拍摄方向,并且将在所确定的拍摄方向上拍摄的拍摄图像确定为显示图像。例如,图像确定单元126基于构图决定单元125决定的构图来确定成像装置30的拍摄方向。特别地,图像确定单元126可将能够拍摄与构图决定单元125所决定的构图最接近的图像的方向确定为成像装置30的拍摄方向。
另外,如图13所示,当成像装置30是视角可调摄像机时,图形确定单元126确定出提供拍摄图像的成像装置30的视角,并且将在所确定的视角处拍摄的拍摄图像确定为显示图像。例如,图像确定单元126基于构图决定单元125所决定的构图来确定成像装置30的视角。特别地,图像确定单元126可将能够拍摄与构图决定单元125所决定的构图最接近的图像的视角确定为成像装置30的视角。
另外,如图13中所示,当图像获取单元111获取从各个成像装置30提供的拍摄图像时,图像确定单元126将从由各个成像装置30提供的拍摄图像中选择的拍摄图像确定为显示图像。例如,图像确定单元126基于构图决定单元125所决定的构图来将从由各个成像装置30提供的拍摄图像中选择的拍摄图像确定为显示图像。特别地,图像确定单元126可从由各个成像装置30提供的拍摄图像中选择与构图决定单元125所决定的构图最接近的拍摄图像,并且可将选择的拍摄图像确定为显示图像。
另外,在上述示例中,与构图决定单元125所决定的构图最接近的图像用作显示图像。然而,当仅获取了具有超出图像与构图之间的阈值的差异的图像时,不能确定显示图像。在这种情况下,还假定图像确定单元126难以基于构图决定单元125所决定的构图来确定显示图像。因此,在这种情况下,图像确定单元126可基于除构图之外的检测数据来确定显示图像。
不特别限制检测数据。例如,图像确定单元126可将在与指定单元114基于传感器数据所指定的用户位置最接近的位置处拍摄的图像确定为显示图像。另外,图像确定单元126可将图像中所示人数最少的图像确定为显示图像,或者可将图像中所示的人密度最小的图像确定为显示图像。此外,图像确定单元126可将拍摄了最大范围的图像确定为显示图像,或者可将最频繁使用的拍摄图像确定为显示图像。
另外,当成像装置30不存在等时,还假定拍摄图像不是由图像获取单元111获取。在这种情况下,图像确定单元126可根据表示用户目的地的信息和基于拍摄图像以外的数据所检测的用户位置来确定图像。
例如,当基于接收GPS信号的传感器所接收的信号来获取用户的位置信息时,图像确定单元126可使用位置信息和表示用户的目的地的信息来从网页等搜索图像。图像可以是绘制的地图,或者可以是拍摄的照片。另外,当通过搜索获取多个图像时,图像确定单元126可将通过合成多个图像而产生的新图像确定为显示图像。
图14是例示所确定的显示图像的示例的示图。如图14中所示,显示控制单元160可将表示从作为参考的用户位置Pu到用户的目的地的距离的对象Obj1,表示到达目的地的估计时间和距目的地的距离的对象Obj2等添加至显示图像D2。
另外,如图14中所示,显示控制单元160可将表示方位的对象Obj3、表示利用用户位置Pu作为参考的用户目的地方向的对象Obj4等添加至显示图像D2。另外,如图14中所示,显示控制单元160可将表示利用用户位置Pu作为参考的用户目的地方向的对象Obj5添加至用户位置Pu,并且可将表示用户位置Pu的对象Obj6添加至显示图像D2中的用户位置。
接下来,将描述信息处理装置10的构图决定操作的流程。图15是例示信息处理装置10的构图决定操作的流程的流程图。如图15中所示,当图像获取单元111没有获取拍摄图像时(在步骤S21中的“否”),识别单元121根据除拍摄图像之外的数据来识别用户(步骤S22),并且流程前进至步骤S26。
另一方面,当图像获取单元111获取了拍摄图像时(步骤S21中的“是”),识别单元121根据拍摄图像来识别用户(步骤S23),并且条件决定单元122决定是否准备好拍摄的条件(步骤S24)。当条件决定单元122决定出准备好了拍摄条件时(步骤S24中的“是”),流程前进至步骤S26。另一方面,当条件决定单元122决定出没有准备好拍摄条件时(步骤S24中的“否”),信息添加单元123将表示条件没准备好的信息添加至拍摄图像(步骤S25),并且流程前进至步骤S26。
当流程前进至步骤S26,模式设定单元124可设定第一模式和第二模式中的任意一种(步骤S26),并且构图决定单元125基于识别单元121的识别结果根据模式设定单元124所设定的模式来决定构图(步骤S27)。然后图像决定单元126尝试基于构图决定单元125决定的构图来确定显示图像(步骤S28)。
在这种情况下,当图像确定单元126确定了显示图像时(步骤S29中的“是”),流程前进至步骤S31。另一方面,当图像确定单元126没有确定显示图像时(步骤S29中的“否”),图像确定单元126基于除构图之外的检测数据来确定显示图像(步骤S30),并且流程前进至步骤S31。显示控制单元160控制便携式终端20,使得图像确定单元126所确定的显示图像被显示在便携式终端20上(步骤S31),并且流程结束。
如上所述,根据信息处理装置10的构图决定功能,基于表示用户的目的地的信息和根据拍摄图像的用户的识别结果来确定构图。另外,基于所确定的构图来确定显示图像。根据这种控制,可期望针对用户确定具有更高便利性的显示图像。
<3.描绘改变功能>
接下来,将描述信息处理装置10的描绘改变功能。如上所述,假定,当用户U经由便携式终端20登录进网络服务时,信息处理装置10提供网络服务并且网络服务被提供至便携式终端20。
不限于用户U登录进网络服务,可由另一用户来执行登录进网络服务。换言之,有可能是拍摄图像中所示的人(下文中,也称为主体)享受网络服务。下文中,将描述容易地发现在拍摄图像中所示的、在网络服务中的主体的状态上的变化的功能。另外,识别单元121可使用与由用户来指定的技术相同的技术来识别在拍摄图像中所示的主体。
改变检测单元131检测从由图像获取单元111获取的拍摄图像识别出的、在网络服务中的主体的状态上的改变。不特别限制在网络服务中的状态。例如,该状态可以是表示主体的便携式终端是否登录进网络服务的信息。换言之,当改变检测单元131检测到主体的便携式终端已登录进网络服务中时,描绘改变单元132可改变拍摄图像中所示的主体的描绘。
另外,在网络服务中的状态可以是表示是否在登录进网络服务的同时执行指定处理的信息。换言之,当改变检测单元131检测出在网络服务中的主体的便携式终端的移动满足预定条件时,描绘改变单元132可改变在拍摄图像中所示的主体的描绘。例如,不特别限制预定的条件。例如,预定的条件可以是消息被写入的条件,可以是在预定时间内写入消息的条件。
当通过改变检测单元131来检测状态上的改变时,描绘改变单元132改变在拍摄图像中所示的主体的描绘。描绘改变单元132可以以任何方式算出(figure out)在拍摄图像中示出的主体的区域。例如,当未示出主体的拍摄图像与示出了主体的拍摄图像之间存在差异时,可找到二者之间的差异区域作为主体的区域。另外,不特别限制对主体的描绘进行改变的方法。
此外,当指定单元114指定了用户时,描绘改变单元132可通过突出拍摄图像中示出的用户来改变用户的描绘。另外,不特别限制突出用户的方法。显示控制单元160控制便携式终端20,使得可通过使描绘改变单元132改变描绘而获得显示图像显示在便携式终端20上。
将参考附图来描述突出用户的技术。图16是例示信息处理装置10的描绘改变功能的示例的示图。如图16中所示,描绘改变单元132可通过降低拍摄图像中除用户U以外的主体的清晰度来突出用户U。
图17是例示信息处理装置10的描绘改变功能的另一示例的示图。如图17中所示,描绘改变单元132可通过突出在拍摄图像中的用户U的轮廓线L1来突出用户U。例如,可通过在拍摄图像中使用户U的轮廓线L1加粗来突出用户U。
图18是例示信息处理装置10的描绘改变功能的再一示例的示图。如图18中所示,描绘改变单元132可通过改变在拍摄图像中除用户U以外的主体的像素值来突出用户U。例如,可通过降低在拍摄图像中除用户U以外的主体的亮度来突出用户U。
图19是例示信息处理装置10的描绘改变功能的又一示例的示图。如图19中所示,描绘改变单元132可突出用户U,使得用户U被放大并且被显示在拍摄图像中。另外,如图19中所示,描绘改变单元132在执行了放大显示之后可缩小并且显示用户U。
图20是例示信息处理装置10的描绘改变功能的又一示例的示图。描绘改变单元132可通过在拍摄图像中在用户的位置处或在用户附近的位置处显示对象来突出用户。可预先定义用户周围的范围。在图20中所示的示例中,描绘改变单元132通过在拍摄图像中将对象Obj8和Obj9添加至用户周围的位置来突出用户U。
另外,突出用户U的程度可以是恒定不变的,或者可以根据情况而改变。例如,描绘改变单元132可根据在拍摄图像中的用户的尺寸来改变突出用户的程度。图21是例示信息处理装置10的描绘改变功能的又一示例的示图。例如,描绘改变单元132可以按照与用户在拍摄图像中的尺寸降低的程度相同的程度来增加突出用户的程度。
在图21中所示的示例中,随着用户U的位置远离成像装置30,用户U在拍摄图像中的尺寸更小。因此,描绘改变单元132通过使尺寸小的用户U的轮廓线L0稍粗于尺寸大的用户U的轮廓线L1来增加突出尺寸小的用户U的程度。以此方式,通过按照与用户在拍摄图像中的尺寸降低的程度相同的程度来增加突出用户的程度,能够在拍摄图像中更容易地发现用户。
另外,用户U在拍摄图像中可能隐藏在其他对象之后。例如,当在拍摄图像中用户的一部分或整个用户通过其他对象隐藏和示出时,则描绘改变单元132可改变突出用户的技术。图22是例示信息处理装置10的描绘改变功能的又一示例的示图。如图22中所示,在拍摄图像中,用户U的一部分被其他对象隐藏。因此,描绘改变单元132通过在拍摄图像中将对象Obj10添加至用户U周围的位置来改变突出用户U的技术。可预先定义用户U周围的范围。
接下来,将描述信息处理装置10的描绘改变操作的流程。图23是例示信息处理装置10的描绘改变操作的流程的流程图。如图23中所示,当图像获取单元111没有获取拍摄图像时(步骤S41中的“否”),流程结束。另一方面,当图像获取单元111获取了拍摄图像时(步骤S41中的“是”),识别单元121根据拍摄图像来识别主体(步骤S42)。然后,改变检测单元131决定是否检测到在网络服务中的主体的状态上的改变(步骤S43)。
当改变检测单元131没有检测到在网络服务中的主体的状态上的改变时(步骤S43中的“否”),流程结束。另一方面,当改变检测单元131检测到在网络服务中的主体的状态上的改变时(步骤S43中的“是”),描绘改变单元132改变主体的描绘(步骤S44)。显示控制单元160控制可由改变描绘的描绘改变单元132获得的显示图像的显示(步骤S45),并且流程结束。
如上所述,根据信息处理装置10的描绘改变功能,检测到根据拍摄图像识别的在网络服务中的主体的状态上的改变。另外,当检测到状态上的改变时,改变在拍摄图像中示出的主体的描绘。根据这种控制,可期望容易地发现在拍摄图像中示出的在网络服务中的主体的状态上的改变。
<4.结论>
如上所述,根据本实施例的信息处理装置10的用户指定功能,提供了信息处理装置10,该信息处理装置10包括:图像获取单元111,其获取拍摄图像;参数获取单元112,其获取与便携式终端20的用户相关联的参数;指定单元114,其基于参数根据拍摄图像来指定用户,以及显示控制单元160,其在用户未被指定单元114指定时控制便携式终端使得表示指定用户所需的用户移动的信息显示在便携式终端20中。
根据上述配置,当用户未被指定单元114指定时,表示指定用户所需的用户移动的信息由便携式终端20显示,并且已观看到该信息的用户能够进行移动,从而根据拍摄图像来指定用户。因此,可设想根据拍摄图像容易地指定用户。
另外,根据本实施例的信息处理装置10的构图决定功能,提供了信息处理装置10,该信息处理装置10包括:图像获取单元111,其获取拍摄图像;构图决定单元125,其基于表示用户的目的地的信息和根据拍摄图像的对用户的识别结果来决定构图;以及图像确定单元126,其基于构图决定单元125所决定的构图来确定显示图像。
根据这样的配置,基于表示用户的目的地的信息和基于拍摄图像的对用户的识别结果来决定构图,并且基于构图来确定显示图像。例如,构图决定单元125基于表示用户位置的信息和表示目的地的信息来决定构图。因此,可设想针对用户确定具有更高便利的显示图像。
另外,根据本实施例的信息处理装置10的描绘改变功能,提供了信息处理装置10,该信息处理装置10包括:图像获取单元111,其获取拍摄图像;改变检测单元131,其检测根据拍摄图像识别的在网络服务中的主体的状态上的改变;以及描绘改变单元132,其在改变检测单元131检测到状态上的改变时改变在拍摄图像中示出的主体的描绘。
根据这样一种配置,当检测到在网络服务中的主体的状态上的变化时,改变在拍摄图像中所示的主体的描绘。已观看拍摄图像的用户可根据拍摄图像容易地发现在网络服务中的主体的状态上的改变。
本领域的技术人员应理解的是,可根据设计需要和其他因素产生各种修改、组合、子组合以及变化,只要它们在所附权利要求书及其等价物的范围内即可。
另外,例如,已描述了信息处理装置10包括处理控制单元100和显示控制单元160两者的示例。然而,除信息处理装置10之外的装置可具有这些块中的一部分或所有这些块。例如,服务器可具有处理控制单元100中的一部分,而显示控制单元160和便携式终端20可具有剩余的部分。以这种方式,本公开的技术还能够应用于云计算。
另外,本说明书的信息处理装置10的操作中的每一步不必以流程图中描述的顺序按时间顺序来处理。例如,信息处理装置10的操作中的每一步可以按照与流程图中描述的顺序不同的顺序来处理或者可以并行地处理。
另外,可创建计算机程序,其使包括在信息处理装置10中的硬件(例如CPU、ROM以及RAM)执行与上述信息处理装置10的配置相同的功能。另外,还可提供其中存储了计算机程序的存储介质。
另外,本技术还可以配置如下。
(1)一种信息处理装置,包括:
图像获取单元,所述图像获取单元配置成获取拍摄图像;
参数获取单元,所述参数获取单元配置成获取与便携式终端的用户相关联的参数;
指定单元,所述指定单元配置成基于所述参数根据所述拍摄图像来指定所述用户;以及
显示控制单元,所述显示控制单元配置成以如下方式执行控制:在所述用户未被所述指定单元指定的情况下,将表示指定所述用户所需的用户移动的信息显示在所述便携式终端中。
(2)根据(1)所述的信息处理装置,
其中,所述参数获取单元获取所述用户的面部图像作为所述参数,以及
其中,所述指定单元将基于如下检查而提取的主体识别为所述用户:即,相对于所述用户的面部图像对在所述拍摄图像中所示的面部区域进行检查。
(3)根据(2)所述的信息处理装置,其中,
在所述指定单元没有指定用户的情况下,所述显示控制单元以如下方式执行控制:将提示用户将面部转向成像装置的信息显示在所述便携式终端中,作为表示指定所述用户所需的用户移动的信息,所述成像装置对所述拍摄图像进行成像。
(4)根据(1)所述的信息处理装置,
其中,所述参数获取单元获取表示所述用户的移动的传感器数据,作为所述参数,以及
其中,所述指定单元将基于如下检查而提取的主体指定为所述用户:即,相对于所述传感器数据,对从所述拍摄图像检测的主体移动进行检查。(5)根据(4)所述的信息处理装置,
其中,在所述指定单元没有指定用户的情况下,所述显示控制单元以如下方式执行控制:将提示所述用户移动所述便携式终端的信息显示在所述便携式终端中,作为表示指定所述用户所需的用户移动的信息。
(6)根据(1)至(5)中任一项所述的信息处理装置,还包括:
候选提取单元,所述候选提取单元配置成从所述拍摄图像提取用户候选,
其中,所述指定单元基于所述参数根据所述候选提起单元所提取的用户候选来指定所述用户。
(7)根据(6)所述的信息处理装置,
其中,所述参数获取单元获取通过来自用户的操作所指派的在所述拍摄图像上的坐标,作为所述参数,以及
其中,所述候选提取单元提取基于所述坐标而选择的主体,作为所述用户候选。
(8)根据(7)所述的信息处理装置,
其中,在所述指定单元指定了所述用户的情况下,所述显示控制单元以如下方式执行控制:基于所述候选提取单元所提取的所述用户候选的位置和预先设定的所述成像装置的位置,将表示指定所述用户所需的用户移动的信息显示在所述便携式终端中。
(9)根据(1)至(8)中任一项所述的信息处理装置,
其中,在所述指定单元没有指定所述用户的情况下,所述显示控制单元以如下方式执行控制:将表示通过另一指定技术来指定所述用户的信息显示在所述便携式终端中,以及
其中,所述指定单元将通过所述另一指定技术所提取的主体指定为用户。
(10)根据(1)至(9)所述的信息处理装置,还包括:
认证单元,所述认证单元配置成对所述指定单元所指定的便携式终端执行认证处理。
(11)一种信息处理方法,包括:
获取拍摄图像;
获取与便携式终端的用户相关联的参数;
基于所述参数从所述拍摄图像中示出的一个或更多个主体中指定所述用户;以及
以如下方式执行控制:在所述用户未被指定的情况下,将表示指定所述用户所需的用户移动的信息显示在所述便携式终端中。
(12)一种使计算机用作信息处理装置的程序,包括:
图像获取单元,所述图像获取单元配置成获取拍摄图像;
参数获取单元,所述参数获取单元配置成获取与便携式终端的用户相关联的参数;
指定单元,所述指定单元配置成基于所述参数从所述拍摄图像中示出的一个或更多个主体中指定所述用户;以及
显示控制单元,所述显示控制单元配置成以如下方式执行控制:在所述用户未被所述指定单元指定的情况下,将表示指定所述用户所需的用户移动的信息显示在所述便携式终端中。
附图标记列表
1 信息处理系统
2 信息处理装置
20 便携式终端
30 成像装置
40 网络
50 存储单元
100 处理控制单元
111 图像获取单元
112 参数获取单元
113 候选提取单元
114 指定单元
115 认证单元
121 识别单元
122 条件决定单元
123 信息添加单元
124 模式设定单元
125 构图决定单元
126 图像确定单元
131 改变检测单元
132 描绘改变单元
160 显示控制单元
Claims (12)
1.一种信息处理装置,包括:
图像获取单元,所述图像获取单元配置成获取拍摄图像;
参数获取单元,所述参数获取单元配置成获取与便携式终端的用户相关联的参数;
指定单元,所述指定单元配置成基于所述参数从所述拍摄图像中指定所述用户;以及
显示控制单元,所述显示控制单元配置成以如下方式执行控制:在所述用户未被所述指定单元指定的情况下,将表示指定所述用户所需的用户移动的信息显示在所述便携式终端中。
2.根据权利要求1所述的信息处理装置,
其中,所述参数获取单元获取所述用户的面部图像作为所述参数,以及
其中,所述指定单元将基于如下检查而提取的主体指定为所述用户:即,相对于所述用户的面部图像,对在所述拍摄图像中所示的面部区域进行检查。
3.根据权利要求2所述的信息处理装置,其中,
在所述指定单元没有指定所述用户的情况下,所述显示控制单元以如下方式执行控制:将提示用户将面部转向成像装置的信息显示在所述便携式终端中,作为表示指定所述用户所需的用户移动的信息,所述成像装置对所述拍摄图像进行成像。
4.根据权利要求1所述的信息处理装置,
其中,所述参数获取单元获取表示所述用户移动的传感器数据作为所述参数,以及
其中,所述指定单元将基于如下检查而提取的主体指定为所述用户:即,相对于所述传感器数据,对从所述拍摄图像检测的主体的移动进行检查。
5.根据权利要求4所述的信息处理装置,
其中,在所述指定单元没有指定用户的情况下,所述显示控制单元以如下方式执行控制:将提示所述用户移动所述便携式终端的信息显示在所述便携式终端中,作为表示指定所述用户所需的用户移动的信息。
6.根据权利要求1所述的信息处理装置,还包括:
候选提取单元,所述候选提取单元配置成从所述拍摄图像中提取用户候选,
其中,所述指定单元基于所述参数根据所述候选提取单元所提取的用户候选来指定所述用户。
7.根据权利要求6所述的信息处理装置,
其中,所述参数获取单元获取通过来自所述用户的操作所指派的在所述拍摄图像上的坐标作为所述参数,以及
其中,所述候选提取单元提取基于所述坐标而选择的主体作为所述用户候选。
8.根据权利要求7所述的信息处理装置,
其中,在所述指定单元没有指定所述用户的情况下,所述显示控制单元以如下方式执行控制:基于所述候选提取单元所提取的所述用户候选的位置和预先设定的所述成像装置的位置,将表示指定所述用户所需的用户移动的信息显示在所述便携式终端中。
9.根据权利要求1所述的信息处理装置,
其中,在所述指定单元没有指定所述用户的情况下,所述显示控制单元以如下方式执行控制:将表示通过另一指定技术来指定所述用户的信息显示在所述便携式终端中,以及
其中,所述指定单元将通过所述另一指定技术所提取的主体指定为所述用户。
10.根据权利要求1所述的信息处理装置,还包括:
认证单元,所述认证单元配置成对所述指定单元所指定的便携式终端执行认证处理。
11.一种信息处理方法,包括:
获取拍摄图像;
获取与便携式终端的用户相关联的参数;
基于所述参数从所述拍摄图像中示出的一个或更多个主体中指定所述用户;以及
以如下方式执行控制:在所述用户未被指定的情况下,将表示指定所述用户所需的用户移动的信息显示在所述便携式终端中。
12.一种使计算机用作信息处理装置的程序,包括:
图像获取单元,所述图像获取单元配置成获取拍摄图像;
参数获取单元,所述参数获取单元配置成获取与便携式终端的用户相关联的参数;
指定单元,所述指定单元配置成基于所述参数从所述拍摄图像中示出的一个或更多个主体中指定所述用户;以及
显示控制单元,所述显示控制单元配置成以如下方式执行控制:在所述用户未被所述指定单元指定的情况下,将表示指定所述用户所需的用户移动的信息显示在所述便携式终端中。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012071330 | 2012-03-27 | ||
JP2012-071330 | 2012-03-27 | ||
PCT/JP2013/052862 WO2013145874A1 (ja) | 2012-03-27 | 2013-02-07 | 情報処理装置、情報処理方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104205013A true CN104205013A (zh) | 2014-12-10 |
Family
ID=49259159
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201380015453.5A Pending CN104205013A (zh) | 2012-03-27 | 2013-02-07 | 信息处理装置、信息处理方法以及程序 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20150086074A1 (zh) |
EP (1) | EP2833321A1 (zh) |
JP (1) | JP6044633B2 (zh) |
CN (1) | CN104205013A (zh) |
BR (1) | BR112014023253A8 (zh) |
WO (1) | WO2013145874A1 (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104205013A (zh) * | 2012-03-27 | 2014-12-10 | 索尼公司 | 信息处理装置、信息处理方法以及程序 |
JP6939378B2 (ja) * | 2017-10-11 | 2021-09-22 | トヨタ自動車株式会社 | 車両制御装置 |
JP7276350B2 (ja) * | 2018-11-21 | 2023-05-18 | 日本電気株式会社 | 情報提供システム、情報提供方法、およびプログラム |
EP4123110A4 (en) * | 2020-03-18 | 2023-04-26 | Nec Corporation | DOOR DEVICE, AUTHENTICATION SYSTEM, DOOR DEVICE CONTROL METHOD AND STORAGE MEDIA |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3570755B2 (ja) * | 1994-10-19 | 2004-09-29 | セコム株式会社 | 個人識別装置 |
US6597801B1 (en) * | 1999-09-16 | 2003-07-22 | Hewlett-Packard Development Company L.P. | Method for object registration via selection of models with dynamically ordered features |
JP2003317100A (ja) * | 2002-02-22 | 2003-11-07 | Matsushita Electric Ind Co Ltd | 情報端末装置、認証システム、及び登録・認証方法 |
US7283644B2 (en) * | 2003-06-27 | 2007-10-16 | International Business Machines Corporation | System and method for enhancing security applications |
ATE476715T1 (de) * | 2004-06-21 | 2010-08-15 | Google Inc | Einzelbildbasiertes multi-biometrisches system und verfahren |
JP4926416B2 (ja) * | 2005-06-15 | 2012-05-09 | キヤノン株式会社 | 画像表示方法、プログラム、記録媒体及び画像表示装置 |
JP2007116318A (ja) * | 2005-10-19 | 2007-05-10 | Nec Corp | 携帯端末、認証装置、個人認証方法、プログラム |
JP2007157022A (ja) * | 2005-12-08 | 2007-06-21 | Toppan Nsw:Kk | 入場管理システム、入場管理方法 |
JP5012247B2 (ja) | 2007-06-21 | 2012-08-29 | ソニー株式会社 | 認証装置、入場管理装置、入退場管理装置、入場管理システム、入退場管理システム、認証処理方法およびプログラム |
JP4827803B2 (ja) * | 2007-07-11 | 2011-11-30 | 京セラミタ株式会社 | ユーザ認証方法、ユーザ認証装置及び画像形成装置 |
KR101615290B1 (ko) * | 2009-08-26 | 2016-04-26 | 삼성전자주식회사 | 촬영 방법 및 시스템 |
JP2011221699A (ja) * | 2010-04-07 | 2011-11-04 | Yaskawa Electric Corp | 操作指示認識装置及びロボット |
US8315674B2 (en) * | 2010-10-08 | 2012-11-20 | Research In Motion Limited | System and method for displaying object location in augmented reality |
JP2012208619A (ja) * | 2011-03-29 | 2012-10-25 | Nec Corp | 電子機器、通知方法およびプログラム |
CN104205013A (zh) * | 2012-03-27 | 2014-12-10 | 索尼公司 | 信息处理装置、信息处理方法以及程序 |
-
2013
- 2013-02-07 CN CN201380015453.5A patent/CN104205013A/zh active Pending
- 2013-02-07 EP EP13770152.0A patent/EP2833321A1/en not_active Withdrawn
- 2013-02-07 US US14/386,631 patent/US20150086074A1/en not_active Abandoned
- 2013-02-07 JP JP2014507489A patent/JP6044633B2/ja active Active
- 2013-02-07 WO PCT/JP2013/052862 patent/WO2013145874A1/ja active Application Filing
- 2013-02-07 BR BR112014023253A patent/BR112014023253A8/pt not_active IP Right Cessation
Also Published As
Publication number | Publication date |
---|---|
EP2833321A1 (en) | 2015-02-04 |
BR112014023253A8 (pt) | 2017-07-25 |
WO2013145874A1 (ja) | 2013-10-03 |
BR112014023253A2 (zh) | 2017-06-20 |
JPWO2013145874A1 (ja) | 2015-12-10 |
JP6044633B2 (ja) | 2016-12-14 |
US20150086074A1 (en) | 2015-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6885682B2 (ja) | 監視システム、管理装置、及び監視方法 | |
US9177224B1 (en) | Object recognition and tracking | |
JP6961363B2 (ja) | 情報処理システム、情報処理方法及びプログラム | |
WO2019075840A1 (zh) | 身份验证方法、装置、存储介质和计算机设备 | |
US10572715B2 (en) | Segment block-based handwritten signature authentication system and method | |
US9239961B1 (en) | Text recognition near an edge | |
CN104487915A (zh) | 维持扩增的连续性 | |
US9047504B1 (en) | Combined cues for face detection in computing devices | |
JP6645655B2 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
KR20140114832A (ko) | 사용자 인식 방법 및 장치 | |
CN106529255B (zh) | 基于笔迹指纹的用户身份识别方法和装置 | |
CN104205013A (zh) | 信息处理装置、信息处理方法以及程序 | |
US20170300685A1 (en) | Method and system for visual authentication | |
CN109271228A (zh) | 应用的界面功能识别方法、装置及电子设备 | |
US9262689B1 (en) | Optimizing pre-processing times for faster response | |
EP3239814B1 (en) | Information processing device, information processing method and program | |
KR20140103043A (ko) | 전자 장치, 전자 장치를 동작하는 방법 및 컴퓨터 판독 가능한 기록 매체 | |
JP7020567B2 (ja) | 情報処理システム、情報処理装置、情報処理方法、およびプログラム | |
CN104205799A (zh) | 信息处理装置、信息处理方法及程序 | |
KR20140103021A (ko) | 객체 인식이 가능한 전자 장치 | |
RU2791846C2 (ru) | Способ и устройство для принятия решения о выполнении операции на основе групп выражений лица и электронное устройство | |
KR20140103058A (ko) | 전자 장치, 전자 장치를 동작하는 방법 및 컴퓨터 판독 가능한 기록 매체 | |
KR20140103036A (ko) | 객체 추적이 가능한 전자 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20141210 |