CN104205014A - 信息处理设备、信息处理方法和程序 - Google Patents

信息处理设备、信息处理方法和程序 Download PDF

Info

Publication number
CN104205014A
CN104205014A CN201380015459.2A CN201380015459A CN104205014A CN 104205014 A CN104205014 A CN 104205014A CN 201380015459 A CN201380015459 A CN 201380015459A CN 104205014 A CN104205014 A CN 104205014A
Authority
CN
China
Prior art keywords
image
information
catch
messaging device
information corresponding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201380015459.2A
Other languages
English (en)
Inventor
铃木诚司
笠原俊一
繁田修
深泽辽
森麻纪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN104205014A publication Critical patent/CN104205014A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/945User interactive design; Environments; Toolboxes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/40Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Abstract

提供一种信息处理设备,包括:图像获取单元,被配置为获取至少一个捕获图像;以及关联单元,被配置为将与第一对象相对应的第一信息和与第二对象相对应的第二信息相关联,其中,所获取的至少一个捕获图像包括在其中描绘的至少一个可选择对象,并且所述第一对象和所述第二对象中的至少一个对应于所述至少一个可选择对象中的相应的一个或多个。

Description

信息处理设备、信息处理方法和程序
技术领域
本公开涉及一种信息处理设备、信息处理方法和程序。
背景技术
近年来,由于图像识别技术的发展,已经能够识别例如包括在通过对真实空间进行图像拾取生成的图像中的各种对象,以及这些对象的位置和姿势。例如,在通过将信息叠加到真实空间的图像上,向用户呈现附加信息的称为AR(增强现实)的技术中,使用这样的对象识别技术。作为AR技术的一个示例,JP 2003-256876A公开了一种显示通过将叠加在真实空间的图像上的诸如一件家具的真实对象模型化而生成的虚拟对象的图像,以方便用户尝试不同的家具等的布置的技术。
引用文献列表
专利文献
PTL 1
JP 2003-256876A
发明内容
技术问题
通过使用上述AR技术,能够与真实空间的图像一起,显示与包括在通过对真实空间进行图像拾取而生成的图像中的各种对象相关的信息。由于这种信息的显示是所谓的“虚拟显示”,因此用户还能够以一些方式对信息进行操作。然而,与这些操作相关的技术仍然不成熟。
至少由于该原因,本公开的目标在于提供一种新颖的改进的信息处理设备、信息处理方法和程序,其使得能够更直观地对从图像中识别出的对象进行操作。
问题的解决方案
根据本公开的实施例,提供一种信息处理设备,包括:图像获取单元,被配置为获取至少一个捕获图像;以及关联单元,被配置为将与第一对象相对应的第一信息和与第二对象相对应的第二信息相关联,其中,所获取的至少一个捕获图像包括在其中描绘的至少一个可选择对象,并且所述第一对象和所述第二对象中的至少一个对应于所述至少一个可选择对象中的相应的一个或多个。
此外,根据本公开的实施例,提供一种信息处理方法,包括:获取至少一个捕获图像;将第一对象和第二对象中的至少一个标识为在所述至少一个捕获图像内找到;以及将与所述第一对象相对应的第一信息和与所述第二对象相对应的第二信息相关联。
此外,根据本公开的实施例,提供一种包含程序的非易失性计算机可读介质,当由计算机执行所述程序时,所述程序使所述计算机进行如下方法,所述方法包括:获取至少一个捕获图像;将第一对象和第二对象中的至少一个标识为在所述至少一个捕获图像内找到;以及将与所述第一对象相对应的第一信息和与所述第二对象相对应的第二信息相关联。
此外,根据本公开的实施例,提供一种信息处理设备,包括:操作信息获取单元,获取操作信息,所述操作信息示出从自拾取图像中识别出的对象中指示第一对象和第二对象的用户进行的操作;以及关联单元,基于所述操作信息,将与所述第一对象相对应的第一信息和与所述第二对象相对应的第二信息相关联。
此外,根据本公开的实施例,提供一种信息处理方法,包括:获取操作信息,所述操作信息示出从自拾取图像中识别出的对象中指示第一对象和第二对象的用户进行的操作;以及基于所述操作信息,将与所述第一对象相对应的第一信息和与所述第二对象相对应的第二信息相关联。
此外,根据本公开的实施例,提供一种程序,用于使计算机实现:获取操作信息的功能,所述操作信息示出从自拾取图像中识别出的对象中指示第一对象和第二对象的用户进行的操作;以及基于所述操作信息,将与所述第一对象相对应的第一信息和与所述第二对象相对应的第二信息相关联的功能。
根据本公开的实施例,通过选择从图像中识别出的对象(即虚拟信息),能够进行将与这些对象相对应的信息(即关于真实实体的信息)相关联的操作。这些操作可以对于用户更直观。
发明的有益效果
根据如上所述的本公开,能够更直观地对从图像中识别出的对象进行操作。
附图说明
图1是示出本公开的第一实施例的概要的图。
图2是示出图1中的示例的拾取图像的示例的图。
图3是示出根据本公开的第一实施例的系统的功能配置的示意性框图。
图4是示出根据本公开的第一实施例的显示屏幕的示例的图。
图5是示出根据本公开的第一实施例的对象数据的示例的图。
图6是示出根据本公开的第一实施例的处理的示例的流程图。
图7是示出根据本公开的第一实施例的候选对象的显示的第一示例的图。
图8是示出根据本公开的第一实施例的候选对象的显示的第二示例的图。
图9是示出本公开的第二实施例的概要的图。
图10是示出图9中的示例的拾取图像的示例的图。
图11是示出根据本公开的第二实施例的系统的功能配置的示意性框图。
图12是示出信息处理设备的硬件配置的框图。
具体实施方式
下文中,参考附图,详细描述本公开的实施例。注意,在本说明书和附图中,用相同的附图标记表示具有基本相同的功能和结构的构成元素,并且省略对这些构成元素的重复说明。
按照下面指示的顺序给出以下描述。
1.第一实施例
1-1.概要
1-2.设备配置
1-3.处理的示例
1-4.候选对象的示例显示
2.第二实施例
2-1.概要
2-2.设备配置
3.其它实施例
4.补充
1.第一实施例
1-1.概要
首先,参考图1和2,描述本公开的第一实施例的概要。图1是示出第一实施例的概要的图。图2是示出图1中的示例的拾取图像(pick-upimage)的示例的图。
如图1所示,第一实施例涉及服务器设备100(“信息处理设备”的一个示例)、俯视照相机(overhead camera)200和终端设备300。服务器设备100可以从俯视照相机200获取拾取图像,并且向终端设备300提供针对拾取图像的对象识别结果。终端设备300可以获取用户U对包括对象识别结果的拾取图像进行的操作的操作信息,并且向服务器设备100提供操作信息。如图2所示,俯视照相机200拾取的图像例如可以是从覆盖包括持有终端设备300的用户U的区域的视点拾取的图像。
1-2.设备配置
接下来,参考图3,描述根据本公开的第一实施例的设备配置。图3是示出根据第一实施例的系统的功能配置的示意性框图。
(服务器设备的配置)
如图3所示,服务器设备100可以包括拾取图像获取单元110、对象识别单元120、操作信息获取单元130、关联单元140和对象数据库150。拾取图像获取单元110、对象识别单元120、操作信息获取单元130和关联单元140例如可以由根据存储在存储单元中的程序工作的服务器设备100的CPU(中央处理器)、RAM(随机存取存储器)和ROM(只读存储器)来实现。作为示例,对象数据库150可以由设置在服务器设备100内部或者外部的各种类型的存储设备来实现。
注意,这样的服务器设备100不一定由单个设备实现。例如,通过经由网络协作运行,多个设备的资源可以实现服务器设备的功能。
拾取图像获取单元110可以获取由俯视照相机200获取的拾取图像的图像数据。拾取图像获取单元110可以向对象识别单元120提供获取的图像数据。拾取图像获取单元110可以向终端设备300发送获取的图像数据,以使得图像数据显示为真实空间的图像。
对象识别单元120可以使用从拾取图像获取单元110提供的图像数据,识别包括在拾取图像中的对象。作为一个示例,对象识别单元120可以将从拾取图像中提取的特征点的集合与由模型数据定义的对象的形式进行匹配。对象识别单元120可以将诸如由模型数据定义的符号标记或者文本标签的图像数据与拾取图像进行匹配。此外,对象识别单元120可以将由模型数据定义的已有对象的图像的特征量与从拾取图像中提取的特征量进行匹配。
注意,作为示例,模型数据可以包括定义各种对象的形式的数据、诸如附着到每个对象的指定符号标记或者文本标签的图像数据以及从每个对象的已有图像中提取的特征量集合的数据。作为一个示例,可以通过查阅对象数据库150来获取模型数据。
对象识别单元120可以向终端设备300发送关于对象识别的结果的信息。作为一个示例,关于对象识别的结果的信息可以是用于标识识别出的对象的信息以及关于这些对象在拾取图像中的位置和姿势(倾斜、旋转等)的信息。另外,关于对象识别的结果的信息可以包括关于要与识别出的对象相对应地显示的图形的信息。
操作信息获取单元130可以获取关于由终端设备300获取的用户U进行的操作的信息。如稍后将描述的,这里获取的用户U进行的操作可以是指示由对象识别单元120识别的第一对象和第二对象的操作。操作信息获取单元130可以向关联单元140提供关于所获取的用户U进行的操作的信息。
关联单元140可以基于与从操作信息获取单元130提供的用户U进行的操作相关的信息,将与由对象识别单元120识别出的第一对象和第二对象相对应的信息相关联。更具体地,如果能够将分别与由对象识别单元120识别出的第一对象和第二对象相对应的信息彼此相关联,则当获取了指示这些对象的用户U进行的操作时,关联单元140可以将这些信息相关联。
关联单元140例如可以通过查阅对象数据库150,来获取与每个对象相对应的信息。关联单元140还可以作为将与各个对象相对应的信息相关联的结果,来更新对象数据库150的内容。此外,关联单元140可以向终端设备300发送示出关联处理的结果的信息或者与该关联相关的对用户U进行的操作进行补充的信息。
(俯视照相机的配置)
如图3所示,俯视照相机200可以包括图像拾取单元210。注意,在适当的情况下,作为另一部件,俯视照相机200还可以包括用于与服务器设备100等进行通信的通信电路。
作为一个示例,图像拾取单元210可以由结合在俯视照相机200中的图像拾取装置来实现,并且可以生成真实空间的拾取图像。图像拾取单元210可以拾取视频图像,或者可以拾取静止图像。图像拾取单元210可以向服务器设备100发送关于生成的拾取图像的图像数据。
(终端设备的配置)
如图3所示,终端设备300可以包括操作单元310、显示控制单元320和显示单元330。注意,在适当的情况下,终端设备300还可以包括用于与服务器设备100等进行通信的通信电路。
操作单元310可以获取用户U对终端设备300进行的操作,并且操作单元310可以由设置在终端设备300中或者作为从外部连接的设备连接到终端设备300的诸如触摸面板或者一个或多个按钮的各种类型的输入装置来实现。作为一个示例,操作单元310可以获取用户U在显示单元330上显示的显示屏幕中进行的、指示作为对象识别的结果显示的第一对象和第二对象的操作。操作单元310可以向服务器设备100发送关于所获取的用户U进行的操作的信息。注意,在实施例中,可以假设操作单元310至少包括触摸面板。
作为一个示例,显示控制单元320可以由根据存储在存储单元中的程序工作的终端设备300的CPU、RAM和ROM来实现,并且可以对显示单元330进行的显示进行控制。显示控制单元320可以从服务器设备100接收用于在显示单元330上显示图像的信息。作为一个示例,显示控制单元320可以接收由俯视照相机200获取并且由拾取图像获取单元110发送的拾取图像的图像数据。此外,显示控制单元320可以接收由对象识别单元120发送的关于针对拾取图像的对象识别的结果的信息。另外,显示控制单元320可以接收由关联单元140发送的与关联相关的对用户U进行的操作进行补充的信息。
显示单元330例如可以由终端设备300可以包括作为输出装置或者可以作为从外部连接的设备连接到终端设备300的、诸如LCD(液晶显示器)、有机EL(电致发光)显示器等显示器来实现。显示单元330可以根据显示控制单元320进行的控制来显示各种图像。注意,稍后将描述要在显示单元330上显示的图像的示例。
1-3.处理的示例
接下来,参考图4至6,描述根据本公开的第一实施例的处理的示例。图4是示出根据第一实施例的显示屏幕的示例的图。图5是示出根据第一实施例的对象数据的示例的图。图6是示出根据第一实施例的处理的示例的流程图。
(显示屏幕的示例)
如图4所示,根据第一实施例的要在终端设备300的显示单元330上显示的显示屏幕331可以包括标志对象501a至501c以及人物对象503a至503e。服务器设备100将这些对象全部识别为包括在拾取图像中的对象。此外,可以通过以拾取图像的拾取状态绘制包括在拾取图像中的图像数据来实现这些对象的显示,或者可以根据各个对象的位置和姿势来绘制与各个对象相对应的图形。注意,人物对象503b可以是持有终端设备300的用户U他自己/她自己。
当显示该显示屏幕331时,例如,用户U能够使用包括在终端设备300的操作单元310中的触摸面板,进行拖动标志对象501a(“第一对象”的一个示例)并且将标志对象501a放在人物对象503b(“第二对象”的一个示例)上的操作。在本说明书中,还将这种类型的操作称为“指示第一对象和第二对象的操作”。这些操作不限于拖放操作,作为示例,这些操作可以是通过触摸或轻击来连续选择标志对象501a和人物对象503b的操作,或者可以是沿人物对象503b的方向轻拂(flick)标志对象501a的操作。
如上所述,如果获取了指示标志对象501a和人物对象503b的操作,则经由操作信息获取单元130获取关于该操作的信息的服务器设备100的关联单元140可以将分别与这些对象相对应的信息相关联。作为一个示例,在图4中的示例中,标志对象501a是音乐软件“XX the BEST”的广告,并且人物对象503b是用户U他自己/她自己。由于该原因,关联单元140可以向用户U发送用于收听音乐软件“XX the BEST”的样本的文件。
(与对象相对应的信息的示例)
在图5中,示出了对象数据151作为“与对象相对应的信息”的示例。在示出的示例中,在对象数据151中包括与标志对象501a至501c相对应的数据d_501a至d_501c以及与人物对象503a至503e相对应的数据d_503a至d_503e。注意,为了简单,虽然在图5中仅示出了与在图4中的示例中识别出的对象相对应的数据,但是实际上,对象数据151也可以包括与未识别出的对象相对应的数据。
在示出的示例中,对象数据151可以包括项目“ID”、“对象名称”、“属性”、“内容”、“地址”、“操作A”和“操作B”。
“ID”可以是对每个对象分配的唯一ID。
“对象名称”示出了每个对象的名称。在示出的示例中,针对标志对象501a至501c设置了诸如“XX the BEST”和“Restaurant YY”的广告主体的名称,并且针对人物对象503a至503e设置了诸如“Carol”和“You(你)”的人的名称。例如,如图4所示,可以在与识别出的对象相对应的位置处显示这些对象名称。
“属性”可以示出每个对象的属性。在示出的示例中,针对标志对象501a至501c设置了诸如“音乐软件”和“饮食和餐饮场所”的广告主体种类,并且针对人物对象503a至503e设置了诸如“朋友”或者“自己”的这样的人与用户U的关系。
“内容”可以指示与各个对象相对应的内容。可以针对标志对象501设置与各个广告的主体相对应的内容。作为一个示例,在作为音乐软件的广告的标志对象501a的情况下,将音乐软件的收听样本的文件“listenMe.mp3”设置为“内容”;在作为饮食和餐饮场所的广告的标志对象501b的情况下,将饮食和餐饮场所的优惠券的图像文件“coupon.jpg”设置为“内容”;并且在作为旅行社的广告的标志对象501c的情况下,将广告网页的链接文件“zzTour.lnk”设置为“内容”。
也可以针对人物对象503设置“内容”。在示出的示例中,将例如“carol.vcf”的各个人的个人资料信息设置为人物对象503a至503e的“内容”。
可以针对人物对象503设置“地址”。在示出的示例中,将各个人的电子邮件地址设置为人物对象503a至503e的“地址”。
“操作A”可以是示出将各个对象选择为“开始拖动”对象(即“第一对象”)情况下的操作的信息。在示出的示例中,将“向放下目的地发送‘内容’”设置为针对标志对象501以及人物对象503a至503d的“操作A”。注意,未针对人物对象503e(“Roger”)设置“操作A”。以这种方式,依据对象的类型或者与对象相对应的实际实体和用户U之间的关系(例如有无许可),可能存在不设置“操作A”的情况。
此外,“操作B”可以是示出将各个对象选择为“放下位置”对象(即“第二对象”)情况下的操作的信息。在示出的示例中,针对人物对象503a至503d设置了“在‘地址’)处接收来自拖动源的发送”。注意,未针对标志对象501和人物对象503e(“Roger”)设置“操作B”。以这种方式,依据对象的类型或者与对象相对应的实际实体和用户U之间的关系(例如有无许可),存在不设置“操作B”的情况。
在第一实施例中,根据诸如上面描述的对象数据151中的“操作A”和“操作B”的设置,关联单元140可以将分别与由用户U进行的操作所指示的第一对象和第二对象相对应的信息相关联。
例如,假设将人物对象503d(“John”)选择为第一对象,并且将人物对象503a(“Carol”)选择为第二对象。在这种情况下,关联单元140可以参考数据d_503d的“操作A”和数据d_503a的“操作B”,并且通过向与人物对象503a相对应的“地址”发送与人物对象503d相对应的“内容”(即个人资料信息),将与人物对象503d相对应的信息和与人物对象503a相对应的信息相关联。
在该示例中,其结果是,可以向Carol(人物对象503a)的地址“caroladd.ress”发送John(人物对象503d)的个人资料信息“john.vcf”。自然,在这种情况下,关联单元140可以进行例如向与人物对象503d相对应的人(John)询问是否允许发送个人资料信息的补充处理。
可以将诸如上面描述的对象数据151存储在例如服务器设备100的对象数据库150中。对象数据151可以将用于识别对象的模型数据和在识别出对象时要显示的图形的数据相关联。例如,可以针对每个用户U单独生成对象数据151。多个用户U可以共享对象数据151,并且对于个人数据等,可以针对每个用户U设置访问许可。
(处理流程的示例)
图6示出了针对如图4所示进行了用户U进行的操作的情况的服务器设备100的关联单元140的处理流程。注意,如先前所描述的,在该示例中,终端设备300可以包括触摸面板作为操作单元310,并且用户U进行的选择第一对象和第二对象的操作可以是使用触摸面板的拖放操作。
首先,关联单元140可以使用包括在从操作信息获取单元130提供的信息中的“向下触摸”坐标(即用户开始接触的位置的坐标),搜索开始拖动对象(步骤S101)。这时,关联单元140可以参考由对象识别单元120识别出的对象信息(包括关于对象的位置的信息)和存储在对象数据库150中的对象数据151。
接下来,关联单元140可以确定是否发现了可拖动对象(即能够成为第一对象的对象)(步骤S103)。这里,表述“可拖动对象”是指当将对象标识为第一对象,并且将另一对象标识为第二对象时,能够进行这些对象之间的一些信息的关联的对象。在图4和5所示的示例中,在对象数据151中设置了“操作A”的对象、即标志对象501a至501c以及人物对象503a至503d可以对应于“可拖动对象”。
在步骤S103中,如果发现了可拖动对象,则关联单元140可以向终端设备300的显示控制单元320发送关于放下位置对象的候选对象的信息(候选对象信息),以使得在显示单元330上显示的显示屏幕331中将候选放下位置对象加亮(步骤S105)。使用加亮显示,用户能够容易地识别作为放下位置对象的候选对象的对象。作为一个示例,作为候选放下位置对象的对象可以是在对象数据151中设置了“操作B”的对象。注意,稍后描述这时的显示的示例。
接下来,关联单元140可以使用从操作信息获取单元130提供的“触摸向上”坐标(移除用户进行的接触的位置的坐标),搜索放下位置对象(步骤S107)。这时,关联单元140可以再次参考关于由对象识别单元120识别出的对象的信息(包括关于对象的位置的信息)和存储在对象数据库150中的对象数据151。
接下来,关联单元140可以确定是否发现了作为潜在放下地点的对象(即能够作为第二对象的对象)(步骤S109)。这里,表述“潜在放下地点”是指当将另一对象标识为第一对象,并且将本对象标识为第二对象时,能够在这些对象之间将一些信息相关联的对象。在图4和5所示的示例中,在对象数据151中设置了“操作B”的对象、即人物对象503a至503d对应于作为潜在放下地点的对象。
在步骤S109中,如果发现了可放下对象,则关联单元140可以执行拖放处理(步骤S111)。拖放处理可以是将与指示为“开始拖动对象”和“放下位置对象”的两个对象相对应的信息相关联的处理。如先前所描述的,关联单元140可以根据对象数据151中的“操作A”和“操作B”,执行该处理。
同时,如果在步骤S103中未发现可拖动对象,或者如果在步骤S109中未发现潜在放下地点对象,则关联单元140可以进行错误处理(步骤S113)。作为一个示例,错误处理可以是向显示控制单元320发送与错误处理相关的信息并且使得在显示单元330上显示错误消息等的处理。此外,错误处理可以简单地忽略拖放操作的一系列处理。另外,关联单元140可以再次进行对开始拖动对象和放下位置对象的搜索。
1-4.候选对象的示例显示
接下来,参考图7和8,描述根据本公开的第一实施例的放下位置对象的候选对象的显示的示例。图7是示出根据第一实施例的候选对象的显示的第一示例的图。图8是示出根据第一实施例的候选对象的显示的第二示例的图。
如先前所描述的,在第一实施例中,如果通过拖动操作指示了第一对象,则服务器设备100的关联单元140可以向终端设备300的显示控制单元320发送关于放下目的地候选对象的信息(候选对象信息),以使得用户能够在显示单元330的显示上识别放下位置对象的候选对象。下面描述这种显示的两个示例。
在图7所示的第一示例中,显示控制单元320可以例如通过用框包围对象,在显示屏幕331中将作为放下位置对象的候选对象的人物对象503a至503d的显示加亮。根据该显示,正在显示屏幕331上进行拖放操作的用户U能够容易地掌握哪些对象是潜在放下位置。
在图8所示的第二示例中,显示控制单元320可以通过使作为放下位置对象的候选对象的人物对象503a至503d之外的对象变灰和/或通过隐藏他们的名称,来抑制这些对象在显示屏幕331上的显示。根据该显示,正在显示屏幕331上进行拖放操作的用户U也能够容易地掌握哪些对象是潜在放下位置。
根据上面描述的本公开的第一实施例,例如,通过进行指示包括在拾取图像中的对象的操作,能够容易地进行将与各个对象相对应的信息相关联的操作。此外,使用指示第一对象(例如开始拖动对象)的配置,可以在显示器上将与该第一对象相对应的第二对象(例如放下位置对象的候选对象)加亮,用户能够容易地掌握能够执行什么处理以及该处理的主体。
2.第二实施例
2-1.概要
接下来,参考图9和10,描述本公开的第二实施例的概要。图9是示出第二实施例的概要的图。图10是示出图9中的示例的显示屏幕的示例的图。
如图9所示,第二实施例涉及服务器设备100(“信息处理设备”的一个示例)、俯视照相机200和终端设备400。服务器设备100和俯视照相机200可以具有与在上述第一实施例中相同的配置。终端设备400可以具有与第一实施例中的终端设备300基本相同的配置,但是不同之处在于,终端设备400本身可以获取图像拾取单元生成的拾取图像,并且向服务器设备100发送拾取图像。
如图10所示,根据第二实施例的在终端设备400的显示单元330上显示的显示屏幕431可以包括两个子屏幕431a、431b。在示出的示例中,子屏幕431a可以对应于由俯视照相机200获取的第一拾取图像。同时,子屏幕431b可以对应于由终端设备400获取的第二拾取图像。
在这种情况下,用户U能够在显示屏幕431上进行在两个子屏幕431a、431b之间跨越的拖放操作。在第二实施例中,服务器设备100的对象识别单元120可以针对上述第一拾取图像和第二拾取图像两者进行对象识别处理。对于作为该处理的结果识别出的对象,用户U能够与包括这些对象的图像无关地进行将这些对象指示为第一对象和第二对象的操作。
例如,如在附图中所示,用户U可以进行拖动在子屏幕431a中显示的标志对象501a,然后将标志对象501a放在子屏幕431b中显示的人物对象503f上的操作。在这种情况下,如果在对象数据151中,针对标志对象501a设置了“操作A”,并且针对人物对象503f(“Lucy”)设置了“操作B”,则关联单元140可以进行将分别与这些对象对应的信息相关联的处理。作为一个示例,关联单元140可以向Lucy的邮件地址发送通过标志对象501a广告的音乐内容的收听样本。
2-2.设备配置
接下来,参考图11,描述本公开的第二实施例的设备配置。图11是示出根据本实施例的系统的功能配置的示意性框图。
如先前所描述的,在第二实施例中,服务器设备100和俯视照相机200的配置可以与在上述第一实施例中相同,并且终端设备400与第一实施例中的终端设备300的不同之处在于向服务器设备100发送拾取图像。至少由于该原因,除了与上述终端设备300相同的构成元素之外,终端设备400还可以包括图像拾取单元440。
图像拾取单元440例如可以由包括在终端设备400中或者从外部连接到终端设备400的图像拾取装置来实现,并且可以生成真实空间的拾取图像。图像拾取单元440可以拾取视频图像,或者可以拾取静止图像。图像拾取单元440可以向显示控制单元320提供生成的拾取图像的图像数据,并且向服务器设备100发送该图像数据。
除了从俯视照相机200发送的拾取图像之外,服务器设备100的拾取图像获取单元110还可以获取从终端设备400发送的拾取图像。与上述第一实施例相比,除了对两个拾取图像进行处理之外,之后的从对象识别单元120开始的部件进行的处理类似。
除了能够在不同的(即多个)拾取图像上呈现指示的对象之外,可以与在上述第一实施例中给出的示例类似地实现第二实施例进行的处理和加亮显示,由于该原因,省略进一步的描述。
根据上面描述的本公开的第二实施例,即使当获取了多个拾取图像时,通过进行指示包括在这些拾取图像中的对象的操作,也能够容易地进行将与各个对象对应的信息相关联的操作。
3.其它实施例
注意,本公开的实施例不限于上面描述的这些实施例,如至少在下面描述的示例中所示出的,可以对本公开的实施例进行各种变形。
例如,上面描述的实施例中的“将分别与第一对象和第二对象对应的信息相关联的处理”可以是各种其它处理。
该处理可以是交换第一对象和第二对象的显示位置的处理。通过这样做,作为一个示例,用户能够调整对象的位置,使得可以在更容易看到的位置处显示标志对象中的用户更感兴趣的对象。
该处理可以是向第二对象发送与第一对象相关的信息的处理(或者相反地,向第一对象发送与第二对象相关的信息的处理)。除了在上面的实施例中描述的图像、链接、音乐、个人信息等之外,发送的信息可以是任意类型的信息。
该处理还可以是在指示为第一对象和第二对象的人之间生成连接的处理。作为一个示例,通过该处理可以生成与第一对象和第二对象对应的人(以及也可能用户他自己/她自己)参与的网络上的例如聊天室的通信通道。可选地,该处理可以从指示为第一对象的人向指示为第二对象的人发送用于SNS(社交网络服务)的交友请求。
虽然在上面描述的实施例中,从图像中的一个中识别出的对象被指示为第一对象和第二对象,但是第一对象和第二对象中的一个或者两个可以是不是从图像中识别出的对象的对象、即图标。作为一个示例,可以与拾取图像和识别出的对象一起,在显示屏幕上显示表示用户U他自己/她自己的图标,并且可以进行指示任意对象和该图标以使得向用户发送与指示的对象相关的信息的处理。
此外,虽然在上面描述的实施例中,可以从俯视照相机获取拾取图像,但是本公开的实施例不限于此。如早前所描述的,也可以由终端设备获取拾取图像。还能够识别对象,并且使得用户在由终端设备获取的拾取图像中指示对象,而不使用由俯视照相机拾取的图像。
虽然上面描述了主要涉及信息处理设备的本公开的实施例,但是作为示例,本公开的实施例可以由信息处理设备执行的方法、使信息处理设备工作的程序以及记录这样的程序的记录介质来实现。
此外,虽然上面描述了服务器设备用作信息处理设备的示例,但是作为示例,终端设备或俯视照相机也可以用作信息处理设备。
4.补充
最后,参考图12,对能够实现根据本公开的实施例的服务器设备100、俯视照相机200、终端设备300和终端设备400的信息处理设备900的硬件配置进行描述。图12是示出信息处理设备的硬件配置的框图。
信息处理装置900可以包括CPU(中央处理器)901、ROM(只读存储器)903和RAM(随机存取存储器)905。此外,信息处理装置900可以包括主机总线907、桥909、外部总线911、接口913、输入装置915、输出装置917、存储装置919、驱动921、连接端口923和通信装置925。除了或者代替CPU 901,信息处理装置900还可以包括如DSP(数字信号处理器)的处理电路。
CPU 901可以用作运算处理单元和控制单元,并且可以根据记录在ROM 903、RAM 905、存储装置919和/或可移动记录介质927上的各种程序,对信息处理装置900内的整体操作或者其一部分进行控制。ROM903可以存储由CPU 901使用的程序、运算参数等。RAM 905可以临时存储在CPU 901的执行中使用的程序、在执行期间适当地改变的参数等。CPU 901、ROM 903和RAM 905可以通过由例如CPU总线的内部总线构建的主机总线907相互耦接。此外,主机总线907可以经由桥909耦接到例如PCI(外围设备部件互连/接口)的外部总线911。
输入装置915可以是用户使用的诸如例如鼠标、键盘、触摸面板、按钮、开关或者操纵杆的装置。输入装置915例如可以是使用红外线或其它无线电波的远程控制装置,或者与信息处理装置900的操作相对应的诸如便携式电话的外部连接装置929。输入装置915可以包括基于用户输入的信息生成输入信号的输入控制电路,并且可以向CPU 901输出输入信号。用户可以通过操作输入装置915,向信息处理装置900输入各种数据,或者指示信息处理装置900进行处理操作。
输出装置917可以包括能够在视觉或者听觉上向用户告知获取的信息的装置。输出装置917例如可以是诸如LCD(液晶显示器)、PDP(等离子显示面板)、有机EL(电致发光)显示器的显示装置;诸如扬声器或头戴式耳机的音频输出装置;或者打印机装置。输出装置917可以输出通过信息处理装置900的处理而获得的结果作为文本或诸如图像的视频或者作为诸如语音或音频的声音。
存储装置919可以是作为信息处理装置900的存储单元的示例而构建的、用于存储数据的装置。存储装置919例如可以包括诸如HDD(硬盘驱动)的磁存储装置、半导体存储装置、光存储装置或者磁光存储装置。该存储装置929例如可以包括由CPU 901执行的程序或各种数据或者从外部获取的各种数据。
驱动921可以是诸如磁盘、光盘、磁光盘或半导体存储器的可移动记录介质927的读取器/写入器,其可以包括在信息处理装置900中或者从外部附接到信息处理装置900。驱动921可以读取记录在安装的可移动记录介质927上的信息,并且向RAM 905输出信息。驱动921还可以向安装的可移动记录介质927写入信息。
连接端口923可以是用于将装置直接连接到信息处理装置900的端口。连接端口923例如可以是USB(通用串行总线)端口、IEEE 1394端口或者SCSI(小型计算机系统接口)端口。另外,连接端口923可以是RS-232C端口、光学音频端子或者HDMI(高清晰度多媒体接口)端口。当外部连接装置929耦接到连接端口923时,信息处理装置900和外部连接装置929可以交换各种数据。
通信装置925例如可以是用于连接到通信网络931的包括通信装置等的通信接口。通信装置925例如可以是有线或无线LAN(局域网)或者用于蓝牙(Bluetooth(注册商标))或WUSB(无线USB)的通信卡。可选地,通信装置925可以是用于光学通信的路由器、用于ADSL(非对称数字用户线路)的路由器或者用于各种通信的调制解调器。通信装置925可以例如使用如TCP/IP的预定协议,经由因特网或者向其它通信装置发送或从其它通信装接收信号等。另外,耦接到通信装置925的通信网络931可以是通过配线或者无线地耦接的网络,并且例如可以是因特网、家用LAN、红外线通信、无线电波通信或者卫星通信。
图像拾取装置例如可以是通过使用诸如CCD(电荷耦合器件)或CMOS(互补金属氧化物半导体)的图像传感器以及用于向图像传感器拾取主体图像的例如镜头的各种部件,来捕获真实世界,并且可以生成捕获图像的装置。图像装置933可以被配置为拾取静止图像或者运动图像。
传感器935可以是诸如加速度传感器、陀螺仪传感器、地磁传感器、光学传感器和声学传感器的各种类型的传感器。传感器935可以获取诸如信息处理设备900的外壳的形状的与信息处理设备900的状态相关的信息以及诸如信息处理设备900周围的亮度或噪声的与信息处理设备900的周围环境相关的信息。此外,传感器935可以包括接收GPS(全球定位系统)信号并且对设备的纬度、经度和海拔高度进行测量的GPS传感器。
已经描述了信息处理设备900的硬件配置的示例。上面描述的各个部件可以使用通用元件进行配置,并且可以由各个部件的功能专用的硬件进行配置。可以根据实现本公开的实施例时的技术水平,对这些配置进行适当地改变。
虽然上面参考附图详细描述了本公开的实施例,但是本公开不限于此。本领域技术人员应当理解,依据设计要求和其它因素,可以想到各种变形、组合、子组合和改变,只要它们在所附权利要求或其等同物的范围内即可。
另外,还可以如下配置本技术。
(1)一种信息处理设备,包括:
图像获取单元,被配置为获取至少一个捕获图像;以及
关联单元,被配置为将与第一对象相对应的第一信息和与第二对象相对应的第二信息相关联,
其中,所获取的至少一个捕获图像包括在其中描绘的至少一个可选择对象,并且所述第一对象和所述第二对象中的至少一个对应于所述至少一个可选择对象中的相应的一个或多个。
(2)根据(1)所述的信息处理设备,其中,通过向由所述第二信息指定的位置发送与所述第一信息相关联的内容,来将与所述第一对象相对应的所述第一信息和与所述第二对象相对应的所述第二信息相关联。
(3)根据(1)所述的信息处理设备,还包括:
操作信息获取单元,被配置为获取关于操作命令的信息,其中,所获取的信息标识所述关联单元打算关联的所述第一对象和所述第二对象。
(4)根据(3)所述的信息处理设备,其中,所述操作命令包括拖放操作。
(5)根据(4)所述的信息处理设备,其中,在执行所述操作命令期间,所述第一对象被标识为被拖动并放到所述第二对象上的对象,并且所述第二对象被标识为将所述第一对象放在其上的对象。
(6)根据(1)所述的信息处理设备,还包括:
对象识别单元,被配置为识别包括在所述至少一个捕获图像中的对象,其中,从所识别的对象中选择所述第一对象和所述第二对象。
(7)根据(1)所述的信息处理设备,其中,所述第一对象和所述第二对象中的至少一个是表示在所述至少一个捕获图像内描绘的相应元素的图标。
(8)根据(1)所述的信息处理设备,其中,通过首先选择所述第一对象,然后从至少一个指示的候选对象中选择所述第二对象,来选择所述第一对象和所述第二对象。
(9)根据(8)所述的信息处理设备,其中,所述至少一个指示的候选对象被呈现为所述至少一个捕获图像的加亮部分,以指示能够用于进行选择。
(10)根据(8)所述的信息处理设备,其中,通过在所述至少一个捕获图像中抑制所有其它对象的显示,来将所述至少一个指示的候选对象指示为能够用于进行选择。
(11)根据(1)所述的信息处理设备,其中,所述至少一个捕获图像包括描绘区域的俯视视图的俯视视点图像。
(12)根据(11)所述的信息处理设备,其中,所述俯视视点图像包括作为在所述俯视视点图像内描绘的对象的所述信息处理设备的用户。
(13)根据(1)所述的信息处理设备,其中,所述图像获取单元被配置为获取第一捕获图像和第二捕获图像。
(14)根据(13)所述的信息处理设备,其中,从所述第一捕获图像中选择所述第一对象和所述第二对象中的一个,并且从所述第二捕获图像中选择所述第一对象和所述第二对象中的另一个。
(15)根据(14)所述的信息处理设备,其中,所述第一捕获图像和所述第二捕获图像由不同的成像装置获得。
(16)根据(1)所述的信息处理设备,其中,从所述至少一个捕获图像的同一图像中选择所述第一对象和所述第二对象两者。
(17)根据(1)所述的信息处理设备,其中,所述第一对象和所述第二对象是在所述至少一个捕获图像中示出的对真实世界对象的描绘。
(18)一种信息处理方法,包括:
获取至少一个捕获图像;
将第一对象和第二对象中的至少一个标识为在所述至少一个捕获图像内找到;以及
将与所述第一对象相对应的第一信息和与所述第二对象相对应的第二信息相关联。
(19)根据(18)所述的信息处理方法,其中,所获取的至少一个捕获图像包括在其中描绘的至少一个可选择对象,并且所述第一对象和所述第二对象中的至少一个对应于所述至少一个可选择对象中的相应的一个或多个。
(20)根据(18)所述的信息处理方法,其中,将所述第一信息和所述第二信息相关联包括:向由所述第二信息指定的位置发送与所述第一信息相关联的内容。
(21)根据(18)所述的信息处理方法,其中,通过接收操作命令来标识所述第一对象和所述第二对象。
(22)根据(21)所述的信息处理方法,其中,所述操作命令包括拖放操作。
(23)根据(22)所述的信息处理方法,其中,在执行所述操作命令期间,所述第一对象被标识为被拖动并放到所述第二对象上的对象,并且所述第二对象被标识为将所述第一对象放在其上的对象。
(24)根据(18)所述的信息处理方法,还包括:
识别包括在所获取的至少一个捕获图像中的对象,其中,从所识别的对象中选择所标识的所述第一对象和所述第二对象中的至少一个。
(25)根据(18)所述的信息处理方法,其中,所标识的所述第一对象和所述第二对象中的至少一个是表示在所述至少一个捕获图像内描绘的相应元素的图标。
(26)根据(18)所述的信息处理方法,其中,在标识所述第二对象之前标识所述第一对象,并且通过基于所标识的第一对象,从被指示为能够使用的至少一个候选对象中进行选择,来标识所述第二对象。
(27)根据(26)所述的信息处理方法,还包括:
将所述至少一个指示的候选对象呈现为所述至少一个捕获图像的加亮部分,以指示能够使用所述至少一个指示的候选对象来进行选择。
(28)根据(26)所述的信息处理方法,还包括:
除了所述至少一个指示的候选对象之外,在所述至少一个捕获图像中抑制所有对象的显示,以指示能够使用所述至少一个指示的候选对象来进行选择。
(29)根据(18)所述的信息处理方法,其中,所述至少一个捕获图像包括描绘区域的俯视视图的俯视视点图像。
(30)根据(18)所述的信息处理方法,其中,获取所述至少一个捕获图像包括:获取第一捕获图像,并且获取第二捕获图像。
(31)根据(30)所述的信息处理方法,其中,从所述第一捕获图像中标识所述第一对象和所述第二对象中的一个,并且从所述第二捕获图像中标识所述第一对象和所述第二对象中的另一个。
(32)根据(31)所述的信息处理方法,其中,所述第一捕获图像和所述第二捕获图像由不同的成像装置获得。
(33)根据(18)所述的信息处理方法,其中,从所述至少一个捕获图像的同一捕获图像中选择所述第一对象和所述第二对象两者。
(34)根据(18)所述的信息处理方法,其中,所述第一对象和所述第二对象是在所述至少一个捕获图像中示出的对真实世界对象的描绘。
(35)一种包含程序的非易失性计算机可读介质,当由计算机执行所述程序时,所述程序使所述计算机进行如下方法,所述方法包括:
获取至少一个捕获图像;
将第一对象和第二对象中的至少一个标识为在所述至少一个捕获图像内找到;以及
将与所述第一对象相对应的第一信息和与所述第二对象相对应的第二信息相关联。
(36)根据(35)所述的计算机可读介质,其中,所获取的至少一个捕获图像包括在其中描绘的至少一个可选择对象,并且所述第一对象和所述第二对象中的至少一个对应于所述至少一个可选择对象中的相应的一个或多个。
(37)一种信息处理设备,包括:
操作信息获取单元,获取操作信息,所述操作信息示出从自拾取图像中识别出的对象中指示第一对象和第二对象的用户进行的操作;以及
关联单元,基于所述操作信息,将与所述第一对象相对应的第一信息和与所述第二对象相对应的第二信息相关联。
(38)根据(37)所述的信息处理设备,
其中,当获取了示出指示所述第一对象的所述用户进行的操作的所述操作信息时,所述关联单元可操作,以在所述对象中搜索能够成为所述第二对象的候选对象,并且输出示出所述候选对象的候选对象信息。
(39)根据(38)所述的信息处理设备,
其中,所述候选对象信息是使得所述用户能够在显示所述拾取图像和与所述对象相对应的图像的显示单元上识别所述候选对象的信息。
(40)根据(39)所述的信息处理设备,
其中,所述候选对象信息是在所述显示单元上将与所述候选对象相对应的图像加亮的信息。
(41)根据(39)所述的信息处理设备,
其中,所述候选对象信息是抑制与所述候选对象之外的对象相对应的图像在所述显示单元上的显示的信息。
(42)根据(37)至(41)中的任一项所述的信息处理设备,
其中,所述拾取图像包括从俯视包括所述用户的区域的视点拾取的图像。
(43)根据(42)所述的信息处理设备,
其中,所述第一对象和所述第二对象中的一个是示出所述用户的对象。
(44)根据(37)至(43)中的任一项所述的信息处理设备,
其中,所述拾取图像包括从不同视点拾取的第一图像和第二图像,以及
所述第一对象和所述第二对象中的一个是从所述第一图像中识别出的对象,并且所述第一对象和所述第二对象中的另一个是从所述第二图像中识别出的对象。
(45)根据(37)至(44)中的任一项所述的信息处理设备,
其中,所述第一信息是与所述第一对象相对应的内容,
所述第二信息是与所述第二对象相对应的地址,以及
所述关联单元向所述地址发送所述内容。
(46)根据(45)所述的信息处理设备,
其中,所述第一对象是第一人,
所述第二对象是第二人,以及
所述内容是所述第一人的个人资料信息。
(47)根据(37)至(44)中的任一项所述的信息处理设备,
其中,所述第一对象是第一人,
所述第二对象是第二人,以及
所述关联单元在所述第一人和所述第二人之间生成通信通道。
(48)根据(37)至(44)中的任一项所述的信息处理设备,
其中,所述关联单元在显示所述拾取图像和与所述对象相对应的图像的显示单元上,将与所述第一对象相对应的图像的显示位置和与所述第二对象相对应的图像的显示位置互换。
(49)根据(37)至(48)中的任一项所述的信息处理设备,
其中,指示所述第一对象和所述第二对象的所述用户进行的所述操作是拖动所述第一对象,并且将所述第一对象放在所述第二对象上的操作。
(50)一种信息处理方法,包括:
获取操作信息,所述操作信息示出从自拾取图像中识别出的对象中指示第一对象和第二对象的用户进行的操作;以及
基于所述操作信息,将与所述第一对象相对应的第一信息和与所述第二对象相对应的第二信息相关联。
(51)一种程序,用于使计算机实现:
获取操作信息的功能,所述操作信息示出从自拾取图像中识别出的对象中指示第一对象和第二对象的用户进行的操作;以及
基于所述操作信息,将与所述第一对象相对应的第一信息和与所述第二对象相对应的第二信息相关联的功能。
本公开包含与在2012年2月10日在日本专利局提交的日本在先专利申请JP 2012-069714中公开的主题相关的主题,其全部内容通过引用合并于此。

Claims (19)

1.一种信息处理设备,包括:
图像获取单元,被配置为获取至少一个捕获图像;以及
关联单元,被配置为将与第一对象相对应的第一信息和与第二对象相对应的第二信息相关联,
其中,所获取的至少一个捕获图像包括在其中描绘的至少一个可选择对象,并且所述第一对象和所述第二对象中的至少一个对应于所述至少一个可选择对象中的相应的一个或多个。
2.根据权利要求1所述的信息处理设备,其中,通过向由所述第二信息指定的位置发送与所述第一信息相关联的内容,来将与所述第一对象相对应的所述第一信息和与所述第二对象相对应的所述第二信息相关联。
3.根据权利要求1所述的信息处理设备,还包括:
操作信息获取单元,被配置为获取关于操作命令的信息,其中,所获取的信息标识所述关联单元打算关联的所述第一对象和所述第二对象。
4.根据权利要求3所述的信息处理设备,其中,所述操作命令包括拖放操作。
5.根据权利要求4所述的信息处理设备,其中,在执行所述操作命令期间,所述第一对象被标识为被拖动并放到所述第二对象上的对象,并且所述第二对象被标识为将所述第一对象放在其上的对象。
6.根据权利要求1所述的信息处理设备,还包括:
对象识别单元,被配置为识别包括在所述至少一个捕获图像中的对象,其中,从所识别的对象中选择所述第一对象和所述第二对象。
7.根据权利要求1所述的信息处理设备,其中,所述第一对象和所述第二对象中的至少一个是表示在所述至少一个捕获图像内描绘的相应元素的图标。
8.根据权利要求1所述的信息处理设备,其中,通过首先选择所述第一对象,然后从至少一个指示的候选对象中选择所述第二对象,来选择所述第一对象和所述第二对象。
9.根据权利要求8所述的信息处理设备,其中,所述至少一个指示的候选对象被呈现为所述至少一个捕获图像的加亮部分,以指示能够用于进行选择。
10.根据权利要求8所述的信息处理设备,其中,通过在所述至少一个捕获图像中抑制所有其它对象的显示,来将所述至少一个指示的候选对象指示为能够用于进行选择。
11.根据权利要求1所述的信息处理设备,其中,所述至少一个捕获图像包括描绘区域的俯视视图的俯视视点图像。
12.根据权利要求11所述的信息处理设备,其中,所述俯视视点图像包括作为在所述俯视视点图像内描绘的对象的所述信息处理设备的用户。
13.根据权利要求1所述的信息处理设备,其中,所述图像获取单元被配置为获取第一捕获图像和第二捕获图像。
14.根据权利要求13所述的信息处理设备,其中,从所述第一捕获图像中选择所述第一对象和所述第二对象中的一个,并且从所述第二捕获图像中选择所述第一对象和所述第二对象中的另一个。
15.根据权利要求14所述的信息处理设备,其中,所述第一捕获图像和所述第二捕获图像由不同的成像装置获得。
16.根据权利要求1所述的信息处理设备,其中,从所述至少一个捕获图像的同一图像中选择所述第一对象和所述第二对象两者。
17.根据权利要求1所述的信息处理设备,其中,所述第一对象和所述第二对象是在所述至少一个捕获图像中示出的对真实世界对象的描绘。
18.一种信息处理方法,包括:
获取至少一个捕获图像;
将第一对象和第二对象中的至少一个标识为在所述至少一个捕获图像内找到;以及
将与所述第一对象相对应的第一信息和与所述第二对象相对应的第二信息相关联。
19.一种包含程序的非易失性计算机可读介质,当由计算机执行所述程序时,所述程序使所述计算机进行如下方法,所述方法包括:
获取至少一个捕获图像;
将第一对象和第二对象中的至少一个标识为在所述至少一个捕获图像内找到;以及
将与所述第一对象相对应的第一信息和与所述第二对象相对应的第二信息相关联。
CN201380015459.2A 2012-03-26 2013-03-05 信息处理设备、信息处理方法和程序 Pending CN104205014A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012-069714 2012-03-26
JP2012069714A JP2013200793A (ja) 2012-03-26 2012-03-26 情報処理装置、情報処理方法およびプログラム
PCT/JP2013/001342 WO2013145566A1 (en) 2012-03-26 2013-03-05 Information processing apparatus, information processing method, and program

Publications (1)

Publication Number Publication Date
CN104205014A true CN104205014A (zh) 2014-12-10

Family

ID=47953684

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201380015459.2A Pending CN104205014A (zh) 2012-03-26 2013-03-05 信息处理设备、信息处理方法和程序

Country Status (7)

Country Link
US (1) US20150020014A1 (zh)
EP (1) EP2831700A1 (zh)
JP (1) JP2013200793A (zh)
CN (1) CN104205014A (zh)
BR (1) BR112014023284A8 (zh)
RU (1) RU2014138114A (zh)
WO (1) WO2013145566A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107683499A (zh) * 2015-06-03 2018-02-09 索尼公司 基于观测识别用户并执行基于用户的功能的信息处理装置、方法和程序
CN108027654A (zh) * 2015-09-28 2018-05-11 日本电气株式会社 输入设备、输入方法和程序
CN108596971A (zh) * 2018-04-27 2018-09-28 北京小米移动软件有限公司 图像显示方法及装置
CN109034115A (zh) * 2018-08-22 2018-12-18 Oppo广东移动通信有限公司 视频识图方法、装置、终端及存储介质

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103942049B (zh) 2014-04-14 2018-09-07 百度在线网络技术(北京)有限公司 增强现实的实现方法、客户端装置和服务器
KR20150127472A (ko) * 2014-05-07 2015-11-17 삼성전자주식회사 증강 현실 제공 장치 및 방법
US10140827B2 (en) 2014-07-07 2018-11-27 Google Llc Method and system for processing motion event notifications
US9420331B2 (en) 2014-07-07 2016-08-16 Google Inc. Method and system for categorizing detected motion events
JP5989725B2 (ja) * 2014-08-29 2016-09-07 京セラドキュメントソリューションズ株式会社 電子機器及び情報表示プログラム
KR102178892B1 (ko) * 2014-09-15 2020-11-13 삼성전자주식회사 정보 제공 방법 및 그 전자 장치
KR102358548B1 (ko) * 2014-10-15 2022-02-04 삼성전자주식회사 디바이스를 이용한 화면 처리 방법 및 장치
CN105100430B (zh) * 2015-06-09 2017-12-08 北京橙鑫数据科技有限公司 信息交换方法及装置
US9361011B1 (en) 2015-06-14 2016-06-07 Google Inc. Methods and systems for presenting multiple live video feeds in a user interface
FR3038402A1 (fr) * 2015-06-30 2017-01-06 Orange Procede et dispositif de mise en interaction de deux objets interactifs
US10506237B1 (en) 2016-05-27 2019-12-10 Google Llc Methods and devices for dynamic adaptation of encoding bitrate for video streaming
US10957171B2 (en) 2016-07-11 2021-03-23 Google Llc Methods and systems for providing event alerts
JP6458782B2 (ja) * 2016-07-28 2019-01-30 カシオ計算機株式会社 表示制御装置、表示制御方法及びプログラム
JP6435495B2 (ja) * 2017-07-10 2018-12-12 株式会社コナミデジタルエンタテインメント メッセージ表示端末、メッセージ送信サーバ、及びプログラム
JP6600868B2 (ja) * 2018-10-11 2019-11-06 株式会社コナミデジタルエンタテインメント メッセージ表示端末、メッセージ送信サーバ、及びプログラム
CA3118464A1 (en) * 2018-11-01 2020-05-07 Exxonmobil Research And Engineering Company Highly siliceous form of zeolite rho

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5754179A (en) * 1995-06-07 1998-05-19 International Business Machines Corporation Selection facilitation on a graphical interface
JP4032776B2 (ja) 2002-03-04 2008-01-16 ソニー株式会社 複合現実感表示装置及び方法、記憶媒体、並びにコンピュータ・プログラム
US7995090B2 (en) * 2003-07-28 2011-08-09 Fuji Xerox Co., Ltd. Video enabled tele-presence control host
KR101347518B1 (ko) * 2010-08-12 2014-01-07 주식회사 팬택 필터의 선택이 가능한 증강 현실 사용자 장치 및 방법, 그리고, 증강 현실 서버
US8818025B2 (en) * 2010-08-23 2014-08-26 Nokia Corporation Method and apparatus for recognizing objects in media content
JP2012069065A (ja) * 2010-09-27 2012-04-05 Nintendo Co Ltd 情報処理プログラム、情報処理装置および方法
US20130187862A1 (en) * 2012-01-19 2013-07-25 Cheng-Shiun Jan Systems and methods for operation activation

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107683499A (zh) * 2015-06-03 2018-02-09 索尼公司 基于观测识别用户并执行基于用户的功能的信息处理装置、方法和程序
CN108027654A (zh) * 2015-09-28 2018-05-11 日本电气株式会社 输入设备、输入方法和程序
CN108027654B (zh) * 2015-09-28 2021-01-12 日本电气株式会社 输入设备、输入方法和程序
CN108596971A (zh) * 2018-04-27 2018-09-28 北京小米移动软件有限公司 图像显示方法及装置
CN108596971B (zh) * 2018-04-27 2024-03-19 北京小米移动软件有限公司 图像显示方法及装置
CN109034115A (zh) * 2018-08-22 2018-12-18 Oppo广东移动通信有限公司 视频识图方法、装置、终端及存储介质

Also Published As

Publication number Publication date
WO2013145566A1 (en) 2013-10-03
BR112014023284A8 (pt) 2017-07-25
BR112014023284A2 (zh) 2017-06-20
JP2013200793A (ja) 2013-10-03
US20150020014A1 (en) 2015-01-15
RU2014138114A (ru) 2016-04-10
EP2831700A1 (en) 2015-02-04

Similar Documents

Publication Publication Date Title
CN104205014A (zh) 信息处理设备、信息处理方法和程序
US9836115B2 (en) Information processing device, information processing method, and program
JP6687051B2 (ja) 画像認識装置、その処理方法、およびプログラム
CN106716393B (zh) 用于辨别和匹配图像中描画的对象的方法和设备
JP6773037B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN105320404B (zh) 用于执行功能的设备和方法
US10074216B2 (en) Information processing to display information based on position of the real object in the image
JP6254577B2 (ja) 情報処理装置、システム、情報処理方法およびプログラム
JP2013080326A (ja) 画像処理装置、画像処理方法及びプログラム
CN105426035A (zh) 用于提供信息的方法和电子装置
CN103906010A (zh) 多个终端间同步消息的方法、机器可读存储介质和服务器
CN109218982A (zh) 景点信息获取方法、装置、移动终端以及存储介质
KR20150019668A (ko) 검색 연관 정보 제공 방법 및 이를 지원하는 전자 장치
JP5862772B2 (ja) 情報処理装置、情報処理方法および記録媒体
CN105683959A (zh) 信息处理设备、信息处理方法及信息处理系统
CN111597369A (zh) 照片查看方法、装置、存储介质及终端
US10768802B1 (en) Information processing apparatus and non-transitory computer readable medium storing information processing program
CN103309875A (zh) 结合地标位置及社群网络以提供参考信息的方法及装置
CN112417323A (zh) 基于兴趣点信息的到达行为检测方法、装置及计算机设备
US20200250261A1 (en) Information processing apparatus, information processing system, and non-transitory computer readable medium
CN113469674A (zh) 虚拟物品包的收发系统、发送方法、领取方法及装置
CN111290721A (zh) 在线交互控制方法、系统、电子设备和存储介质
CN109672798A (zh) 信息处理装置以及存储媒体
JP2013196035A (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP2021081937A (ja) ユーザー端末、制御方法及びコンピュータープログラム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20141210