CN102750079A - 终端设备、对象控制方法以及程序 - Google Patents
终端设备、对象控制方法以及程序 Download PDFInfo
- Publication number
- CN102750079A CN102750079A CN201210080575XA CN201210080575A CN102750079A CN 102750079 A CN102750079 A CN 102750079A CN 201210080575X A CN201210080575X A CN 201210080575XA CN 201210080575 A CN201210080575 A CN 201210080575A CN 102750079 A CN102750079 A CN 102750079A
- Authority
- CN
- China
- Prior art keywords
- image
- virtual objects
- virtual image
- zone
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
公开了一种装置,该装置包括存储指令的存储器以及控制单元,该控制单元执行指令以检测真实空间图像中的关注对象、检测该对象的取向和位置以及生成修改图像。所述生成包括基于检测出的取向和位置来确定真实空间图像的区域。该指令还可以包括执行如下功能的指令:在所述区域中显示所述对象的虚拟图像;基于检测到的用户输入来改变所述虚拟图像,经改变的虚拟图像被保持在所述区域内;以及显示所述修改图像。
Description
相关申请的交叉引用
本公开包含与2011年3月31提交到日本专利局的日本优先权专利申请JP 2011-078075中的公开的主题有关的主题,其全部内容通过引用合并于此。
技术领域
本公开涉及终端设备、对象控制方法以及程序。
背景技术
近年来,一种用于将附加信息添加到真实世界并将该附加信息呈现给用户的被称为增强现实(AR)的技术越来越受到关注。在AR技术中要呈现给用户的信息还被称为注释,并且可以通过使用各种虚拟对象,诸如文本、图标、动画等将该信息可视化。
AR技术还可用于涉及与用户的交互的应用。例如,对于意在提供信息的应用,诸如广告或导航,可以通过使用户操作AR虚拟对象来将满足用户需求的信息提供给用户。关于涉及AR虚拟对象的操作的文献例如有JP 2010-238098A。
然而,在JP 2010-238098A描述的技术中,与真实世界的情况无关地确定用户所操作的虚拟对象的运动。因此,会降低用户的空间沉浸感,而用户的空间沉浸感正是AR技术的一个优点。
因此,优选的是提供一种能够实现对AR虚拟对象的操作而基本上不削弱用户对AR空间的沉浸感的机制。
根据本公开,能够实现对AR虚拟对象的操作而不削弱用户对AR空间的沉浸感。
发明内容
本发明的方面包括一种装置,该装置包括控制单元和存储指令的存储器。控制单元可以执行指令以检测真实空间图像中的关注对象、检测对象的取向和位置以及生成修改图像。所述生成可以包括基于所检测的取向和位置来确定真实空间图像的区域。控制单元还可以执行指令以:在所述区域中显示对象的虚拟图像;基于检测到的用户输入来改变虚拟图像,经改变的虚拟图像被保持在所述区域内;以及显示所述修改图像。
本发明的方面包括一种方法,该方法包括:检测真实空间图像内的关注对象;检测该对象的取向和位置;以及生成修改图像。所述生成可以包括:基于检测出的取向和位置来确定真实空间图像的区域;在所述区域中显示对象的虚拟图像;基于检测到的用户输入来改变虚拟图像,经改变的虚拟图像被保持在所述区域内;以及显示所述修改图像。
本发明的方面包括一种存储有指令的有形地实施的非暂时性计算机可读介质,当所述指令被处理器执行时执行包括检测真实空间图像内的关注对象的方法的指令。该方法还可以包括检测对象的取向和位置以及生成修改图像。所述生成可以包括基于检测到的取向和位置来确定真实空间图像的区域。该方法还可以包括:在所述区域中显示对象的虚拟图像;基于检测到的用户输入来改变虚拟图像,经改变的虚拟图像被保持在所述区域内;以及显示所述修改图像。
附图说明
图1是用于描述根据实施例的终端设备的概要的说明图;
图2是示出根据实施例的终端设备的硬件配置示例的框图;
图3是示出根据实施例的终端设备的逻辑功能的配置示例的框图;
图4是用于描述图像识别的结果的示例的说明图;
图5A是示出实施例中设置的限制区域的第一示例的说明图;
图5B是示出实施例中设置的限制区域的第二示例的说明图;
图5C是示出实施例中设置的限制区域的第三示例的说明图;
图6是用于描述经由触摸传感器对虚拟对象的操作的说明图;
图7是用于描述经由触摸传感器对虚拟对象的操作的另一说明图;
图8是用于描述经由运动传感器对虚拟对象的操作的第一说明图;
图9是用于描述经由运动传感器对虚拟对象的操作的第二说明图;
图10是用于描述经由运动传感器对虚拟对象的操作的另一说明图;
图11是用于描述经由运动传感器对虚拟对象的操作的另一说明图;
图12是示出根据实施例的对象控制过程的流程示例的流程图;
图13是示出根据实施例的图像获取过程的详细流程示例的流程图;
图14A是用于描述虚拟对象的操作的第一场景的第一说明图;
图14B是用于描述虚拟对象的操作的第一场景的第二说明图;
图15A是用于描述虚拟对象的操作的第二场景的说明图;
图15B是用于描述虚拟对象的操作的第二场景的另一说明图;
图16A是用于描述虚拟对象的操作的第三场景的说明图;
图16B是用于描述虚拟对象的操作的第三场景的另一说明图;以及
图17是用于描述示出虚拟对象的可移动方向的辅助对象的说明图。
具体实施方式
下文中,将参照附图对本公开的优选实施例进行详细描述。应当注意的是,在本说明书和附图中,以相同的附图标记表示具有基本相同的功能和配置的结构单元,并且省略了对这些结构单元的重复说明。
1.概要
图1是用于描述在本说明书中公开的技术的实施例的概要的说明图。参照图1,示出了在真实空间1中的用户携带的终端设备100。
终端设备100是用于向用户提供涉及与用户的交互的AR应用的设备。终端设备100例如可以是智能手机、PC(个人计算机)、PDA(个人数字助理)、游戏终端或便携式音乐播放器。
真实空间1是能够在其中使用AR应用的空间的示例。在真实空间1中存在有真实对象12a、12b和12c。真实对象12a是公告板。符号标记13a附连在真实对象12a。真实对象12b是用于信息显示的布告栏。真实对象12c是广告海报。终端设备100获取通过拍摄这样的真实空间1而获得的图像(例如,“真实空间图像”或“真实空间的图像”)以作为输入图像。真实空间图像例如可以包括真实空间的多个图像。当真实空间图像包括周期性获得的真实空间的多个图像时,该真实空间图像被称为“实时图像”。要理解的是,本文中使用的术语“真实空间图像”包括真实空间的单个静止图像、真实空间的多个静止图像以及真实空间的实时图像。
然后,终端设备100可以基于对输入图像中示出的真实对象的识别结果,将用于AR的虚拟对象叠加到输入图像上。经由虚拟对象呈现给用户的信息可以是任何信息,诸如导航信息、广告信息、商店信息、新闻、天气预报、铁路信息等。用户可以操作显示在终端设备100的屏幕上的虚拟对象以及交互式地使用AR应用。
尽管未在图1中明确示出,可以在真实空间1中设置数据服务器,该数据服务器具有关于虚拟对象或要经由虚拟对象呈现给用户的信息的数据库。终端设备100可以通过例如无线连接与数据服务器通信,并且可以从数据服务器下载与终端设备100的位置相关联的最新数据。要理解的是,本文中描述的任何操作(例如,图像处理等)可以在用户设备(例如,终端设备100)上本地执行和/或可以诸如通过远离用户设备的服务器(例如,“远程服务器”)来远程执行。
2.根据实施例的终端设备的示例配置
2-1.硬件配置
图2是示出根据本实施例的终端设备100的硬件配置示例的框图。参照图2,终端设备100包括成像单元102、传感器单元104、输入单元106、存储单元108、显示单元112、通信单元114、总线118以及控制单元120。
成像单元
成像单元102是可以拍摄图像的相机模块。成像单元102通过使用诸如CCD(电荷耦合器件)或CMOS(互补金属氧化物半导体)的图像传感器来拍摄真实空间,并生成拍摄图像。成像单元102还可以包括用于视频输出的成像电路和用于静止图像输出的成像电路之一或两者。
传感器单元
传感器单元104可以包括一组传感器,以用于支持终端设备100的位置和姿态的识别以及用于检测对终端设备100的一部分用户输入。例如,传感器单元104可以包括GPS传感器,其接收GPS(全球定位系统)信号并测量终端设备100的纬度、经度和海拔。另外,传感器单元104可以包括定位传感器,其基于从无线接入点接收的无线电信号的强度来测量终端设备100的位置。另外,传感器单元104可以包括运动传感器,诸如测量终端设备100的三轴加速度的加速度传感器或测量倾斜角的陀螺仪传感器。
输入单元
输入单元106可以包括输入设备,用户使用该输入设备来操作终端设备100或将信息输入到终端设备100。通常,输入单元106包括检测用户对显示单元112的屏幕的触摸的触摸传感器。可替代地(或除此之外),输入单元106可以包括:定位设备(pointing device),诸如鼠标或触摸板;手势识别模块,其识别图像中示出的用户的手势;或者视线检测模块,其检测佩戴头戴式显示器(HMD)的用户的视线方向。另外,输入单元106可以包括其它类型的输入设备,诸如键盘、小键盘、按钮、开关等。
存储单元
存储单元108可以由诸如半导体存储器、硬盘等的存储介质构成,并存储用于通过终端设备100进行处理的程序和数据。要在存储单元108中存储的数据例如可以包括由成像单元102生成的图像数据和由传感器单元104生成的传感器数据。要在存储单元108中存储的数据例如还可以包括在图像识别期间终端设备100所使用的特征量数据、定义虚拟对象的对象数据等。
显示单元
显示单元112可以包括由LCD(液晶显示器)、OLED(有机发光二极管)、CRT(阴极射线管)等构成的显示模块。显示单元112例如可以在屏幕上显示由成像单元102拍摄的图像或由控制单元120实现的AR应用的图像。显示单元112可以是用户持有的终端设备100的屏幕或用户佩戴的透视式或非透视式HMD。
通信单元
通信单元114可以包括通信接口,其作为终端设备100与另外的设备(例如,上述数据服务器)的通信的中介。通信单元114可以支持任意无线通信协议或有线通信协提议,并建立与其它设备的通信连接。
总线
总线118可以将成像单元102、传感器单元104、输入单元106、存储单元108、显示单元112、通信单元114、以及控制单元120相互连接。
控制单元
控制单元120可以包括处理器,诸如CPU(中央处理单元)、DSP(数字信号处理器)等。控制单元120执行在存储单元108或另外的存储介质中存储的程序,并使下面描述的终端设备100的各种功能运行。
2-2.功能配置
图3是示出由图2中所示的终端设备100的存储单元108和控制单元120实现的逻辑功能的配置示例的框图。参照图3,终端设备100可以包括图像获取单元110、帧存储器112、图像识别单元130、特征量数据库(DB)132、限制区域设置单元140、检测单元150、操作控制单元160、数据获取单元170、对象DB 172以及显示控制单元190。
(1)图像获取单元
图像获取单元110可以获取示出真实空间的图像以作为输入图像。在本实施例中,图像获取单元110支持两种输入模式:实时模式和快照模式。在实时模式中,图像获取单元110从成像单元102相继获取视频输入的最新帧以作为输入图像。在快照模式中,数据获取单元110首先在快照模式的开始时刻使帧存储器112存储由成像单元102拍摄的快照。在成像单元102包括用于视频输入的成像电路和用于静止图像输入的成像电路的情况下,快照可以是由用于静止图像输入的成像电路拍摄的图像。然后,图像获取单元110连续地获取在帧存储器112中存储的快照以作为输入图像。可以通过经由输入单元106的特定用户输入来执行实时模式和快照模式之间的切换。图像获取单元110向图像识别单元130输出以此方式获取的输入图像。
(2)图像识别单元
图像识别单元130可以识别在从图像获取单元110输入的输入图像中示出何真实对象。图像识别单元130还识别在输入图像中示出的真实对象在真实空间中的位置和姿态。更具体地,图像识别单元130例如可以提取输入图像的特征量。然后,图像识别单元130对照预先存储在特征量DB132中的各种已知真实对象的特征量来检查所提取的特征量,并由此识别在输入图像中的示出的真实对象以及识别该真实对象的位置和姿态。图像识别单元130所使用的特征量提取算法例如可以是在“Fast KeypointRecognition using Random Ferns”(Mustafa Oezuysal,IEEE Transactionson Pattern Analysis and Machine Intelligence,Vol.32,Nr.3,pp.448-461,2010年3月)中描述的随机蕨(Random Ferns)方法,或在“SURF:SpeededUp Robust Features”(H.Bay,A.Ess,T.Tuytelaars和L.V.Gool,Computer Vision and Image Understanding(CVIU),Vol.110,No.3,pp.346--359,2008)中描述的SURF方法。可替代地,图像识别单元130可以通过使用附着到真实对象上的已知图示或符号(例如,一致地附着到公告板上的标记,诸如图1中示出的真实对象12a的符号标记13a)、人工标记(例如,条形码或快速响应(QR)码)、自然标记等来标识输入图像中的真实对象,并且可以基于在输入图像中的真实对象的尺寸和形状来识别其位置和姿态。
图4是用于描述图像识别单元130的图像识别结果的示例的说明图。参照图4,示出了要输入到图像识别单元130的作为示例的输入图像Im1。在输入图像Im1中示出的真实对象12a的位置Xa和姿态Wa、真实对象12b的位置Xb和姿态Wb、真实对象12c的位置Xc和姿态Wc被图像识别单元130识别为图像识别的结果。每个真实对象的位置X可以被三维全局坐标系(x,y,z)给定为每个真实对象的基准点位置。全局坐标系可以是指示以终端设备100的位置为原点的相对位置坐标的坐标系。可替代地,全局坐标系可以是在真实空间中固定地定义的坐标系。每个真实对象的姿态W可以被给定为指示每个真实对象相对于全局坐标系的旋转的旋转矩阵或四元数。可替代地,在本说明书中,为了说明的简单,每个真实对象的位置X和姿态W将被描述为独立变量。然而,每个真实对象的位置X和姿态W还可以整体地表达为具有四行四列的齐次变换矩阵,该齐次变化矩阵指示全局坐标系与每个真实对象的模型坐标系之间的变换。在这种情况下,每个真实对象的位置X和姿态W可以根据需要从该一个齐次变换矩阵中提取并被使用。图像识别单元130将以上述方式识别的在输出图像中示出的每个真实对象的标识符、位置和姿态输出到限制区域设置单元140、数据获取单元170和显示控制单元190。
(3)限制区域设置单元
限制区域设置单元140基于由图像识别单元130识别出的真实对象的姿态,在输入图像示出的真实空间中设置限制区域,该限制区域限制根据用户输入而被操作的虚拟对象的运动。限制区域是具有最多两个维度的,以线或面表示的区域。通常,限制区域设置单元140可以针对与可操作虚拟对象相关联的每个真实对象来设置限制区域。例如可以沿输入图像内被识别出的真实对象的表面来设置限制区域。在这种情况下,如果虚拟对象可以是基本上平面的对象,则虚拟对象可以被布置在相关联的真实对象的表面上并且可以沿该表面移动、缩放或滚动。限制区域例如也可以被设置在与输入图像内识别出的真实对象具有预定偏移量的位置处。此外,基本上平面的对象不限于具有完全平面的表面,而是可以包括具有一些凸起、不规则厚度等的平面对象。
图5A是示出本实施例中由限制区域设置单元140在真实空间1中设置的限制区域的第一示例的说明图。参照图5A,示出了与真实对象12a相关联地设置的、作为示例的限制区域14a。限制区域14a是沿着真实对象12a的表面设置的平面区域。与真实对象12a相关联的虚拟对象的运动受限于这样的限制区域14a(例如,它不移动到限制区域14a外)。
图5B是示出本实施例中由限制区域设置单元140在真实空间1中设置的限制区域的第二示例的说明图。参照图5B,示出了与真实对象12b相关联地设置的、作为示例的限制区域14b。限制区域14b是穿过真实对象12b的中间并沿着真实对象12b的竖直方向设置的线性区域。与真实对象12b相关联的虚拟对象的运动受限于这样的限制区域14b(例如,它只能沿着限制区域14b在竖直方向上滚动)。
图5C是示出本实施例中由限制区域设置单元140在真实空间1中设置的限制区域的第三示例的说明图。参照图5C,示出了与真实对象12c相关联地设置的、作为示例的限制区域14c。限制区域14c是沿真实对象12c的表面设置的弯曲区域。如所描述的,限制区域的形状不限于平面的或直的,而可以是曲面、多边形、曲线形、曲折线形等。
(4)检测单元
检测单元150检测用户输入,并将用户输入信息输出到操作控制单元160。要被检测单元150检测的用户输入例如可以包括对图2中示出的输入单元106的触摸传感器的各种触摸输入(例如,触摸、敲击、双击、拖动、轻击(flick)、双指缩小(pinch in)、双指放大(pinch out)等)。另外,要被检测单元150检测的用户输入例如还可以包括由图2中示出的传感器单元104的传感器组测量的终端设备100的运动(例如,倾斜、摆动等)。
(5)操作控制单元
操作控制单元160可以控制用户对终端设备100的屏幕上显示的虚拟对象的操作。更具体地,当检测单元150检测到用户输入时,操作控制单元160首先识别作为操作目标的虚拟对象。接着,操作控制单元160根据用户输入来确定所识别的虚拟对象在与对应于虚拟对象的真实对象相关联的限制区域内的运动。然后,操作控制单元160向显示控制单元190通知虚拟对象的已确定的运动,并使虚拟对象在屏幕上的布置位置、尺寸、滚动位置等被显示控制单元190改变。虚拟对象的运动,诸如移动、缩放、滚动等由此被可视化。
(5-1)通过触摸传感器的用户输入
图6和图7是用于描述受控于操作控制单元160的经由触摸传感器对虚拟对象的操作的说明图。参照图6,示出了设置在真实空间中的平面限制区域14以及成像设备的图像平面103。限制区域14的位置X0和姿态W0可以同与限制区域14相关联的真实对象的位置和姿态相同,或者可以与真实对象的位置和姿态具有预定偏移量。对触摸传感器的用户输入的输入位置Cin由在图像平面上103的相机坐标系(u,v,1)给出。操作控制单元160例如可以根据下面的针孔模式来计算限制区域14内对应于输入位置Cin的位置Xin。
Xin=X0+λW0A-1(Cin-C0) (1)
在公式(1)中,C0是图像平面上对应于限制区域14的基准位置X0的位置,矩阵A是相机内部参数,而λ是归一化参数。根据成像单元102的特性例如通过下面的公式预先给出相机内部参数A。
此处,f是焦距,θ是图像轴的正交性(理想值为90度),Ku是图像平面的竖直轴的比例(从真实空间的坐标系到相机坐标系的尺度变化率),Kv是图像平面的水平轴的比例,而(u0,v0)是图像平面的中心位置。
例如,对于指定矢量的用户输入,诸如拖动,操作控制单元160可以基于对应于该矢量的起始点和终点的两个输入位置Cin1和Cin2例如通过下面的公式来确定虚拟对象在限制区域14内的运动矢量Vin。
Vin=Xin2-Xin1=λW0A-1(Cin2-Cin1) (3)
在公式(3)中,Xin1和Xin2是限制区域中分别对应于输入位置Cin1和Cin2的位置。此外,即使在限制区域具有曲面形状或多边形形状的情况下,操作控制单元160也可以同样通过将用户输入的输入位置投影到限制区域来确定限制区域中对应于每个输入位置的位置。另外,如果限制区域是线性形状的,则操作控制单元160可以将用户输入的输入位置投影到该一维限制区域上。
在通过根据上述公式(3)将用户输入的输入位置投影到限制区域来确定运动矢量Vin时,如果限制区域14与终端设备100之间的距离较大,则运动矢量Vin的大小会相对于用户输入变得过大。因此,操作控制单元160可以根据终端设备100与限制区域14之间的距离来改变运动矢量Vin的大小与屏幕上的输入矢量的大小的比例。这使得用户能够更容易地对虚拟对象的运动进行细微调整。输入矢量的大小和运动矢量Vin的大小例如分别对应于在屏幕上的拖动量和虚拟对象的运动量。
例如,当在图7的示例中检测到从输入位置Cin1至Cin2的拖动的情况下,操作控制单元160计算限制区域14内分别对应于输入位置Cin1和Cin2的位置Xin1和Xin2。此处,终端设备100与限制区域14之间的距离D超过了预定阈值Th。因此,操作控制单元160通过将从位置Xin1到Xin2的运动矢量Vin乘以系数k(k<1)来计算虚拟对象的修正运动矢量V′in。系数k例如可以是随终端设备100与限制区域14之间的距离的增加而减小的系数。
(5-2)经由运动传感器的用户输入
图8至图11是用于描述受控于操作控制单元160的经由运动传感器的虚拟对象操作的说明图。
参照图8,示出了终端设备100的加速度传感器的传感器坐标系(a1,a2,a3)。例如,a1轴是沿终端设备100的屏幕的水平方向的轴,a2轴是沿屏幕的竖直方向的轴,a3轴是沿屏幕的深度方向的轴。此处例如假设用户在触摸输入位置Cin3的同时沿终端设备100的屏幕的水平方向向左摆动终端设备100。从而,在来自加速度传感器的传感器数据中产生对于a1轴分量具有较大值的加速度矢量Ain3。当从检测单元150输入这样的传感器数据时,操作控制单元160计算限制区域内对应于加速度矢量Ain3的运动矢量。在图9的示例中,示出了如下情况:通过将加速度矢量Ain3投影到限制区域14的平面来计算对应于加速度矢量Ain3的运动矢量Vin3。
参照图10,示出了用于由终端设备100的陀螺仪传感器测量的倾斜角的传感器坐标系(w1,w2,w3)。此处例如假设用户在触摸输入位置Cin4的同时绕垂直于终端设备100的屏幕的轴(沿w1方向)倾斜终端设备100。从而,在来自陀螺仪传感器的传感器数据中,w1轴分量的值增大。当从检测单元150输入这样的传感器数据时,操作控制单元160察觉到重力G的水平分量Gin4加载到终端设备100上。然后,操作控制单元160计算限制区域范围内对应于重力G的水平分量Gin4的运动矢量。在图11的示例中,示出了如下情况:通过将水平分量Gin4投影到限制区域14的平面来计算对应于水平分量Gin4的运动矢量Vin4。
此外,此处主要描述了经由触摸传感器或运动传感器的用户输入。然而,操作控制单元160也可以例如根据与上述示例不同类型的用户输入,诸如通过用户的预定手势,来控制虚拟对象的操作。可以根据由朝向用户的成像设备(不同于拍摄输入图像的设备)所拍摄的图像识别用户的手势。可替代地,例如可以根据由朝向用户视线方向的成像设备拍摄的图像识别用户的手势,如使用HMD的情况。
(5-3)操作目标的指定
操作控制单元160可以根据用户输入的输入位置来确定要作为操作目标的虚拟对象。例如,在要通过触摸传感器上的拖动起始(start ofdragging)或对触摸传感器的触摸来选择要作为操作目标的虚拟对象的情况下,其确定区域存在于连接输入位置和相机的焦点位置的投影线上的虚拟对象被确定为操作目标。在本说明书中,确定区域指的是屏幕上与虚拟对象相关联的区域,通过由用户指定该区域,使得虚拟对象被确定为目标对象。在投影线上存在多个虚拟对象的确定区域的情况下,可以使位置最靠近终端设备100的虚拟对象作为操作目标。虚拟对象的确定区域不需要必须与显示虚拟对象的区域重合。另外,操作控制单元160还可以与确定区域无关地,将终端100的屏幕上最大的被显示虚拟对象、最靠近终端设备100定位的虚拟对象、与终端设备100的屏幕平行对齐的虚拟对象等指定为操作目标。
(5-4)虚拟对象的运动的示例
在本实施例中,可以根据用户输入的类型和根据用户输入确定的限制区域内的位置或运动矢量来确定虚拟对象的运动。
例如,假设虚拟对象是显示具体信息的基本上平面的对象。该具体信息例如可以是导航信息、广告信息、商店信息、新闻、天气预报、铁路信息等。在这种情况下,如果该基本上平面的虚拟对象例如被用户拖动,则操作控制单元160可以在三维空间内沿着根据拖动方向确定的限制区域内的运动矢量的方向来滚动该显示信息。滚动的量例如可以对应于运动矢量的大小。另外,如果该基本上平面的虚拟对象被用户双指缩小或双指放大,操作控制单元160可以根据对应于双指缩小或双指放大的限制区域内的运动矢量的大小来缩放(例如,缩小或放大)该显示信息。另外,如果在该基本上平面的虚拟对象已被指定的情况下点击屏幕上的任何位置,操作控制单元160可以将虚拟对象移动到限制区域内对应于该点击位置的位置。另外,如果在该基本平面的虚拟对象已被指定的情况下在终端设备100上施加加速度,则操作控制单元160可以在三维空间内沿着限制区域内对应于已发生的加速度矢量的运动矢量的方向来滚动该显示信息。将在后面参照附图进一步描述虚拟对象的这种运动的示例。
此外,虚拟对象不限制于上述示例,并且其例如可以是三维对象(用于导航的公告板、做广告的商品的多边形等)。另外,在这种情况下,可以根据用户输入的类型以及根据用户输入而确定的限制区域内的位置和运动矢量来确定虚拟对象的位置、尺寸等。
(6)数据获取单元
数据获取单元170可以获取关于被显示控制单元190叠加到输入图像上的虚拟对象的数据。要被数据获取单元170获取的数据包括定义虚拟对象的对象数据。对象数据例如可以定义虚拟对象的类型、相关联的真实对象的标识符、相对于真实对象的相对显示位置、呈现给用户的信息的内容等。呈现给用户的信息的内容可以是文本格式或图像格式的。数据获取单元170也可以获取预先存储在对象DB 172中的对象数据。可替代地,数据获取单元170可以经由通信单元114从安装在真实空间中的数据服务器获取最新的对象数据。要由数据服务器提供的对象数据可以根据由传感器单元104测量的终端设备100的位置而不同。数据获取单元170将上述对象数据输出到显示控制单元190。
(7)显示控制单元
显示控制单元190通过将虚拟对象叠加到输入图像来生成输出图像。具体地,例如,与被图像识别单元130识别为在输入图像中示出的真实对象相关联的虚拟对象的对象数据被从数据获取单元170输出到显示控制单元190。显示控制单元190基于所述的对象数据生成虚拟对象的对象图像。由显示控制单元190生成的对象图像通常是通过将虚拟地布置在三维真实空间中的虚拟对象(例如根据上述针孔方法)投影到终端设备100的图像平面而获得的图像。可以根据相关联的真实对象的位置和姿态以及对象数据的定义来确定虚拟对象在真实空间中的位置和姿态。然后,显示控制单元190通过将所生成的输出图像输出到显示单元112来显示AR应用的图像。
另外,显示控制单元190根据由操作控制单元160确定的虚拟对象的运动来改变虚拟对象的状态(位置、姿态、尺寸、滚动位置等)。例如,在实时模式中,显示控制单元190将其状态随时根据用户输入而变的虚拟对象的对象图像叠加到由图像获取单元110相继获取的输入图像中的每个上。虚拟对象的运动可以由此被表达到实时更新的输出图像中。另外,在快照模式中,显示控制单元190针对多个帧复制由图像获取单元110从帧存储器112获取的输入图像的快照,并将表达虚拟对象的运动的对象图像叠加到每个复制的快照上。虚拟对象的运动由此被表达在静止图像的快照上。
另外,显示控制单元190还可以将指示虚拟对象在限制区域内的可移动方向的辅助对象添加到输入图像上。另外,显示控制单元190还可以将指示每个虚拟对象的确定区域的辅助对象叠加到输入图像上。将在后面参照附图描述要被显示控制单元190显示的辅助对象的示例。
3.过程的流程
图12是示出根据本实施例的终端设备100的对象控制过程的流程示例的流程图。
参照图12,首先,图像获取单元110获取由成像单元102拍摄的输入图像或存储在帧存储器112中的输入图像(步骤S102)。接着,图像识别单元130可以识别所获取的输入图像中示出的真实对象以及该真实对象的位置和姿态(步骤S104)。接着,数据获取单元170从对象DB 172或外部数据服务器获取关于所识别的真实对象的对象数据(步骤S106)。
接着,操作控制单元160确定检测单元150是否已检测到用于操作虚拟对象的用户输入(步骤S108)。此处,在检测单元150检测到用户输入的情况下,过程进行到步骤S110。另一方面,在没有检测到用户输入的情况下,过程进行到步骤S118。
在检测到用户输入的情况下,操作控制单元160基于基准,诸如用户输入的输入位置、屏幕上的虚拟对象的大小、虚拟对象与终端设备100之间的距离等,来识别作为操作目标的虚拟对象(步骤S110)。接着,操作控制单元160识别由限制区域设置单元140设置的与已被识别的虚拟对象相关联的限制区域(步骤S112)。接着,操作控制单元160计算限制区域内对应于用户输入的输入位置或输入矢量的三维位置或矢量(步骤S114)。接着,操作控制单元160基于计算处的限制区域内的位置或矢量以及用户输入的类型来确定作为操作目标的虚拟对象的运动(步骤S116)。
在步骤S118中,显示控制单元190通过将虚拟地设置在真实空间中的虚拟对象投影到图像平面来生成虚拟对象的对象图像,并将生成的对象图像叠加到输入图像上(步骤S118)。此处虚拟对象的状态是指虚拟对象没有被操作的初始状态(该初始状态可以由对象数据来定义)。另一方面,在虚拟对象被操作的情况下,虚拟对象的状态为已经根据由操作控制单元160确定的运动而改变的状态。接着,显示控制单元190还将指示每个虚拟对象在限制区域内的可移动方向的辅助对象叠加到输入图像上(步骤S120)。然后,已叠加了虚拟对象和辅助对象的输出图像被显示在屏幕上(步骤S122)。
在实时模式中,可以针对成像单元102所拍摄的每个帧重复图12中示出的对象控制过程。另外,在快照模式中,可以将图像获取单元110从帧存储器112获取的快照用作输入图像以执行对象控制过程。在快照模式中,可以通过重复执行针对一个用户输入(或一个行程(one-stroke))的从步骤S118至步骤S122的过程而将虚拟对象的运动表达成动画。
图13是示出图12的步骤S102处的图像获取过程的详细流程的示例的流程图。
参照图13,图像获取单元110首先确定当前模式是快照模式还是实时模式(步骤S132)。如果当前模式在此处是实时模式,则图像获取单元110从成像单元102获取最新输入图像(步骤S134)。另一方面,如果当前模式是快照模式,则图像获取单元110确定是否新获取快照(步骤S136)。例如,在快照模式是新开始的或者用户指示快照进行刷新的情况下,图像获取单元110确定要新获取快照。如果在此处确定要新获取快照,则图像获取单元110从成像单元102获取最新输入图像(步骤S138),并使帧存储器112将所获取的输入图像存储为快照(步骤S140)。另一方面,如果确定不需要新获取快照,则图像获取单元110获取存储在帧存储器112中的快照作为输入图像(步骤S142)。
4.操作场景
接着,将描述可以使用上述终端设备100来实现虚拟对象的操作的三个说明性场景。
4-1.第一场景
图14A和图14B是用于描述关于虚拟对象的操作的第一场景的说明图。
参照图14A,终端设备100的屏幕上显示了示出存在于真实空间中的真实对象12d的图像。真实对象12d是安装在车站的信息板。当图像识别单元130识别出输入图像中示出有真实对象12d时,终端设备100的数据获取单元170获取与真实对象12d相关联的虚拟对象16d的对象数据。虚拟对象16d例如是显示车站地图、出口信息、时刻表等的基本上平面的对象。在图14A的示例中,仅虚拟对象16d的一部分叠加到真实对象12d上。虚拟对象16d的限制区域例如是沿着真实对象12d的表面的区域。限制区域设置单元140基于真实对象12d的位置和姿态来设置虚拟对象16d的限制区域。然后,例如假定用户向终端设备100的屏幕的左上侧拖动真实对象12d(参见附图中的箭头)。
参照图14B,作为上述拖动的结果,虚拟对象16d朝向左后方滚动。然后,虚拟对象16d的在拖动之前没显示的时间表部分被叠加到真实对象12d上。
4-2.第二场景
图15A和图15B是用于描述关于虚拟对象的操作的第二场景的说明图。
参照图15A,在终端设备100的屏幕上显示了示出存在于真实空间中的真实对象12e的图像。真实对象12e是示出地图的信息板。当图像识别单元130识别出输入图像中示出有真实对象12e时,终端设备100的数据获取单元170获取与真实对象12e相关联的虚拟对象16e的对象数据。虚拟对象16e例如是显示地图信息的基本上平面的对象。地图信息的初始显示内容可以与在真实对象12e上实际示出的地图相同。虚拟对象16e的限制区域例如是沿着真实对象12e的表面的区域。限制区域设置单元140基于真实对象12e的位置和姿态来设置虚拟对象16e的限制区域。然后,例如可以假设用户在终端设备100的屏幕上的地图部分处执行双指放大。
参照图15B,作为上述双指放大的结果,虚拟对象16e显示的地图被放大。此外,地图不是简单地在屏幕上放大,而是根据真实对象12e的姿态,在沿着真实对象12e的表面的平面内放大。
因此,例如,操作控制单元160可以在地图部分执行双指缩小或双指放大的情况下在限制区域内缩放地图,并且可以在除了地图部分之外的部分执行双指缩小或双指放大的情况下缩放整个图像并同时保持其平行于图像平面。
4-3.第三场景
参照图16A,再一次示出终端设备100的屏幕上显示的真实对象12d和虚拟对象16d,如图14B的示例所示。此处,例如假定用户将终端设备100的主体向右倾斜。
参照图16B,作为终端设备100被倾斜的结果,虚拟对象16d向右前方滚动。在图16B的示例中,虚拟对象16d的被叠加到真实对象12d上的时刻表部分已移出屏幕,而虚拟对象16d的出口信息部分被叠加到真实对象12d上。
如这些场景的示例中,根据本实施例,虚拟对象不是简单地根据用户输入在屏幕内上下移动以及左右移动,而是可以根据相关联的真实对象的姿态,以如同其在三维真实空间中移动的方式来进行操作。由此可以使得用户能够操作AR虚拟对象而不削弱用户感受到的处于增强真实空间中的感觉,即,用户在AR空间中的沉浸感。
此外,主要描述了将虚拟对象叠加到输入图像中示出的真实对象的表面的示例,但是虚拟对象可以被叠加到与真实对象的表面分离的位置。另外,显示控制单元190可以根据输入图像的纹理等来识别叠加虚拟对象的表面。例如,输入图像中的具有均匀纹理的平面,诸如建筑物的墙壁、通道的地面等,可以被识别为要叠加虚拟对象的表面。
4-4.辅助对象的显示
图17是用于描述指示虚拟对象的可移动方向的辅助对象的说明图。
参照图17,在终端设备100的屏幕上显示了三个真实对象12a、12b和12c。虚拟对象16a被叠加在真实对象12a上。在虚拟对象16a的左端显示了指示虚拟对象16a可以向左前方滚动的辅助对象17a(阴影渐变)。另外,虚拟对象16b被叠加在真实对象12b上。在虚拟对象16b的下方显示了指示虚拟对象16b可以向下滚动的辅助对象17b(箭头)。虚拟对象16c被叠加在真实对象12c上。表示虚拟对象16c可以沿着真实对象12c的表面放大的辅助对象17c(三角形标签)被叠加在虚拟对象16c的四个角上。
如所描述的,通过显示与虚拟对象相关联的、指示虚拟对象的可移动方向的辅助对象,用户可以容易地掌握可如何操作虚拟对象。
另外,在图17的示例中,虚拟对象16a是最靠近终端设备100定位的虚拟对象。在虚拟对象16a上叠加有作为粗框的辅助对象18a。辅助对象18a是指示所谓焦点的对象。当在没有任何虚拟对象被用户指定的情况下执行了特定用户输入时,操作控制单元160可以将聚焦的虚拟对象指定为操作目标。
上面已参照图1至图17对根据实施例的终端设备100进行了详细描述。根据该实施例,在基于输入图像中识别出的真实对象的姿态而在真实空间中设置的限制区域内确定根据用户输入而操作的AR虚拟对象的运动。因此,并不是不考虑真实世界情况地操作虚拟对象,而是可以根据存在于真实空间中的真实对象的姿态,以如同其三个方向地移动的方式进行操作。从而,在对虚拟对象进行操作时,可以实现自然的操作和显示,而不削弱用户在AR空间中的沉浸感。
另外,根据本实施例,可以沿着输入图像中被识别出的真实对象的表面来设置限制区域。另外,虚拟对象是显示具体信息的基本上平面的对象,并且它可以被移动、缩放或沿着真实对象的表面滚动。因此,使得用户能够以真实的感觉自由地观看丰富的信息,就像直接操作在真实世界中示出在真实对象上的信息。
另外,本说明书中描述的终端设备100的过程可以通过使用任何软件、硬件或软件和硬件的组合来实现。构成软件的程序例如可以预先存储到设置在设备内部或外部的存储介质中。每个程序在执行时被加载到RAM(随机存取存储器)中,并且例如由诸如CPU(中央处理单元)的处理器来执行。
本领域的普通技术人员应当理解的是,可以根据设计需要和其它因素而进行各种修改、组合、子组合和替换,只要它们在所附权利要求或它们的等同物的范围内即可。
此外,本技术还可以被如下配置。
(1)一种终端设备,包括:
图像获取单元,用于获取示出真实空间的输入图像;
显示控制单元,用于将虚拟对象叠加到所述输入图像上并显示所述虚拟对象;
检测单元,用于检测用户输入;以及
操作控制单元,用于确定根据所述用户输入而被操作的所述虚拟对象在区域内的运动,其中所述区域具有最多两个维度,并且基于在所述输入图像内识别出的真实对象的姿态而被设置在所述真实空间中。
(2)根据(1)所述的终端设备,
其中,所述区域被沿着所述输入图像内被识别出的所述真实对象的表面设置。
(3)根据(2)所述的终端设备,
其中所述虚拟对象是显示特定信息的基本上平面的对象;并且
其中所述虚拟对象的运动是所述虚拟对象的移动、缩放或滚动。
(4)根据(2)或(3)所述的终端设备,
其中所述检测单元检测对显示所述虚拟对象的屏幕的用户输入;并且
其中所述操作控制单元计算所述区域内对应于所述屏幕上的输入位置的位置,并基于所计算的位置确定所述虚拟对象的运动。
(5)根据(4)所述的终端设备,
其中所述检测单元将所述屏幕上的拖动检测为所述用户输入;并且
其中所述操作控制单元根据所述终端设备与所述区域之间的距离来改变所述虚拟对象的移动的量与所述屏幕上的拖动量之比。
(6)根据(2)或(3)所述的终端设备,
其中所述检测单元使用传感器来检测所述终端设备的运动以作为所述用户输入,并且
其中所述操作控制单元计算所述区域内的与指示所述终端设备的运动的第一矢量相对应的第二矢量,并且基于所计算的第二矢量来确定所述虚拟对象的运动。
(7)根据(1)至(6)中任一项所述的终端设备,
其中所述显示控制单元还将指示所述虚拟对象在所述区域内的可移动方向的辅助对象叠加到所述输入图像上。
(8)根据(1)至(7)中任一项所述的终端设备,
其中所述图像获取单元在检测到预定用户输入的情况下获取由成像设备拍摄的快照以作为所述输入图像,并且
其中所述显示控制单元将所述虚拟对象表达在所述快照上。
(9)一种由终端设备执行的对象控制方法,所述终端设备获取示出真实空间的输入图像并将虚拟图像叠加到所述输入图像上并显示所述虚拟对象,所述方法包括:
检测用户输入,以及
确定根据所述用户输入而被操作的所述虚拟对象在区域内的运动,其中所述区域具有最多两个维度,并且基于在所述输入图像中识别出的真实对象的姿态而被设置在所述真实空间中。
(10)一种用于使控制终端设备的计算机用作如下单元的程序,所述终端设备获取示出真实空间的输入图像并将虚拟对象叠加到所述输入对象上并显示所述虚拟对象:
检测单元,用于检测用户输入;以及
操作控制单元,用于确定根据所述用户输入而被操作的所述虚拟对象在区域内的运动,其中所述区域具有最多两个维度,并且基于在所述输入图像内识别出的真实对象的姿态而被设置在所述真实空间中。
Claims (20)
1.一种装置,包括:
存储指令的存储器;以及
控制单元,其执行所述指令,以:
检测真实空间图像中的关注对象;
检测所述对象的取向和位置;
生成修改图像,所述生成包括:
基于检测到的取向和位置来确定所述真实空间图像的区域;
在所述区域中显示所述对象的虚拟图像;
基于检测到的用户输入来改变所述虚拟图像,经改变的虚拟图像被保持在所述区域内;以及
显示所述修改图像。
2.根据权利要求1所述的装置,其中,确定所述真实空间图像的区域还包括:
请求远程服务器确定所述真实空间图像的所述区域;以及
从所述远程服务器接收对所确定的区域的指示。
3.根据权利要求1所述的装置,其中,检测关注对象还包括:
请求远程服务器检测所述关注对象;以及
从所述远程服务器接收对检测到的关注对象的指示。
4.根据权利要求1所述的装置,其中,检测所述对象的取向和位置还包括:
请求远程服务器检测所述对象的取向和位置;以及
从所述远程服务器接收对所述对象的检测到的取向和位置的指示。
5.根据权利要求1所述的装置,其中,基于检测到的用户输入来改变所述虚拟图像还包括:
检测所述用户输入;
请求远程服务器基于所述检测到的用户输入来改变所述虚拟图像;以及
从所述远程服务器接收对经改变的所述虚拟图像的指示。
6.根据权利要求1所述的装置,其中,确定所述真实空间图像的区域还包括:
基于所述检测到的取向和位置来确定所述关注对象的表面;以及
将所述区域投影到所确定的表面的一部分上。
7.根据权利要求1所述的装置,其中,
所述虚拟图像包括信息的集合;并且
显示所述虚拟图像还包括在所述区域中显示所述信息的页面。
8.根据权利要求7所述的装置,其中,基于检测到的用户输入来改变所述虚拟图像包括:滚动所述信息的集合的所述页面。
9.根据权利要求7所述的装置,其中,基于检测到的用户输入来改变所述虚拟图像包括:缩放所述信息的集合的所述页面的至少之一。
10.根据权利要求1所述的装置,其中,
所述用户输入指定输入位置;并且
改变所述虚拟图像还包括将所述输入位置投影到所述虚拟图像上。
11.根据权利要求10所述的装置,其中,所投影的输入位置选择所述虚拟图像的一部分。
12.根据权利要求11所述的装置,其中,对所述虚拟图像的所述部分的选择为所述用户提供从服务器接收的附加信息。
13.根据权利要求10所述的装置,其中,所述用户经由触控板来指定所述输入位置。
14.根据权利要求1所述的装置,其中,所述指令还包括用于以下处理的指令:
基于所述区域来确定所述虚拟对象的可能的改变;以及
将对所述可能的改变的指示叠加到所述虚拟图像上。
15.根据权利要求14所述的装置,其中,所述可能的改变包括以下的至少之一:调整所述虚拟图像的大小;移动所述虚拟图像;以及改变所述虚拟图像中显示的信息。
16.根据权利要求1所述的装置,其中,所述修改图像还包括真实空间的静止图像。
17.根据权利要求16所述的装置,其中,所述真实空间图像选自真实空间的多个候选静止图像。
18.根据权利要求1所述的装置,其中,所述真实空间图像为真实空间的实时图像。
19.一种方法,包括:
检测真实空间图像中的关注对象;
检测所述对象的取向和位置;
生成修改图像,所述生成包括:
基于检测到的取向和位置来确定所述真实空间图像的区域;
在所述区域内显示所述对象的虚拟图像;
基于检测到的用户输入来改变所述虚拟图像,将经改变的虚拟图
像保持在所述区域内;以及
显示所述修改图像。
20.一种有形地实施的非暂时性计算机可读介质,所述计算机可读介质存储有指令,所述指令当被处理器执行时执行如下方法,所述方法包括:
检测真实空间图像中的关注对象;
检测所述对象的取向和位置;
生成修改图像,所述生成包括:
基于检测到的取向和位置来确定所述真实空间图像的区域;
在所述区域内显示所述对象的虚拟图像;
基于检测到的用户输入来改变所述虚拟图像,将经改变的虚拟图像保持在所述区域内;以及
显示所述修改图像。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011078075A JP5724543B2 (ja) | 2011-03-31 | 2011-03-31 | 端末装置、オブジェクト制御方法及びプログラム |
JP2011-078075 | 2011-03-31 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102750079A true CN102750079A (zh) | 2012-10-24 |
CN102750079B CN102750079B (zh) | 2016-10-19 |
Family
ID=45999589
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210080575.XA Active CN102750079B (zh) | 2011-03-31 | 2012-03-23 | 终端设备以及对象控制方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US8811667B2 (zh) |
EP (2) | EP2506222B1 (zh) |
JP (1) | JP5724543B2 (zh) |
CN (1) | CN102750079B (zh) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103888776A (zh) * | 2012-12-19 | 2014-06-25 | 辉达公司 | 基于用户输入来增强运动估计的设备和方法 |
CN104077024A (zh) * | 2013-03-29 | 2014-10-01 | 索尼公司 | 信息处理设备、信息处理方法及记录介质 |
CN104076920A (zh) * | 2013-03-28 | 2014-10-01 | 索尼公司 | 信息处理设备、信息处理方法及存储介质 |
CN104077023A (zh) * | 2013-03-28 | 2014-10-01 | 索尼公司 | 显示控制设备、显示控制方法以及记录介质 |
CN104679973A (zh) * | 2013-12-03 | 2015-06-03 | 深圳市艾酷通信软件有限公司 | 一种用于移动终端上的文件系统及其实现方法 |
CN105009034A (zh) * | 2013-03-08 | 2015-10-28 | 索尼公司 | 信息处理设备、信息处理方法和程序 |
CN105339865A (zh) * | 2013-04-04 | 2016-02-17 | 索尼公司 | 显示控制装置、显示控制方法以及程序 |
CN105637564A (zh) * | 2013-10-04 | 2016-06-01 | 高通股份有限公司 | 产生未知对象的扩增现实内容 |
CN105657294A (zh) * | 2016-03-09 | 2016-06-08 | 北京奇虎科技有限公司 | 在移动终端上呈现虚拟特效的方法及装置 |
CN105681684A (zh) * | 2016-03-09 | 2016-06-15 | 北京奇虎科技有限公司 | 基于移动终端的图像实时处理方法及装置 |
CN105786432A (zh) * | 2016-03-18 | 2016-07-20 | 北京奇虎科技有限公司 | 在移动终端上展示虚拟画面的方法及装置 |
CN106200916A (zh) * | 2016-06-28 | 2016-12-07 | 广东欧珀移动通信有限公司 | 增强现实图像的控制方法、装置及终端设备 |
CN106446858A (zh) * | 2016-09-30 | 2017-02-22 | 北京小米移动软件有限公司 | 信息显示方法及装置 |
CN106598390A (zh) * | 2016-12-12 | 2017-04-26 | 联想(北京)有限公司 | 一种显示方法、电子设备及显示装置 |
CN106664398A (zh) * | 2014-07-09 | 2017-05-10 | Lg电子株式会社 | 具有与虚拟对象的深度协作的认可范围的显示装置及其控制方法 |
CN109074212A (zh) * | 2016-04-26 | 2018-12-21 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
CN109426348A (zh) * | 2017-08-29 | 2019-03-05 | 西门子医疗有限公司 | 用于选择虚拟对象或图像参数值的方法和选择单元 |
CN109753865A (zh) * | 2017-11-03 | 2019-05-14 | 丰田研究所股份有限公司 | 对象历史关联的系统和方法 |
CN109891365A (zh) * | 2016-10-25 | 2019-06-14 | 微软技术许可有限责任公司 | 虚拟现实和跨设备体验 |
CN112034988A (zh) * | 2017-08-31 | 2020-12-04 | 苹果公司 | 与增强和虚拟现实环境交互的系统、方法和图形用户界面 |
CN113165177A (zh) * | 2018-12-06 | 2021-07-23 | 索尼集团公司 | 信息处理装置、用于处理信息的方法和程序 |
Families Citing this family (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101426082B1 (ko) | 2007-10-04 | 2014-07-31 | 삼성전자주식회사 | 이동통신 단말기를 이용하여 대상장치를 원격제어하는 방법및 그 시스템 |
US9606992B2 (en) * | 2011-09-30 | 2017-03-28 | Microsoft Technology Licensing, Llc | Personal audio/visual apparatus providing resource management |
KR101873525B1 (ko) * | 2011-12-08 | 2018-07-03 | 삼성전자 주식회사 | 휴대단말기의 콘텐츠 표시장치 및 방법 |
US9767720B2 (en) * | 2012-06-25 | 2017-09-19 | Microsoft Technology Licensing, Llc | Object-centric mixed reality space |
GB201216210D0 (en) | 2012-09-12 | 2012-10-24 | Appeartome Ltd | Augmented reality apparatus and method |
JP6178066B2 (ja) * | 2012-11-06 | 2017-08-09 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理方法、プログラム及び情報記憶媒体 |
US9753534B2 (en) * | 2012-11-09 | 2017-09-05 | Sony Corporation | Information processing apparatus, information processing method, and computer-readable recording medium |
US20140210857A1 (en) * | 2013-01-28 | 2014-07-31 | Tencent Technology (Shenzhen) Company Limited | Realization method and device for two-dimensional code augmented reality |
JP6057396B2 (ja) * | 2013-03-11 | 2017-01-11 | Necソリューションイノベータ株式会社 | 3次元ユーザインタフェース装置及び3次元操作処理方法 |
JP6304242B2 (ja) * | 2013-04-04 | 2018-04-04 | ソニー株式会社 | 画像処理装置、画像処理方法およびプログラム |
CN105264572B (zh) * | 2013-04-04 | 2018-09-21 | 索尼公司 | 信息处理设备、信息处理方法和程序 |
JP6304241B2 (ja) * | 2013-04-04 | 2018-04-04 | ソニー株式会社 | 表示制御装置、表示制御方法およびプログラム |
US9245387B2 (en) * | 2013-04-12 | 2016-01-26 | Microsoft Technology Licensing, Llc | Holographic snap grid |
US10509533B2 (en) | 2013-05-14 | 2019-12-17 | Qualcomm Incorporated | Systems and methods of generating augmented reality (AR) objects |
KR20150008733A (ko) * | 2013-07-15 | 2015-01-23 | 엘지전자 주식회사 | 안경형 휴대기기 및 그의 정보 투사면 탐색방법 |
JP6314394B2 (ja) | 2013-09-13 | 2018-04-25 | 富士通株式会社 | 情報処理装置、設定方法、設定プログラム、システムおよび管理装置 |
CN105684045B (zh) | 2013-11-13 | 2019-05-14 | 索尼公司 | 显示控制装置、显示控制方法和程序 |
JP2015095147A (ja) | 2013-11-13 | 2015-05-18 | ソニー株式会社 | 表示制御装置、表示制御方法、およびプログラム |
JP2015095802A (ja) | 2013-11-13 | 2015-05-18 | ソニー株式会社 | 表示制御装置、表示制御方法、およびプログラム |
JP6299234B2 (ja) | 2014-01-23 | 2018-03-28 | 富士通株式会社 | 表示制御方法、情報処理装置、および表示制御プログラム |
JP6196562B2 (ja) * | 2014-02-12 | 2017-09-13 | 日本電信電話株式会社 | 被写体情報重畳装置、被写体情報重畳方法及びプログラム |
GB201404990D0 (en) | 2014-03-20 | 2014-05-07 | Appeartome Ltd | Augmented reality apparatus and method |
AU2014202574A1 (en) | 2014-05-13 | 2015-12-03 | Canon Kabushiki Kaisha | Positioning of projected augmented reality content |
GB201410285D0 (en) | 2014-06-10 | 2014-07-23 | Appeartome Ltd | Augmented reality apparatus and method |
JP6476657B2 (ja) * | 2014-08-27 | 2019-03-06 | 株式会社リコー | 画像処理装置、画像処理方法、およびプログラム |
JP6417797B2 (ja) * | 2014-09-03 | 2018-11-07 | 株式会社リコー | 情報端末装置、情報処理方法、システムおよびプログラム |
JP6437811B2 (ja) * | 2014-12-10 | 2018-12-12 | 株式会社Nttドコモ | 表示装置及び表示方法 |
US20160232714A1 (en) * | 2015-02-06 | 2016-08-11 | Liberty Procurement Co. Inc. | Apparatus, method and system for providing interactive multimedia content based on print media |
JP6346585B2 (ja) * | 2015-04-06 | 2018-06-20 | 日本電信電話株式会社 | 操作支援装置、及びプログラム |
CN104899920B (zh) * | 2015-05-25 | 2019-03-08 | 联想(北京)有限公司 | 图像处理方法、图像处理装置及电子设备 |
KR102601682B1 (ko) * | 2015-06-30 | 2023-11-13 | 매직 립, 인코포레이티드 | 가상 이미지 생성 시스템에서 텍스트를 더 효율적으로 디스플레이하기 위한 기법 |
WO2017110732A1 (ja) * | 2015-12-24 | 2017-06-29 | 株式会社ソニー・インタラクティブエンタテインメント | 主ビーム方向決定装置、主ビーム方向決定方法及びプログラム |
US10504295B2 (en) * | 2016-09-27 | 2019-12-10 | Duke University | Systems and methods for using sensing of real object position, trajectory, or attitude to enable user interaction with a virtual object |
CN106340215B (zh) * | 2016-11-09 | 2019-01-04 | 快创科技(大连)有限公司 | 基于ar增强现实和自适应识别的乐器辅助学习体验系统 |
CN110313021B (zh) * | 2017-03-06 | 2023-07-25 | 连株式会社 | 增强现实提供方法、装置以及计算机可读记录介质 |
US10242457B1 (en) * | 2017-03-20 | 2019-03-26 | Zoox, Inc. | Augmented reality passenger experience |
JP6523362B2 (ja) * | 2017-03-30 | 2019-05-29 | Kddi株式会社 | サーバ装置、端末装置及びプログラム |
US10489951B2 (en) | 2017-09-29 | 2019-11-26 | Qualcomm Incorporated | Display of a live scene and auxiliary object |
DK201870347A1 (en) | 2018-01-24 | 2019-10-08 | Apple Inc. | Devices, Methods, and Graphical User Interfaces for System-Wide Behavior for 3D Models |
WO2019163128A1 (ja) * | 2018-02-26 | 2019-08-29 | 三菱電機株式会社 | 仮想物体表示制御装置、仮想物体表示システム、仮想物体表示制御方法、及び仮想物体表示制御プログラム |
US20200402310A1 (en) * | 2018-02-26 | 2020-12-24 | Mitsubishi Electric Corporation | Virtual object display control device, virtual object display system, virtual object display control method, and storage medium storing virtual object display control program |
US11030811B2 (en) * | 2018-10-15 | 2021-06-08 | Orbit Technology Corporation | Augmented reality enabled layout system and method |
JP6656571B1 (ja) * | 2019-02-05 | 2020-03-04 | 国立研究開発法人国立国際医療研究センター | 翻訳された病院内の案内板を表示する、プログラム、方法および装置 |
JP7442269B2 (ja) * | 2019-03-29 | 2024-03-04 | 三洋電機株式会社 | 二次電池 |
US20220100265A1 (en) * | 2020-09-30 | 2022-03-31 | Qualcomm Incorporated | Dynamic configuration of user interface layouts and inputs for extended reality systems |
WO2022074791A1 (ja) * | 2020-10-08 | 2022-04-14 | マクセル株式会社 | 3次元拡張現実処理システム、3次元拡張現実処理方法、及び3次元拡張現実処理システムのユーザインターフェース装置 |
WO2022196199A1 (ja) | 2021-03-16 | 2022-09-22 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JPWO2023100573A1 (zh) * | 2021-11-30 | 2023-06-08 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6801216B2 (en) * | 2001-02-23 | 2004-10-05 | Michael Voticky | Makeover system |
CN1578414A (zh) * | 2003-07-08 | 2005-02-09 | 佳能株式会社 | 位置姿势测量方法及装置 |
JP2005107972A (ja) * | 2003-09-30 | 2005-04-21 | Canon Inc | 複合現実感提示方法、複合現実感提示装置 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7272489B2 (en) * | 2002-07-18 | 2007-09-18 | Alpine Electronics, Inc. | Navigation method and system for extracting, sorting and displaying POI information |
JP3944019B2 (ja) * | 2002-07-31 | 2007-07-11 | キヤノン株式会社 | 情報処理装置および方法 |
JP4346950B2 (ja) * | 2003-05-02 | 2009-10-21 | キヤノン株式会社 | 情報処理方法および装置 |
JP2005165665A (ja) * | 2003-12-02 | 2005-06-23 | Canon Inc | 仮想物体の操作補助装置、方法、コンピュータプログラム、及びコンピュータ読み取り可能な記録媒体 |
FR2911707B1 (fr) * | 2007-01-22 | 2009-07-10 | Total Immersion Sa | Procede et dispositifs de realite augmentee utilisant un suivi automatique, en temps reel, d'objets geometriques planaires textures, sans marqueur, dans un flux video. |
US8711176B2 (en) * | 2008-05-22 | 2014-04-29 | Yahoo! Inc. | Virtual billboards |
JP5315111B2 (ja) | 2009-03-31 | 2013-10-16 | 株式会社エヌ・ティ・ティ・ドコモ | 端末装置、情報提示システム及び端末画面表示方法 |
JP5466026B2 (ja) | 2009-09-01 | 2014-04-09 | スパンション エルエルシー | 位相同期ループ回路および位相同期ループ回路の制御方法 |
-
2011
- 2011-03-31 JP JP2011078075A patent/JP5724543B2/ja active Active
-
2012
- 2012-03-22 EP EP12160712.1A patent/EP2506222B1/en active Active
- 2012-03-22 EP EP19217816.8A patent/EP3657447A1/en active Pending
- 2012-03-23 CN CN201210080575.XA patent/CN102750079B/zh active Active
- 2012-03-27 US US13/431,540 patent/US8811667B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6801216B2 (en) * | 2001-02-23 | 2004-10-05 | Michael Voticky | Makeover system |
CN1578414A (zh) * | 2003-07-08 | 2005-02-09 | 佳能株式会社 | 位置姿势测量方法及装置 |
JP2005107972A (ja) * | 2003-09-30 | 2005-04-21 | Canon Inc | 複合現実感提示方法、複合現実感提示装置 |
Non-Patent Citations (1)
Title |
---|
CHEHIMI等: "Augmented Reality 3D Interactive Advertisement on Smartphones", 《INTERNATIONAL CONFERENCE ON THE MANAGEMENT OF MOBILE BUSINESS》 * |
Cited By (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103888776A (zh) * | 2012-12-19 | 2014-06-25 | 辉达公司 | 基于用户输入来增强运动估计的设备和方法 |
US10715817B2 (en) | 2012-12-19 | 2020-07-14 | Nvidia Corporation | Apparatus and method for enhancing motion estimation based on user input |
CN105009034A (zh) * | 2013-03-08 | 2015-10-28 | 索尼公司 | 信息处理设备、信息处理方法和程序 |
CN105009034B (zh) * | 2013-03-08 | 2018-05-08 | 索尼公司 | 信息处理设备、信息处理方法和程序 |
US10733807B2 (en) | 2013-03-28 | 2020-08-04 | Sony Corporation | Display control device, display control method, and recording medium |
US9886798B2 (en) | 2013-03-28 | 2018-02-06 | Sony Corporation | Display control device, display control method, and recording medium |
US11954816B2 (en) | 2013-03-28 | 2024-04-09 | Sony Corporation | Display control device, display control method, and recording medium |
US11836883B2 (en) | 2013-03-28 | 2023-12-05 | Sony Corporation | Display control device, display control method, and recording medium |
US11348326B2 (en) | 2013-03-28 | 2022-05-31 | Sony Corporation | Display control device, display control method, and recording medium |
US10922902B2 (en) | 2013-03-28 | 2021-02-16 | Sony Corporation | Display control device, display control method, and recording medium |
CN104076920A (zh) * | 2013-03-28 | 2014-10-01 | 索尼公司 | 信息处理设备、信息处理方法及存储介质 |
CN104077023A (zh) * | 2013-03-28 | 2014-10-01 | 索尼公司 | 显示控制设备、显示控制方法以及记录介质 |
CN104077023B (zh) * | 2013-03-28 | 2018-03-30 | 索尼公司 | 显示控制设备、显示控制方法以及记录介质 |
US10198146B2 (en) | 2013-03-29 | 2019-02-05 | Sony Corporation | Information processing apparatus, information processing method, and recording medium |
CN104077024A (zh) * | 2013-03-29 | 2014-10-01 | 索尼公司 | 信息处理设备、信息处理方法及记录介质 |
US9665982B2 (en) | 2013-03-29 | 2017-05-30 | Sony Corporation | Information processing apparatus, information processing method, and recording medium |
US11188187B2 (en) | 2013-03-29 | 2021-11-30 | Sony Corporation | Information processing apparatus, information processing method, and recording medium |
CN105339865A (zh) * | 2013-04-04 | 2016-02-17 | 索尼公司 | 显示控制装置、显示控制方法以及程序 |
CN105339865B (zh) * | 2013-04-04 | 2018-05-22 | 索尼公司 | 显示控制装置、显示控制方法以及计算机可读介质 |
CN105637564A (zh) * | 2013-10-04 | 2016-06-01 | 高通股份有限公司 | 产生未知对象的扩增现实内容 |
CN104679973A (zh) * | 2013-12-03 | 2015-06-03 | 深圳市艾酷通信软件有限公司 | 一种用于移动终端上的文件系统及其实现方法 |
CN106664398A (zh) * | 2014-07-09 | 2017-05-10 | Lg电子株式会社 | 具有与虚拟对象的深度协作的认可范围的显示装置及其控制方法 |
CN105681684A (zh) * | 2016-03-09 | 2016-06-15 | 北京奇虎科技有限公司 | 基于移动终端的图像实时处理方法及装置 |
CN105657294A (zh) * | 2016-03-09 | 2016-06-08 | 北京奇虎科技有限公司 | 在移动终端上呈现虚拟特效的方法及装置 |
CN105786432A (zh) * | 2016-03-18 | 2016-07-20 | 北京奇虎科技有限公司 | 在移动终端上展示虚拟画面的方法及装置 |
CN109074212A (zh) * | 2016-04-26 | 2018-12-21 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
CN106200916B (zh) * | 2016-06-28 | 2019-07-02 | Oppo广东移动通信有限公司 | 增强现实图像的控制方法、装置及终端设备 |
CN106200916A (zh) * | 2016-06-28 | 2016-12-07 | 广东欧珀移动通信有限公司 | 增强现实图像的控制方法、装置及终端设备 |
CN106446858A (zh) * | 2016-09-30 | 2017-02-22 | 北京小米移动软件有限公司 | 信息显示方法及装置 |
CN109891365A (zh) * | 2016-10-25 | 2019-06-14 | 微软技术许可有限责任公司 | 虚拟现实和跨设备体验 |
CN106598390A (zh) * | 2016-12-12 | 2017-04-26 | 联想(北京)有限公司 | 一种显示方法、电子设备及显示装置 |
CN109426348A (zh) * | 2017-08-29 | 2019-03-05 | 西门子医疗有限公司 | 用于选择虚拟对象或图像参数值的方法和选择单元 |
CN112034988A (zh) * | 2017-08-31 | 2020-12-04 | 苹果公司 | 与增强和虚拟现实环境交互的系统、方法和图形用户界面 |
CN109753865A (zh) * | 2017-11-03 | 2019-05-14 | 丰田研究所股份有限公司 | 对象历史关联的系统和方法 |
CN109753865B (zh) * | 2017-11-03 | 2023-12-26 | 丰田研究所股份有限公司 | 对象历史关联的系统和方法 |
CN113165177A (zh) * | 2018-12-06 | 2021-07-23 | 索尼集团公司 | 信息处理装置、用于处理信息的方法和程序 |
CN113165177B (zh) * | 2018-12-06 | 2024-02-09 | 索尼集团公司 | 信息处理装置、用于处理信息的方法和程序 |
Also Published As
Publication number | Publication date |
---|---|
EP2506222A2 (en) | 2012-10-03 |
EP2506222A3 (en) | 2013-09-11 |
CN102750079B (zh) | 2016-10-19 |
JP2012212345A (ja) | 2012-11-01 |
US20120250940A1 (en) | 2012-10-04 |
JP5724543B2 (ja) | 2015-05-27 |
EP3657447A1 (en) | 2020-05-27 |
EP2506222B1 (en) | 2020-08-05 |
US8811667B2 (en) | 2014-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102750079A (zh) | 终端设备、对象控制方法以及程序 | |
US11195307B2 (en) | Image processing apparatus, image processing method, and program | |
CN102867169B (zh) | 图像处理设备和显示控制方法 | |
TWI418763B (zh) | 作為導航器之行動成像裝置 | |
US9390519B2 (en) | Depth cursor and depth management in images | |
JP5776201B2 (ja) | 情報処理装置、情報共有方法、プログラム及び端末装置 | |
CN101210824B (zh) | 信息处理装置、信息处理方法和信息处理程序 | |
CN103838370A (zh) | 图像处理装置、图像处理方法、程序和终端装置 | |
US8930131B2 (en) | Method and apparatus of physically moving a portable unit to view an image of a stationary map | |
US9851861B2 (en) | Method and apparatus of marking objects in images displayed on a portable unit | |
CN102414697A (zh) | 指示在街道级图像之间转换的系统和方法 | |
CN103733229A (zh) | 信息处理设备、信息处理方法及程序 | |
US8836698B2 (en) | Method and apparatus for identifying a 3-D object from a 2-D display of a portable unit | |
US9459115B1 (en) | Unobstructed map navigation using animation | |
US20140152562A1 (en) | Display controller, display system, storage medium and method | |
JP2012088801A (ja) | 電子ブック装置、および電子ブックプログラム | |
TW201200846A (en) | Global positioning device and system | |
JP5800386B2 (ja) | 地図表示装置、地図表示方法、およびプログラム | |
CN117991967A (zh) | 虚拟键盘交互方法、装置、设备、存储介质和程序产品 | |
JP2020046863A (ja) | 拡張現実空間に配置される3dオブジェクトを生成する方法 | |
JPH11166836A (ja) | ナビゲータ装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |