CN102473322B - 对象选择装置、对象选择程序及对象选择方法 - Google Patents

对象选择装置、对象选择程序及对象选择方法 Download PDF

Info

Publication number
CN102473322B
CN102473322B CN201180003184.1A CN201180003184A CN102473322B CN 102473322 B CN102473322 B CN 102473322B CN 201180003184 A CN201180003184 A CN 201180003184A CN 102473322 B CN102473322 B CN 102473322B
Authority
CN
China
Prior art keywords
depth
display
user
selection
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201180003184.1A
Other languages
English (en)
Other versions
CN102473322A (zh
Inventor
六日市正弘
篠本雄基
箱田航太郎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Publication of CN102473322A publication Critical patent/CN102473322A/zh
Application granted granted Critical
Publication of CN102473322B publication Critical patent/CN102473322B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Abstract

本发明的纵深选择部(18)基于由用户输入的纵深选择指令,选择表示纵深轴(Z)上的位置的纵深选择位置。显示判定部(19)判定在纵深空间内各实际对象(RO)相对于纵深选择位置(Zs)是位于前侧还是位于里侧,并将位于里侧的实际对象(RO)作为标签(T1)被显示的显示对象的实际对象(RO)来提取。描绘部(22)决定由显示判定部(19)提取出的显示对象的实际对象(RO)在显示画面中的显示位置,在所决定的显示位置描绘标签(T1)。

Description

对象选择装置、对象选择程序及对象选择方法
技术领域
本发明涉及让用户对显示图像中被三维显示的多个对象(objects)进行选择的技术。
背景技术
近年来,称为增强现实(augmented reality)的技术受到关注。所谓的增强现实,是对现实世界的影像附加信息进行显示的技术。例如,有在头戴式显示器(head mounteddisplay)上将现实世界的影像和虚拟的物体重叠显示的技术、在移动电话等移动终端的显示部上将照相机拍摄到的影像和附加信息重叠显示等的简易的技术。
当利用移动终端时,由于预先具备GPS、电子罗盘、网络连接等功能,因此不用特意增加特殊的器件就能够实现增强现实,近年来出现了各种各样的增强现实的应用。
在这些应用中,照相机拍摄到的图像和该图像所包含的现实世界的物体的附带信息被重叠显示,但存在当附带信息的数目较多时,仅附带信息就将画面占满的问题。
因此,利用称为标签(tag)的东西。该标签不是附带信息本身,而是通知用户背后的物体存在附带信息这一情况。若用户选择标签,则与该标签相对应的附带信息被通知给用户。
但是,各标签很小,且标签的数目增加。因此,当用户选择标签时,产生各标签彼此重叠而无法选择背后的标签或标签密集而无法容易地选择所期望的标签等问题。尤其是,当在触摸屏式的便携终端上进行操作时,由于与手指的大小相比画面较小,因此难以从密集的标签中正确地选择所期望的标签。
上述例示了在增强现实中选择标签的情况,但当从三维显示在显示图像的多个对象中选择指定的对象时,也会产生同样的问题。例如,有这样一种情况,即在数字电视上三维显示无数的照片,让用户从中选择指定的照片,此时会产生同样的问题。
为此,已知有以下技术:为了使用户能够容易地选择隐藏在背后的对象,通过用户对输入装置的按钮操作,将沿纵深方向排列的对象依次强调显示(highlight-displayed),并在所期望的对象被强调显示时,让用户进行选择操作,从而选择该对象。
另外,也已知以下技术:从用二维光标选择的画面上的位置一次性选择在纵深方向相互重叠的多个三维对象物,并从选择出的多个对象中选择所期望的对象(例如,专利文献1)。
但是,在上述第一个技术中,在所期望的对象被强调显示之前需要按压多个按钮,存在在选择所期望的对象之前花费时间这一问题。另外,在上述第二个技术中,存在当对象整体隐避时难以指定位置、或者识别出与认为在触摸屏上进行操作时已指定的位置有偏差的位置,导致选择错误位置的对象的问题。
专利文献1:日本专利公开公报特开平8-77231号
发明内容
本发明的目的在于提供一种能够让用户从三维显示的多个对象中正确且迅速地选择所期望的对象的技术。
本发明所提供的对象选择装置是让用户对三维显示于显示部的多个对象进行选择的对象选择装置,包括:描绘部,基于配置在指定的纵深空间的各对象的位置,决定各对象在所述显示部上的显示位置,并在所决定的显示位置描绘各对象;纵深选择部,基于由用户输入的纵深选择指令,选择表示在规定所述纵深空间的纵深轴上的位置的纵深选择位置;以及显示判定部,判定在所述纵深空间内,各对象相对于所述纵深选择位置是位于前侧还是位于里侧,仅提取位于里侧的对象作为显示对象的对象,其中,所述描绘部对由所述显示判定部提取出的显示对象的对象进行描绘。
另外,本发明所提供的对象选择程序是用于使计算机作为让用户对三维显示于显示部的多个对象进行选择的对象选择装置而发挥功能的对象选择程序,可使计算机作为以下各部而发挥功能:描绘部,基于配置在指定的纵深空间的各对象的位置,决定各对象在所述显示部上的显示位置,并在所决定的显示位置描绘各对象;纵深选择部,基于由用户输入的纵深选择指令,选择表示在规定所述纵深空间的纵深轴上的位置的纵深选择位置;以及显示判定部,判定在所述纵深空间内,各对象相对于所述纵深选择位置是位于前侧还是位于里侧,仅提取位于里侧的对象作为显示对象的对象,其中,所述描绘部对由所述显示判定部提取出的显示对象的对象进行描绘。
另外,本发明所提供的对象选择方法是用于让用户对三维显示于显示部的多个对象进行选择的对象选择方法,包括:描绘步骤,计算机基于配置在指定的纵深空间的各对象的位置,决定各对象在所述显示部上的显示位置,并在所决定的显示位置描绘各对象;纵深选择步骤,计算机基于由用户输入的纵深选择指令,选择表示在规定所述纵深空间的纵深轴上的位置的纵深选择位置;以及显示判定步骤,计算机判定在所述纵深空间内各对象相对于所述纵深选择位置是位于前侧还是位于里侧,仅提取位于里侧的对象作为显示对象的对象,其中,在所述描绘步骤对在所述显示判定步骤提取出的显示对象的对象进行描绘。
附图说明
图1是表示本发明的实施方式所涉及的对象选择装置的结构的图。
图2是表示对象信息数据库的数据结构的一例的示意图。
图3是表示显示信息提取部生成的纵深空间的一例的图。
图4是表示在本实施方式中在显示器上显示的显示图像的一例的图,(a)示出照相机拍摄到的影像与标签重叠显示的显示图像,(b)示出当从(a)所示的多个标签中选择了所期望的标签时在显示器上显示的显示图像,(c)示出(a)的变形例的显示图像。
图5表示本发明的实施方式所涉及的显示图像的一例。
图6是表示使滑动条滑动时的纵深空间的图。
图7是表示显示有微调整操作部的显示画面的图。
图8中(a)是表示用户的触摸位置的图,(b)示出同时显示多个关联信息时的画面图。
图9是表示选择部在纵深空间中设定的小区域的图。
图10是表示本实施方式所涉及的对象选择装置显示标签为止的处理的流程图。
图11是表示与用户选择的标签相对应的关联信息被显示在显示器上为止的处理的流程图。
图12中(a)、(b)是表示显示有选择操作部的显示图像的图。
图13是表示图12的采用了选择操作部时的纵深空间的图。
具体实施方式
以下,参照附图说明本发明的实施方式的对象选择装置。图1是表示本发明的实施方式所涉及的对象选择装置的结构的图。在以下的说明中,例举将该对象选择装置应用于例如智能移动电话(smart phone)等具有触摸屏的移动电话的情况进行说明。
本对象选择装置包括传感部11、输入/状态变化检测部12、位置取得部13、方位取得部14、对象信息数据库15、显示信息提取部16、输入部17、纵深选择部(depth selector)18、显示判定部19、对象选择部20、关联信息取得部21、描绘部22、图形帧存储器(graphicsframe memory)23、影像输入部24、影像帧存储器25、合成显示部26、显示器27及照相机28。
在图1中,输入/状态变化检测部12至合成显示部26的各块,通过执行用于使计算机作为对象选择装置而发挥功能的对象选择程序来实现。该对象选择程序可以存储在DVD-ROM、CD-ROM等计算机可读取的记录介质中提供给用户,也可以通过用户从网络连接的服务器下载而提供给用户。
传感器11包括GPS传感器111、方位传感器112及触摸屏113。GPS传感器111通过取得从GPS卫星发送的导航数据,周期性地检测对象选择装置的当前位置,周期性地取得表示检测出的当前位置的位置信息。在此,作为位置信息,例如包含对象选择装置的纬度及经度。
方位传感器112例如采用电子罗盘,周期性地检测对象选择装置的当前的方位,周期性地取得表示检测出的方位的方位信息。在此,作为方位信息,例如能够采用从对象选择装置的当前位置以指定的方向(例如向北的方向)为基准方向时对象选择装置相对于基准方向的方向。此外,作为对象选择装置的方向,例如能够采用向北的方向与显示器27的显示画面的垂直方向所成的角度。
输入/状态变化检测部12检测用户的操作指令的输入或对象选择装置的状态变化。具体而言,输入/状态变化检测部12在用户触摸了触摸屏113时,判定用户输入了操作指令,并将操作指令输入通知输出至输入部17。
作为状态变化,例如包含对象选择装置的位置变化及方位变化。输入/状态变化检测部12在从GPS传感器111周期性输出的位置信息发生了变化时,判定对象选择装置的位置发生变化,并将状态变化通知输出至位置取得部13。
另外,输入/状态变化检测部12在从方位传感器112周期性输出的方位信息发生了变化时,判定对象选择装置的方位发生变化,并将状态变化通知通知至方位取得部14。
位置取得部13取得由GPS传感器111检测出的位置信息。具体而言,位置取得部13在由输入/状态变化检测部12输出了状态变化通知时,取得由GPS传感器111检测出的位置信息,并保存取得的位置信息。每当携带对象选择装置的用户移动从而由GPS传感器111检测新的位置信息,就逐次更新位置取得部13保存的位置信息。
方位取得部14取得由方位传感器112检测出的方位信息。具体而言,方位取得部14在由输入/状态变化检测部12输出了状态变化通知时,取得由方位传感器112检测出的方位信息,并保存取得的方位信息。每当携带对象选择装置的用户改变方位从而对象选择装置的方向发生变更,就逐次更新方位取得部14保存的方位信息。
对象信息数据库15是保存实际对象的信息的数据库。在此,所谓的实际对象是指由照相机28拍摄的、并包含于显示在显示器27上的影像中的各种各样的物体,例如楼房等建筑物、入驻建筑物的店铺及设置于店铺内的特定的物体等。但是,并不限定于此,可根据对象的抽象度或粒度(granularity)采用各种各样的物体,有时也指整条街。
图2是表示对象信息数据库15的数据结构的一例的示意图。对象信息数据库15采用对一个实际对象分配一个记录的关系数据库(relational database),例如包含纬度、经度及关联信息这些字段(field)。
即,对象信息数据库15将纬度、经度及关联信息与各实际对象分别关联起来加以存储。在此,纬度及经度表示预先测定出的各实际对象在地球上的二维位置信息即纬度及经度。此外,在图2的例子中,由于只包含纬度及经度,所以只能通过二维的位置指定各实际对象。因此,较为理想的是,让对象信息数据库15除了包含纬度及经度以外,还包含表示各实际对象的距地面的高度的高度。由此,能够三维确定各实际对象的位置。
关联信息是用于说明实际对象的内容的信息,例如,当实际对象为店铺时,该关联信息相当于该店铺的地址、电话号码及优惠券等店铺信息。另外,当实际对象为店铺时,作为该关联信息也可以包含表示店铺的评价等口碑信息。
另外,当实际对象为建筑物时,可以采用建造该建筑物的年月日、建筑师的名字等作为关联信息。另外,当实际对象为建筑物时,也可以包含该建筑物中所包括的店铺的店铺信息、到该店铺信息的链接信息等。此外,对象信息数据库15可以预先保持在对象选择装置的内部,也可以保持在经由网络而连接的服务器上。
返回图1,显示信息提取部16根据由位置取得部13取得的最新的位置信息及由方位取得部14取得的最新的方位信息,生成图3所示的纵深空间,通过在生成的纵深空间标绘存储在对象信息数据库15的实际对象RO,从而提取作为显示对象的实际对象RO。
图3是表示显示信息提取部16生成的纵深空间的一例的图。如图3所示,纵深空间是由纵深轴Z规定的二维空间,该纵深轴Z表示显示在显示器27上的显示图像的纵深方向。
显示信息提取部16如下所述设定纵深空间。首先,若通过位置取得部13更新对象选择装置的当前的位置信息,则显示信息提取部16将表示更新后的当前位置信息的纬度及经度作为当前位置O设定在二维空间内。在此,二维空间例如是由与纬度相对应的M轴和与经度相对应的N轴这两个正交的轴所规定的二维的虚拟空间。另外,N轴与方位传感器112检测的向北的方向相对应。
接着,显示信息提取部16以当前位置O为起点,朝着方位取得部14保存的方位信息所表示的方位设定纵深轴Z。假设方位信息为例如以向北的方向为基准顺时针方向旋转θ1,则纵深轴Z被设定为相对于N轴为θ1的角度。以下,将远离(away from)当前位置O的方向记述为里侧(rearward side),将朝向(toward)当前位置O的方向记述为前侧(forward side)。
接着,显示信息提取部16通过纵深轴Z将指定的内角θ两等分,并且设定穿过当前位置O的两条方位边界L1、L2。在此,作为内角θ,例如采用根据照相机28的拍摄范围而预先设定的角度,例如采用照相机28的水平方向的视角。
接着,显示信息提取部16将存储于对象信息数据库15的各实际对象RO中位于由方位边界L1、L2包围的区域内的实际对象标绘在纵深空间内。此时,显示信息提取部16根据存储于对象信息数据库的实际对象的纬度及经度,提取位于由方位边界L1、L2包围的区域内的实际对象,并将提取出的各实际对象标绘在纵深空间。
此外,也可以预先将存储于对象信息数据库15的各实际对象RO设定在二维空间内,此时,显示信息提取部16能够省去标绘实际对象RO的处理。
接着,显示信息提取部16在从当前位置O离开了距离Zmin的位置设定近侧边界L3。在此,近侧边界L3是以当前位置O为中心的半径为Zmin的圆周中由方位边界L1、L2夹着的曲线。
另外,显示信息提取部16在从当前位置O离开了距离Zmax的位置设定远侧边界L4。在此,远侧边界L4是以当前位置O为中心的半径为Zmax的圆周中由方位边界L1、L2夹着的曲线。
在显示器27上,通过标签T1显示标绘在由方位边界L1、L2、近侧边界L3及远侧边界L4包围的显示区域GD内的实际对象RO。
图4是表示在本实施方式中显示在显示器27上的显示图像的一例的图,(a)示出由照相机28拍摄到的影像与标签T1重叠显示的显示图像,(b)示出当从(a)所示的多个标签T1中选择了所期望的标签时显示在显示器27上的显示图像,(c)示出(a)的变形例的显示图像。关于图4(c),将在后面阐述。
图4(a)、(b)所示的标签T1是用于通知用户显示在背后的实际对象存在附带的信息的较小的圆状的图像,相当于对象的一例。此外,作为标签T1的形状不限定于圆状,能够采用矩形状、多边形等各种各样的形状。
若用户从图4(a)所示的标签T1中选择任一个标签T1,则如图4(b)所示,所选择的标签T1的关联信息被显示在显示器27上。
如图3所示,若在显示器27上显示距当前位置O无限远的实际对象的标签T1,则在显示器27上显示的标签T1的数目庞大。另外,由于也显示用户目视不到的位于远方的实际对象的标签T1,因此这些标签T1妨碍位于用户附近的本来应该显示的标签T1的显示。
为此,在本实施方式中,对标签T1的显示设置限制,以便不显示相对于当前位置O位于比远侧边界L4更远的实际对象的标签T1。
另外,即使显示离当前位置O非常近的实际对象的标签T1,也存在这些标签T1占据显示图像并成为妨碍的可能性。为此,在本实施方式中,对标签T1的显示设置限制,以便不显示相对于当前位置O位于比近侧边界L3更近前侧的实际对象的标签T1。
返回图1,输入部17在由输入/状态变化检测部12输出了操作指令输入通知时,取得用户所触摸的显示图像上的坐标数据。在此,作为坐标数据,采用包含显示图像的垂直方向的坐标和水平方向的坐标的二维坐标数据。
另外,输入部17基于所取得的坐标数据,判定用户输入的操作指令是用于选择纵深的纵深选择指令还是用于选择标签T1的标签选择指令。
图5是表示本发明的实施方式所涉及的显示图像的一例。在图5的例子中,右侧显示有滑动操作部SP。滑动操作部SP包含框体WK和由框体WK包围的滑动条BR。用户通过使滑动条BR滑动来输入纵深选择指令。
因此,输入部17当取得的坐标数据位于滑动条BR的区域内时,判定用户输入了纵深选择指令。另一方面,输入部17当取得的坐标数据位于任一标签T1的区域内时,判定用户输入了对象选择指令。
此外,即使取得的坐标数据未位于任一标签T1的区域内,但只要标签T1位于离表示坐标数据的位置一定距离的范围内时,输入部17也判定用户输入了对象选择指令。
并且,输入部17当判定用户输入了纵深选择指令时,根据对触摸屏113的触摸开始时的坐标数据和触摸结束时的坐标数据来确定滑动条BR的滑动量的变化量,通过将所确定的变化量与触摸开始时的滑动量相加来确定滑动条BR的滑动量(全长x),并将所确定的滑动量输出至纵深选择部18。另一方面,输入部17当判定用户输入了对象选择指令时,将取得的坐标数据输出至对象选择部20。
此外,在图1的例子中,作为输入设备采用了触摸屏113,但也可以取而代之,只要是鼠标或红外线指示器(infrared pointer)等能够指定显示图像的特定位置的定点设备,可以采用任意输入设备。
另外,作为输入设备,可以采用如远程操作电视机的遥控器那样、与对象选择装置分开设置的设备。
纵深选择部18基于由用户输入的纵深选择指令,选择表示纵深轴Z上的位置的纵深选择位置。具体而言,纵深选择部18将滑动操作部SP的滑动条BR的滑动量作为纵深选择指令受理,使纵深选择位置与滑动量联动地发生变化。
图6是表示滑动条BR滑动时的纵深空间的图。纵深选择部18根据表示图5所示的滑动条BR的滑动量的全长x,在图6所示的纵深轴Z上的位置设定纵深选择位置Zs。即,当全长x为0时,纵深选择部18将纵深选择位置Zs设定在Zmin的位置,即设定在近侧边界L3。另外,若滑动条BR滑动到上侧使全长x增大,则纵深选择部18与此相应地使纵深选择位置Zs沿着纵深轴Z向里侧移动。另外,若滑动条BR的全长x达到Xmax,则纵深选择部18将纵深选择位置Zs设定在Zmax的位置,即设定在远侧边界L4。
另外,若滑动条BR向下侧滑动使全长x减少,则纵深选择部18与此相应地使纵深选择位置Zs沿着纵深轴Z向前侧移动。
具体而言,纵深选择部18按照以下的公式(1)计算纵深选择位置Zs。
Zs=(Zmax-Zmin)*((x/Xmax)2)+Zmin    (1)
如公式(1)所示,将(x/Xmax)这一项乘方。因此,随着滑动条BR的全长x增大,纵深选择位置Zs相对于全长x的变化率的变化率将增大。
由此,全长x越短,纵深选择位置Zs的选择的分辨率越高,全长x越长,纵深选择位置Zs的分辨率越低。其结果,用户能够高精度地进行前侧的标签T1的显示与不显示的调整。
此外,若用户使滑动条BR的位置上下移动,则纵深选择部18指示描绘部22与此相应地更新显示器27的显示画面,并使滑动条BR滑动显示。
另外,若用户操作对滑动条BR的全长x进行微调整的微调整操作部DP,则使全长x随之滑动,纵深选择部18可以与此联动地设定纵深选择位置Zs。
图7是表示显示有微调整操作部DP的显示画面的图。如图7所示,微调整操作部DP显示在滑动操作部SP的例如右侧,一部分从显示画面的表面露出,并以模拟了与显示画面平行的方向为旋转轴而旋转的旋转刻度盘的显示形态来显示。
若用户触摸微调整操作部DP的显示区域并使手指向上侧或下侧移动,则纵深选择部18根据该手指的移动量FL1离散地决定微调整操作部DP的旋转量,以与所决定的旋转量相应的变化量Δx使滑动条BR的全长x向上侧或下侧滑动,并以所决定的旋转量使微调整操作部DP旋转显示。
在此,纵深选择部18让滑动条BR滑动显示,使相对于用户操作微调整操作部DP时的手指的移动量FL1的全长x的变化量Δx1小于相对于用户直接操作滑动条BR时的手指的移动量FL1的全长x的变化量Δx2。
即,若设手指的移动量为FL1,当直接操作滑动条BR时,滑动条BR的全长x的变化量Δx1例如成为FL1,但当操作微调整操作部DP时,变化量Δx2例如成为α·Δx1。其中,α满足0<α<1。在本实施方式中,作为α例如采用1/5,但不限定于此,也可以采用1/3、1/4、1/6等值。
此外,微调整操作部DP并非必须是刻度盘式,也可以采用旋转量根据手指的移动量FL1被连续决定的旋转体。此时,用户能够更精细地调节纵深选择位置Zs。
对于不熟悉触摸屏113操作的用户来说,直接操作滑动条BR并不容易。为此,设置微调整操作部DP,使滑动条BR与旋转操作联动地滑动。
返回图1,显示判定部19判定在纵深空间内各实际对象RO相对于纵深选择位置Zs是位于前侧还是位于里侧,将位于里侧的实际对象RO作为标签T1被显示的显示对象的实际对象RO来提取。
由此,若用户使图7所示的滑动条BR向上侧滑动、或通过向上侧旋转微调整操作部DP而使滑动条BR向上侧滑动,则与此相应从显示在前侧的标签T1起依次地成为非显示,从而减少显示的标签T1的数目。
另一方面,若使滑动条BR向垂直方向的下侧滑动、或通过向下侧旋转微调整操作部DP而使滑动条BR向下侧滑动,则与此相应从里侧向前侧显示的标签T1的数目依次增加。
其结果,被显示在跟前的标签T1妨碍而未被显示的标签T1或未怎么露出的标签T1大幅露出,使用户能够容易进行这些标签T1的选择操作。
在此,显示判定部19可以让描绘部22将位于图6所示的纵深选择位置Zs的前侧、且位于由方位边界L1、L2包围的区域的实际对象RO的标签T1以半透明显示的方式进行描绘。此时,描绘部22可以利用例如α混合等方法以指定的透射率合成标签T1和由照相机28拍摄到的影像数据。
返回图1,若由输入部17判定输入了对象选择指令并输出触摸位置的坐标数据,对象选择部20从显示对象的标签T1中确定用户选择的标签T1。
当利用触摸屏113作为输入设备时,用户识别的触摸位置和装置识别的触摸位置可能有偏差。因此,当在触摸位置的附近显示多个标签T1时,可能会选中与用户要选择的标签T1不同的标签T1。
在本实施方式所涉及的对象选择装置中,由于能够使在比用户要选择的标签T1更靠前面显示的标签T1为非显示,因此在显示于触摸位置的周边的标签T1中用户要选择的标签T1显示在最前面的可能性大。
为此,对象选择部20将在离触摸位置一定距离的范围内显示在最前面的标签T1确定为用户选择的标签T1。
图8(a)是表示用户的触摸位置的图,图8(b)示出同时显示有多个关联信息时的画面图。在图8(a)中,PQx表示用户触摸到的触摸位置。此时,对象选择部20将位于离触摸位置PQx一定距离d的范围内的标签T1_1、T1_2、T1_3、T1_4中位于最前面的T1_1确定为用户选择的标签。在此,对象选择部20可以将与标签T1_1至T1_4相对应的实际对象RO在纵深空间中的位置与当前位置O之间的距离最短的标签T1确定为最跟前的标签T1。
这样,对象选择部20基本上将离触摸位置一定距离d内的标签T1中最前面的标签T1确定为用户选择的标签T1,但是,如果在用户要选择的标签T1的附近显示有多个标签T1时,有时用户不知道触摸哪个位置才能够选择所期望的标签T1。
为此,对象选择部20在与触摸位置相对应的纵深空间的位置设定小区域RD,并将位于所设定的小区域RD内的全部实际对象RO的关联信息显示在显示器27上。
图9是表示对象选择部20在纵深空间中设定的小区域RD的图。首先,对象选择部20确定与判定为位于最前面的标签T1相对应的实际对象RO在纵深空间的位置。在图9中,设实际对象RO_f为该实际对象RO。然后,对象选择部20求出在图8(a)中触摸位置PQx从左端将显示图像的下边内分的内分比(m∶n)。接着,对象选择部20在图9所示的纵深空间中,将以当前位置O为中心且以实际对象RO_f与当前位置O之间的距离为半径的圆周设定为等距离曲线Lx。
接着,将以方位边界Z1为基准按m∶n内分等距离曲线Lx的点作为与触摸位置PQx相对应的纵深空间的位置Px求出。
接着,设定从当前位置O穿过位置Px的直线L6。然后,设定穿过当前位置O的两条直线L7、L8,使指定的角度θ3被直线L6两等分。接着,将以使位置Px沿着直线L6向里侧挪动了Δz后的位置与当前位置O之间的距离为半径并以当前位置O为中心的圆周设定为等距离曲线L9。由此,由等距离曲线Lx、L9和直线L7、L8包围的区域被设定为小区域RD。
此外,作为角度θ3及Δz,例如能够采用基于假定的由用户识别的触摸位置与触摸屏113识别的触摸位置的偏差而预先规定的值。
并且,在对象选择部20将包含在设定的小区域RD中的实际对象RO通知给关联信息取得部21后,关联信息取得部21从对象信息数据库15提取被通知的实际对象RO的关联信息,并让描绘部22描绘提取出的关联信息。
由此,在显示器27上显示如图8(b)所示的显示图像。在图8(b)的例子中,在小区域RD中包含有四个实际对象RO,因此显示四个实际对象RO的关联信息。
在此,在图8(b)中,作为显示的关联信息,仅显示存储于对象信息数据库15的关联信息中实际对象RO的名称等一部分信息。并且,也可以在用户触摸触摸屏113而选择了任一个实际对象RO后,显示该实际对象RO的详细的关联信息。由此,谋求一次显示多个关联信息时的显示空间的节约,从而能够显示更多的关联信息。另外,当显示器27的显示区域无法容纳一次显示的关联信息时,可以将这些关联信息进行滚动显示。
返回图1,关联信息取得部21从对象信息数据库15提取由对象选择部20判定为用户进行了选择的标签T1的关联信息,并让描绘部22显示提取出的关联信息。此外,如上所述,当在小区域RD中包含有多个实际对象RO时,从对象信息数据库15提取这些多个实际对象RO的关联信息,并让描绘部22显示提取出的多个关联信息。
描绘部22决定由显示判定部19提取出的显示对象的实际对象RO在显示图像中的显示位置,并在所决定的显示位置描绘标签T1。
在此,描绘部22可以根据在纵深空间中当前位置O与作为显示对象的实际对象RO之间的位置关系来决定标签T1的显示位置。具体而言,可以如下所述那样决定显示位置。
首先,如图6所示,将处在以当前位置O为中心且通过实际对象RO_1的圆周上并由方位边界L1、L2包围的曲线设定为等距离曲线L5。接着,求出当前位置O与实际对象RO_1之间的距离Zo。
接着,如图7所示,在显示图像中设定与距离Zo相应的矩形区域SQ1。在此,矩形区域SQ1的中心例如位于显示图像的中心OG,并且具有与显示图像的形状相似的形状。此外,矩形区域SQ1的尺寸为以根据距离Zo预先规定的比例尺缩小后的尺寸。在此,比例尺与距离Zo之间的关系如下:随着距离Zo增长比例尺增大,随着距离Zo减短比例尺减少,当距离Zo为0时比例尺为1。
接着,求出图6所示的实际对象RO_1内分等距离曲线L5的内分比。在此,设以方位边界L1为基准,实际对象RO_1按m∶n内分等距离曲线L5。
接着,求出按m∶n内分图7所示的显示图像的下边的点Q1,将求出的Q1在显示图像中的水平方向的坐标作为实际对象RO_1的标签T1在显示位置P1的水平方向的坐标H1而求出。
接着,当对象信息数据库15中存储有实际对象RO_1的高度时,将该高度h以与距离Zo相应的比例尺缩小从而求出高度h′,并将从矩形区域SQ1的下边起在垂直方向上离开了高度h′的显示图像的垂直方向的坐标作为显示位置P1的垂直方向的坐标V1而求出。此外,当未存储实际对象RO_1的高度时,可以在穿过坐标H1的垂直方向的直线上恰当的位置显示标签T1。
接着,以与距离Zo相应的比例尺缩小标签T1的面积,并将缩小后的标签T1显示在显示位置P1。纵深选择部18(应为描绘部22)对标签T1成为显示对象的各实际对象RO进行上述的处理,来决定显示位置。
返回图1,描绘部22根据来自纵深选择部18的描绘请求将滑动操作部SP及微调整操作部DP描绘在图形帧存储器23。另外,描绘部22根据来自关联信息取得部21的描绘请求将关联信息描绘在图形帧存储器23。
图形帧存储器23是保存由描绘部22描绘的图像数据的存储器。影像输入部24取得由照相机28以指定的帧频拍摄到的现实世界的影像数据,并依次写入影像帧存储器25。影像帧存储器25是临时保存从影像输入部24以指定的帧频输出的影像数据的存储器。
合成显示部26将由影像帧存储器25保存的影像数据和保存于图形帧存储器23的图像数据重叠,生成实际显示在显示器27上的显示图像。在此,合成显示部26将保存于图形帧存储器23的图像数据重叠在比保存于影像帧存储器25的影像数据更靠跟前的位置。由此,标签T1、滑动操作部SP及微调整操作部DP显示在比现实世界的影像更靠前侧。显示器27采用表面上粘贴有触摸屏113的例如液晶面板或有机EL面板等构成,显示由合成显示部26合成的显示图像。照相机28以指定的帧频取得现实世界的影像数据并输出至影像输入部24。
图10是表示本实施方式所涉及的对象选择装置显示标签T1为止的处理的流程图。首先,输入/状态变化检测部12检测用户的操作指令的输入或对象选择装置的状态变化(步骤S1)。在此,操作指令的输入是用户触摸了触摸屏113,作为状态变化,包括对象选择装置的位置的变化及方位的变化。
接着,当输入/状态变化检测部12检测出对象选择装置的位置的变化时(在步骤S2为“是”),位置取得部13从GPS传感器111取得位置信息(步骤S3)。
另一方面,当输入/状态变化检测部12检测出对象选择装置的方位的变化时(在步骤S2为“否”且在步骤S4为“是”),方位取得部14从方位传感器112取得方位信息(步骤S5)。
接着,显示信息提取部16利用对象选择装置的最新的位置信息及方位信息,生成纵深空间,并将位于显示区域GD内的实际对象RO作为成为显示对象的实际对象RO来提取(步骤S6)。
另一方面,当输入部17判定由用户输入了纵深选择指令时(在步骤S4为“否”且在步骤S中为“是”),纵深选择部18根据由用户操作的滑动条BR的全长x,设定纵深选择位置Zs(步骤S8)。
接着,显示判定部19从由显示信息提取部16提取的显示对象的实际对象RO中,提取位于比由纵深选择部18设定的纵深选择位置Zs更里侧的实际对象RO作为显示对象的实际对象RO(步骤S9)。
接着,描绘部22根据在纵深空间当前位置O与实际对象RO之间的位置关系决定标签T1的显示位置(步骤S10)。
接着,描绘部22在所决定的显示位置描绘显示对象的实际对象RO的标签T1(步骤S11)。接着,合成显示部26以使图形帧存储器23保存的图像数据重叠在保存于影像帧存储器25的影像数据的上侧的方式合成图像数据及影像数据,从而生成显示图像并显示在显示器27上(步骤S12)。
图11是表示与用户选择的标签T1相对应的关联信息被显示在显示器27上为止的处理的流程图。
首先,输入/状态变化检测部12检测由用户输入了操作指令(步骤S21)。接着,若输入部17判定来自用户的操作指令是标签选择指令(在步骤S22为“是”),则对象选择部20如图8(a)所示,提取在离触摸位置PQx的距离为d以内的标签中位于最前面的标签T1_1(步骤S23)。
另一方面,若输入部17判定来自用户的操作指令不是标签选择指令(在步骤S22为“否”),使处理返回到步骤S21。
接着,对象选择部20如图9所示,在与标签T1_1相对应的实际对象RO_f在纵深空间中的位置设定小区域RD,并提取包含在设定的小区域RD中的实际对象RO(步骤S24)。
接着,关联信息取得部21从对象信息数据库15取得提取出的实际对象RO的关联信息(步骤S25)。接着,描绘部22将由关联信息取得部21取得的关联信息描绘在图形帧存储器23(步骤S26)。
此时,当对象选择部20提取了多个实际对象RO时,如图8(b)那样描绘多个实际对象RO的关联信息。
接着,合成显示部26以图形帧存储器23保存的图像数据显示在影像帧存储器25保存的影像数据的上侧的方式合成图像数据及影像数据,并显示在显示器27上(步骤S27)。
此外,当对象选择部20提取了多个实际对象RO时,也可以仅将离纵深选择部18设定的纵深选择位置Zs最近的一个实际对象RO的关联信息显示在显示器27上。
另外,也可以将用于让用户从图8(b)所示的多个关联信息中选择一个关联信息的图像显示在显示器27上,并将用户所选择的一个关联信息显示在显示器27上。
另外,也可以在显示关联信息时,合成显示部26不合成保存于影像帧存储器25的影像数据,仅利用保存于图形帧存储器23的图像数据生成显示图像,并显示在显示器27上。
另外,在上述说明中,如图7所示,让用户利用滑动条BR选择纵深选择位置Zs,但本发明并不限定于此,也可以让用户利用图12所示的选择操作部KP选择纵深选择位置Zs。
图12(a)、(b)是表示显示有选择操作部KP的显示图像的图。当采用选择操作部KP时,通过划分纵深轴Z将纵深空间划分成多个纵深区域。图13是表示图12的采用了选择操作部KP时的纵深空间的图。
如图13所示,纵深空间通过划分纵深轴Z而被划分成七个纵深区域OD1至OD7。具体而言,通过将显示区域GD以当前位置O为中心同心圆状地划分成七个区域,纵深空间被设定成七个纵深区域OD1至OD7。在此,纵深区域OD1至OD7的各区域的宽度可以被设定成随着远离当前位置O而减小,也可以相同。
如图12(a)所示,选择操作部KP包括与纵深区域OD1至OD7相对应的、分颜色而排列的多个选择区域DD1至DD7。在此,由于存在七个纵深区域OD1至OD7,因此存在七个选择区域DD1至DD7。
用户通过触摸触摸屏113,选择选择区域DD1至DD7中的任一个选择区域输入纵深操作指令。以下,当不区分纵深区域OD1至OD7时将它们记述为纵深区域OD,当不区分选择区域DD1至DD7时将它们记述为选择区域DD。另外,纵深区域OD的个数及选择区域DD的个数不限定于七个,可以采用两个以上六个以下、或八个以上的恰当的个数。
描绘部22对各实际对象RO赋予与其所属的纵深区域OD相对应的选择区域DD的颜色相同的颜色来描绘各实际对象RO的标签T1。
例如,如果对选择区域DD1至DD7赋予第一至第七颜色,则描绘部22以对位于纵深区域OD1的实际对象RO的标签T1赋予第一颜色、对位于纵深区域OD2的实际对象RO的标签T1赋予第二颜色等方式对各标签T1赋予颜色。
然后,如果用户触摸了例如选择区域DD3,则纵深选择部18将与选择区域DD3相对应的纵深区域OD3的前侧的边界线在纵深轴Z上的位置作为纵深选择位置Zs来选择。
然后,显示判定部19将位于比纵深选择位置Zs更靠里侧的实际对象RO作为显示对象的实际对象RO来提取,并让描绘部22描绘提取到的实际对象RO的标签T1。因此,当由用户触摸了选择区域DD3时,在图12(a)中,以第一及第二颜色显示的标签T1不显示,以第三至第七颜色显示的标签T1被显示。
此外,作为第一颜色至第七颜色,较为理想的是,采用颜色随着从第一颜色向第七颜色而逐渐变化的渐变的颜色。
在上述说明中,采用了在包含在照相机28拍摄到的影像数据中的实际对象RO上重叠标签T1来进行显示的形态,但本发明不限定于此。例如,在三维显示图标或文件夹的计算机或AV设备的图形用户界面中也可以应用本发明。
此时,对包括在上述说明中所使用的图标或文件夹的对象进行与上述的实际对象RO同样的处理,如图4(c)所示,可以代替标签T1将对象OB进行三维显示。由图4(c)的例子可知,对象OB的面积从前侧的对象OB向里侧的对象OB而逐渐减小,对象OB被三维显示。
此时,若在纵深空间标绘各对象OB的位置,并根据滑动条BR的滑动量设定纵深选择位置Zs,则显示判定部19可以将比纵深选择位置Zs更靠里侧的对象OB作为显示对象的对象OB来提取,并让描绘部22进行描绘。
另外,如图12(b)所示,与图12(a)同样,也可以利用与各对象OB所属的纵深区域OD相对应的颜色来显示各对象OB。此时,若触摸选择操作部KP中的任一选择区域DD,则可以将与所触摸的选择区域DD相对应的纵深区域OD的前侧的边界线在纵深轴Z上的位置设定为纵深选择位置Zs,显示判定部19将比纵深选择位置Zs更靠里侧的对象OB作为显示对象的对象OB来提取,并让描绘部22进行描绘。
另外,也可以让图12(a)、(b)所示的选择操作部KP包含滑动条BR。此时,若用户将滑动条BR的顶端定位在所期望的选择区域DD,则比与该选择区域DD相对应的纵深区域OD更靠里侧的标签T1或对象OB被描绘在显示器27上。
另外,在上述说明中,示出了以智能移动电话构成对象选择装置的例子,但不限定于此,也可以应用于头戴式显示器。
另外,在上述说明中,示出了让显示器27显示滑动操作部SP、选择操作部KP及微调整操作部DP的形态,但不限定于此,也可以是作为物理性的输入设备的结构。
另外,在上述说明中,示出了让显示器27显示滑动操作部SP、选择操作部KP及微调整操作部DP的形态,但不限定于此,当对象选择装置是具备例如加速度传感器那样的检测设备本身的倾斜的功能的移动终端时,也可以基于该终端的倾斜的变化的方向以及变化的量进行纵深选择指令。此时,例如,将便携终端向跟前或向里倾斜相当于使滑动操作部SP的滑动条BR上下滑动,倾斜的变化的量相当于滑动条BR的滑动量。
本发明的技术特征归纳如下。
(1)本发明所提供的对象选择装置是让用户对三维显示于显示部的多个对象进行选择的对象选择装置,包括:描绘部,基于配置在指定的纵深空间的各对象的位置,决定各对象在所述显示部上的显示位置,并在所决定的显示位置描绘各对象;纵深选择部,基于由用户输入的纵深选择指令,选择表示在规定所述纵深空间的纵深轴上的位置的纵深选择位置;以及显示判定部,判定在所述纵深空间内各对象相对于所述纵深选择位置是位于前侧还是位于里侧,仅提取位于里侧的对象作为显示对象的对象,其中,所述描绘部对由所述显示判定部提取出的显示对象的对象进行描绘。
另外,本发明所提供的对象选择程序是用于使计算机作为让用户对三维显示于显示部的多个对象进行选择的对象选择装置而发挥功能的对象选择程序,使计算机作为以下各部而发挥功能:描绘部,基于配置在指定的纵深空间的各对象的位置,决定各对象在所述显示部上的显示位置,并在所决定的显示位置描绘各对象;纵深选择部,基于由用户输入的纵深选择指令选择表示在规定所述纵深空间的纵深轴上的位置的纵深选择位置;以及显示判定部,判定在所述纵深空间内各对象相对于所述纵深选择位置是位于前侧还是位于里侧,仅提取位于里侧的对象作为显示对象的对象,其中,所述描绘部对由所述显示判定部提取出的显示对象的对象进行描绘。
另外,本发明所提供的对象选择方法是用于让用户对三维显示于显示部的多个对象进行选择的对象选择方法,包括:描绘步骤,计算机基于配置在指定的纵深空间的各对象的位置,决定各对象在所述显示部上的显示位置,并在所决定的显示位置描绘各对象;纵深选择步骤,计算机基于由用户输入的纵深选择指令,选择表示在规定所述纵深空间的纵深轴上的位置的纵深选择位置;以及显示判定步骤,计算机判定在所述纵深空间内各对象相对于所述纵深选择位置是位于前侧还是位于里侧,仅提取位于里侧的对象作为显示对象的对象,其中,在所述描绘步骤对在所述显示判定步骤提取出的显示对象的对象进行描绘。
根据这些结构,在由表示显示图像的纵深方向的纵深轴规定的纵深空间配置各对象。各对象被描绘在显示图像的与纵深空间中被配置的位置相对应的显示位置,并被三维显示在显示图像上。
若由用户输入了纵深选择指令,则基于该纵深选择指令选择纵深选择位置。判定各对象相对于纵深选择位置是位于前侧还是位于里侧,并在显示图像上仅描绘位于里侧的对象。
即,若用户选择了纵深选择位置,则能够使位于比该纵深选择位置更靠前侧的对象不显示。因此,通过不显示位于跟前的对象,可以使因位于前侧的对象的存在而仅显示少许的对象或完全未显示的对象得以大幅露出,从而用户能够容易并且迅速地选择该对象。
(2)较为理想的是,上述结构还包括基于来自用户的操作向指定方向滑动的滑动操作部,所述纵深选择部将所述滑动操作部的滑动量作为所述纵深选择指令来受理,使所述纵深选择位置与所述滑动量联动地发生变化。
根据该结构,若用户增大滑动操作部的滑动量,则前侧的对象与此联动地逐渐变得不显示,因此能够通过简便的操作选择设为不显示的对象。
(3)较为理想的是,上述结构还包括基于来自用户的操作对所述滑动操作部的滑动量进行微调整的微调整操作部,所述滑动量被设定成,使在用户操作所述微调整操作部时显示于所述显示部的变化量小于在用户操作所述滑动操作部时显示于所述显示部的变化量。
根据该结构,由于用户能够对滑动操作部的滑动量进行微调整,因此能够更正确地调节滑动操作部的滑动量。由此,用户能够使所期望的对象可靠地露出,从而能够可靠地选择该对象。另外,可实现直接操作滑动操作部,对滑动操作部的滑动量进行粗调整,然后利用微调整操作部对滑动操作部的滑动量进行微调整这一操作方式,从而能够迅速并且正确地调整滑动量。另外,即使是不熟悉滑动操作部的操作的用户,通过操作微调整操作部,也能够容易地将滑动操作部的滑动量调节为所期望的滑动量。
(4)在上述结构中,较为理想的是,所述微调整操作部采用旋转刻度盘,所述纵深选择部使所述纵深选择位置与通过所述旋转刻度盘旋转而滑动的所述滑动操作部的滑动量联动地发生变化。
根据该结构,用户能够与旋转刻度盘的操作联动地将碍事的对象设成不显示。
(5)在上述结构中,较为理想的是,所述纵深选择部使所述纵深选择位置相对于所述滑动量的变化率的变化率随着所述滑动量增大而增大。
根据该结构,能够高精度地进行用户关注度较高的跟前的对象的显示和不显示的调整。
(6)在上述结构中,较为理想的是,所述纵深空间通过划分所述纵深轴而被划分成多个纵深区域,上述结构还包括选择操作部,该选择操作部具有与各纵深区域相对应的分颜色排列的多个选择区域,并受理所述纵深选择指令,所述描绘部对各对象赋予与各对象所属的纵深区域相对应的所述选择区域的颜色相同的颜色来进行描绘,所述纵深选择部将与用户所选择的所述选择区域相对应的纵深区域的前侧的边界线在所述纵深轴上的位置作为所述纵深选择位置进行选择。
根据该结构,若选择与对所期望的对象所附的颜色相同颜色的选择区域,则将显示于比该对象更靠前侧的不同颜色的对象设为不显示,因此能够以颜色为指标容易使所期望的对象露出。
(7)在上述结构中,较为理想的是,所述显示部采用触摸屏,上述结构还包括选择位于距用户触摸的显示图像上的触摸位置为一定的区域内的所述显示对象的对象中被显示于最前面的对象的对象选择部。
认为用户调整纵深选择位置使所期望的对象在显示图像上显示在最前面。因此,即使触摸位置偏离了所期望的对象,用户也能够选中所期望的对象。
(8)在上述结构中,较为理想的是,所述对象选择部将位于离与所述触摸位置相对应的所述纵深空间的位置一定距离的范围内的所述显示对象的对象作为候选的对象来提取。
根据该结构,当在用户触摸的触摸位置周围存在多个对象时,提取这些多个对象作为候选的对象。因此,能够让用户从作为候选而提取的对象中可靠地选择所期望的对象。
产业上的可利用性
本发明所涉及的对象选择装置在容易从三维显示的多个对象中选择指定的对象的情况下是有用的,在具有三维描绘功能的便携设备、数字AV设备等中是有效的。

Claims (10)

1.一种对象选择装置,让用户对三维显示于显示部的多个对象进行选择,其特征在于包括:
描绘部,基于配置在指定的纵深空间的各对象的位置,决定各对象在所述显示部的显示位置,并在所决定的显示位置描绘各对象;
纵深选择部,基于由用户输入的纵深选择指令,选择表示在规定所述纵深空间的纵深轴上的位置的纵深选择位置;
显示判定部,判定在所述纵深空间内各对象相对于所述纵深选择位置是位于前侧还是位于里侧,仅提取位于里侧的对象作为显示对象;以及
滑动操作部,基于来自用户的操作向指定方向滑动,其中,
所述描绘部,对由所述显示判定部提取出的显示对象的对象进行描绘,
所述纵深选择部,将所述滑动操作部的滑动量作为所述纵深选择指令来受理,使所述纵深选择位置与所述滑动量联动地发生变化,并且使相对于所述滑动量的变化率的所述纵深选择位置的变化率随所述滑动量增大而增大。
2.根据权利要求1所述的对象选择装置,其特征在于还包括:基于来自用户的操作对所述滑动操作部的滑动量进行微调整的微调整操作部,其中,
所述滑动量被设定成,使在用户操作所述微调整操作部时显示于所述显示部的变化量小于在用户操作所述滑动操作部时显示于所述显示部的变化量。
3.根据权利要求2所述的对象选择装置,其特征在于:
所述微调整操作部,采用旋转刻度盘,
所述纵深选择部,使所述纵深选择位置与通过所述旋转刻度盘旋转而滑动的所述滑动操作部的滑动量联动地发生变化。
4.根据权利要求1至3中的任一项所述的对象选择装置,其特征在于:
所述显示部采用触摸屏,
所述对象选择装置还包括选择位于距用户触摸的显示图像上的触摸位置为一定的区域内的所述显示对象的对象中被显示于最前面的对象的对象选择部。
5.根据权利要求4所述的对象选择装置,其特征在于:所述对象选择部,将位于离与所述触摸位置相对应的所述纵深空间的位置一定距离的范围内的所述显示对象的对象作为候选的对象来提取。
6.一种对象选择装置,让用户对三维显示于显示部的多个对象进行选择,其特征在于包括:
描绘部,基于配置在指定的纵深空间的各对象的位置,决定各对象在所述显示部的显示位置,并在所决定的显示位置描绘各对象;
纵深选择部,基于由用户输入的纵深选择指令,选择表示在规定所述纵深空间的纵深轴上的位置的纵深选择位置;以及
显示判定部,判定在所述纵深空间内各对象相对于所述纵深选择位置是位于前侧还是位于里侧,仅提取位于里侧的对象作为显示对象,其中,
所述描绘部,对由所述显示判定部提取出的显示对象的对象进行描绘,
所述纵深空间,通过划分所述纵深轴而被划分成多个纵深区域,
所述对象选择装置还包括具有与各纵深区域相对应地分颜色排列的多个选择区域并受理所述纵深选择指令的选择操作部,
所述描绘部,对各对象赋予与各对象所属的纵深区域相对应的所述选择区域的颜色相同的颜色来进行描绘,
所述纵深选择部,将与用户所选择的所述选择区域相对应的纵深区域的前侧的边界线在所述纵深轴上的位置作为所述纵深选择位置进行选择。
7.根据权利要求6所述的对象选择装置,其特征在于:
所述显示部采用触摸屏,
所述对象选择装置还包括选择位于距用户触摸的显示图像上的触摸位置为一定的区域内的所述显示对象的对象中被显示于最前面的对象的对象选择部。
8.根据权利要求7所述的对象选择装置,其特征在于:所述对象选择部,将位于离与所述触摸位置相对应的所述纵深空间的位置一定距离的范围内的所述显示对象的对象作为候选的对象来提取。
9.一种对象选择方法,用于让用户对三维显示于显示部的多个对象进行选择,其特征在于包括:
描绘步骤,计算机基于配置在指定的纵深空间的各对象的位置,决定各对象在所述显示部上的显示位置,并在所决定的显示位置描绘各对象;
纵深选择步骤,计算机基于由用户输入的纵深选择指令,选择表示在规定所述纵深空间的纵深轴上的位置的纵深选择位置;
显示判定步骤,计算机判定在所述纵深空间内,各对象相对于所述纵深选择位置是位于前侧还是位于里侧,仅提取位于里侧的对象作为显示对象的对象;以及
滑动操作步骤,计算机基于来自用户的操作向指定方向滑动,其中,
在所述描绘步骤,对在所述显示判定步骤提取出的显示对象的对象进行描绘,
在所述纵深选择步骤,将所述滑动操作步骤中的滑动量作为所述纵深选择指令来受理,使所述纵深选择位置与所述滑动量联动地发生变化,并且使相对于所述滑动量的变化率的所述纵深选择位置的变化率随所述滑动量增大而增大。
10.一种对象选择方法,用于让用户对三维显示于显示部的多个对象进行选择,其特征在于包括:
描绘步骤,计算机基于配置在指定的纵深空间的各对象的位置,决定各对象在所述显示部上的显示位置,并在所决定的显示位置描绘各对象;
纵深选择步骤,计算机基于由用户输入的纵深选择指令,选择表示在规定所述纵深空间的纵深轴上的位置的纵深选择位置;以及
显示判定步骤,计算机判定在所述纵深空间内,各对象相对于所述纵深选择位置是位于前侧还是位于里侧,仅提取位于里侧的对象作为显示对象的对象,其中,
在所述描绘步骤,对在所述显示判定步骤提取出的显示对象的对象进行描绘,
所述纵深空间,通过划分所述纵深轴而被划分成多个纵深区域,
所述对象选择方法还包括计算机具有与各纵深区域相对应地分颜色排列的多个选择区域并受理所述纵深选择指令的选择操作步骤,
在所述描绘步骤,对各对象赋予与各对象所属的纵深区域相对应的所述选择区域的颜色相同的颜色来进行描绘,
在所述纵深选择步骤,将与用户所选择的所述选择区域相对应的纵深区域的前侧的边界线在所述纵深轴上的位置作为所述纵深选择位置进行选择。
CN201180003184.1A 2010-06-07 2011-05-10 对象选择装置、对象选择程序及对象选择方法 Expired - Fee Related CN102473322B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010130050 2010-06-07
JP2010-130050 2010-06-07
PCT/JP2011/002587 WO2011155118A1 (ja) 2010-06-07 2011-05-10 オブジェクト選択装置、オブジェクト選択プログラム、及びオブジェクト選択方法

Publications (2)

Publication Number Publication Date
CN102473322A CN102473322A (zh) 2012-05-23
CN102473322B true CN102473322B (zh) 2014-12-24

Family

ID=45097740

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201180003184.1A Expired - Fee Related CN102473322B (zh) 2010-06-07 2011-05-10 对象选择装置、对象选择程序及对象选择方法

Country Status (4)

Country Link
US (1) US20120139915A1 (zh)
JP (1) JP5726868B2 (zh)
CN (1) CN102473322B (zh)
WO (1) WO2011155118A1 (zh)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5617448B2 (ja) * 2010-08-31 2014-11-05 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US8965741B2 (en) * 2012-04-24 2015-02-24 Microsoft Corporation Context aware surface scanning and reconstruction
CN102760308B (zh) * 2012-05-25 2014-12-03 任伟峰 一种点选三维虚拟现实场景中物体的方法和装置
US9786097B2 (en) 2012-06-22 2017-10-10 Matterport, Inc. Multi-modal method for interacting with 3D models
US10163261B2 (en) 2014-03-19 2018-12-25 Matterport, Inc. Selecting two-dimensional imagery data for display within a three-dimensional model
US10139985B2 (en) * 2012-06-22 2018-11-27 Matterport, Inc. Defining, displaying and interacting with tags in a three-dimensional model
US10127722B2 (en) 2015-06-30 2018-11-13 Matterport, Inc. Mobile capture visualization incorporating three-dimensional and two-dimensional imagery
US10209946B2 (en) * 2012-08-23 2019-02-19 Red Hat, Inc. Augmented reality personal identification
US20150206348A1 (en) * 2012-09-07 2015-07-23 Hitachi Maxell, Ltd. Reception device
JP6080249B2 (ja) * 2012-09-13 2017-02-15 富士フイルム株式会社 3次元画像表示装置および方法並びにプログラム
JP6080248B2 (ja) 2012-09-13 2017-02-15 富士フイルム株式会社 3次元画像表示装置および方法並びにプログラム
US9966075B2 (en) 2012-09-18 2018-05-08 Qualcomm Incorporated Leveraging head mounted displays to enable person-to-person interactions
CN103729124B (zh) * 2012-10-12 2018-07-20 腾讯科技(深圳)有限公司 滑动列表的控制方法及系统
CN103729119A (zh) * 2012-10-16 2014-04-16 北京千橡网景科技发展有限公司 用于模拟在电子产品的触摸屏上的滑动操作的方法及装置
JP6048898B2 (ja) 2013-08-21 2016-12-21 パナソニックIpマネジメント株式会社 情報表示装置、情報表示方法および情報表示プログラム
JP6393986B2 (ja) * 2013-12-26 2018-09-26 セイコーエプソン株式会社 頭部装着型表示装置、画像表示システム、および、頭部装着型表示装置の制御方法
US9939934B2 (en) 2014-01-17 2018-04-10 Osterhout Group, Inc. External user interface for head worn computing
US10254856B2 (en) 2014-01-17 2019-04-09 Osterhout Group, Inc. External user interface for head worn computing
US9810906B2 (en) 2014-06-17 2017-11-07 Osterhout Group, Inc. External user interface for head worn computing
JPWO2015145544A1 (ja) * 2014-03-24 2017-04-13 パイオニア株式会社 表示制御装置、制御方法、プログラム及び記憶媒体
US20150334367A1 (en) * 2014-05-13 2015-11-19 Nagravision S.A. Techniques for displaying three dimensional objects
JP2016141497A (ja) * 2015-01-30 2016-08-08 株式会社ダイフク 表示用携帯端末利用の搬送用容器保管設備
JP6481456B2 (ja) 2015-03-26 2019-03-13 富士通株式会社 表示制御方法、表示制御プログラム、及び情報処理装置
JP6596883B2 (ja) 2015-03-31 2019-10-30 ソニー株式会社 ヘッドマウントディスプレイ及びヘッドマウントディスプレイの制御方法、並びにコンピューター・プログラム
US11003246B2 (en) 2015-07-22 2021-05-11 Mentor Acquisition One, Llc External user interface for head worn computing
US10139966B2 (en) 2015-07-22 2018-11-27 Osterhout Group, Inc. External user interface for head worn computing
US10466491B2 (en) 2016-06-01 2019-11-05 Mentor Acquisition One, Llc Modular systems for head-worn computers
US10684478B2 (en) 2016-05-09 2020-06-16 Mentor Acquisition One, Llc User interface systems for head-worn computers
US10824253B2 (en) * 2016-05-09 2020-11-03 Mentor Acquisition One, Llc User interface systems for head-worn computers
US10558855B2 (en) * 2016-08-17 2020-02-11 Technologies Holdings Corp. Vision system with teat detection
US11269480B2 (en) * 2016-08-23 2022-03-08 Reavire, Inc. Controlling objects using virtual rays
JP6922301B2 (ja) * 2017-03-22 2021-08-18 カシオ計算機株式会社 電子機器、グラフ描画システム、グラフ描画方法、及びプログラム
JP2017153129A (ja) * 2017-04-14 2017-08-31 日立マクセル株式会社 受信装置
CN107329566B (zh) * 2017-06-23 2020-03-24 联想(北京)有限公司 虚拟对象处理方法及其系统、虚拟现实设备
US10152141B1 (en) 2017-08-18 2018-12-11 Osterhout Group, Inc. Controller movement tracking with light emitters
CN108376424A (zh) 2018-02-09 2018-08-07 腾讯科技(深圳)有限公司 用于对三维虚拟环境进行视角切换的方法、装置、设备及存储介质
CN112292658A (zh) * 2018-06-18 2021-01-29 索尼公司 信息处理装置、信息处理方法和程序
EP3842911B1 (en) * 2019-12-26 2023-04-05 Dassault Systèmes A 3d interface with an improved object selection
CN117093105B (zh) * 2023-10-17 2024-04-16 先临三维科技股份有限公司 一种标签显示方法、装置、设备和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6337700B1 (en) * 1998-07-23 2002-01-08 International Business Machines Corporation Control apparatus and method of selecting a graphical object and changing display attributes thereof
CN101317151A (zh) * 2005-11-29 2008-12-03 科乐美数码娱乐株式会社 对象选择装置、对象选择方法、信息记录媒体及程序

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5553225A (en) * 1994-10-25 1996-09-03 International Business Machines Corporation Method and apparatus for combining a zoom function in scroll bar sliders
US7738688B2 (en) * 2000-05-03 2010-06-15 Aperio Technologies, Inc. System and method for viewing virtual slides
US7439975B2 (en) * 2001-09-27 2008-10-21 International Business Machines Corporation Method and system for producing dynamically determined drop shadows in a three-dimensional graphical user interface
US7043701B2 (en) * 2002-01-07 2006-05-09 Xerox Corporation Opacity desktop with depth perception
TWI238348B (en) * 2002-05-13 2005-08-21 Kyocera Corp Portable information terminal, display control device, display control method, and recording media
JP4153258B2 (ja) * 2002-07-29 2008-09-24 富士通株式会社 流体解析条件設定装置
JP4244040B2 (ja) * 2005-03-10 2009-03-25 任天堂株式会社 入力処理プログラムおよび入力処理装置
JP2010519660A (ja) * 2007-02-27 2010-06-03 クオティディアン,インク. 時間を基準とした情報のための三次元表示

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6337700B1 (en) * 1998-07-23 2002-01-08 International Business Machines Corporation Control apparatus and method of selecting a graphical object and changing display attributes thereof
CN101317151A (zh) * 2005-11-29 2008-12-03 科乐美数码娱乐株式会社 对象选择装置、对象选择方法、信息记录媒体及程序

Also Published As

Publication number Publication date
US20120139915A1 (en) 2012-06-07
JP5726868B2 (ja) 2015-06-03
CN102473322A (zh) 2012-05-23
WO2011155118A1 (ja) 2011-12-15
JPWO2011155118A1 (ja) 2013-08-01

Similar Documents

Publication Publication Date Title
CN102473322B (zh) 对象选择装置、对象选择程序及对象选择方法
US20200310632A1 (en) Interface for Navigating Imagery
US8880341B2 (en) Method and apparatus for displaying three-dimensional terrain and route guidance
CN101944304B (zh) 地图信息显示装置、地图信息显示方法和程序
CN100517316C (zh) 图像文件一览显示装置
US9396215B2 (en) Search device, search method, recording medium, and program
US20130169579A1 (en) User interactions
US8326530B2 (en) System and apparatus for processing information, image display apparatus, control method and computer program
US20150262428A1 (en) Hierarchical clustering for view management augmented reality
US9500485B2 (en) Device and method for displaying information
US20080062173A1 (en) Method and apparatus for selecting absolute location on three-dimensional image on navigation display
EP3004803B1 (en) A method and apparatus for self-adaptively visualizing location based digital information
US20120306795A1 (en) Method and system for three-dimensional virtual-touch interface
CN104471518A (zh) 用于三维交互的多点触摸手势识别的消歧
CN103677529A (zh) 用于查看图像的应用
CN104115096A (zh) 显示装置及使用其改变屏幕模式的方法
US9529925B2 (en) Method of displaying search results
CN103518173A (zh) 信息输入装置和用于控制信息输入装置的方法
CN102713821A (zh) 用于电视菜单和文档导航的三维或更高维图形用户界面
WO2015116507A1 (en) System and method for geo-locating images
EP3764200A1 (en) Traversing photo-augmented information through depth using gesture and ui controlled occlusion planes
US20130326424A1 (en) User Interface For Navigating In a Three-Dimensional Environment
AU2011296686A1 (en) Method and apparatus for interfacing
CN106202140A (zh) 数据浏览装置和数据浏览方法
US20180234819A1 (en) Method of displaying location of a device

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
ASS Succession or assignment of patent right

Owner name: MATSUSHITA ELECTRIC (AMERICA) INTELLECTUAL PROPERT

Free format text: FORMER OWNER: MATSUSHITA ELECTRIC INDUSTRIAL CO, LTD.

Effective date: 20140716

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20140716

Address after: California, USA

Applicant after: PANASONIC INTELLECTUAL PROPERTY CORPORATION OF AMERICA

Address before: Osaka Japan

Applicant before: Matsushita Electric Industrial Co.,Ltd.

C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20141224

Termination date: 20180510

CF01 Termination of patent right due to non-payment of annual fee