CN110928472B - 物品处理方法、装置及电子设备 - Google Patents

物品处理方法、装置及电子设备 Download PDF

Info

Publication number
CN110928472B
CN110928472B CN201811096042.4A CN201811096042A CN110928472B CN 110928472 B CN110928472 B CN 110928472B CN 201811096042 A CN201811096042 A CN 201811096042A CN 110928472 B CN110928472 B CN 110928472B
Authority
CN
China
Prior art keywords
coordinate data
virtual article
space coordinate
action instruction
operation object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811096042.4A
Other languages
English (en)
Other versions
CN110928472A (zh
Inventor
刘颖
潘奕含
张群
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alibaba Group Holding Ltd
Original Assignee
Alibaba Group Holding Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba Group Holding Ltd filed Critical Alibaba Group Holding Ltd
Priority to CN201811096042.4A priority Critical patent/CN110928472B/zh
Publication of CN110928472A publication Critical patent/CN110928472A/zh
Application granted granted Critical
Publication of CN110928472B publication Critical patent/CN110928472B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明实施例提供了一种物品处理方法、装置及电子设备,其中方法包括:获取操作对象在当前互动空间中的动作指令,并通过控制发射的超声波模拟所述操作对象操作所述虚拟物品的触感效果;根据所述动作指令,调整所述虚拟物品的多个组件结构的显示效果。本发明实施例能够通过动作指令来触发虚拟物品的3D显示效果的改变,并通过超声波提供触感效果反馈,使得观察者能够得到更好的互动体验,提升了物品的3D展示效果。

Description

物品处理方法、装置及电子设备
技术领域
本申请涉及一种物品处理方法、装置及电子设备,属于计算机技术领域。
背景技术
在诸如商业展会、客户交流会等需要展示物品的场景,由于物品自身的限制(例如,物品体积太大放不下、材质易碎不适合运输等)以及展会环境的限制(光线亮、噪音大、没有水火能源等),物品无法携带到现场或者在现场展示效果不佳。面对这种情况,一些物品采用3D虚拟显示技术,在一定的物品展示空间中,形成3D的虚拟物品。
不过,现有技术中存在的一些使用3D方式展示物品的方式,对于内部结构无法很好的展示。在一些展示方式中,展现物品内部结构时往往采用爆炸视图,这种方式在物品结构复杂时,观察者往往无法直观感受到物品的层次结构。
发明内容
本发明实施例提供一种物品处理方法、装置及电子设备,以提升3D展示效果。
为了实现上述目的,本发明实施例提供了物品处理方法,所述方法应用于具有3D显示装置的控制系统中,所述3D显示装置用于显示具有视觉3D效果的虚拟物品图像而形成的虚拟物品,所述虚拟物品包括多个组件结构,
所述方法包括:
获取操作对象在当前互动空间中的动作指令,并通过控制发射的超声波模拟所述操作对象操作所述虚拟物品的触感效果;
根据所述动作指令,调整所述虚拟物品的多个组件结构的显示效果。
本发明实施例还提供了一种物品处理装置,所述装置应用于具有3D显示装置的控制系统中,所述3D显示装置用于显示具有视觉3D效果的虚拟物品图像而形成的虚拟物品,所述虚拟物品包括多个组件结构,
所述装置包括:
第一控制模块,用于获取操作对象在当前互动空间中的动作指令,并通过控制发射的超声波模拟所述操作对象操作所述虚拟物品的触感效果;
第二控制模块,用于根据所述动作指令,调整所述虚拟物品的多个组件结构的显示效果。
本发明实施例还提供了一种电子设备,其中,包括:
存储器,用于存储程序;
处理器,耦合至所述存储器,用于执行所述程序,以用于如下处理:
所述程序应用于具有3D显示装置的控制系统中,所述3D显示装置用于显示具有视觉3D效果的虚拟物品图像而形成的虚拟物品,所述虚拟物品包括多个组件结构,
所述处理包括:
获取操作对象在当前互动空间中的动作指令,并通过控制发射的超声波模拟所述操作对象操作所述虚拟物品的触感效果;
根据所述动作指令,调整所述虚拟物品的多个组件结构的显示效果。
本发明实施例的物品处理方法、装置及电子设备,能够通过动作指令来触发虚拟物品的3D显示效果的改变,并通过超声波提供触感效果反馈,使得观察者能够得到更好的互动体验,提升了物品的3D展示效果。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
图1为本发明实施例的控制系统的结构示意图;
图2为本发明实施例的物品处理方法的流程示意图;
图3为本发明实施例的应用场景示意图;
图4为本发明实施例的物品处理装置的结构示意图;
图5为本发明实施例的电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
下面通过一些具体实施例来进一步说明本发明的技术方案。
实施例一
为了提升物品展示的效果,让观察者能够更加具有真实感与被展示的物品进行交互,本发明实施例提供出一种多模联动的展示物品的技术,主要利用3D显示技术、超声波触觉技术以及空间动作识别技术,并将这三种技术进行有机融合,形成了如图1所示的多模联动3D显示的控制处理系统,其主要包括:3D显示装置11、超声波触觉装置13、坐标获取装置12以及联动控制装置14。
1)3D显示装置
为了虚拟展示的需要,物品会预先进行数字化处理(例如3D扫描),形成3D模型数据,或者直接使用产品设计数据来形成3D模型数据。然后将该3D模型数据输入到该3D显示装置11中就可以实现显示具有视觉3D效果的虚拟物品(例如图中的汽车)。
需要说明是,3D显示装置11实际上显示的仍然是平面的虚拟物品图像,利用人眼的视觉误差来形成视觉3D效果。在视觉3D效果中,显示的虚拟物品会处于一个预定的物品展示空间区域15中,3D显示装置在进行3D显示同时,可以根据3D视觉效果模型,计算虚拟物品图像投射到指定的互动空间区域后,形成的3D虚拟物品的空间坐标数据作(以下称为第一空间坐标数据),并发送给联动控制装置14。也就是说,第一空间坐标数据并非虚拟物品的实际空间位置数据,而是一种基于3D视觉效果模型计算出的具有虚拟映射关系的相对空间坐标数据。因此,以下所说的虚拟物品的空间坐标数据是指在3D视觉效果进行映射后的相对空间坐标数据。
3D显示装置可以是裸眼3D显示装置,除了上述的3D显示处理之外,在裸眼3D显示装置上设置有用于获取眼球位置跟踪数据的探测器,在显示原理上,裸眼3D显示装置根据物品的3D模型数据和眼球位置跟踪数据,显示虚拟物品图像。
具体地,裸眼3D显示装置在通常液晶显示面板正面安装局部遮光的狭缝,即带有视差格栅(Parallax Barrier)功能的面板,通过向左右眼显示不同的影像来达到3D显示的效果。在配备视差格栅的面板内部,通过控制液晶分子来形成狭缝。观察者站在裸眼3D显示装置的屏幕前,望着屏幕,裸眼3D显示装置就会通过摄像头开始捕捉眼球位置,通过人脸识别技术判断观察者与屏幕的位置关系,从而调整3D显示效果,让观察者不用自己移动来找最佳观看位置,从多个角度都能看到3D效果。
需要说明的是,基于眼球位置跟踪数据的3D显示控制处理,可以由3D显示装置的控制处理模块来完成,可以由联动控制装置14来执行。
2)坐标获取装置
坐标获取装置12,用于互动空间区域捕捉操作对象的空间坐标数据(以下称作第二空间坐标数据),并发送给联动控制装置14。该装置可以实现为光学发射装置和成像装置的结合,利用图像分析算法,进行3D建模,提取出互动空间区域操作对象的空间位置信息和以及运动轨迹信息。
具体地,可以光学发射装置可以发射红外光透过红外滤镜照射到互动空间区域15的操作对象上,红外光就会被反射回来,经过红外滤镜后,被成像装置(摄像头)所接收,而可见光又不能透过红外滤镜,从而能够得到较为清晰的操作对象图像。如果将采用双摄像头的结构,得到的半灰度的红外图像,通过双目视觉的算法把图像的景深提取出来进行3D建模,就能够提取出操作对象在真实世界三维空间的运动和位置信息。
在实施例中,操作对象可以是指人体的某个部位,不过在实际的展示场景中,观察者主要是通过手部来触碰虚拟物品。因此,上述的坐标获取装置12可以具体为VR(虚拟现实)手势识别装置,用于在互动空间区域15中捕捉手部的第二空间坐标数据。该装置重建出手部在真实世界三维空间的运动信息,可以检测和追踪手、手指的离散的位置和运动轨迹数据。
3)超声波触觉装置
超声波触觉装置13,用于根据输入的空间位置坐标(以下称作第三空间坐标数据)和与该第三空间坐标数据对应的超声波数据(用来表示发射的超声波的压力大小,即希望在不同空间位置实现的触感压力),互动空间区域发射超声波,其中,希望实现的触觉压力是通过不同的超声波频率来实现,超声波触觉装置所需要的数据,由联动控制装置14来提供。
具体地,超声波在压力之下会带来形状的改变,并且模拟出一种虚构的形状和力度。通过使用能发出超声波的扬声器将超声波集中在皮肤上,这时超声波会提供足够大的力量让皮肤产生触觉。以不同的频率来振动皮肤,从而创造出不同的感觉。可以通过改变超声波的各种参数,使操作对象感觉到不同形状的触感。
4)联动控制装置
联动控制装置14从3D显示装置11获取到了虚拟物品的空间坐标数据(第一空间坐标数据),例如,虚拟物品的外表面的空间坐标数据。
联动控制装置又从坐标获取装置12获取到了操作对象的空间坐标数据(第二空间坐标数据),以手部为例,手部所处的空间位置以及运动轨迹数据。
此外,针对不同的物品,联动控制装置14会预先配置好触觉控制策略。例如,当手部触碰到虚拟物品的表面时,应当提供什么样的压力触觉等。
在获得了以上数据的基础上,联动控制装置14会根据触觉控制策略、第一空间坐标数据以及第二空间坐标数据,来生成第三空间坐标数据(要施加超声波触觉的空间位置)以及对应的超声波压力数据(在具体的位置上产生什么样的触觉压力),并发送给超声波触觉装置13,以触发超声波触觉装置13发射超声波。
此外,上述的VR手势识别装置能够获取到手部的空间坐标数据(第二空间坐标数据),并传给联动控制装置14。联动控制装置14可以通过这些空间坐标数据分析出一些手势动作,并根据预设的手势控制策略,向3D显示装置发送改变虚拟物品显示状态的指令,从而对虚拟物品进行一些操作,例如,让虚拟物品转动、放大以及缩小等。
另外,3D显示装置11、超声波触觉装置13、坐标获取装置12可能会有各自的空间坐标体系,不过,由于各个装置以及物品展示区域15是相对固定的,各自坐标体系之间可以通过一定转换关系来实现坐标转换,从而实现坐标统一。因此,联动控制装置还可以用于:根据3D显示装置11、超声波触觉装置13、坐标获取装置12的各自的坐标基准,在第一空间坐标数据、第三空间坐标数据以及第二空间坐标数据之间进行坐标数据转换,以适应多模联动控制处理的需要。在实际应用中,3D显示装置11、超声波触觉装置13、坐标获取装置12的空间坐标数据可以统一到上述的互动空间区域中,以便于进行控制处理,
本发明实施例的多模联动3D显示的控制处理系统,通过将3D显示、超声波触觉、空间动作识别这三方面技术进行有机的结合,实现多模联动,形成了具有现实触感的虚拟物品的3D展示,从而让观察者能够更加直观地了解展示的物品,这样的展示技术不会被物品大小以及材质等限制,非常适合在展会中展示不便于拿到现场的物品。
实施例二
本发明实施例提出了一种物品处理方法,该方法可以应用于实施例一的具有3D显示装置的控制系统上,3D显示装置用于显示具有视觉3D效果的虚拟物品图像而形成的虚拟物品,虚拟物品可以包括多个组件结构,这里所说的多个组件结构可以是物品的多层次结构,也可以是物品的多个部件结构等。如图2所示,其为本发明实施例的物品处理方法的流程示意图,该方法包括:
S101:获取操作对象在当前互动空间中的动作指令,并通过控制发射的超声波模拟操作对象操作虚拟物品的触感效果。这里所说的动作指令可以是:例如触碰动作、穿越动作、转动动作而触发的指令,不同的动作对应于何种指令可以在系统中进行预先设置。在操作对象作出动作指令的同时,上述的超声波触觉装置向操作对象发出超声波,以形成触感效果,让操作对象形成触感反馈。例如,当虚拟物品为汽车时,当检测到操作对象触摸汽车内部发动机时,可以提供类似于发动机振动的触感效果。
其中,获取操作对象在当前互动空间中的动作指令可以包括:
获取虚拟物品图像对应的第一空间坐标数据;
捕捉操作对象的第二空间坐标数据;
根据第一空间坐标数据和第二空间坐标数据确定动作指令。
此外,通过控制发射的超声波模拟操作对象操作虚拟物品的触感效果可以包括:
根据预设的控制策略、第一空间坐标数据以及第二空间坐标数据,生成第三空间坐标数据以及与该第三空间坐标数据对应的超声波数据,并发送给超声波触觉装置,以触发该超声波触觉装置发射超声波,超声波数据用来表示发射的超声波的压力大小。
S102:根据动作指令,调整虚拟物品的多个组件结构的显示效果。3D显示装置根据3D模型数据来显示虚拟物品图像,在本步骤中,在识别出动作指令后,可以通过调整虚拟物品的3D模型数据的方式来改变各个组件的显示效果。具体地,可以根据动作指令,调整虚拟物品的3D模型数据,发送给3D显示装置进行3D显示处理,3D模型数据包括:虚拟物品的各个组件结构对应的第一空间坐标数据以及对应的3D显示特征数据。例如,如图3所示,其为本发明实施例的应用场景示意图,图中展示虚拟物品为灯具,当手指穿过灯罩触及到内层灯泡时,可以让内层灯泡点亮,而外层灯罩显示变暗。
本发明实施例的物品处理方法,通过动作指令来触发虚拟物品的3D显示效果的改变,并通过超声波提供触感效果反馈,使得观察者能够得到更好的互动体验,提升了物品的3D展示效果。
实施例三
如图4所示,其为本发明实施例的物品处理装置的结构示意图,该装置应用于具有3D显示装置的控制系统中,3D显示装置用于显示具有视觉3D效果的虚拟物品图像而形成的虚拟物品,虚拟物品包括多个组件结构,装置包括第一控制模块11和第二控制模块12:
第一控制模块11,用于获取操作对象在当前互动空间中的动作指令,并通过控制发射的超声波模拟操作对象操作虚拟物品的触感效果。
其中,获取操作对象在当前互动空间中的动作指令可以包括:
获取虚拟物品图像对应的第一空间坐标数据;
捕捉操作对象的第二空间坐标数据;
根据第一空间坐标数据和第二空间坐标数据确定动作指令。
其中,通过控制发射的超声波模拟操作对象操作虚拟物品的触感效果包括:
根据预设的控制策略、第一空间坐标数据以及第二空间坐标数据,生成第三空间坐标数据以及与该第三空间坐标数据对应的超声波数据,并发送给超声波触觉装置,以触发该超声波触觉装置发射超声波,超声波数据用来表示发射的超声波的压力大小。
第二控制模块12,用于根据动作指令,调整虚拟物品的多个组件结构的显示效果。
其中,根据动作指令,调整虚拟物品的多个组件结构的显示效果包括:
根据动作指令,调整虚拟物品的3D模型数据,发送给3D显示装置进行3D显示处理,3D模型数据包括:虚拟物品的各个组件结构对应的第一空间坐标数据以及对应的3D显示特征数据。
本发明实施例的物品处理装置,通过动作指令来触发虚拟物品的3D显示效果的改变,并通过超声波提供触感效果反馈,使得观察者能够得到更好的互动体验,提升了物品的3D展示效果。
实施例四
前面实施例描述了多模联动3D显示的控制处理技术的流程处理及系统结构,上述的方法和装置的功能可借助一种电子设备实现完成,如图5所示,其为本发明实施例的电子设备的结构示意图,具体包括:存储器110和处理器120。
存储器110,用于存储程序。
除上述程序之外,存储器110还可被配置为存储其它各种数据以支持在电子设备上的操作。这些数据的示例包括用于在电子设备上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。
存储器110可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
处理器120,耦合至存储器110,用于执行存储器110中的程序,以用于执行如下处理:
所述程序应用于具有3D显示装置的控制系统中,3D显示装置用于显示具有视觉3D效果的虚拟物品图像而形成的虚拟物品,虚拟物品包括多个组件结构,
所述处理包括:
获取操作对象在当前互动空间中的动作指令,并通过控制发射的超声波模拟所述操作对象操作所述虚拟物品的触感效果;
根据所述动作指令,调整所述虚拟物品的多个组件结构的显示效果。
对于上述处理过程具体说明、技术原理详细说明以及技术效果详细分析在前面实施例中进行了详细描述,在此不再赘述。
进一步,如图所示,电子设备还可以包括:通信组件130、电源组件140、音频组件150、显示器160等其它组件。图中仅示意性给出部分组件,并不意味着电子设备只包括图中所示组件。
通信组件130被配置为便于电子设备和其他设备之间有线或无线方式的通信。电子设备可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件130经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,通信组件130还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
电源组件140,为电子设备的各种组件提供电力。电源组件140可以包括电源管理系统,一个或多个电源,及其他与为电子设备生成、管理和分配电力相关联的组件。
音频组件150被配置为输出和/或输入音频信号。例如,音频组件150包括一个麦克风(MIC),当电子设备处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器110或经由通信组件130发送。在一些实施例中,音频组件150还包括一个扬声器,用于输出音频信号。
显示器160包括屏幕,其屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与触摸或滑动操作相关的持续时间和压力。
本领域普通技术人员可以理解:实现上述各方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成。前述的程序可以存储于一计算机可读取存储介质中。该程序在执行时,执行包括上述各方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

Claims (5)

1.一种物品处理方法,所述方法应用于具有3D显示装置的控制系统中,所述3D显示装置用于显示具有视觉3D效果的虚拟物品图像而形成的虚拟物品,所述虚拟物品包括多个组件结构,
所述方法包括:
获取操作对象在当前互动空间中的动作指令,并通过控制发射的超声波模拟所述操作对象操作所述虚拟物品的触感效果;
根据所述动作指令,调整所述虚拟物品的多个组件结构的显示效果;
其中,获取操作对象在当前互动空间中的动作指令包括:
获取所述虚拟物品图像对应的第一空间坐标数据;
捕捉操作对象的第二空间坐标数据;
根据所述第一空间坐标数据和所述第二空间坐标数据确定所述动作指令;
其中,所述通过控制发射的超声波模拟所述操作对象操作所述虚拟物品的触感效果包括:
根据预设的控制策略、所述第一空间坐标数据以及所述第二空间坐标数据,生成第三空间坐标数据以及与该第三空间坐标数据对应的超声波数据,并发送给超声波触觉装置,以触发该超声波触觉装置发射超声波,所述超声波数据用来表示发射的超声波的压力大小。
2.根据权利要求1所述的方法,其中,根据所述动作指令,调整所述虚拟物品的多个组件结构的显示效果包括:
根据所述动作指令,调整虚拟物品的3D模型数据,发送给所述3D显示装置进行3D显示处理,所述3D模型数据包括:虚拟物品的各个组件结构对应的第一空间坐标数据以及对应的3D显示特征数据。
3.一种物品处理装置,所述装置应用于具有3D显示装置的控制系统中,所述3D显示装置用于显示具有视觉3D效果的虚拟物品图像而形成的虚拟物品,所述虚拟物品包括多个组件结构,
所述装置包括:
第一控制模块,用于获取操作对象在当前互动空间中的动作指令,并通过控制发射的超声波模拟所述操作对象操作所述虚拟物品的触感效果;
第二控制模块,用于根据所述动作指令,调整所述虚拟物品的多个组件结构的显示效果;
其中,获取操作对象在当前互动空间中的动作指令包括:
获取所述虚拟物品图像对应的第一空间坐标数据;
捕捉操作对象的第二空间坐标数据;
根据所述第一空间坐标数据和所述第二空间坐标数据确定所述动作指令;
其中,所述通过控制发射的超声波模拟所述操作对象操作所述虚拟物品的触感效果包括:
根据预设的控制策略、所述第一空间坐标数据以及所述第二空间坐标数据,生成第三空间坐标数据以及与该第三空间坐标数据对应的超声波数据,并发送给超声波触觉装置,以触发该超声波触觉装置发射超声波,所述超声波数据用来表示发射的超声波的压力大小。
4.根据权利要求3所述的装置,其中,根据所述动作指令,调整所述虚拟物品的多个组件结构的显示效果包括:
根据所述动作指令,调整虚拟物品的3D模型数据,发送给所述3D显示装置进行3D显示处理,所述3D模型数据包括:虚拟物品的各个组件结构对应的第一空间坐标数据以及对应的3D显示特征数据。
5.一种电子设备,其中,包括:
存储器,用于存储程序;
处理器,耦合至所述存储器,用于执行所述程序,以用于如下处理:
所述程序应用于具有3D显示装置的控制系统中,所述3D显示装置用于显示具有视觉3D效果的虚拟物品图像而形成的虚拟物品,所述虚拟物品包括多个组件结构,
所述处理包括:
获取操作对象在当前互动空间中的动作指令,并通过控制发射的超声波模拟所述操作对象操作所述虚拟物品的触感效果;
根据所述动作指令,调整所述虚拟物品的多个组件结构的显示效果;
其中,获取操作对象在当前互动空间中的动作指令包括:
获取所述虚拟物品图像对应的第一空间坐标数据;
捕捉操作对象的第二空间坐标数据;
根据所述第一空间坐标数据和所述第二空间坐标数据确定所述动作指令;
其中,所述通过控制发射的超声波模拟所述操作对象操作所述虚拟物品的触感效果包括:
根据预设的控制策略、所述第一空间坐标数据以及所述第二空间坐标数据,生成第三空间坐标数据以及与该第三空间坐标数据对应的超声波数据,并发送给超声波触觉装置,以触发该超声波触觉装置发射超声波,所述超声波数据用来表示发射的超声波的压力大小。
CN201811096042.4A 2018-09-19 2018-09-19 物品处理方法、装置及电子设备 Active CN110928472B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811096042.4A CN110928472B (zh) 2018-09-19 2018-09-19 物品处理方法、装置及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811096042.4A CN110928472B (zh) 2018-09-19 2018-09-19 物品处理方法、装置及电子设备

Publications (2)

Publication Number Publication Date
CN110928472A CN110928472A (zh) 2020-03-27
CN110928472B true CN110928472B (zh) 2023-05-05

Family

ID=69856159

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811096042.4A Active CN110928472B (zh) 2018-09-19 2018-09-19 物品处理方法、装置及电子设备

Country Status (1)

Country Link
CN (1) CN110928472B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113906372A (zh) * 2021-05-20 2022-01-07 深圳盈天下视觉科技有限公司 一种空中成像交互系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103970265A (zh) * 2013-01-15 2014-08-06 英默森公司 具有触觉反馈的增强现实用户接口
WO2016007920A1 (en) * 2014-07-11 2016-01-14 New York University Three dimensional tactile feedback system
CN106293012A (zh) * 2015-05-28 2017-01-04 深圳柔石科技有限公司 一种三维体感双向交互系统和方法
CN106843502A (zh) * 2017-03-10 2017-06-13 京东方科技集团股份有限公司 一种三维显示的触控互动系统及方法
CN106843475A (zh) * 2017-01-03 2017-06-13 京东方科技集团股份有限公司 一种实现虚拟现实交互的方法及系统
CN107589847A (zh) * 2017-09-20 2018-01-16 京东方科技集团股份有限公司 超声波触觉反馈显示装置、制造方法及显示系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101156734B1 (ko) * 2010-11-05 2012-06-14 전자부품연구원 테이블 타입 인터렉티브 3차원 시스템
US9619027B2 (en) * 2013-07-12 2017-04-11 Disney Enterprises, Inc. Using vortices to provide tactile sensations corresponding to a visual presentation

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103970265A (zh) * 2013-01-15 2014-08-06 英默森公司 具有触觉反馈的增强现实用户接口
WO2016007920A1 (en) * 2014-07-11 2016-01-14 New York University Three dimensional tactile feedback system
CN106293012A (zh) * 2015-05-28 2017-01-04 深圳柔石科技有限公司 一种三维体感双向交互系统和方法
CN106843475A (zh) * 2017-01-03 2017-06-13 京东方科技集团股份有限公司 一种实现虚拟现实交互的方法及系统
CN106843502A (zh) * 2017-03-10 2017-06-13 京东方科技集团股份有限公司 一种三维显示的触控互动系统及方法
CN107589847A (zh) * 2017-09-20 2018-01-16 京东方科技集团股份有限公司 超声波触觉反馈显示装置、制造方法及显示系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
帅立国 ; 陈慧玲 ; 怀红旗 ; .触觉传感与显示技术现状及发展趋势.振动.测试与诊断.2016,(06),全文. *
张凤军 ; 戴国忠 ; 彭晓兰 ; .虚拟现实的人机交互综述.中国科学:信息科学.2016,(12),全文. *

Also Published As

Publication number Publication date
CN110928472A (zh) 2020-03-27

Similar Documents

Publication Publication Date Title
US20210365228A1 (en) Controlling external devices using reality interfaces
CN110476142B (zh) 显示虚拟内容的计算设备、方法和头戴式显示器设备
JP6826029B2 (ja) 画像を表示するための方法、装置およびコンピュータ・プログラム
US10373381B2 (en) Virtual object manipulation within physical environment
CN108038726B (zh) 物品展示方法及装置
JP6478360B2 (ja) コンテンツ閲覧
US20150187137A1 (en) Physical object discovery
US20200004327A1 (en) Focus-Based Debugging And Inspection For A Display System
US20110107216A1 (en) Gesture-based user interface
US20120113018A1 (en) Apparatus and method for user input for controlling displayed information
US11089427B1 (en) Immersive augmented reality experiences using spatial audio
US10422996B2 (en) Electronic device and method for controlling same
KR20160128119A (ko) 이동 단말기 및 이의 제어방법
WO2015102854A1 (en) Assigning virtual user interface to physical object
US20200150751A1 (en) Methods, Apparatus, Systems, Computer Programs for Enabling Consumption of Virtual Content for Mediated Reality
WO2016187474A1 (en) Acousto-optical display for augmented reality
KR102561022B1 (ko) 가상 및 증강 현실 환경에서의 제어기 시각화
US11209903B2 (en) Rendering of mediated reality content
US10778966B2 (en) Display device and method for controlling display device
KR20170066054A (ko) 오디오 제공 방법 및 그 장치
CN114514493A (zh) 增强设备
US20210081051A1 (en) Methods, apparatus, systems, computer programs for enabling mediated reality
JP2020523672A (ja) 媒介現実コンテンツのレンダリング
KR20220024827A (ko) 가상 및 물리적 카메라들의 위치 동기화
CN110928472B (zh) 物品处理方法、装置及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40026849

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant