CN112541976A - 用于辅助3d场景中的3d对象的定位的计算机实现方法 - Google Patents
用于辅助3d场景中的3d对象的定位的计算机实现方法 Download PDFInfo
- Publication number
- CN112541976A CN112541976A CN202010972147.2A CN202010972147A CN112541976A CN 112541976 A CN112541976 A CN 112541976A CN 202010972147 A CN202010972147 A CN 202010972147A CN 112541976 A CN112541976 A CN 112541976A
- Authority
- CN
- China
- Prior art keywords
- computer
- axis
- digitally modeled
- obj1
- implemented method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/08—Volume rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2004—Aligning objects, relative positioning of parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2016—Rotation, translation, scaling
Landscapes
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Architecture (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明涉及一种用于辅助数字建模的3D对象的定位的计算机实现的方法,包括以下步骤:S1:提供在3D场景中具有3D位置的第一数字建模的3D对象(OBJ1);S2:根据第一轴(AX1)和第一视点来渲染所述第一数字建模的3D对象(OBJ1)在屏幕上的投影;S3:在根据用户动作修改第一数字建模的3D对象(OBJ1)沿第一轴(AX1)的3D位置的同时,自动缩放第一3D对象(OBJ1),以使移动后的对象在屏幕上的投影保持恒定。
Description
技术领域
本发明涉及一种用于辅助3D场景中的数字建模的3D对象的定位的计算机实现的方法。例如,本发明使得能够拍摄诸如家具之类的对象的照片,创建对象的3D模型,或者从对象的现有图像开始,存储图像和/或共享图像以用于进一步的CAD操作。
背景技术
基于单个图像创建复杂的3D物理对象(例如,由平坦顶部和一条或多条腿组成的桌子)的数字模型是一项复杂的任务。实际上,图像具有角度,该角度由相机的视角和位置确定,并且在对对象的所有部件进行建模时,必须考虑到该角度。否则,3D模型将无法表达物理对象的现实布置。在下文中,除非明确声明相反的情况,否则对3D对象的任何引用都将指代数字建模的3D对象,而不是物理对象。类似地,除非明确声明相反的情况,否则对3D场景的任何引用都将指代计算机生成的数字3D场景,而不是物理世界中的场景。
在计算机辅助设计(CAD)系统中,例如由达索系统(Dassault Systèmes)提供的商标为CATIA的系统,用户可以基于单个图像创建包括若干3D部件的复杂的3D对象。为此,他通过在2D图像上绘制3D部件(例如,通过在桌子的平坦顶部上绘制第一平行六面体,并且在脚板上绘制另一平行六面体)来创建3D部件。替代地,他可以从现有3D部件开始。由于仅根据CAD系统的虚拟相机的一个视点组装3D部件这一事实,从该视点来看,3D部件的相对位置可能不与期望的相对位置相对应。例如,从第一视点看,用户看到代表桌子的平坦顶部的3D部件和代表桌子腿的3D部件是对齐的。从另一视点看,两个3D部件可能是未对齐的。
为了纠正3D部件的错误的相对定位,用户可以操纵图形操纵器,例如CATIA中的3D指南针。3D指南针体现了多种功能的紧凑表示,这些功能可以关联到将在其上执行功能(例如旋转、平移、缩放)的对象。
用户将3D指南针朝向3D部件之一(例如,代表平坦顶部的3D部件)拖动,然后释放3D部件上的指针,这将3D指南针锚定在该3D部件上。当改变虚拟相机的视点时,用户通过拖动3D指南针的箭头之一来平移在其上锚定了3D指南针的3D部件。
然而,一旦用户再次改变视点并返回到最初的视点,则由于平移,已经平移的3D部件在屏幕上的投影的尺寸看起来已经改变。平移后的3D部件与其初始尺寸相比更大或更小。因此,用户将3D指南针拖动到平移后的3D部件上;然后他不释放地按住3D指南针的缩放按钮,并且移动指针直到他认为3D部件已经被正确地重新缩放。
因此,使用用户分两个步骤进行,即一步用于平移,另一步用于重新缩放,这很费时。此外,可以重复这两个步骤,以迭代地获得期望的相对定位,这进一步增加了设计时间。
使用摄影测量技术的解决方案可以实现非常精确的3D重建,例如在应用“CatiaPhoto To Shape”(由达索系统销售的)中实现的。然而,该技术要求以两个不同视点从至少两个图像开始。因此,对于从物理3D对象的单个图像开始对该物理3D对象进行建模来说,这不是令人满意的解决方案。
学术研究最近也集中在3D姿态估计上,例如在文章“3D Human Pose Machineswith Self-supervised Learning(具有自监督学习的3D人体姿态机器)”(Keze Wang等人,IEEE Transactions on patter,analysis and machine intelligence,2019年)中所公开的。在这种情况下,从人体的2D姿态开始,可以通过使用深度学习来重建3D姿态。然而,该篇文章特定于特定类别,即人体,并且不能扩展到其他类别的对象。更一般而言,每个神经网络都适用于特定类别的对象。
因此,需要基于对象的单个图像来帮助用户快速地将3D对象定位在3D场景中,并且不要求组件的先前知识。
发明内容
因此,本发明的目的是一种用于辅助数字建模的3D对象的定位的计算机实现的方法,包括以下步骤:
-S1:提供在3D场景中具有3D位置的第一数字建模的3D对象;
-S2:根据第一轴和第一视点来渲染所述第一数字建模的3D对象在屏幕上的投影;
-S3:在根据用户动作修改第一数字建模的3D对象沿第一轴的3D位置的同时,自动缩放第一3D对象,以使移动后的对象在屏幕上的投影保持恒定。
在优选实施例中,步骤S3包括根据第二轴从第二视点显示所述第一数字建模的3D对象,所述第二视点和所述第二轴分别不同于第一视点和第一轴。
在优选实施例中,第一轴和第二轴相互正交。
在优选实施例中,第一轴由虚线或实线表示,所述虚线或实线与第一轴重合。
在优选实施例中:
-步骤S1包括提供具有预定尺寸并且在3D场景中具有3D位置的第二数字建模的3D对象;
-步骤S3包括使第二数字建模的3D对象的3D位置和尺寸保持固定。
在优选实施例中,步骤S3包括在第一轴上显示相对于第二数字建模的3D对象的至少一个捕捉点,以实现第一数字建模的3D对象相对于第二数字建模的3D对象的快速定位。
在优选实施例中,捕捉点对应于:
-包围第二数字建模的3D对象的最小边界框的中心在第一轴上的投影,或者
-包围第二数字建模的3D对象的最小边界框的边在第一轴上的投影。
在优选实施例中,步骤S3包括:突出显示第一数字建模的3D对象。
在优选实施例中,步骤S1包括:接收用于将所述第一数字建模的3D对象至少部分地与屏幕上的2D图像的一部分拟合的用户输入。
本发明还涉及一种存储在计算机可读数据存储介质上的计算机程序产品,其包括用于使计算机系统执行上述方法的计算机可执行指令。
本发明还涉及一种计算机可读数据存储介质,其包含用于使计算机系统执行上述方法的计算机可执行指令。
本发明还涉及一种计算机系统,其包括耦合到存储器、屏幕的处理器,该存储器存储用于使计算机系统执行上述方法的计算机可执行指令。
附图说明
通过结合附图的随后描述,本发明的附加特征和优点将变得显而易见,附图示出:
-图1,根据本发明的方法的流程图;
-图2,根据第一视点,包括要在三个维度上建模的组件的图像,在这种情况下是桌子的平坦顶部和桌子的脚板,3D形状的选择;
-图3,对象的重新缩放的示意图;
-图4,从第二视点显示第一和第二3D对象的3D场景;
-图5,沿着虚拟相机的第一轴的拖动的图;
-图6,捕捉点的图;
-图7,包括3D对象的校正后位置的3D组件。
-图8,适合于执行根据本发明的方法的计算机系统的框图。
具体实施方式
在该方法的第一步骤(图1的流程图的步骤S1)中,提供了第一(数字建模的)3D对象OBJ1。根据3D位置,第一对象OBJ1位于(计算机生成的)3D场景中。它是由用户创建的,或者在用户开始操纵之前可能已经位于3D场景中。
在第二步骤(图1的流程图的步骤S2)中,第一3D对象OBJ1的投影被渲染在用户的电子计算设备(计算机、膝上型计算机、平板电脑、智能手机)的屏幕上,如图2所示。
图像IM包含要在3D中建模的组件。在当前情况下,2D图像包括由三部分组成的桌子:平坦顶部、脚板、和支撑平坦顶部且位于脚板上的腿。在下文中,公开了仅两个3D对象的正确定位。组成该组件的其他3D对象的定位以与两个对象的定位相同的方式来执行。
如果用户从2D图像开始,则必须检测绘制角度。本发明的方法特别适合于符合曼哈顿假设的图像,这是因为可以容易地检测出绘制角度。在文章“Manhattan Word:CompassDirection from a Single Image by Bayesian Inference(曼哈顿一词:通过贝叶斯推论的来自单个图像的指南针方向)”(Coughla等人)中公开了曼哈顿假设。如果图像中存在三个正交的主导方向,即三组主要的平行线,则该图像符合曼哈顿假设。
然后,一旦获得了正确的绘制角度,用户就可以基于用于拟合曼哈顿假设的图像的三个检测到的正交主导方向在2D图像上绘制3D对象(也称为3D形状)。接收将第一3D对象OBJ1至少部分地与屏幕上的2D图像的一部分拟合的用户输入。
通过识别至少一个消失点,可以在2D图像上检测出绘制角度。消失点与在三维空间中相互平行的线的二维透视投影的会聚点相对应。因此,绘制角度采用消失点的形式。在图2的右部示出了一个消失点P1。可以在图2的左部标识另一个消失点,但是为了清楚起见没有示出。
根据绘制角度来绘制第一3D对象OBJ1。在当前情况下,用户通过将指针(鼠标、手指或手写笔)从屏幕的第一点拖动到另一点来绘制一个矩形,第一点和另一点被定义为矩形的相对角。然后,用户对矩形进行挤压操作,以创建平行六面体。创建第一对象OBJ1,它是在2D图像上绘制的3D对象。它对应于桌子的平坦顶部。执行相同的步骤以便绘制第二对象OBJ2。然而,即使仅对于一个3D对象也可以实施根据本发明的方法。
在由虚拟相机CAM根据第一轴AX1和第一视点VP1渲染的3D场景中提供3D对象OBJ1(图3中的字符)。第一视点VP1对应于相机的3D位置。第一轴AX1连接第一视点VP1和位于3D场景中的所有3D对象的边界框的重心。在图3上,认为3D场景仅包含一个3D对象,即3D对象OBJ1。
然后,在第三步骤(图1的流程图的步骤S3)中,用户沿第一轴AX1拖动(按下而不释放)第一对象OBJ1。在沿第一轴AX1拖动第一对象OBJ1的同时,对第一对象OBJ1进行重新缩放,以使第一对象OBJ1在屏幕SCR上的投影保持恒定。
首先通过计算第一视点与包围第一对象OBJ1的最小边界框CBB的中心之间的距离DOldPosition来实现重新缩放。在图3上,在操纵第一对象OBJ1之前,将第一视点VP1,即虚拟相机的位置,与第一对象OBJ1之间的距离记为DOldPosition。当用户沿第一轴AX1拖动第一对象OBJ1时,将第一视点VP1与移动后的第一对象OBJ1之间的距离记为DNewPosition。当第一对象OBJ1与第一视点VP1相距距离DOldPosition时,将第一对象OBJ1的一个尺寸,例如其高度,记为HOldPosition;并且当第一对象OBJ1与第一视点VP1相距距离DNewPosition时,将同一尺寸记为HNewPosition。尺寸HNewPosition是根据以下关系来计算的:
然后,第一对象OBJ1被重新缩放。
当用户将第一对象OBJ1拖动离开第一视点VP1时,第一对象OBJ1被放大,并且当用户将第一对象OBJ1拖动到离第一视点VP1更近时,第一对象OBJ1变小。因此,第一对象OBJ1的投影保持恒定,并且用户不需要通过使用指南针来手动地重新缩放第一对象OBJ1。
在优选实施例中,根据虚拟相机的第二视点VP2和第二轴AX2来显示第一3D对象OBJ1。为此,如图2所示,当根据第一视点VP1和第一轴AX1在屏幕上渲染第一对象OBJ1时,用户选择(例如,通过点击菜单中的专用按钮或上下文按钮)触发根据虚拟相机的第二视点VP2和第二轴AX2来显示第一对象OBJ1的命令。因此,用户可以看到第一对象OBJ1的重新缩放,并且他还可以精细地拖动第一对象OBJ1。
有利地,第一轴AX1和第二轴AX2相互正交。因此,用户可以容易地看到第一3D对象OBJ1在轴AX1上的位置。
图4示出了根据第二视点VP2显示的第一3D对象OBJ1。在图4上,可以看出第一对象OBJ1和第二对象OB2没有被正确对齐。因此,用户将第一对象OBJ1沿着第一轴AX1拖动,直到他估计两个对象的相对位置正确为止。
在优选实施例中,当根据第一视点渲染了3D场景时,用户通过在其上点击来选择要移动的对象,并且移动的对象被突出显示。例如,一旦选择了,所选择的对象的轮廓就闪烁,或者第一对象OBJ1对象的颜色就改变。如果在3D场景中已导入或绘制了其他3D对象,则这些对象不会被突出显示。因此,即使要移动的对象被3D场景中的其他对象部分地隐藏,用户也可以容易地在3D场景中识别它。
第一轴AX1有利地由与第一轴AX1重合的虚线或实线表示。因此,当用户修改第一3D对象OBJ1的位置时,可以容易地预测第一3D对象OBJ1的位移。如果没有虚线或实线,则与第二视点相比,用户将难以评估第一视点的位置,特别是当第一轴AX1和第二轴AX2不正交时。评估第一轴AX1相对于第二轴AX2的精确定向也将是困难的。当由于3D对象隐藏第二视点VP2而第二轴AX2不能与第一轴AX1正交时,该实施例也是有用的。当3D场景包含许多3D对象时,可能会发生这种情况。
图4示出了第一对象OB1沿着第一轴AX1的位移。现在,第一对象OBJ1距离第一视点VP1更近,因此第一对象OBJ1变得更小。因此,当相机位于第一视点V1处时,第一对象OBJ1在屏幕上的投影保持恒定。
在优选实施例中,当至少第一3D对象和第二3D对象必须相对于彼此定位时,步骤S3包括在第一轴上显示相对于第二3D对象OBJ2的至少一个捕捉点SP。在下文中,捕捉点是位于第一轴AX1上的与第二3D对象OBJ2的特征点在第一轴AX1上的投影相对应的位置处的图形图标。因此,第一3D对象OBJ1在捕捉点SP上的移动不如在第一轴AX1的其他部分上快,因此用户可以相对于第二3D对第一3D对象OBJ1进行非常精细且准确的对齐。例如,当拖动第一3D对象OBJ1时,将指针悬停在捕捉点上可能比在第一轴AX1的其他部分上更慢。替代地,当悬停在捕捉点SP上时,第一对象可以被锚定在捕捉点SP上(然而,这完全不会阻止用户移动第一3D对象OBJ1)。
有利地,捕捉点可以对应于:
-包围第二3D对象OBJ2的最小边界框的中心在第一轴AX1上的投影,或者
-包围第二3D对象OBJ2的最小边界框的边在第一轴上的投影。
如图6所示,同一对象的若干个捕捉点可能会显示在第一轴AX1上。因此,用户可以选择将第一3D对象与包围第二3D对象OBJ2的最小边界框的中心对齐,或与该边界框的边之一对齐。捕捉点的类型是可配置的。
用户可以通过使用例如在按下鼠标的中间按钮的同时移动鼠标的组合来在3D场景中导航,以便检查第一3D对象OBJ1是否如所期望的那样定位。例如,他可以根据第一视点再次定位虚拟相机,如图7所示。
在任何时候,他还可以通过在3D场景中在3D对象外部点击(按下并释放)来切换到2D图像,如图2所示。因此,他可以检查3D对象的尺寸是否保持恒定。
在本发明的另一实施例中,当在屏幕的主要部分中显示2D图像时,可以以缩略图视图显示根据相机的另一视点的3D场景。因此,用户可以看到有必要移动并重新对齐3D对象之一。
可以通过适当编程的通用计算机或计算机系统(可能包括计算机网络)来执行本发明的方法,该计算机或计算机系统在计算机可读介质(例如硬盘、固态盘或CD-ROM)上存储非易失性形式的适当的程序,并使用其微处理器和存储器执行所述程序。
参照图8描述适合于执行根据本发明示例性实施例的方法的计算机CPT。在图8中,计算机CPT包括中央处理单元(CPU)P,其在运行可执行程序时执行上述方法步骤,可执行程序即为一组计算机可读指令,该可执行程序被存储在诸如RAM M1或ROM M2或硬盘驱动器(HDD)M3、DVD/CD驱动器M4之类的存储器设备中,或者被远程存储。此外,在该方法的步骤S1中创建的3D对象也可以被存储在存储设备M1至M4中的一个或多个中,或者被远程存储。
要求保护的发明不受计算机可读介质的形式的限制,在该计算机可读介质上存储了本发明过程的计算机可读指令和/或数据结构。例如,指令和文件可以被存储在CD、DVD、闪存、RAM、ROM、PROM、EPROM、EEPROM、硬盘或与计算机通信的任何其他信息处理设备(例如服务器或计算机)中。程序和文件可以被存储在同一存储设备或者不同存储设备上。
此外,可以将适于执行本发明方法的计算机程序提供为与CPU P和诸如MicrosoftVISTA、Microsoft Windows 10、UNIX、Solaris、LINUX、Apple MAC-OS和其他本领域技术人员已知的系统之类的操作系统一起执行的实用程序、后台守护程序或操作系统的组件、或其组合。
CPU P可以是美国英特尔的Xenon处理器或美国AMD的Opteron处理器,或者可以是其他处理器类型,例如美国飞思卡尔公司的Freescale ColdFire、IMX或ARM处理器。替代地,如本领域普通技术人员将认识到的,CPU可以是诸如美国英特尔公司的Core2 Duo之类的处理器,或者可以在FPGA、ASIC、PLD上实现或使用分立逻辑电路来实现。此外,CPU可以被实现为协同工作以执行上述发明过程的计算机可读指令的多个处理器。
图8中的计算机CPT还包括网络接口NI,例如美国英特尔公司的英特尔以太网PRO网络接口卡,用于与诸如局域网(LAN)、广域网(WAN)、互联网等的网络对接。该计算机还包括显示控制器DC,例如美国的英伟达公司的NVIDIA GeForce GTX图形适配器,用于与诸如惠普HPL2445w LCD监视器之类的显示器DY对接。通用I/O接口IF与键盘KB和诸如滚球、鼠标、触摸板之类的定点设备PD对接。显示器、键盘和定点设备以及显示控制器和I/O接口一起形成图形用户界面,用户可使用该图形用户界面提供输入命令,并且计算机可以使用它来显示3D对象。
磁盘控制器DKC将HDD M3和DVD/CD M4与通信总线CBS进行连接,该通信总线可以是ISA、EISA、VESA、PCI或类似设备,用于互连计算机的所有组件。
为了简洁起见,这里省略了显示器、键盘、定点设备以及显示器控制器、磁盘控制器、网络接口和I/O接口的一般特征和功能的描述,因为这些特征是已知的。
本文中描述的任何方法步骤应当被理解为代表代码的模块、段或部分,其包括用于实现过程中的特定逻辑功能或步骤的一个或多个可执行指令,并且替代实施方式被包括在本发明的示例性实施例的范围内。
Claims (12)
1.一种用于辅助数字建模的3D对象的定位的计算机实现的方法,包括以下步骤:
-S1:提供在3D场景中具有3D位置的第一数字建模的3D对象(OBJ1);
-S2:根据第一轴(AX1)和第一视点来渲染所述第一数字建模的3D对象(OBJ1)在屏幕上的投影;
-S3:在根据用户动作修改所述第一数字建模的3D对象(OBJ1)沿所述第一轴(AX1)的所述3D位置的同时,自动缩放所述第一3D对象(OBJ1),以使移动后的对象在所述屏幕上的投影保持恒定。
2.根据权利要求1所述的计算机实现的方法,其中,步骤S3包括:根据第二轴从第二视点显示所述第一数字建模的3D对象(OBJ1),所述第二视点和所述第二轴分别不同于所述第一视点和所述第一轴。
3.根据权利要求2所述的计算机实现的方法,其中,所述第一轴和所述第二轴相互正交。
4.根据前述权利要求中的任一项所述的计算机实现的方法,其中,所述第一轴(AX1)由虚线或实线表示,所述虚线或实线与所述第一轴重合。
5.根据前述权利要求中的任一项所述的计算机实现的方法,其中:
-步骤S1包括提供具有预定尺寸并且在所述3D场景中具有3D位置的第二数字建模的3D对象(OBJ2);
-步骤S3包括使所述第二数字建模的3D对象(OBJ2)的所述3D位置和所述尺寸保持固定。
6.根据权利要求5所述的计算机实现的方法,其中,步骤S3包括:在所述第一轴上显示相对于所述第二数字建模的3D对象(OBJ2)的至少一个捕捉点(SP),以实现所述第一数字建模的3D对象(OBJ1)相对于所述第二数字建模的3D对象(OBJ2)的快速定位。
7.根据权利要求6所述的计算机实现的方法,其中,所述捕捉点对应于:
-包围所述第二数字建模的3D对象(OBJ2)的最小边界框的中心在所述第一轴(AX1)上的投影,或者
-包围所述第二数字建模的3D对象(OBJ2)的最小边界框的边在所述第一轴上的投影。
8.根据前述权利要求中的任一项所述的计算机实现的方法,其中,步骤S3包括:
突出显示所述第一数字建模的3D对象(OBJ1)。
9.根据前述权利要求中的任一项所述的计算机实现的方法,其中,步骤S1包括:
接收用于将所述第一数字建模的3D对象(OBJ1)至少部分地与所述屏幕上的2D图像的一部分拟合的用户输入。
10.一种存储在计算机可读数据存储介质(M1、M2、M3、M4)上的计算机程序产品,其包括用于使计算机系统执行根据前述权利要求中的任一项所述的方法的计算机可执行指令。
11.一种计算机可读数据存储介质(M1、M2、M3、M4),其包含用于使计算机系统执行根据权利要求1至9中的任一项所述的方法的计算机可执行指令。
12.一种计算机系统,其包括耦合到存储器(M1、M2、M3、M4)、屏幕(DY)的处理器(P),所述存储器存储用于使所述计算机系统执行根据权利要求1至9中的任何一项所述的方法的计算机可执行指令。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP19306172.8A EP3796267A1 (en) | 2019-09-23 | 2019-09-23 | A computer-implemented method for assisting a positioning of a 3d object in a 3d scene |
EP19306172.8 | 2019-09-23 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112541976A true CN112541976A (zh) | 2021-03-23 |
Family
ID=68242608
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010972147.2A Pending CN112541976A (zh) | 2019-09-23 | 2020-09-16 | 用于辅助3d场景中的3d对象的定位的计算机实现方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20210090351A1 (zh) |
EP (1) | EP3796267A1 (zh) |
JP (1) | JP2021051739A (zh) |
CN (1) | CN112541976A (zh) |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6426745B1 (en) * | 1997-04-28 | 2002-07-30 | Computer Associates Think, Inc. | Manipulating graphic objects in 3D scenes |
JP5586545B2 (ja) * | 2011-09-09 | 2014-09-10 | 任天堂株式会社 | ゲームシステム、携帯型ゲーム装置、情報処理部の制御方法、および情報処理部の制御プログラム |
US20130100115A1 (en) * | 2011-10-21 | 2013-04-25 | Digital Artforms, Inc. | Systems and methods for human-computer interaction using a two handed interface |
WO2013060085A1 (en) * | 2011-10-27 | 2013-05-02 | The Hong Kong University Of Science And Technology | System and method for constrained manipulations of 3d objects by multitouch inputs |
US10303324B2 (en) * | 2014-02-10 | 2019-05-28 | Samsung Electronics Co., Ltd. | Electronic device configured to display three dimensional (3D) virtual space and method of controlling the electronic device |
US9454791B2 (en) * | 2014-12-23 | 2016-09-27 | Nbcuniversal Media, Llc | Apparatus and method for generating a fingerprint and identifying a three-dimensional model |
EP3452991A4 (en) * | 2016-05-02 | 2020-01-08 | Warner Bros. Entertainment Inc. | GEOMETRY ADJUSTMENT IN VIRTUAL REALITY AND EXTENDED REALITY |
US11625864B2 (en) * | 2018-05-25 | 2023-04-11 | Magic Leap, Inc. | Compression of dynamic unstructured point clouds |
-
2019
- 2019-09-23 EP EP19306172.8A patent/EP3796267A1/en active Pending
-
2020
- 2020-09-16 CN CN202010972147.2A patent/CN112541976A/zh active Pending
- 2020-09-16 JP JP2020155649A patent/JP2021051739A/ja active Pending
- 2020-09-16 US US17/023,212 patent/US20210090351A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
JP2021051739A (ja) | 2021-04-01 |
US20210090351A1 (en) | 2021-03-25 |
EP3796267A1 (en) | 2021-03-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9495802B2 (en) | Position identification method and system | |
US10529145B2 (en) | Touch gestures for navigation and interacting with content in a three-dimensional space | |
US10839613B2 (en) | Fast manipulation of objects in a three-dimensional scene | |
Nishino et al. | 3d object modeling using spatial and pictographic gestures | |
US10769824B2 (en) | Method for defining drawing planes for the design of a 3D object | |
US11074747B2 (en) | Computer-aided techniques for designing detailed three-dimensional objects | |
CN113129362B (zh) | 一种三维坐标数据的获取方法及装置 | |
US10073612B1 (en) | Fixed cursor input interface for a computer aided design application executing on a touch screen device | |
US20230410452A1 (en) | Method for inferring a 3d geometry onto a 2d sketch | |
CN113112617A (zh) | 一种三维图像的处理方法、装置,电子设备及存储介质 | |
US11385783B2 (en) | Gesture-based manipulator for rotation | |
CN112541976A (zh) | 用于辅助3d场景中的3d对象的定位的计算机实现方法 | |
EP2779116A2 (en) | Smooth manipulation of three-dimensional objects | |
US20130278592A1 (en) | Merging Drawing Objects from a Set of Canvas Elements | |
Maghoumi et al. | Gemsketch: Interactive image-guided geometry extraction from point clouds | |
CN114327063A (zh) | 目标虚拟对象的交互方法、装置、电子设备及存储介质 | |
US8890889B1 (en) | System and method for generating a pose of an object | |
US20130278593A1 (en) | Copying a Drawing Object from a Canvas Element | |
Alleaume et al. | Introduction to AR-Bot, an AR system for robot navigation | |
Jiawei et al. | Three-dimensional interactive pen based on augmented reality | |
US20230196704A1 (en) | Method for duplicating a graphical user interface (gui) element in a 3d scene | |
Bunnun et al. | Interactive image-based model building for handheld devices | |
MacAllister et al. | Implementing native support for oculus and leap motion in a commercial engineering visualization and analysis platform | |
TWI536245B (zh) | 使用多點觸控表面輸入之影像背景移除技術 | |
US9117253B2 (en) | Perspective warp |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |