CN103136781A - 用于生成三维虚拟场景的方法和系统 - Google Patents
用于生成三维虚拟场景的方法和系统 Download PDFInfo
- Publication number
- CN103136781A CN103136781A CN2011103913395A CN201110391339A CN103136781A CN 103136781 A CN103136781 A CN 103136781A CN 2011103913395 A CN2011103913395 A CN 2011103913395A CN 201110391339 A CN201110391339 A CN 201110391339A CN 103136781 A CN103136781 A CN 103136781A
- Authority
- CN
- China
- Prior art keywords
- picture
- scene
- model
- color lump
- surface level
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/61—Scene description
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2004—Aligning objects, relative positioning of parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2016—Rotation, translation, scaling
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Architecture (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明涉及虚拟世界应用,尤其涉及虚拟世界应用中三维虚拟场景的创建。提供一种用于生成三维虚拟场景的方法和系统,该方法包含:识别2D图片中的2D对象和2D对象在2D图片中的位置;获取2D对象对应的3D对象的模型;根据2D对象在图片中的位置,计算2D对象对应的3D对象在3D场景的水平面上的对应位置;模拟3D对象的模型从3D场景上方预定高度落到3D场景中,其中,3D对象的模型的落点在水平面上的位置,是3D对象在3D场景的水平面上的对应位置。
Description
技术领域
本发明涉及虚拟世界应用,尤其涉及虚拟世界应用中三维虚拟场景的创建。
背景技术
在诸如虚拟世界、电子游戏等应用中,需要大量地生成三维虚拟场景(简称“3D场景”)。现有技术中通常依靠基于3D图形的应用程序来手动生成3D场景。手动生成3D场景,是用户在3D场景中配置3D对象(即3D场景中的虚拟物体)的过程,其中,需要用户选择3D对象的模型,并用鼠标之类的输入装置,将所选择的3D对象的模型一个一个地插入到3D场景中的期望位置。
这种手动生成3D场景的方式,需要用户一个一个地在3D场景中插入3D对象的模型,效率不高;而且,在3D场景中3D对象密集的情况下,由于操作者视角的关系,3D场景中有的位置容易受到已有3D对象的遮蔽,这导致操作者难以将模型准确地插入期望的位置。
发明内容
本发明的一个目的是通过一种改进的3D场景生成方式,以简化用户所需的操作。
一方面,提供一种用于生成三维虚拟场景的方法,该方法包含:识别2D图片中的2D对象和2D对象在2D图片中的位置;获取2D对象对应的3D对象的模型;根据2D对象在图片中的位置,计算2D对象对应的3D对象在3D场景的水平面上的对应位置;模拟3D对象的模型从3D场景上方预定高度降落到3D场景中,其中,3D对象的模型的落点在水平面上的位置,是3D对象在3D场景的水平面上的对应位置。
另一方面,提供一种用于生成三维虚拟场景的系统,该系统包含:2D对象识别装置,被配置以识别2D图片中的2D对象和2D对象在2D图片中的位置;模型获取装置,被配置以获取2D对象对应的3D对象的模型;位置映射装置,被配置以根据2D对象在图片中的位置,计算2D对象对应的3D对象在3D场景的水平面上的对应位置;模拟装置,被配置以模拟3D对象的模型从3D场景上方预定高度降落到3D场景中,其中,3D对象的模型的落点在水平面上的位置,是3D对象在3D场景的水平面上的对应位置。
附图说明
结合附图并参考以下详细说明,本发明各实施方式的特征、优点及其他方面将变得更加明显,在此以示例性而非限制性的方式示出了本发明的若干实施方式。在附图中:
图1示出了适于用来实现本发明各种实施方式的示例性计算系统100的框图;
图2示意性表示现有技术的一种用于手动生成3D场景的工具;
图3是按照本发明一个实施例的用于生成3D场景的方法的流程图;
图4示意性表示按照本发明一个实施例的表示3D场景布局的若干图片;
图5示意性表示由图4所示的图片演变的图片;
图6示意性表示按照本发明一个实施例、通过操作图片而将3D对象放置到3D场景中的过程;
图7是按照本发明一个实施例的用于生成3D场景的装置的框图。
具体实施方式
附图中的流程图和框图,图示了按照本发明各种实施方式的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,所述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为备选的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
下面将参考若干示例性实施方式来描述本发明的原理和精神。应当理解,给出这些实施方式仅仅是为了使本领域技术人员能够更好地理解进而实现本发明,而并非以任何方式限制本发明的范围。
图1示出了适于用来实现本发明实施方式的示例性计算系统100的框图。如所示,计算系统100可以包括:CPU(中央处理单元)101、RAM(随机存取存储器)102、ROM(只读存储器)103、系统总线104、硬盘控制器105、键盘控制器106、串行接口控制器107、并行接口控制器108、显示控制器109、硬盘110、键盘111、串行外部设备112、并行外部设备113和显示器114。在这些设备中,与系统总线104耦合的有CPU 101、RAM 102、ROM 103、硬盘控制器105、键盘控制器106、串行控制器107、并行控制器108和显示控制器109。硬盘110与硬盘控制器105耦合,键盘111与键盘控制器106耦合,串行外部设备112与串行接口控制器107耦合,并行外部设备113与并行接口控制器108耦合,以及显示器114与显示控制器109耦合。应当理解,图1所述的结构框图仅仅为了示例的目的而示出的,而不是对本发明范围的限制。在某些情况下,可以根据具体情况而增加或者减少某些设备。例如,计算系统100可以配置网络适配器,以便具有访问计算机网络的功能。
在说明本发明的各种实施方式之前,首先说明现有技术中手动生成三维虚拟场景的例子。
参看图2,该图示意性表示一种用于手动生成3D场景的工具。
图2所示的3D场景生成工具,呈现为一个用户界面210,用户可以通过输入装置(未予示出)在用户界面上进行操作,在3D场景中插入虚拟物体。
3D场景是由3D对象构成的3D图像,也称“虚拟场景”。一个3D场景也可以被当作构造另一个3D场景的基本单元。例如,多个作为3D对象的树,可以构成一个3D虚拟森林;由该3D虚拟森林和作为3D对象的山,可以进一步构成另一个3D场景。
3D对象是3D场景中的某类虚拟物体(a type of object),例如山、树木、石块、湖泊、船、人物。3D对象可以作为构造3D场景的基本单元。
一个3D对象,可能有多个3D模型。3D模型(3D model)是3D对象的立体图形,由计算机可读文件描述,也称“对象模型”(objectmodel),或者简称为“模型”。可以采用现有技术已有的3D模型创建工具-例如“3DMax”,为3D对象创建3D模型,并用数据库保存创建好的3D模型。保存3D模型的数据库,称作“模型数据库”。例如,可以为3D对象“树”创建多个立体图形,并将它们与3D对象树相关联地存储在模型数据库中。
转看图2,用户界面210的左侧由标记220指示的画面,表示一个3D场景。
3D场景220一开始可能是空白的。经过一段时间的编辑后,在图示的当前时刻,3D场景220中已经摆放了多个虚拟物体,例如椰子树221、石头222和水223。
用户界面中还用表示了另一个3D场景230,3D场景230中由标记231表示的缩略图231代表3D场景220。这表示,3D场景220是3D场景230中的一个局部。
用户界面210中的右侧显示了一个列表窗口240和图库面板250。
列表窗口240中包含垂直滚动条241、水平滚动条243和文件名列表242。
文件名列表242中的每个列表项244都是一个文件名,代表描述一个3D模型的文件。用户可以用鼠标操纵垂直滚动条241和水平滚动条243,显示列表242的内容。
当用户用鼠标指针指向列表242中的某个文件名时,该文件名被高亮显示,同时,在图库面板250中显示该文件名对应的3D模型的图形252。
列表窗口240中当前的列表242中的多个文件名,代表描述3D对象“树”的各种3D模型的多个文件。3D模型列表240中的3D模型是预先生成的,并存储在一个3D模型数据库中。3D模型数据库中可以存储各种各样的3D模型。
用户界面210可以提供一个输入栏(未予示出),供用户输入检索词,检索所需的3D模型。例如,用户输入检索词“树”,作为响应,列表窗口240中显示列表242。如果用户将鼠标指针移到列表242中的文件名244上,该文件名被高亮显示,同时,在图库面板250中,显示的该文件名对应的图形或模型252,这是一棵椰子树的图形。用户如果要把模型252放置到3D场景220中,则用鼠标“选中”模型252,将其“拖”到3D场景220中的一个期望的位置放下。这样,就在该位置摆放了一个虚拟物体,例如椰子树221。
重复上述这样的操作,可以将3D模型一个一个地插入3D场景220中。
把3D模型放置到3D场景中后,可以再手动地对3D场景中3D模型的进行调整,例如反转、缩放、移动位置(translate,rotate,scale),直到3D场景令人满意。
这种将虚拟物体逐个地插入3D场景的操作方式,比较直观,但是效率不高,有时也不方便,例如,在3D场景中3D对象密集的情况下,由于操作者视角的关系,3D场景中有的位置容易受到已有3D对象(例如石块、树)的遮蔽,这导致操作者难以将模型准确地插入期望的位置。
为此,本发明提出一种用于生成三维虚拟场景的方法和系统。现在参照附图3-7,详细说明本发明的各种实施方式。
首先参看图3,按照本发明一个实施例的用于生成3D场景的方法的流程图。该流程图概括地描述了该实施例的方法的下述过程:识别二维图片中的2D对象和2D对象在2D图片中的位置;获取2D对象对应的3D对象的模型;根据2D对象在图片中的位置,计算2D对象对应的3D对象的模型在一个3D场景的水平面上的位置;模拟3D对象的模型从3D场景上方预定高度降落到3D场景中,其中,3D对象的模型在3D场景中的落点在水平面上的位置,是所计算的2D对象对应的3D对象的模型在3D场景的水平面上的位置。
在所述实施例的方法中,用二维图片(以下也称为“图片”或图片)上的简单的2D对象,表示要在3D场景中摆放的虚拟物体,通过模拟虚拟物体的自由降落,可以把一个图片上的2D对象所要代表的3D对象的模型摆放到3D场景中。对多个不同的图片重复上述方法的过程,可以在3D场景中摆放更多的虚拟对象。
现在举例说明上述流程的各个步骤的操作。
首先,在步骤310,识别一个二维图片中的2D对象和2D对象在图片中的位置。
二维图片(map)是通过2D图形编辑工具生成的平面图片,2D对象是通过2D图形编辑工具生成的二维图形,例如,色块、几何图形、文字块。一个图片包含一个或多个位于不同位置的2D对象,每个2D对象占据图片平面上的一定区域。图片用于表示三维虚拟场景的布局,因此也将“图片”称为“场景布局图”或“SLM”(Scene Layout Map)。图4示例性表示按照本发明一个实施例的若干图片。
如图4所示,按照本发明一个实施例,图片中包含的2D对象是色块。例如,图片410和420分别包含一个蓝色的色块411和一个棕色的色块421,图片430包含两个红色的色块431和432。
按照本发明一个实施例,对于包含的2D对象是色块的图片,在步骤310中,识别一个二维图片中的2D对象和2D对象在图片中的位置,包含识别图片中的色块、色块的颜色和位置。
所属技术领域的技术人员知道,一个色块是由相同颜色的相邻像素组成的。对于任何一个图片,计算机通过扫描图片中的每个像素,可以识别每个像素的颜色。例如,通过读取图片中每个像素位置的像素值,可以识别每个像素的颜色。由此,可以识别出具有相同颜色的相邻像素的集合,即一个色块;色块的颜色,就是该集合中的每个像素的颜色。这样,就可以识别出二维图片中的一个2D对象是色块。
可以用不同的方式,表示所识别出的2D对象的位置。例如,可以用色块包含的所有像素在图片中的坐标的集合来表示色块的位置。
按照本发明一个实施例,可以计算色块的几何中心在图片中的坐标(x,y),作为色块在图片中的位置的坐标。
以图片410为例,通过步骤310,可以识别出图片410中包含一个蓝色的色块411。假设色块411包含n个像素,则可以用这n个像素的坐标的集合(<x1,y1>,<x2,y2>,...<xn,yn>来表示色块411的位置;或者,可以用色块411的几何中心的坐标<x_411,y_411>来表示色块411的位置,其中,x_411=(x1+x2+...xn)/n,y_411=(y1+y2+..._yn)/n。
需要指出的是,如果一个图片中包含多个色块,步骤310也识别出多个色块、每个色块的颜色和位置。
图4所示的图片,可以利用现有技术中的图片编辑器772(图7)生成,这样的图片编辑器的一个例子,是操作系统提供的画图工具“MSPAINT”。MSPAINT提供用“刷子”按选择的形状和大小绘图,用某个颜色填充某个区域等编辑功能。利用这种画图工具提供的编辑功能,就能在空白的画面上画出色块411、421、431等,从而生成图4所示的图片。
按照本发明的一个实施例,可以从图片编辑器的输出直接获得步骤310中所述的图片。
当然,也可以在用图片编辑器生成图片后,将生成的图片以画图文件(例如后缀为“.bmp”的文件)的格式,存储起来,例如存储在一个图片数据库781(图7)中。相应地,按照本发明的一个实施例,可以包含从这样的数据库(例如图片数据库781)中读取描述图片的画图文件,从而获得步骤310中所述的图片。
按照本发明一个实施例,在具体实施本发明时,需要重复地接收多个图片。在这种情况下,需要预先设定图片之间顺序关系。例如,可以按照预定的先后顺序,将多个二维图片的文件名设置在一个列表中。在重复地执行步骤310时,可以依照先后顺序获取列表中的文件名,用所获取的文件名从存储器中读取画图文件。
在以上的说明中,假设图片(例如410、420和430)中含有的2D对象是色块。是本发明并不限于此,本发明的图片中包含的2D对象,可以是任何可以单独识别出的图形。
例如,图片中含有的2D对象,除了是色块外,还可以是几何图形,或者是文字块。
例如,图片410中的色块411,可以替换为五边形411a;图片420中的色块421,可以替换为椭圆形421a;图片430中的色块431和432,可以替换为三角形431a和432a。所述技术领域的技术人员知道,图片包含的这种几何图形或文字块及其位置,都是可以单独识别的。例如,步骤320可以识别出图片410中包含一个五边形。
再如,图片410中的色块411,可以替换为文字块411b。所述技术领域的技术人员知道,这类几何图形或文字块及其位置,也是可以单独识别的。例如,步骤320可以识别出图片410中包含一个文字内容为“湖”的方块。色块421、431和432,也可以替换为类似的文字块。
一般地,如果步骤310执行的结果,是识别出m个2D对象及其位置,可以将该结果表示为一个二元组列表
(<OBJ1,POS1>,<OBJ2,POS2>...<OBJm,POSm>)(1)
其中m是识别出的2D对象的个数,OBJi和POSi(i=1,2...m)分别代表一个2D对象及其位置,而每个位置可以进一步用一个二维坐标表示。
例如,针对图片410,步骤310执行的结果是OBJ1=“蓝色块”,POS1=<x_411,y_411>,其中,<x_411,y_411>是色块411在图片410中的坐标。对于图片420,步骤310执行的结果是OBJ1=“棕色块”,POS1=<x_421,y_421>。对于图片430,步骤310执行的结果是OBJ1=“红色块”,POS1=<x_431,y_431>;其中,OBJ2=“红色块”,POS2=<x_432,y_432>。
转至图3,继续说明步骤310以后的步骤。
为了方便举例说明,在下文对后续步骤的说明中,除非特别指出,否则,以图4所示的图片410作为图片的例子。如上所述,对于图片410,步骤310执行的结果是OBJ1=“蓝色块”,POS1=<x_411,y_411>。
在步骤320,获取2D对象对应的3D对象的模型。
按照本发明一个实施例,可以通过预先设置的2D对象与3D对象之间的对应关系或映射关系,确定一个2D对象对应的3D对象。
按照本发明一个实施例,在2D对象是色块的情况下,可以通过预先设置的色块颜色与3D对象之间的映射关系,确定一个色块对应的3D对象。
例如,可以预先设定色块的颜色与3D对象之间的映射关系,建立如下的颜色-3D对象映射表(2):
{<蓝色,湖>,<棕色,船>,...<红色,人物>}.......(2)
其中,二元组<蓝色,湖>表示,“蓝色”对应于3D对象“湖”。类似地,映射表(2)还表示“棕色”对应于3D对象“船”,...“红色”对应于3D对象“人物”。
例如,在步骤310中识别的图片410中的2D对象是蓝色的色块411。根据映射表(2),可以确定色块411对应的3D对象是“湖”。类似地,可以确定图4中的色块421对应的3D对象是“船”,图4中的色块431和432对应的3D对象都是“人物”。
确定了2D对象对应的3D对象后,就可以进一步确定3D对象的模型。通常,一个3D对象,通常有多个对应的模型。例如,图2中所示的3D对象“树”,可以有多个模型,以表现不同的树种和/或外观。3D对象的模型,可以预先单独地创建,并存储在一个模型数据库785(图7)中。
按照本发明一个实施例,根据所确定的3D对象,自动地从模型数据库785中检索出一个或多个模型。这个操作,可以以类似于图2所示的方式实现,例如可以向用户显示与图2所示的列表窗口240和图库面板250类似的列表窗口和图库面板,在列表窗口中列出一个或多个模型的文件名和对应的立体图形,供用户进一步确定。响应于用户的选择,确定一个模型,作为2D对象对应的3D对象的模型。
例如,确定色块411对应的3D对象是“湖”后,可以以上述方式确定一个代表“湖”的模型。
对图片410执行步骤310和320的结果,如图5所示。其中,标记511表示色块411对应的3D对象“湖”的模型。
当然,如果图片410包含的2D对象是五边形411a或者是文字块411b,同样可以获取3D对象“湖”的模型511。如果对图片420和430执行步骤310和320,则可以获取图片420中的色块421对应的3D对象“船”的模型521,以及图片430中的2D对象431和432分别对应的3D对象“人物”的模型531和532,其中,模型531和模型532可以相同,也可以不相同,这可以由用户决定。
需要指出的是,虽然上文指出,可以采取与图2所示的类似的方式,确定了2D对象对应的3D对象后确定3D对象的模型,但是,本发明与图2所示的方式相比,无需用户手工输入用于检索模型数据库的检索词。并且,所述技术领域的技术人员应该明了,也可以采用其它方式,确定了2D对象对应的3D对象后确定3D对象的模型。
还需要指出的是,上文所述的2D对象-3D对象映射表(2),针对的是2D对象为色块的情况。显然,对于其它形式的2D对象,例如几何图形(例如图4的411a、421a、431a、432a)和文字块(例如411b),也可以类似地预先设定2D对象与3D对象之间的映射关系。例如,针对几何图形,可以预先设置如下的2D对象-3D对象映射表(3):
{<五边形,湖>,<椭圆形,船>,...<三角形,人物>}.........................(3)
因此,所属技术领域的技术人员在实施本发明时,可以根据习惯任意设置这种关系。
在步骤330,根据2D对象在图片中的位置,计算2D对象对应的3D对象在3D场景的水平面上的对应位置。
按照本发明一个实施例,可以根据图片与一个3D场景的水平面区域之间的映射关系,由2D对象在图片中的位置的坐标计算2D对象对应的3D对象在3D场景的水平面上的位置的坐标。
图片与一个3D场景的水平面区域之间的映射关系,是预先设定的。例如,图片410是个矩形ABCD,该图片410与图6中标记600所代表的一个3D场景的水平面区域之间,具有预定的映射关系。具体来说,构成图片410的矩形的四个点A、B、C和D,映射到3D场景600的水平面上的四个点A’、B’、C’和D’。这四个点构成一个区域640,就是图片410映射到3D场景600的水平面上的区域。
如后文参照图7将要说明的那样,可以将图片与3D场景的水平面区域之间这种映射关系,预先保存在一个映射关系数据库783中。
根据图片410与3D场景600的水平面区域640之间的映射关系,可以导出图片上一个点在3D场景600的水平面区域640上对应的点。
由于在步骤310中,已经识别出表示2D对象411在图片410中的位置的坐标<x_411,y_411>,因此,根据图片410与3D场景600的水平面区域640之间的映射关系,可以计算图片410与水平面区域640之间的比例关系,进而计算出坐标<x_411,y_411>在3D场景600的水平面上的对应的坐标<x_411’,y_411’>,此坐标就是2D对象411对应的3D对象在3D场景600的水平面上的位置的坐标。
类似地,可以计算出图片420的中2D对象421对应的3D对象在3D场景600的水平面上的位置的坐标<x_421’,y_421’>,图片420的中2D对象431和432对应的3D对象在3D场景600的水平面上的位置的坐标分别为<x_431’,y_431’>和x_432’,y_432’>。
以上描述了图3所示方法的步骤320和步骤330的操作。需要指出的是,步骤320和步骤330的执行,可以不分先后,无需限定先后关系,就是说,步骤330也可以在步骤320之前执行,或者两个步骤可以同时执行。
在以上的步骤之后,过程前进到步骤340。
在步骤340,模拟3D对象的模型从3D场景上方预定高度的降落到3D场景中,其中,3D对象的模型的落点在水平面上的位置,是3D对象在3D场景的水平面上的对应位置。
按照本发明一个实施例,所述模拟3D对象的模型从3D场景上方预定高度的降落到3D场景中,包括模拟3D对象的模型停留在降落过程碰到的3D场景中的虚拟物体上。
按照本发明一个实施例,所述预定高度是与图片相关联的预定高度。就是说,不同的图片,可以有不同的预定高度。
如图6所示,假设初始时,要在其中放置3D对象的模型的3D场景600中,只有空白的地面。此时,要模拟图片410中2D对象对应的3D对象的模型从3D场景上方预定高度的降落。
在此前的步骤310中,识别出图片410中只有一个2D对象411,在步骤320中,获取了2D对象411对应的3D对象“湖”的模型511,在步骤330中计算出了2D对象411对应的3D对象“湖”在3D场景600的水平面上的位置,例如坐标<x_411’,y_411’>。
因此,步骤340仿真3D对象“湖”的模型511的降落过程,使模型511降落到3D场景600中,3D场景600变成3D场景600A。其中,3D对象“湖”的模型511落在空白的地面上,呈现为一个立体图形611,其落点在水平面上的位置,就是在步骤330中计算出的3D对象“湖”在3D场景600的水平面上的位置,例如坐标<x_411’,y_411’>。
在对图片410执行步骤310-340之后,接着对图片420执行步骤310-340。其中,在步骤310中,识别出图片420中只有一个2D对象421,在步骤320中,获取了2D对象421对应的3D对象“船”的模型521,在步骤330中计算出了2D对象421对应的3D对象“船”在3D场景600的水平面上的位置,例如坐标<x_421’,y_421’>。
在步骤340仿真3D对象“船”的模型521的降落过程,使模型521降落到3D场景600A中,其中,3D对象“船”的模型521落在湖的立体图形611上,呈现为一个立体图形621,其落点在水平面上的位置,就是在步骤330中计算出的3D对象“湖”在3D场景600的水平面上的位置,例如坐标<x_421’,y_421’>。在步骤340完成之后3D,场景600A变成3D场景600B。
在对图片420执行步骤310-340之后,接着对图片420执行步骤310-340。其中,在步骤310中,识别出图片420中只有一个2D对象421。
在步骤320中,获取了2D对象431和432对应的3D对象“人物”的模型531和532。在步骤330中计算出了2D对象431和432对应的3D对象“人物”在3D场景600的水平面上的位置,例如坐标<x_431’,y_431’>和<x_431’,y_431’>。
在步骤340仿真3D对象“船”的模型521的降落过程,使模型531降落到3D场景600A中,其中,2D对象431对应的3D对象“人物”的模型531落在湖的立体图形611上,呈现为一个立体图形631,其落点在水平面上的位置,就是在步骤330中计算出的3D对象“湖”在3D场景600的水平面上的位置,例如坐标<x_431’,y_431’>。而2D对象432对应的3D对象“人物”的模型532落在船的立体图形621上,呈现为一个立体图形632,其落点在3D场景600的水平面上的位置的坐标为<x_432’,y_432’>。
需要指出的,2D对象431和432分别对应的3D对象“人物”的模型531和532,可以相同,也可以不相同。如上文在说明步骤330时所述的那样,可以响应用户的选择,而确定模型531和模型532的不同样式。
在步骤340完成之后,3D场景600B变成3D场景600C。
由上可以见,通过对不同的图片按照一定顺序重复上述过程,可以生成复杂的三维虚拟场景。
在实现本发明时,在3D场景600演变为3D场景600A、600B、600C的过程中,随时可以对3D场景600A、600B、600C中的虚拟物体的位置、方向、大小进行微调;也可以将3D场景600A、600B、600C以图像文件的形式保存在3D场景数据库787(图7)中。诸如虚拟世界应用790(图7)之类的应用系统,可以从3D场景数据库787中读取这些图像文件,在三维虚拟系统中显示对应的3D场景。
以上说明了本发明的用于生成三维虚拟场景的方法的各种实施方式。按照相同的发明构思,本发明也提供一种用于生成三维虚拟场景的系统。
图7示意性表示按照本发明一个实施例的用于生成三维虚拟场景的系统700的框图。
如图所示,系统700包含:2D对象识别装置710、模型获取装置720、位置映射装置730、以及模拟装置740。
2D对象识别装置710被配置以识别2D图片中的2D对象和2D对象在2D图片中的位置。
模型获取装置720被配置以获取2D对象对应的3D对象的模型。
位置映射装置730被配置以根据2D对象在图片中的位置,计算2D对象对应的3D对象在3D场景的水平面上的对应位置。
模拟装置740被配置以模拟3D对象的模型从3D场景上方预定高度降落到3D场景中,其中,3D对象的模型的落点在水平面上的位置,是3D对象在3D场景的水平面上的对应位置。
按照本发明一个实施例,模型获取装置730被进一步配置得可以根据预先设定的2D对象-3D对象映射关系,确定2D对象对应的3D对象。
如上文结合图3说明方法步骤330时所指出的那样,预先设定的2D对象-3D对象映射关系可以存储在一个映射关系DB(数据库)783中,模型获取装置730可以从映射关系DB(数据库)783中读取2D对象-3D对象映射关系。
按照本发明一个实施例,模型获取装置730被进一步配置得可以根据所确定的2D对象对应的3D对象,从一个模型数据库785中检索出一个或多个模型,并响应用户的选择,确定2D对象对应的3D对象的一个模型。
按照本发明一个实施例,位置映射装置720被进一步配置得可以根据图片与一个3D场景的水平面区域之间的映射关系,由2D对象在图片中的位置的坐标,计算2D对象对应的3D对象在3D场景的水平面上的位置的坐标。
图片与3D场景的水平面区域之间的映射关系是预先建立的。例如,可以通过一个映射关系设定装置774建立图片与3D场景的水平面区域之间的映射关系,并将这种映射关系的数据保存一个数据库中,例如图示的映射关系数据库783中。位置映射装置可以从映射关系数据库783中读取图片与3D场景的水平面区域之间的映射关系。
按照本发明一个实施例,上述图片中的2D对象是色块。
相应地,按照本发明一个实施例,2D对象识别装置710被进一步设置得可以识别图片中的色块、色块的颜色和位置,并且根据预先设定的颜色-3D对象映射关系,确定2D对象对应的3D对象。
同样,可以通过映射关系设定装置774预先设定这种颜色-3D对象映射关系,并将颜色-3D对象映射关系的数据存储在映射关系数据库783中。2D对象识别装置710可以按照需要,从映射关系数据库783中读取颜色-3D对象映射关系的数据。
按照本发明一个实施例,2D对象识别装置710被进一步设置得可以计算色块的几何中心在图片中的坐标,作为色块在图片中的位置的坐标。
按照本发明一个实施例,其中,模拟装置740被进一步配置得可以模拟3D对象的模型停留在降落过程碰到的3D场景中的虚拟物体上。
按照本发明一个实施例,其中,所述预定高度,是与图片相关联的高度。
按照本发明一个实施例,可以预先用二维图片生成工具(例如图片编辑器772)生成图片,并将生成的图片存储在一个图片数据库781中。在实现本发明时,可以用一个图片输入装置750,从图片编辑器772图片数据库781读出图片,作为2D对象识别装置710的输入数据。
以上描述了按照本发明实施例的用于生成三维虚拟场景的系统,由于上文已经详细地描述了按照本发明各种实施例的用于生成三维虚拟场景的方法,在上述对系统的描述中,省略了明显与对方法的描述重复、或者很容易从对方法的描述中引申得出的内容。
应指出的是,以上描述仅为示例,而不是对本发明的限制。在本发明的其他实施例中,该方法可具有更多、更少或不同的步骤,对步骤的编号,是为了使说明更加简明,而不是对各步骤之间的顺序关系的严格限定,各步骤与步骤之间的顺序可以与所描述的不同。
因此,在本发明的一些实施例中,可以没有上述一个或多个可选步骤。每个步骤的具体执行方式可以与所描述的不同。所有这些变化都处于本发明的精神和范围之内。
本发明可以采取硬件实施方式、软件实施方式或既包含硬件组件又包含软件组件的实施方式的形式。在优选实施方式中,本发明实现为软件,其包括但不限于固件、驻留软件、微代码等。
而且,本发明还可以采取可从计算机可用或计算机可读介质访问的计算机程序产品的形式,这些介质提供程序代码以供计算机或任何指令执行系统使用或与其结合使用。出于描述目的,计算机可用或计算机可读机制可以是任何有形的装置,其可以包含、存储、通信、传播或传输程序以由指令执行系统、装置或设备使用或与其结合使用。
介质可以是电的、磁的、光的、电磁的、红外线的、或半导体的系统(或装置或器件)或传播介质。计算机可读介质的例子包括半导体或固态存储器、磁带、可移动计算机磁盘、随机访问存储器(RAM)、只读存储器(ROM)、硬磁盘和光盘。目前光盘的例子包括紧凑盘-只读存储器(CD-ROM)、压缩盘-读/写(CD-R/W)和DVD。
适合于存储/或执行程序代码的数据处理系统将包括至少一个处理器,其直接地或通过系统总线间接地耦合到存储器元件。存储器元件可以包括在程序代码的实际执行期间所利用的本地存储器、大容量存储器、以及提供至少一部分程序代码的临时存储以便减少执行期间从大容量存储器必须取回代码的次数的高速缓存存储器。
输入/输出或I/O设备(包括但不限于键盘、显示器、指点设备等等)可以直接地或通过中间I/O控制器耦合到系统。
网络适配器也可以耦合到系统,以使得数据处理系统能够通过中间的私有或公共网络而耦合到其他数据处理系统或远程打印机或存储设备。调制解调器、线缆调制解调器以及以太网卡仅仅是当前可用的网络适配器类型的几个例子。
从上述描述应当理解,在不脱离本发明真实精神的情况下,可以对本发明各实施方式进行修改和变更。本说明书中的描述仅仅是说明性的,而不应被认为是限制性的。本发明的范围仅受所附权利要求书的限制。
Claims (20)
1.一种用于生成三维虚拟场景的方法,包含以下步骤:
识别二维2D图片中的2D对象和2D对象在2D图片中的位置;
获取2D对象对应的三维3D对象的模型;
根据2D对象在图片中的位置,计算2D对象对应的3D对象在3D场景的水平面上的对应位置;
模拟3D对象的模型从3D场景上方预定高度降落到3D场景中,其中,3D对象的模型的落点在水平面上的位置,是3D对象在3D场景的水平面上的对应位置。
2.权利要求1的方法,其中,所述获取2D对象对应的3D对象的模型,进一步包含:
根据预先设定的2D对象-3D对象映射关系,确定2D对象对应的3D对象。
3.权利要求2的方法,其中,所述获取2D对象对应的3D对象的模型,进一步包含:
根据所确定的2D对象对应的3D对象,从模型数据库中检索出一个或多个模型,并响应用户的选择,确定2D对象对应的3D对象的一个模型。
4.权利要求1的方法,其中,所述根据2D对象在图片中的位置计算2D对象对应的3D对象在3D场景的水平面上的对应位置,进一步包含:
根据图片与一个3D场景的水平面区域之间的映射关系,由2D对象在图片中的位置的坐标,计算2D对象对应的3D对象在3D场景的水平面上的位置的坐标。
5.权利要求1-4任何之一的方法,其中,图片中的2D对象是色块。
6.权利要求5的方法,其中,所述识别2D图片中的2D对象和2D对象在2D图片中的位置进一步包含:
识别图片中的色块、色块的颜色和位置,
并且,所述获取2D对象对应的3D对象的模型,进一步包含:
根据预先设定的颜色-3D对象映射关系,确定2D对象对应的3D对象。
7.权利要求6的方法,其中,所述识别图片中的色块、色块的颜色和位置进一步包含:
计算色块的几何中心在图片中的坐标,作为色块在图片中的位置的坐标。
8.权利要求1的方法,其中,所述模拟3D对象的模型从3D场景上方预定高度降落到3D场景中包括模拟3D对象的模型停留在降落过程碰到的3D场景中的虚拟物体上。
9.权利要求1的方法,其中,所述预定高度是与图片相关联的高度。
10.权利要求1的方法,其中,所述图片是用二维图片生成工具预先生成的。
11.一种用于生成三维虚拟场景的系统,包含:
2D对象识别装置,被配置以识别二维2D图片中的2D对象和2D对象在2D图片中的位置;
模型获取装置,被配置以获取2D对象对应的3D对象的模型;
位置映射装置,被配置以根据2D对象在图片中的位置,计算2D对象对应的3D对象在3D场景的水平面上的对应位置;
模拟装置,被配置以模拟3D对象的模型从3D场景上方预定高度降落到3D场景中,其中,3D对象的模型的落点在水平面上的位置,是3D对象在3D场景的水平面上的对应位置。
12.权利要求11的系统,其中,模型获取装置被进一步配置,以根据预先设定的2D对象-3D对象映射关系,确定2D对象对应的3D对象。
13.权利要求12的系统,其中,模型获取装置被进一步配置,以根据所确定的2D对象对应的3D对象,从模型数据库中检索出一个或多个模型,并响应用户的选择,确定2D对象对应的3D对象的一个模型。
14.权利要求11的系统,其中,位置映射装置被进一步配置,以根据图片与一个3D场景的水平面区域之间的映射关系,由2D对象在图片中的位置的坐标,计算2D对象对应的3D对象在3D场景的水平面上的位置的坐标。
15.权利要求11-14任何之一的系统,其中,图片中的2D对象是色块。
16.权利要求15的系统,其中,2D对象识别装置被进一步设置,以识别图片中的色块、色块的颜色和位置,并且根据预先设定的颜色-3D对象映射关系,确定2D对象对应的3D对象。
17.权利要求16的系统,其中,2D对象识别装置被进一步设置,以计算色块的几何中心在图片中的坐标,作为色块在图片中的位置的坐标。
18.权利要求11的系统,其中,模拟装置被配置以模拟3D对象的模型停留在降落过程碰到的3D场景中的虚拟物体上。
19.权利要求11的系统,其中,所述预定高度是与图片相关联的高度。
20.权利要求11的系统,其中,所述图片是用二维图片生成工具预先生成的。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201110391339.5A CN103136781B (zh) | 2011-11-30 | 2011-11-30 | 用于生成三维虚拟场景的方法和系统 |
US13/691,033 US11069130B2 (en) | 2011-11-30 | 2012-11-30 | Generating three-dimensional virtual scene |
US17/340,865 US11574438B2 (en) | 2011-11-30 | 2021-06-07 | Generating three-dimensional virtual scene |
US17/988,927 US20230071026A1 (en) | 2011-11-30 | 2022-11-17 | Generating three-dimensional virtual scene |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201110391339.5A CN103136781B (zh) | 2011-11-30 | 2011-11-30 | 用于生成三维虚拟场景的方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103136781A true CN103136781A (zh) | 2013-06-05 |
CN103136781B CN103136781B (zh) | 2016-06-08 |
Family
ID=48466423
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201110391339.5A Active CN103136781B (zh) | 2011-11-30 | 2011-11-30 | 用于生成三维虚拟场景的方法和系统 |
Country Status (2)
Country | Link |
---|---|
US (3) | US11069130B2 (zh) |
CN (1) | CN103136781B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105975259A (zh) * | 2016-04-27 | 2016-09-28 | 乐视控股(北京)有限公司 | 一种3d空间用户界面的实现方法及其装置 |
CN108922300A (zh) * | 2018-07-24 | 2018-11-30 | 杭州行开科技有限公司 | 基于数字化人体模型的手术模拟3d系统 |
CN110727973A (zh) * | 2018-06-27 | 2020-01-24 | 西安海平方网络科技有限公司 | 模型的位姿确定方法、装置、计算机设备和存储介质 |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
CN104103091B (zh) * | 2014-07-17 | 2016-10-05 | 北京毛豆科技有限公司 | 3d智能建模方法和系统及3d模型柔性制造系统 |
WO2017039348A1 (en) * | 2015-09-01 | 2017-03-09 | Samsung Electronics Co., Ltd. | Image capturing apparatus and operating method thereof |
GB2561882A (en) * | 2017-04-27 | 2018-10-31 | Nokia Technologies Oy | Virtual reality viewport adaption |
EP3474185B1 (en) * | 2017-10-18 | 2023-06-28 | Dassault Systèmes | Classification of 2d images according to types of 3d arrangement |
US11030458B2 (en) * | 2018-09-14 | 2021-06-08 | Microsoft Technology Licensing, Llc | Generating synthetic digital assets for a virtual scene including a model of a real-world object |
CN110706328B (zh) * | 2019-08-21 | 2020-12-18 | 重庆特斯联智慧科技股份有限公司 | 一种基于gan网络的三维场景虚拟生成方法和系统 |
CN111009035B (zh) * | 2019-11-28 | 2024-03-08 | 河南艾欧电子科技有限公司 | 模拟场景的创建方法及装置 |
CN113713381B (zh) * | 2021-09-09 | 2023-06-20 | 腾讯科技(深圳)有限公司 | 对象管理方法、装置、设备、存储介质及系统 |
CN117876642B (zh) * | 2024-03-08 | 2024-06-11 | 杭州海康威视系统技术有限公司 | 数字模型的构建方法、计算机程序产品及电子设备 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020095439A1 (en) * | 1997-02-20 | 2002-07-18 | Timothy Merrick Long | Method of positioning display images |
US20070156625A1 (en) * | 2004-01-06 | 2007-07-05 | Neuric Technologies, Llc | Method for movie animation |
CN101114385A (zh) * | 2007-08-07 | 2008-01-30 | 深圳先进技术研究院 | 一种数字城市全自动生成的方法 |
CN101303773A (zh) * | 2008-06-10 | 2008-11-12 | 中国科学院计算技术研究所 | 一种虚拟场景生成方法及系统 |
CN101536040A (zh) * | 2006-11-17 | 2009-09-16 | 汤姆森许可贸易公司 | 为了2d至3d转换对对象进行模型拟合和配准的系统及方法 |
US20100045660A1 (en) * | 2008-08-21 | 2010-02-25 | Dettinger Richard D | Recommendations for Object Use in Virtual Environment |
US20100268513A1 (en) * | 2006-02-16 | 2010-10-21 | Dirtt Environmental Solutions Ltd. | Rendering and modifying cad design entities in object-oriented applications |
CN101930627A (zh) * | 2010-09-10 | 2010-12-29 | 西安新视角信息科技有限公司 | 一种基于二维户型图的三维户型建模方法 |
US20110191365A1 (en) * | 2010-02-01 | 2011-08-04 | International Business Machines Corporation | System and method for object searching in virtual worlds |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3333319B2 (ja) * | 1994-06-03 | 2002-10-15 | 三菱電機株式会社 | 2次元3次元統合型cadシステム |
US6677944B1 (en) * | 1998-04-14 | 2004-01-13 | Shima Seiki Manufacturing Limited | Three-dimensional image generating apparatus that creates a three-dimensional model from a two-dimensional image by image processing |
US6671701B1 (en) * | 2000-06-05 | 2003-12-30 | Bentley Systems, Incorporated | System and method to maintain real-time synchronization of data in different formats |
US7043695B2 (en) | 2000-09-19 | 2006-05-09 | Technion Research & Development Foundation Ltd. | Object positioning and display in virtual environments |
US7788071B2 (en) | 2004-12-03 | 2010-08-31 | Telekinesys Research Limited | Physics simulation apparatus and method |
WO2007148219A2 (en) | 2006-06-23 | 2007-12-27 | Imax Corporation | Methods and systems for converting 2d motion pictures for stereoscopic 3d exhibition |
KR101288971B1 (ko) * | 2007-02-16 | 2013-07-24 | 삼성전자주식회사 | 모델링 방법 및 장치 |
EP2130178A1 (en) | 2007-03-23 | 2009-12-09 | Thomson Licensing | System and method for region classification of 2d images for 2d-to-3d conversion |
US8902227B2 (en) | 2007-09-10 | 2014-12-02 | Sony Computer Entertainment America Llc | Selective interactive mapping of real-world objects to create interactive virtual-world objects |
US20090327899A1 (en) | 2008-06-25 | 2009-12-31 | Steven Bress | Automated Creation of Virtual Worlds for Multimedia Presentations and Gatherings |
US8223145B2 (en) | 2009-03-26 | 2012-07-17 | Geometric Ltd. | Method and system for 3D object positioning in 3D virtual environments |
US20100315413A1 (en) | 2009-06-16 | 2010-12-16 | Microsoft Corporation | Surface Computer User Interaction |
US8638329B2 (en) | 2009-12-09 | 2014-01-28 | Deluxe 3D Llc | Auto-stereoscopic interpolation |
-
2011
- 2011-11-30 CN CN201110391339.5A patent/CN103136781B/zh active Active
-
2012
- 2012-11-30 US US13/691,033 patent/US11069130B2/en active Active
-
2021
- 2021-06-07 US US17/340,865 patent/US11574438B2/en active Active
-
2022
- 2022-11-17 US US17/988,927 patent/US20230071026A1/en active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020095439A1 (en) * | 1997-02-20 | 2002-07-18 | Timothy Merrick Long | Method of positioning display images |
US20070156625A1 (en) * | 2004-01-06 | 2007-07-05 | Neuric Technologies, Llc | Method for movie animation |
US20100268513A1 (en) * | 2006-02-16 | 2010-10-21 | Dirtt Environmental Solutions Ltd. | Rendering and modifying cad design entities in object-oriented applications |
CN101536040A (zh) * | 2006-11-17 | 2009-09-16 | 汤姆森许可贸易公司 | 为了2d至3d转换对对象进行模型拟合和配准的系统及方法 |
CN101114385A (zh) * | 2007-08-07 | 2008-01-30 | 深圳先进技术研究院 | 一种数字城市全自动生成的方法 |
CN101303773A (zh) * | 2008-06-10 | 2008-11-12 | 中国科学院计算技术研究所 | 一种虚拟场景生成方法及系统 |
US20100045660A1 (en) * | 2008-08-21 | 2010-02-25 | Dettinger Richard D | Recommendations for Object Use in Virtual Environment |
US20110191365A1 (en) * | 2010-02-01 | 2011-08-04 | International Business Machines Corporation | System and method for object searching in virtual worlds |
CN101930627A (zh) * | 2010-09-10 | 2010-12-29 | 西安新视角信息科技有限公司 | 一种基于二维户型图的三维户型建模方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105975259A (zh) * | 2016-04-27 | 2016-09-28 | 乐视控股(北京)有限公司 | 一种3d空间用户界面的实现方法及其装置 |
CN110727973A (zh) * | 2018-06-27 | 2020-01-24 | 西安海平方网络科技有限公司 | 模型的位姿确定方法、装置、计算机设备和存储介质 |
CN110727973B (zh) * | 2018-06-27 | 2023-02-24 | 西安海平方网络科技有限公司 | 模型的位姿确定方法、装置、计算机设备和存储介质 |
CN108922300A (zh) * | 2018-07-24 | 2018-11-30 | 杭州行开科技有限公司 | 基于数字化人体模型的手术模拟3d系统 |
Also Published As
Publication number | Publication date |
---|---|
US20230071026A1 (en) | 2023-03-09 |
CN103136781B (zh) | 2016-06-08 |
US11069130B2 (en) | 2021-07-20 |
US11574438B2 (en) | 2023-02-07 |
US20210295595A1 (en) | 2021-09-23 |
US20130135304A1 (en) | 2013-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103136781A (zh) | 用于生成三维虚拟场景的方法和系统 | |
JP6159807B2 (ja) | 3次元シーンをレンダリングするためのコンピュータグラフィックス方法 | |
CN102779358B (zh) | 用于设计几何三维建模对象的方法及设备 | |
CN102005059B (zh) | 图像处理设备、图像处理方法 | |
EP3340185B1 (en) | Fast rendering of quadrics and marking of silhouettes thereof | |
CN105121134A (zh) | 用在三维列印的形成切片及/或纹理的方法 | |
US20190054378A1 (en) | Systems and methods for creating a playable video game from a three-dimensional model | |
CN103971416A (zh) | 将3d场景分割为由计算资源处理的多个区域 | |
US11238645B2 (en) | Method and system for computer graphics rendering | |
CN104462688A (zh) | 一种电网信息设备运行仿真系统 | |
Petkov et al. | Interactive visibility retargeting in vr using conformal visualization | |
Fu et al. | Easyvrmodeling: Easily create 3d models by an immersive vr system | |
CN105844609A (zh) | 对图像进行划分 | |
JP3268666B2 (ja) | コンピュータ・グラフィックス制作装置 | |
McMullen et al. | Graphics on web platforms for complex systems modelling and simulation | |
CN114691116A (zh) | 实现3d饼图的方法、系统、设备及可读存储介质 | |
TWI617178B (zh) | 用以表現出三維景象之電腦圖形方法、系統及軟體產品 | |
Le Van et al. | An effective RGB color selection for complex 3D object structure in scene graph systems | |
JP7368950B2 (ja) | 効率的な建物フットプリント特定のための方法及び装置 | |
Pispidikis et al. | 3D Modelling and virtual reality for the management of public buildings | |
Inzerillo et al. | Optimization of cultural heritage virtual environments for gaming applications | |
US11941499B2 (en) | Training using rendered images | |
JP5513033B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
CN105608246B (zh) | 用于确定引导线的布置位置的方法和装置 | |
CN116721189A (zh) | 模型生成方法、装置、电子设备以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |