CN107526430A - 一种在虚拟场景下进行三维建模的方法及装置 - Google Patents

一种在虚拟场景下进行三维建模的方法及装置 Download PDF

Info

Publication number
CN107526430A
CN107526430A CN201610447258.5A CN201610447258A CN107526430A CN 107526430 A CN107526430 A CN 107526430A CN 201610447258 A CN201610447258 A CN 201610447258A CN 107526430 A CN107526430 A CN 107526430A
Authority
CN
China
Prior art keywords
dimensional
user
pattern
mode
dimensional modeling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201610447258.5A
Other languages
English (en)
Inventor
徐源源
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZTE Corp
Original Assignee
ZTE Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZTE Corp filed Critical ZTE Corp
Priority to CN201610447258.5A priority Critical patent/CN107526430A/zh
Publication of CN107526430A publication Critical patent/CN107526430A/zh
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种在虚拟场景下进行三维建模的方法及装置,涉及三维建模技术领域,其方法包括:通过对用户操作进行实时检测,得到用户操作状态;根据预设的用户操作状态与三维建模模式的对应关系,确定当前操作状态对应的三维建模模式;在所确定三维建模模式后,按照所确定的三维建模模式获取用户运动轨迹信息;利用所获取的用户运动轨迹信息建立虚拟三维模型。本发明在针对个人个性化产品的制造与设计的使用场景中,在三维空间直接建模将具有更直接的效果展示与体验,并且具有更直观和有效的建模体验,也能极大地提高建模效率。

Description

一种在虚拟场景下进行三维建模的方法及装置
技术领域
本发明涉及三维建模技术领域,特别涉及一种在虚拟场景下进行三维建模的方法及装置。
背景技术
目前市场上出现较多的虚拟现实设备一般是VR(Virtual Reality,虚拟现实)头盔、眼镜等,使用场景往往是游戏或者专业训练(如骑行、赛车等);手段一般是将虚拟世界投射到用户视野范围内,让用户产生身临其境的感受。已有虚拟现实生产力工具一般是将若干个特征点绑在特定物体或者人体上,然后通过摄像头空间扫描并记录每个特征点的运动轨迹后生成立体三维运动模型,并在其后运用在影视创作等场景中。
由于人体运动的局限性,这样的运动轨迹往往是非规则形状或路线,用于工程或者工业设计时,就并不适合直接将人体运动直接进行转换,并且在真实空间中,用户的自由移动动作和确定移动操作有极大的相似性,如果完全照搬这种记录模式,则需要剔除大量的无效运动信息,造成极大的运算量和误操作概率;虽然目前电脑的三维建模工具较为强大和复杂,但是由于其操作符合鼠标、键盘的操作习惯,不能直接照搬到现实三维虚拟世界;而目前有的立体打印等在现实世界中进行真实建模的技术,往往采用在计算机建模后进行分析,然后由一定的物质在现实世界中采用分层堆叠的方式进行建模,并不适合人脑的建模习惯,因此也不适合直接照搬到现实三维虚拟世界。
发明内容
根据本发明实施例提供的方案解决的技术问题是无法在虚拟场景下进行三维建模。
根据本发明实施例提供的一种在虚拟场景下进行三维建模的方法,包括:
通过对用户操作进行实时检测,得到用户操作状态;
根据预设的用户操作状态与三维建模模式的对应关系,确定当前操作状态对应的三维建模模式;
在所确定三维建模模式后,按照所确定的三维建模模式获取用户运动轨迹信息;
利用所获取的用户运动轨迹信息建立虚拟三维模型。
优选地,所述三维建模模式包括添加立体模式、切除立体模式和编辑立体模式。
优选地,所述根据预设的用户操作状态与三维建模模式的对应关系,确定当前操作状态对应的三维建模模式包括:
将所得到的用户操作状态与预设的用户操作状态进行匹配,查找与所得到的用户操作状态相一致的标准用户操作状态;
根据查找到的标准用户操作状态与三维建模模式的对应关系,确定当前操作状态对应的三维建模模式。
优选地,所述用户操作状态包括对预设特定对象的操作部位、操作压力以及操作姿势。
优选地,所述添加立体模式的立体类型包括添加截面+移动路径的立体类型和添加立体形体的立体类型;其中所述截面包括自由形、n边形以及圆形。
优选地,所述切除立体模式的立体类型包括切除生成曲面的立体类型、切除生成立体的立体类型以及切除生成实体立体的立体类型。
优选地,所述编辑立体模式的立体类型包括编辑横截面的立体类型、编辑移动路径的立体类型以及编辑立体形体的立体类型。
根据本发明实施例提供的一种在虚拟场景下进行三维建模的装置,包括:
检测模块,用于通过对用户操作进行实时检测,得到用户操作状态;
确定模块,用于根据预设的用户操作状态与三维建模模式的对应关系,确定当前操作状态对应的三维建模模式;
三维建模模块,用于在所确定三维建模模式后,按照所确定的三维建模模式获取用户运动轨迹信息,并利用所获取的用户运动轨迹信息建立虚拟三维模型。
优选地,所述三维建模模式包括添加立体模式、切除立体模式和编辑立体模式。
优选地,所述确定模块包括:
匹配单元,用于将所得到的用户操作状态与预设的用户操作状态进行匹配,查找与所得到的用户操作状态相一致的标准用户操作状态;
确定单元,用于根据查找到的标准用户操作状态与三维建模模式的对应关系,确定当前操作状态对应的三维建模模式。
根据本发明实施例提供的方案,用户能借由虚拟世界三维的便利性,产生更多具有生产力的使用方式,进一步提高了虚拟现实设备或功能的实用度,产生了更好的使用前景。
附图说明
图1是本发明实施例提供的一种在虚拟场景下进行三维建模的方法流程图;
图2是本发明实施例提供的一种在虚拟场景下进行三维建模的装置示意图;
图3是本发明实施例提供的三维建模的方法流程图;
图4是本发明实施例提供的三维建模初始设置的方法流程图;
图5是本发明实施例提供的使用AR(Augmented Reality,增强现实技术)进行三维建模的方法流程图;
图6是本发明实施例提供的在添加立体模式下进行三维建模的方法流程图;
图7是本发明实施例提供的在切除立体模式下进行三维建模的方法流程图;
图8是本发明实施例提供的在编辑立体模式下进行三维建模的方法流程图;
图9是本发明实施例提供的在添加立体模式下所生成的立体形体的示意图。
具体实施方式
以下结合附图对本发明的优选实施例进行详细说明,应当理解,以下所说明的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
图1是本发明实施例提供的一种在虚拟场景下进行三维建模的方法流程图,如图1所示,包括:
步骤S101:通过对用户操作进行实时检测,得到用户操作状态;
步骤S102:根据预设的用户操作状态与三维建模模式的对应关系,确定当前操作状态对应的三维建模模式;
步骤S103:在所确定三维建模模式后,按照所确定的三维建模模式获取用户运动轨迹信息;
步骤S104:利用所获取的用户运动轨迹信息建立虚拟三维模型。
其中,所述三维建模模式包括添加立体模式、切除立体模式和编辑立体模式。所述用户操作状态包括对预设特定对象的操作部位、操作压力以及操作姿势。
其中,所述根据预设的用户操作状态与三维建模模式的对应关系,确定当前操作状态对应的三维建模模式包括:将所得到的用户操作状态与预设的用户操作状态进行匹配,查找与所得到的用户操作状态相一致的标准用户操作状态;根据查找到的标准用户操作状态与三维建模模式的对应关系,确定当前操作状态对应的三维建模模式。
其中,所述添加立体模式的立体类型包括添加截面+移动路径的立体类型和添加立体形体的立体类型;其中所述截面包括自由形、n边形以及圆形。所述切除立体模式的立体类型包括切除生成曲面的立体类型、切除生成立体的立体类型以及切除生成实体立体的立体类型。所述编辑立体模式的立体类型包括编辑横截面的立体类型、编辑移动路径的立体类型以及编辑立体形体的立体类型。
图2是本发明实施例提供的一种在虚拟场景下进行三维建模的装置示意图,如图2所示,包括:检测模块201,用于通过对用户操作进行实时检测,得到用户操作状态;确定模块202,用于根据预设的用户操作状态与三维建模模式的对应关系,确定当前操作状态对应的三维建模模式;三维建模模块203,用于在所确定三维建模模式后,按照所确定的三维建模模式获取用户运动轨迹信息,并利用所获取的用户运动轨迹信息建立虚拟三维模型。
其中,所述三维建模模式包括添加立体模式、切除立体模式和编辑立体模式。
其中,所述确定模块202包括:匹配单元,用于将所得到的用户操作状态与预设的用户操作状态进行匹配,查找与所得到的用户操作状态相一致的标准用户操作状态;确定单元,用于根据查找到的标准用户操作状态与三维建模模式的对应关系,确定当前操作状态对应的三维建模模式。
本发明实施例在虚拟场景下通过人体运动进行三维建模的方法。以横截面与移动路径作为基本立体建模思想,综合利用切除、融合等多种立体建模方法,利用人体的不同姿势或者工具作为模式切换选择的触发条件,再根据特定对象的运动作为建模动作,在虚拟画面中实时呈现根据模式和建模动作综合计算的模型样式,并实时将模型数据记录在虚拟现实的模型库中。
本发明实施例提供的使用AR进行三维建模的三维建模系统包括:
处理器:接收和处理模式切换指示、根据当前模式判断用户特定对象的动作后,完成建模计算;
显示装置:将建模计算结果作为虚拟元素投影到预设的显示介质,包括但不限于:特定材质的屏幕、视网膜、空气等;
摄像头(组):安装在增强现实系统中,可能有一个或者多个,以各个视角拍摄当前用户使用环境;
特定对象:可以是特定的笔、手套等器件,作为被跟踪对象,其中包括空间定位器件(可以是雷达检测与空间特征位置如六面墙壁的位置、或是由摄像头组最终该器件发出的特殊光点的位置等,最终实现与增强现实系统连接实时计算当前特定对象所在的空间坐标与运动路径)、压力感应器件(感应用户不同的操作压力)、特定部位操作响应(如按钮,当用户点按此部位后可触发一定的操作);
特定三维空间:在此空间中建立坐标原点,在此空间中的物品和每个位置均对应此原点有坐标系;摄像头(组)获取此空间图像后可根据此坐标系判断特定对象所在的坐标以及移动路径。
图3是本发明实施例提供的三维建模的方法流程图,如图3所示,包括:
步骤1:AR三维建模系统初始设置;
步骤2:使用AR;
步骤3:选择、切换模式;
步骤4:待定对象运动;
步骤5:转化为三维模型。
图4是本发明实施例提供的三维建模初始设置的方法流程图,如图4所示,AR三维建模系统设计时预设模式类型,包括:添加立体模式、切除立体模式、编辑立体模式。预先设置或者指定特定操作对象以及不同对象的操作模式;如指定操作对象为与系统配套的操作附件(如手机、手环、特定的手套、手柄等),附件包括压力、陀螺仪等器件能感应用户不同的操作压力、姿态;附件中也可设置不同的操作按钮对应不同的功能;如指定操作对象不是特定的附件,而可以由用户自由指定,如手掌、普通的笔等,则需要用户进一步指定这些物品的不同状态或者当这些物品进入特定的空间位置作为不同的功能指令。预设切换模式的手段:预设特定对象检测用户操作的压力、位置、姿势等,当到达某个压力、位置阈值或特定姿态时,则提供菜单选择,或者直接切换,也可以通过检测用户的语音命令进行快捷切换。预设确定操作路径建模的方式:预设特定对象检测用户操作的压力、位置、姿势等,当到达某个压力、位置阈值或特定姿态时,则记录在该压力阈值或位置下的操作路径或定位坐标。
如图5所示,使用AR三维建模系统时:首先检测特定操作对象的状态;如操作压力、所在区域、姿态等参数符合预设的切换模式的条件,则将预设的模式类型作为菜单呈现到用户当前的视野中,并进一步检测特定操作对象的状态确定用户的选择。
如图6所示,如检测到用户的选择为添加立体模式,则进一步给出立体类型的选择;如检测到用户在立体类型中选择为截面+路径模式,并进一步检测所选截面为自由形,则检测特定对象的操作符合预设建模指令的方式在移动(如检测到特定对象手机屏幕感应到超过阈值的压力并且在连续移动),则记录该方式下的移动路径并实时显示在AR视野中,检测到特定对象移动结束,自动封闭该线段头尾作为截面曲面;再次检测特定对象在预定建模模式下的连续移动路径,将该线段作为截面的移动中心路径后,生成自由形体。
如图6所示,如检测到用户的选择为添加立体模式,则进一步给出立体类型的选择;如检测到用户在立体类型中选择为截面+路径模式,并进一步检测所选截面为n边形,则进一步检测用户对n的选择,并检测特定对象的操作符合预设建模指令的方式在移动(如检测到特定对象手机屏幕感应到超过阈值的压力并且在连续移动),则记录该方式下的移动路径并实时显示在AR视野中,检测到特定对象移动结束,自动封闭该线段头尾按照符合n边形的规则生成n边形截面;再次检测特定对象在预定建模模式下的连续移动路径,将该线段作为截面的移动中心路径后,生成立体形体。
如图6所示,如检测到用户的选择为添加立体模式,则进一步给出立体类型的选择;如检测到用户在立体类型中选择为截面+路径模式,并进一步检测所选截面为圆形,则检测特定对象的操作符合预设建模指令的方式在移动(如检测到特定对象手机屏幕感应到超过阈值的压力并且在连续移动),则记录该方式下的移动路径并实时显示在AR视野中,检测到特定对象移动结束,自动封闭该线段头尾按照符合圆形的规则生成圆形截面;再次检测特定对象在预定建模模式下的连续移动路径,将该线段作为截面的移动中心路径后,生成立体形体。
如图6所示,如检测到用户的选择为添加立体模式,则进一步给出立体类型的选择;如检测到用户在立体类型中选择为立体库选择模式,则进一步提供各种规则立体:立方体、球体、圆锥、圆台等,或者系统中历史建造的三维立体形体供选择;检测特定对象选择某种规则立体后,根据不同的立体给出可调整参数,如立方体可分别调整长、宽、高;球体可调整横轴、纵轴;根据调整结果生成立体形体。
其中,在添加立体模式中,若所形成的立体形态互有相交时,则将n个立体形态相交后的立体形态合并为一个新的立体形态保存。
如图7所示,如检测到用户的选择为切除立体模式,则进一步给出切除立体类型的选择;如果选择为生成曲面切除,则检测特定对象发出符合预设建模指令的方式,记录其在该方式下的连续移动路径1为横切线段;再次进一步检测特定对象的连续移动路径2为横切线段的移动路径,将横切线段沿移动路径生成的曲面作为切除曲面;计算该曲面将原立体切割为n个局部立体,检测特定对象的选择操作,根据操作指令确定切除或者保留的局部立体。
如图7所示,如检测到用户的选择为切除立体模式,则进一步给出切除立体类型的选择;如果选择为生成立体切除,则先生成切除立体后,计算该切除立体与原立体相交的部分,将原立体切割为n个局部立体,检测特定对象的选择操作,根据操作失灵确定切除或者保留的局部立体。
如图7所示,如检测到用户的选择为切除立体模式,则进一步给出切除立体类型的选择;如果选择为生成现实实体立体切除,则进一步检测特定对象选择现实中的某个实体,将此实体在空间中的各个坐标进行记录并建模为切除立体,计算该切除立体与原立体相交的部分,将原立体切割为n个局部立体,检测特定对象的选择操作,根据操作失灵确定切除或者保留的局部立体。
如图8所示,如检测到用户的选择为编辑立体模式,则首先将已有立体作为备选,并检测特定对象的选择动作,选择当前立体形状中的某一个;再进一步选择编辑类型,如选择的编辑类型为横截面编辑,则首先以一定的密度显示该立体各个位置的横截面,进入密度调整模式,检测到特定对象发出增减密度的指令后确定最终的调整密度后进入横截面选择模式,在此模式下提供缩放大小和重绘截面形状两种模式,如检测到特定对象选择缩放大小指令,进一步检测特定对象的缩放指令后确定该横截面的最终形状;如检测到特定对象选择重绘截面形状模式,则记录在该方式下特定对象的移动路径形成的连续线型围合的形状作为新的横截面形状;相邻横截面与修改后的横截面之间根据密度采用匀速连续过渡形式变更立体形体。
如图8所示,如检测到用户选择的编辑类型为编辑移动路径,则首先以一定的密度显示该移动路径的节点,进入密度调整模式,检测到特定对象发出增减密度的指令后确定最终的调整密度后进入节点选择模式,检测到选择了某个(些)节点后,进一步检测特定对象的移动,相邻路径节点与新的移动路径之间根据密度采用匀速连续过渡形式生成形成新的移动路径,结合所在路径的横截面形状变更立体形体。
如图8所示,如检测到用户选择的编辑类型为编辑立体,则首先将已有立体作为备选,并检测特定对象的选择动作,选择当前立体形状中的某一个;再进一步选择编辑类型,如选择的编辑类型为编辑立体,进一步提供编辑菜单,检测到用户选择修改立体参数中的倒角、大小、移动位置等任意项,则根据特定对象发出增减指令或者根据特定对象的位置移动确定立体形状的位置移动距离,进行相应变更后形成新的立体形体。
如图8所示,如检测到用户选择的编辑类型为编辑立体,则首先将已有立体作为备选,并检测特定对象的选择动作,选择当前立体形状中的某一个;再进一步选择编辑类型,如选择的编辑类型为编辑立体,进一步提供编辑菜单,检测到用户选择删除,则删除当前选中的立体形体。
如图8所示,如检测到用户选择的编辑类型为编辑立体,则首先将已有立体作为备选,并检测特定对象的选择动作,选择当前立体形状中的某一个;再进一步选择编辑类型,如选择的编辑类型为编辑立体,进一步提供编辑菜单,检测到用户选择融合,则将当前场景中的其他立体形体转化为待选状态;检测到特定对象发出选择动作,选择当前立体形状中的其他一个或几个,将前后选择的立体以相交部分为融合点形成新的立体形体;如所选立体形体间并无相交部分,则进一步给出移动路径操作步骤,此时检测特定对象的移动路径后,以移动路径开始点的立体形体的横截面为起点,以移动路径结束点的立体形体的横截面为终点,相邻横截面与修改后的横截面之间根据密度采用匀速连续过渡形式变更立体形体。
如图8所示,如检测到用户选择的编辑类型为编辑立体,则首先将已有立体作为备选,并检测特定对象的选择动作,选择当前立体形状中的某一个;再进一步选择编辑类型,如选择的编辑类型为编辑立体,进一步提供编辑菜单,检测到用户选择编辑色彩或者材质,则给出色彩选择库或者材质选择库;检测到特定对象发出选择动作,选中某一色彩或材质后,根据新的色彩和材质参数变更立体形体。
最后将建造后的立体形体保存到AR三维建模软件的存储空间中,并且可以用于立体库中的被选。
为了表述方便,将以上内容依次说明;但以上所述内容之间并非要求完全依次进行,可以穿插进行完成整个三维建模动作。
下面以具体实施例来说明本发明的内容:
AR增强现实的三维建模工具,提供一个专业手柄,手柄上有两个按钮,按钮A轻按切换工作模式(添加、切除、编辑),重按为选中当前聚焦焦点;按钮B按住后移动为有效移动操作。用户在使用此工具时,轻按按钮A调出选择菜单,当聚焦点移动到添加立体模式中的截面+路径模式,并且选择自由图形后,重按按钮A表示选中,系统提示用户先构建截面形状,用户移动手柄到合适建模的位置后按住按钮B并画了一个心形,系统继续提示用户构建移动路径,于是用户按住按钮B移动手柄延某个方向移动一段距离后,就生成了一个立体形体,如图9所示。
此例中的手柄、两个按钮可以由其他物体代替,比如以手掌的不同姿态对应不同的功能;如手掌呈现食指伸出的状态为调出模式选择,手掌握拳移动在绘图模式下为确认绘图路径,在选择模式下为移动菜单焦点,在某个焦点上手掌握拳停留一定时间为确认选择该焦点功能等。
根据本发明实施例提供的方案,针对个人个性化产品的制造与设计的使用场景中,在三维空间直接建模将具有更直接的效果展示与体验。采用此技术让用户在虚拟空间中具有更直观和有效的建模体验,也能极大地提高建模效率。
尽管上文对本发明进行了详细说明,但是本发明不限于此,本技术领域技术人员可以根据本发明的原理进行各种修改。因此,凡按照本发明原理所作的修改,都应当理解为落入本发明的保护范围。

Claims (10)

1.一种在虚拟场景下进行三维建模的方法,包括:
通过对用户操作进行实时检测,得到用户操作状态;
根据预设的用户操作状态与三维建模模式的对应关系,确定当前操作状态对应的三维建模模式;
在所确定三维建模模式后,按照所确定的三维建模模式获取用户运动轨迹信息;
利用所获取的用户运动轨迹信息建立虚拟三维模型。
2.根据权利要求1所述的方法,所述三维建模模式包括添加立体模式、切除立体模式和编辑立体模式。
3.根据权利要求1或2所述的方法,所述根据预设的用户操作状态与三维建模模式的对应关系,确定当前操作状态对应的三维建模模式包括:
将所得到的用户操作状态与预设的用户操作状态进行匹配,查找与所得到的用户操作状态相一致的标准用户操作状态;
根据查找到的标准用户操作状态与三维建模模式的对应关系,确定当前操作状态对应的三维建模模式。
4.根据权利要求3所述的方法,所述用户操作状态包括对预设特定对象的操作部位、操作压力以及操作姿势。
5.根据权利要求2所述的方法,所述添加立体模式的立体类型包括添加截面+移动路径的立体类型和添加立体形体的立体类型;其中所述截面包括自由形、n边形以及圆形。
6.根据权利要求2所述的方法,所述切除立体模式的立体类型包括切除生成曲面的立体类型、切除生成立体的立体类型以及切除生成实体立体的立体类型。
7.根据权利要求2所述的方法,所述编辑立体模式的立体类型包括编辑横截面的立体类型、编辑移动路径的立体类型以及编辑立体形体的立体类型。
8.一种在虚拟场景下进行三维建模的装置,包括:
检测模块,用于通过对用户操作进行实时检测,得到用户操作状态;
确定模块,用于根据预设的用户操作状态与三维建模模式的对应关系,确定当前操作状态对应的三维建模模式;
三维建模模块,用于在所确定三维建模模式后,按照所确定的三维建模模式获取用户运动轨迹信息,并利用所获取的用户运动轨迹信息建立虚拟三维模型。
9.根据权利要求8所述的装置,所述三维建模模式包括添加立体模式、切除立体模式和编辑立体模式。
10.根据权利要求8或9所述的装置,所述确定模块包括:
匹配单元,用于将所得到的用户操作状态与预设的用户操作状态进行匹配,查找与所得到的用户操作状态相一致的标准用户操作状态;
确定单元,用于根据查找到的标准用户操作状态与三维建模模式的对应关系,确定当前操作状态对应的三维建模模式。
CN201610447258.5A 2016-06-21 2016-06-21 一种在虚拟场景下进行三维建模的方法及装置 Withdrawn CN107526430A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610447258.5A CN107526430A (zh) 2016-06-21 2016-06-21 一种在虚拟场景下进行三维建模的方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610447258.5A CN107526430A (zh) 2016-06-21 2016-06-21 一种在虚拟场景下进行三维建模的方法及装置

Publications (1)

Publication Number Publication Date
CN107526430A true CN107526430A (zh) 2017-12-29

Family

ID=60733895

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610447258.5A Withdrawn CN107526430A (zh) 2016-06-21 2016-06-21 一种在虚拟场景下进行三维建模的方法及装置

Country Status (1)

Country Link
CN (1) CN107526430A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108939551A (zh) * 2018-07-23 2018-12-07 浙江树人学院 一种三维扫描虚拟游戏构建技术
CN109191590A (zh) * 2018-09-26 2019-01-11 浙江优创信息技术有限公司 一种用于制作虚拟现实应用的处理系统及处理方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104866121A (zh) * 2014-02-21 2015-08-26 上海市七宝中学 三维模型绘制系统及其绘制方法
CN105027030A (zh) * 2012-11-01 2015-11-04 艾卡姆有限公司 用于三维成像、映射、建网和界面连接的无线腕式计算和控制设备和方法
CN105513137A (zh) * 2014-09-23 2016-04-20 小米科技有限责任公司 基于移动智能终端的三维模型和场景建立方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105027030A (zh) * 2012-11-01 2015-11-04 艾卡姆有限公司 用于三维成像、映射、建网和界面连接的无线腕式计算和控制设备和方法
CN104866121A (zh) * 2014-02-21 2015-08-26 上海市七宝中学 三维模型绘制系统及其绘制方法
CN105513137A (zh) * 2014-09-23 2016-04-20 小米科技有限责任公司 基于移动智能终端的三维模型和场景建立方法及装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108939551A (zh) * 2018-07-23 2018-12-07 浙江树人学院 一种三维扫描虚拟游戏构建技术
CN109191590A (zh) * 2018-09-26 2019-01-11 浙江优创信息技术有限公司 一种用于制作虚拟现实应用的处理系统及处理方法
CN109191590B (zh) * 2018-09-26 2023-11-07 浙江优创信息技术有限公司 一种用于制作虚拟现实应用的处理系统及处理方法

Similar Documents

Publication Publication Date Title
US11461950B2 (en) Object creation using body gestures
CN109313511B (zh) 提供虚拟空间的方法、提供虚拟体验的方法、程序以及记录介质
JP5256269B2 (ja) データ生成装置、データ生成装置の制御方法、及びプログラム
CN102722249B (zh) 操控方法、操控装置及电子装置
CN103793060B (zh) 一种用户交互系统和方法
KR100845390B1 (ko) 영상 처리기, 영상 처리 방법, 기록 매체, 및 반도체 장치
US20170242483A1 (en) Systems and Methods for Interacting with Virtual Objects Using Sensory Feedback
CN106249882A (zh) 一种应用于vr设备的手势操控方法与装置
US20100138785A1 (en) Gesture input system, method and program
KR20150103723A (ko) 가상 또는 증강매개된 비전을 위한 엑스트라미시브 공간 이미징 디지털 아이 글래스
CN103218506A (zh) 信息处理装置、显示控制方法和程序
WO2013038844A1 (ja) ゲーム装置、ゲーム装置の制御方法、プログラム、及び情報記憶媒体
JP4739430B2 (ja) 3次元デザイン支援装置及びプログラム
CN108874123A (zh) 一种通用的模块化的虚拟现实被动力触觉反馈系统
KR101888491B1 (ko) 가상 공간 이동 장치 및 방법
CN106774938A (zh) 基于体感设备的人机交互集成装置
CN107526430A (zh) 一种在虚拟场景下进行三维建模的方法及装置
CN105955488B (zh) 一种操控终端的方法和装置
CN107728811A (zh) 界面操控方法、装置及系统
CN206475183U (zh) 机器人
CN108205373A (zh) 一种交互方法及系统
Wither et al. Evaluating techniques for interaction at a distance
TWI413018B (zh) 體積識別方法及系統
CN110874132A (zh) 头戴式虚实交互装置和虚实交互方法
CN210109742U (zh) 头戴式虚实交互装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20171229