CN113808255A - 一种即时建模设备及方法 - Google Patents

一种即时建模设备及方法 Download PDF

Info

Publication number
CN113808255A
CN113808255A CN202111061366.6A CN202111061366A CN113808255A CN 113808255 A CN113808255 A CN 113808255A CN 202111061366 A CN202111061366 A CN 202111061366A CN 113808255 A CN113808255 A CN 113808255A
Authority
CN
China
Prior art keywords
feature point
right view
left view
modeling
target image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111061366.6A
Other languages
English (en)
Inventor
黄业开
邱雪君
李铮
何少珊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Yiye Electromechanical Equipment Technology Co ltd
Original Assignee
Guangzhou Yiye Electromechanical Equipment Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Yiye Electromechanical Equipment Technology Co ltd filed Critical Guangzhou Yiye Electromechanical Equipment Technology Co ltd
Priority to CN202111061366.6A priority Critical patent/CN113808255A/zh
Publication of CN113808255A publication Critical patent/CN113808255A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1407General aspects irrespective of display type, e.g. determination of decimal point position, display with fixed or driving decimal point, suppression of non-significant zeros
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明提供一种即时建模设备及方法,其中,所述即时建模设备包括设备平台、设置于所述设备平台上的拍摄装置、3D建模装置和触摸显示装置;所述拍摄装置、所述触摸显示装置分别与所述3D建模装置电连接;所述拍摄装置对所述设备平台上的待拍摄物体进行拍摄,获取左视图和右视图传输至所述3D建模装置;所述3D建模装置接收所述左视图和右视图,并根据所述左视图和右视图进行3D即时建模获得3D展示模型,根据所述3D展示模型生成显示信号发送至所述触摸显示装置;所述触摸显示装置接收所述显示信号显示所述3D展示模型。本发明所述的即时建模设备及方法,其具有能够对物体进行实时拍摄,通过实时拍摄的物体图像进行即时建模,即时展示的优点。

Description

一种即时建模设备及方法
技术领域
本发明涉及教学设备技术领域,特别是涉及一种即时建模设备及方法。
背景技术
随着社会的进步和科学技术的发展,电子白板、智能黑板、智能讲台等数字化设备正在逐步渗透到教学的各个方面。在实训教学过程中,一般的讲台不设置有摄像头等实时画面采集设备以及画面实时处理设备,通常以2D画面直播、或2D画面录播等展示方式向学生进行演示教学。但是,通过2D画面直播或录播的展示方式无法展示出逼真的3D教学场景,不便于知识点的教学和讲解。
发明内容
为克服相关技术中存在的问题,本发明实施例提供了一种即时建模设备及方法,其具有能够对物体进行实时拍摄,通过实时拍摄的物体图像进行即时建模的优点。
根据本发明实施例的第一方面,提供一种即时建模设备,包括设备平台、设置于所述设备平台上的拍摄装置、3D建模装置和触摸显示装置;所述拍摄装置、所述触摸显示装置分别与所述3D建模装置电连接;所述拍摄装置对所述设备平台上的待拍摄物体进行拍摄,获取左视图和右视图传输至所述3D建模装置;所述3D建模装置接收所述左视图和右视图,并根据所述左视图和右视图进行3D即时建模获得3D展示模型,根据所述3D展示模型生成显示信号发送至所述触摸显示装置;所述触摸显示装置接收所述显示信号显示所述3D展示模型。
进一步地,所述根据所述左视图和右视图进行3D即时建模获得3D展示模型,包括:
接收所述拍摄装置实时发送的所述左视图和所述右视图;
分别对所述左视图和所述右视图进行特征识别,获得第一特征点集和第二特征点集;
将所述第一特征点集和所述第二特征点集进行特征点匹配,建立所述左视图和右视图的特征点映射关系;
根据所述特征点映射关系获得所述左视图和所述右视图的相对位移量;
根据所述相对位移量将所述左视图和右视图进行平移获得目标图像;
获取目标图像的各个特征点的深度信息,根据所述目标图像和所述深度信息建立3D立体模型。
进一步地,所述根据所述特征点映射关系获得所述左视图和所述右视图的相对位移量,包括:
在所述左视图中确定第一特征点,根据所述特征点映射关系在所述右视图中确定第二特征点,所述第二特征点为所述右视图中与所述第一特征点相关性最大的特征点;
根据所述第一特征点的位置以及所述第二特征点的位置,获得所述左视图和所述右视图的相对位移量;其中,所述相对位移量包括水平位移量,和/或垂直位移量。进一步地,所述根据所述相对位移量将所述左视图和右视图进行平移获得目标图像,包括:
根据所述相对位移量将所述左视图平移至与所述右视图重合,获得目标图像,或者,
根据所述相对位移量将所述右视图平移至与所述左视图重合,获得目标图像。
进一步地,所述获取目标图像的各个特征点的深度信息,根据所述目标图像和所述深度信息建立3D立体模型,包括:
获取所述第一特征点集的各个特征点的深度信息,或者获取所述第二特征点集的各个特征点的深度信息;
将各个特征点的所述深度信息与所述目标图像的特征点进行匹配,获得与所述目标图像的各个特征点对应的深度信息;
根据所述目标图像的各个特征点,以及所述各个特征点的深度信息建立3D立体模型。
进一步地,所述获取目标图像的各个特征点的深度信息,根据所述目标图像和所述深度信息建立3D立体模型的步骤之前,还包括:
获取所述触摸显示装置的屏幕分辨率,根据所述屏幕分辨率获取所述目标图像中超出屏幕边界的待裁剪图像,将所述待裁剪图像裁剪获得所述目标图像。
进一步地,所述即时建模设备为即时建模讲台,所述设备平台为讲台本体,所述拍摄装置和所述触摸显示装置安装于所述讲台本体上。
进一步地,所述讲台本体包括柜体和设置于所述柜体上方的面板;所述柜体的底部安装有若干滑轮。
进一步地,所述触摸显示装置包括边框、显示器和触摸组件;所述显示器和所述触摸组件安装于所述边框内,所述触摸组件位于所述显示器的面向用户的一侧。
根据本发明实施例的第二方面,提供一种即时建模方法,包括以下步骤:
接收所述拍摄装置实时发送的所述左视图和所述右视图;
分别对所述左视图和所述右视图进行特征识别获得第一特征点集和第二特征点集;
将所述第一特征点集和所述第二特征点集进行特征点匹配,建立所述左视图和右视图的特征点映射关系;
根据所述特征点映射关系获得所述左视图和所述右视图的相对位移量;
根据所述相对位移量将所述左视图和右视图进行平移获得目标图像;
获取目标图像的各个特征点的深度信息,根据所述目标图像和所述深度信息建立3D立体模型。
应用本申请上述实施例的技术方案,通过设置拍摄装置对待拍摄物体进行实时拍摄,获取左视图和右视图,通过3D建模装置根据所述左视图和所述右视图进行3D即时建模获得3D展示模型,并根据3D展示模型生成显示信号发送至所述触摸显示装置,最后通过触摸显示装置接收显示信号并显示出3D展示模型,以供用户以及其他学习者观看。本申请的技术方案,具有能够对物体进行实时拍摄,通过实时拍摄的物体图像进行即时建模的优点。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本发明。
为了更好地理解和实施,下面结合附图详细说明本发明。
附图说明
图1为本发明实施例所述的即时建模设备的原理框图;
图2为本发明实施例所述的3D建模装置即时建模的方法流程图;
图3为本发明实施例所述的获取左视图和右视图的相对位移量的方法流程图;
图4为本发明实施例所述的建立3D立体模型的方法流程图;
图5为本发明实施例所述的便于即时建模的讲台的结构示意图;
图6为本发明实施例所述的便于即时建模的讲台的正视图;
图7为本发明实施例所述的便于即时建模的讲台的后视图。
具体实施方式
在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。在本发明的描述中,除非另有说明,“多个”的含义是两个或两个以上。
在实训教学过程中,一般的讲台不设置有摄像头等实时画面采集设备以及画面实时处理设备,通常以2D画面直播、或2D画面录播等展示方式向学生进行演示教学。但是,通过2D画面直播或录播的展示方式无法展示出逼真的3D教学场景,不便于知识点的教学和讲解。基于上述技术问题,本申请提供了一种即时建模设备,能够对物体进行实时拍摄,并通过建模装置根据实时拍摄的物体图像进行即时3D建模,并通过显示装置实时展示。
请参阅图1,图1为本发明实施例所述的即时建模设备的原理框图。
本发明实施例所述即时建模设备为一种教学设备,即为一种能够即时3D建模的教学讲台,所述即时建模设备能够对待拍摄物品进行实时拍摄获取图像,通过D建模装置接收图像后实时建模,生成显示信号发送至触摸显示装置显示。
所述即时建模设备包括设备平台10、设置于所述设备平台10上的拍摄装置20、3D建模装置30和触摸显示装置40。本实施例中,即时建模设备可以为一种能够即时3D建模的教学讲台,设备平台10可以为讲台本体10,其上设置有拍摄装置20、3D建模装置30和触摸显示装置40。
所述拍摄装置20、所述触摸显示装置40分别与所述3D建模装置30电连接;所述拍摄装置20对所述讲台本体10上的待拍摄物体进行拍摄,获取图像传输至所述3D建模装置30,所述拍摄装置20至少包括第一摄像头和第二摄像头,通过第一摄像头获取左视图,通过第二摄像头获取右视图。所述3D建模装置30接收所述左视图和右视图,并根据所述左视图和右视图进行3D即时建模获得3D展示模型,根据所述3D展示模型生成显示信号发送至所述触摸显示装置40;所述触摸显示装置40接收所述显示信号显示所述3D展示模型,以便于向用户以及学习者展示出即时建模的3D模型。
应用本申请上述实施例的技术方案,通过设置拍摄装置对待拍摄物体进行实时拍摄,获取左视图和右视图,通过3D建模装置根据所述左视图和所述右视图进行3D即时建模获得3D展示模型,并根据3D展示模型生成显示信号发送至所述触摸显示装置,最后通过触摸显示装置接收显示信号并显示出3D展示模型,以供用户以及其他学习者观看。本申请的技术方案,具有能够对物体进行实时拍摄,通过实时拍摄的物体图像进行即时建模的优点。
本申请中的3D即时建模方案无需预先建模,而是根据获取到的物体图像进行即时建模,建模速度快,也能即时的向用户展示出逼真的3D教学场景,以便于知识点的教学和讲解,由于提高教学质量。
请参阅图2,图2为本发明实施例所述的3D建模装置即时建模的方法流程图。
本实施例中,所述根据所述左视图和右视图进行3D即时建模获得3D展示模型,包括以下步骤:
S1:接收所述拍摄装置实时发送的所述左视图和所述右视图。
通过拍摄装置实时对物体进行拍摄获取到左视图和右视图,以便于3D建模装置能够根据当前教学场景即时建模,向用户即时展示出逼真的教学场景,处理速度较快,无延时,无需预设建模,较为方便。
S2:分别对所述左视图和所述右视图进行特征识别,获得第一特征点集和第二特征点集。
本实施例中,获取左视图和右视图之后,可以将左视图和右视图输入至特征识别模型中进行特征识别,获得左视图的第一特征点集以及右视图的第二特征点集,以便于后续的特征点的匹配,从而获得两个视图的差异。
在一个可选的实施例中,所述第一特征点集中的特征包括:色彩、和/或亮度、和/或曲率。在计算左视图和右视图的特征点的相关性时,可以计算左视图和右视图的特征点的色彩相关性,和/或亮度相关性,和/或曲率相关性,通过多种参数的相关性计算,以便于以准确计算两个视图的特征点的相关性。
S3:将所述第一特征点集和所述第二特征点集进行特征点匹配,建立所述左视图和右视图的特征点映射关系。
本实施例中,由于是通过第一摄像头对物体进行及时拍摄获取左视图,同时,通过第二摄像头对同一物体进行拍摄获取右视图,因此,左视图和右视图中存在对应的特征点。左视图中的第一特征点的集合为第一特征点集,右视图中的第二特征点的集合为第二特征点集。将所述第一特征点集和第二特征点集进行特征点匹配,即可建立左视图和右视图的特征点映射关系。
在一个可选的实施例中,进行特征点匹配时可以使用局部特征匹配、全局特征匹配、或者局部与全局特征相结合的匹配方式来进行匹配。
使用局部特征匹配进行特征点匹配时,可以获得较快的匹配速度;使用全局特征匹配进行特征点匹配时,可以获得较高的匹配准确度;为了获得速度和准确度都较为合适的匹配方式,还可以使用局部与全局特征相结合的特征匹配方式。
S4:根据所述特征点映射关系获得所述左视图和所述右视图的相对位移量。
由于左视图和右视图为对同一物体的不同角度拍摄的图像,因此左视图和右视图之间存在一定的相对位移量,获取该相对位移量之后即可将左视图或右视图进行平移,以便于获得目标图像。
在一个可选的实施例中,请参阅图3,图3为本发明实施例所述的获取左视图和右视图的相对位移量的方法流程图。
所述根据所述特征点映射关系获得所述左视图和所述右视图的相对位移量,包括:
S401:在所述左视图中确定第一特征点,根据所述特征点映射关系在所述右视图中确定第二特征点,所述第二特征点为所述右视图中与所述第一特征点相关性最大的特征点。
S402:根据所述第一特征点的位置以及所述第二特征点的位置,获得所述左视图和所述右视图的相对位移量;其中,所述相对位移量包括水平位移量,和/或垂直位移量。通过最大相关位置的设置,有助于较为准确的获取水平位移量和垂直位移量,从而便于将左视图和右视图进行平移。
根据所述特征映射关系在所述右视图中确定第二特征点时,根据第一特征点,遍历查找右视图中的第二特征点,当查找到与第一特征点相关性更高的特征点时,利用当前特征点对前一个特征点进行迭代,不断的进一步搜索直到查找到与第一特征点相关性最大的第二特征点。在遍历查找时,若新的特征点的相关性大于前一个特征点的相关性,则按照该方向继续搜索并对前面查找到的特征点进行迭代更新,若新的特征线的相关性小于前一个特征点的相关性,则按照相反的方向继续手搜索,直到查找到与第一特征点相关性最大的第二特征点。
进一步的,在遍历查找时,可以以遍历搜索KD树,或者遍历搜索R树中的方式进行迭代搜索。
S5:根据所述相对位移量将所述左视图和右视图进行平移获得目标图像。
在一个可选的实施例中,相对位移量包括水平位移量和/或垂直位移量。因此,根据所述相对位移量将所述左视图和右视图进行平移获得目标图像,可以包括:根据所述相对位移量将所述左视图平移至与所述右视图重合,获得目标图像;或者,根据所述相对位移量将所述右视图平移至与所述左视图重合,获得目标图像。
S6:获取目标图像的各个特征点的深度信息,根据所述目标图像和所述深度信息建立3D立体模型。
在一个可选的实施例中,请参阅图4,图4为本发明实施例所述的建立3D立体模型的方法流程图。
所述获取目标图像的各个特征点的深度信息,根据所述目标图像和所述深度信息实时建立3D立体模型,包括:
S601:获取所述第一特征点集的各个特征点的深度信息,获取所述第二特征点集的各个特征点的深度信息。
由于摄像头对同一物体进行拍摄,因此,被拍摄物体在两个平面的成像时,图像的各个像素点的坐标会不一样,各个像素点携带的深度信息也会不一样,因此,需要获得左视图中的第一特征点集的各个特征点的深度信息,并获得右视图中的第二特征点集的各个特征点的深度信息,从而根据三角化计算方法或者其他的计算方法获得合成的目标图像的各个像素点的深度信息,以便于将目标图像的各个特征点进行深度信息匹配。
S602:将各个特征点的所述深度信息与所述目标图像的特征点进行匹配,获得与所述目标图像的各个特征点对应的深度信息。获得目标图像的各个像素点以及各个像素点对应的深度信息,即可建模。
S603:根据所述目标图像的各个特征点,以及所述各个特征点的深度信息实时建立3D立体模型。
在一个可选的实施例中,所述获取目标图像的各个特征点的深度信息,根据所述目标图像和所述深度信息建立3D立体模型的步骤之前,还包括:
获取所述触摸显示装置的屏幕边界,根据所述屏幕边界获取所述目标图像中超出屏幕边界的待裁剪图像,将所述待裁剪图像裁剪获得所述目标图像。
在一个可选的实施例中,在步骤S6之后还包括步骤:根据实时建立的3D立体模型,生成显示信号发送至触摸显示装置。
以下对即时建模设备的各个部件的结构进行说明:请参阅图5至7,图5为本发明实施例所述的便于即时建模的讲台的结构示意图;图6为本发明实施例所述的便于即时建模的讲台的正视图;图7为本发明实施例所述的便于即时建模的讲台的后视图。
所述设备平台为讲台本体10,所述讲台本体10包括柜体11和设置于所述柜体11上方的面板12,所述面板12用于放置待拍摄物品或者其他的用品。所述柜体11和面板12相互盖合形成空腔,所述空腔内可用于放置电源模块、3D建模装置、计算机设备、获取教学用具等用品。所述柜体11为不锈钢柜体,其外壁上设置有若干孔洞,以便于散热或者悬挂其他器件,具体的,所述柜体11的外壁上的孔洞的直径大于1厘米。所述柜体11具有不锈钢门,可以打开将用品放入至空腔内。
在一个可选的实施例中,所述柜体11的侧壁上还设置有可伸缩电源插头13,所述可伸缩电源插头13与所述空腔内的电源模块连接,以便于讲台上的用电设备从外部获得电源。当讲台上的设备需要连接电源时,将可伸缩插头拉出,插至交流市电的插座上即可获得电源,使用方便,不需要连接电源时,可将可伸缩插头回缩收纳于柜体11的空腔内,方便收纳。
在一个可选的实施例中,所述柜体11的底部安装有若干滑轮14,所述滑轮14可以为高耐磨脚轮,以便于将讲台移动至教室的各个位置,便于学生近距离、多方位的观看3D建模图形,从而便于提高教学质量。
在一个可选的实施例中,所述讲台还包括摄像头支架50,所述摄像头支架50设置于所述讲台本体10的面板12的边缘,所述摄像头支架50的端部朝向所述面板12的中心区域设置,所述摄像头支架50的端部安装有所述拍摄装置20,以便于所述拍摄装置20对面板12上的物品进行拍摄。进一步的,所述摄像头支架50的端部安装有锁紧组件,所述拍摄装置20通过所述锁紧组件固定于所述摄像头支架50上。拍摄前,需要调整拍摄装置20的朝向以便于获得较好的拍摄角度,当拍摄装置20的角度调节好之后,可以通过锁紧组件锁紧拍摄装置20,放置晃动影响拍摄效果。
在一个可选的实施例中,所述拍摄装置20至少包括两个摄像头,若干所述摄像头平行设置于所述摄像头支架50的端部,便于从不同角度对待拍摄物品进行多方位的拍摄,获取多个角度的图像以及相关信息。其中,若干摄像头之间的距离可以调节,若干摄像头之间的距离与摄像头的视角成正比,即摄像头的视角越大,摄像头之间的距离就设置的越大。
所述面板12上还设置有显示器支撑组件60;所述触摸显示装置40通过所述显示器支撑组件60安装于面板12上,以便于对触摸显示装置进行固定。
在一个可选的实施例中,所述显示器支撑组件60设置有容纳腔体,所述容纳腔体的侧壁上设置有电源插座61,和/或USB插座,其中,电源插座61可以为220V三叉插座,或者220V二叉插座,或者直流电源插座,电源插座61便于向其他的用电设备移动电源。所述USB插座用于与其他智能设备连接,实现信息的交互,从而使得教学更加灵活方便。
在一个可选的实施例中,所述触摸显示装置40包括边框41、显示器42和触摸组件;所述显示器42和所述触摸组件安装于所述边框41内,所述触摸组件位于所述显示器42的面向用户的一侧,以便于用户通过触摸的方式输入相关信息或进行相关操作。
其中,所述显示器42可以为3D偏振显示器,或3D快门式显示器,本申请中不做限定。若显示器42为3D快门式显示器时,红外触摸组件发出的红外波段与快门式3D显示器发射的波段是两个不会引起干扰的不同波段。在本实施例中,红外触摸组件的红外波波段可以是850nm,快门式3D显示器发射的红外波段可以是1250nm;或者红外触摸组件的红外波波段可以是1250nm,快门式3D显示器发射的红外波段可以是850nm;在其他实施例中,红外波段还可以有其他的选择,在此不做限定。
应用本申请上述实施例的技术方案,通过设置拍摄装置对待拍摄物体进行实时拍摄,获取左视图和右视图,通过3D建模装置根据所述左视图和所述右视图进行3D即时建模获得3D展示模型,并根据3D展示模型生成显示信号发送至所述触摸显示装置,最后通过触摸显示装置接收显示信号并显示出3D展示模型,以供用户以及其他学习者观看。本申请的技术方案,具有能够对物体进行实时拍摄,通过实时拍摄的物体图像进行即时建模的优点。便于向学生及时展示出3D教学场景,使用较为方便。同时,讲台的底部还设置有滑轮,便于将讲台推送至教室的各个位置,便于学生近距离的,多范围观测3D建模图形,有助于提高教学质量。
另外,本申请还提供了一种即时建模方法,如图2所示,所述即时建模方法,包括以下步骤:
S1:接收所述拍摄装置实时发送的所述左视图和所述右视图;
S2:分别对所述左视图和所述右视图进行特征识别获得第一特征点集和第二特征点集;
S3:将所述第一特征点集和所述第二特征点集进行特征点匹配,建立所述左视图和右视图的特征点映射关系;
S4:根据所述特征点映射关系获得所述左视图和所述右视图的相对位移量;
S5:根据所述相对位移量将所述左视图和右视图进行平移获得目标图像;
S6:获取目标图像的各个特征点的深度信息,根据所述目标图像和所述深度信息建立3D立体模型。
应用本申请上述实施例的技术方案,能够根据所述左视图和所述右视图进行3D即时建模获得3D展示模型,并根据3D展示模型生成显示信号发送至所述触摸显示装置,最后通过触摸显示装置接收显示信号并显示出3D展示模型,以供用户以及其他学习者观看。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。

Claims (10)

1.一种即时建模设备,其特征在于:包括设备平台、设置于所述设备平台上的拍摄装置、3D建模装置和触摸显示装置;所述拍摄装置、所述触摸显示装置分别与所述3D建模装置电连接;所述拍摄装置对所述设备平台上的待拍摄物体进行拍摄,获取左视图和右视图传输至所述3D建模装置;所述3D建模装置接收所述左视图和右视图,并根据所述左视图和右视图进行3D即时建模获得3D展示模型,根据所述3D展示模型生成显示信号发送至所述触摸显示装置;所述触摸显示装置接收所述显示信号显示所述3D展示模型。
2.根据权利要求1所述的即时建模设备,其特征在于:所述根据所述左视图和右视图进行3D即时建模获得3D展示模型,包括:
接收所述拍摄装置实时发送的所述左视图和所述右视图;
分别对所述左视图和所述右视图进行特征识别,获得第一特征点集和第二特征点集;
将所述第一特征点集和所述第二特征点集进行特征点匹配,建立所述左视图和右视图的特征点映射关系;
根据所述特征点映射关系获得所述左视图和所述右视图的相对位移量;
根据所述相对位移量将所述左视图和右视图进行平移获得目标图像;
获取目标图像的各个特征点的深度信息,根据所述目标图像和所述深度信息建立3D立体模型。
3.根据权利要求2所述的即时建模设备,其特征在于:所述根据所述特征点映射关系获得所述左视图和所述右视图的相对位移量,包括:
在所述左视图中确定第一特征点,根据所述特征点映射关系在所述右视图中确定第二特征点,所述第二特征点为所述右视图中与所述第一特征点相关性最大的特征点;
根据所述第一特征点的位置以及所述第二特征点的位置,获得所述左视图和所述右视图的相对位移量;其中,所述相对位移量包括水平位移量,和/或垂直位移量。
4.根据权利要求2所述的即时建模设备,其特征在于:所述根据所述相对位移量将所述左视图和右视图进行平移获得目标图像,包括:
根据所述相对位移量将所述左视图平移至与所述右视图重合,获得目标图像,或者,
根据所述相对位移量将所述右视图平移至与所述左视图重合,获得目标图像。
5.根据权利要求2所述的即时建模设备,其特征在于:所述获取目标图像的各个特征点的深度信息,根据所述目标图像和所述深度信息建立3D立体模型,包括:
获取所述第一特征点集的各个特征点的深度信息,获取所述第二特征点集的各个特征点的深度信息;
将各个特征点的所述深度信息与所述目标图像的特征点进行匹配,获得与所述目标图像的各个特征点对应的深度信息;
根据所述目标图像的各个特征点,以及所述各个特征点的深度信息建立3D立体模型。
6.根据权利要求2所述的即时建模设备,其特征在于:所述获取目标图像的各个特征点的深度信息,根据所述目标图像和所述深度信息建立3D立体模型的步骤之前,还包括:
获取所述触摸显示装置的屏幕边界,根据所述屏幕边界获取所述目标图像中超出屏幕边界的待裁剪图像,将所述待裁剪图像裁剪获得所述目标图像。
7.根据权利要求1所述的即时建模设备,其特征在于:所述即时建模设备为即时建模讲台,所述设备平台为讲台本体,所述拍摄装置和所述触摸显示装置安装于所述讲台本体上。
8.根据权利要求1所述的即时建模设备,其特征在于:所述讲台本体包括柜体和设置于所述柜体上方的面板;所述柜体的底部安装有若干滑轮。
9.根据权利要求1所述的即时建模设备,其特征在于:所述触摸显示装置包括边框、显示器和触摸组件;所述显示器和所述触摸组件安装于所述边框内,所述触摸组件位于所述显示器的面向用户的一侧。
10.一种即时建模方法,其特征在于,包括以下步骤:
接收所述拍摄装置实时发送的所述左视图和所述右视图;
分别对所述左视图和所述右视图进行特征识别获得第一特征点集和第二特征点集;
将所述第一特征点集和所述第二特征点集进行特征点匹配,建立所述左视图和右视图的特征点映射关系;
根据所述特征点映射关系获得所述左视图和所述右视图的相对位移量;
根据所述相对位移量将所述左视图和右视图进行平移获得目标图像;
获取目标图像的各个特征点的深度信息,根据所述目标图像和所述深度信息建立3D立体模型。
CN202111061366.6A 2021-09-10 2021-09-10 一种即时建模设备及方法 Pending CN113808255A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111061366.6A CN113808255A (zh) 2021-09-10 2021-09-10 一种即时建模设备及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111061366.6A CN113808255A (zh) 2021-09-10 2021-09-10 一种即时建模设备及方法

Publications (1)

Publication Number Publication Date
CN113808255A true CN113808255A (zh) 2021-12-17

Family

ID=78940718

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111061366.6A Pending CN113808255A (zh) 2021-09-10 2021-09-10 一种即时建模设备及方法

Country Status (1)

Country Link
CN (1) CN113808255A (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110261165A1 (en) * 2004-06-18 2011-10-27 Topcon Corporation Model forming apparatus, model forming method, photographing apparatus and photographing method
CN103400543A (zh) * 2013-07-18 2013-11-20 贵州宝森科技有限公司 3d互动展示系统及其展示方法
CN110223383A (zh) * 2019-06-17 2019-09-10 重庆大学 一种基于深度图修补的植物三维重建方法及系统
CN112257641A (zh) * 2020-10-30 2021-01-22 中电万维信息技术有限责任公司 一种人脸识别活体检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110261165A1 (en) * 2004-06-18 2011-10-27 Topcon Corporation Model forming apparatus, model forming method, photographing apparatus and photographing method
CN103400543A (zh) * 2013-07-18 2013-11-20 贵州宝森科技有限公司 3d互动展示系统及其展示方法
CN110223383A (zh) * 2019-06-17 2019-09-10 重庆大学 一种基于深度图修补的植物三维重建方法及系统
CN112257641A (zh) * 2020-10-30 2021-01-22 中电万维信息技术有限责任公司 一种人脸识别活体检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
孙新领 等: "双目立体视觉在人形机器人三维重建中的应用", 现代电子技术, vol. 39, no. 08, 30 April 2016 (2016-04-30), pages 80 - 84 *

Similar Documents

Publication Publication Date Title
US20230386174A1 (en) Method for generating customized/personalized head related transfer function
US10008028B2 (en) 3D scanning apparatus including scanning sensor detachable from screen
CN109919911B (zh) 基于多视角光度立体的移动三维重建方法
CN105704479B (zh) 3d显示系统用的测量人眼瞳距的方法及系统和显示设备
CN108286945B (zh) 基于视觉反馈的三维扫描系统和方法
WO2017156949A1 (zh) 透明显示方法和透明显示装置
KR20040030081A (ko) 3d 화상 회의 시스템
EP3813019A1 (en) Method and system for estimating the geometry of a scene
CN109613974B (zh) 一种大场景下的ar家居体验方法
CN111405270A (zh) 基于3d实景克隆技术的vr沉浸式应用系统
CN107977998B (zh) 一种基于多视角采样的光场校正拼接装置及方法
KR20150091064A (ko) 단일의 카메라를 이용하여 3d 이미지를 캡쳐하는 방법 및 시스템
WO2016184285A1 (zh) 物品图像处理方法、装置和系统
CN106840034A (zh) 具有散斑投射器的三维扫描系统及其应用
CN113808255A (zh) 一种即时建模设备及方法
WO2019062314A1 (zh) 一种基于虚实结合的人体解剖结构展示与交互方法
CN116708862A (zh) 直播间的虚拟背景生成方法、计算机设备及存储介质
CN110177216A (zh) 图像处理方法、装置、移动终端以及存储介质
CN216165913U (zh) 一种便于即时建模的讲台
JP2021068272A (ja) 画像処理システム、画像処理方法及びプログラム
CN109166146A (zh) 一种基于imu和视觉的食物体积估计方法及系统
Tran et al. A personalised stereoscopic 3D gallery with virtual reality technology on smartphone
CN106254846B (zh) 一种图像视差调整方法、装置及电子设备
CN110782417B (zh) 一种自动摄影方法及其相应的摄影装置
CN116012564B (zh) 一种三维模型与实景照片智能融合的设备与方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination