CN111311561B - 一种基于显微手术成像系统的术区自动测光方法及装置 - Google Patents

一种基于显微手术成像系统的术区自动测光方法及装置 Download PDF

Info

Publication number
CN111311561B
CN111311561B CN202010084876.4A CN202010084876A CN111311561B CN 111311561 B CN111311561 B CN 111311561B CN 202010084876 A CN202010084876 A CN 202010084876A CN 111311561 B CN111311561 B CN 111311561B
Authority
CN
China
Prior art keywords
mask
neural network
operation area
network model
layered
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010084876.4A
Other languages
English (en)
Other versions
CN111311561A (zh
Inventor
邵航
黄海亮
周扬
刘威
张新
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yangtze Delta Region Institute of Tsinghua University Zhejiang
Original Assignee
Zhejiang Future Technology Institute (jiaxing)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Future Technology Institute (jiaxing) filed Critical Zhejiang Future Technology Institute (jiaxing)
Priority to CN202010084876.4A priority Critical patent/CN111311561B/zh
Publication of CN111311561A publication Critical patent/CN111311561A/zh
Application granted granted Critical
Publication of CN111311561B publication Critical patent/CN111311561B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明实施例公开了一种基于显微手术成像系统的术区自动测光方法及装置,涉及图像处理领域。所述方法包括:构建显微图像数据集并进行标注;构建深度卷积神经网络模型,并利用显微图像数据集对所述深度卷积神经网络模型进行训练和测试,得到分层掩膜神经网络模型;利用所述分层掩膜神经网络模型对实时显微图像进行检测,得到术区掩膜;根据所述术区掩膜得到测光值。本发明能够解决现有术区成像存在过曝的现象影响成像质量的问题。

Description

一种基于显微手术成像系统的术区自动测光方法及装置
技术领域
本发明实施例涉及图像处理领域,具体涉及一种基于显微手术成像系统的术区自动测光方法及装置。
背景技术
手术显微成像系统已经开始逐步推广应用与多个临床外科科室,如脑科、眼科、耳鼻喉科等等。手术显微成像系统是在数字监视器中实时将显微镜中的手术画面采集显示,可以将主刀医生从手术中长期的强迫体位中解放出来。然而将手术画面直接采集显示,需要考虑到成像质量,这样可以为医生提供更加清晰及容易辨认的解剖结构。
现有视频成像系统在显微手术成像系统中使用的方法主要有中心测光或者四周点测光,这些方法虽然可以有效的降低大部分过曝的情况,但是因为检测区域不一定是主刀医生所关注的区域,也会因为术区的复杂环境以及灯光等各种原因,导致主导医生所关注的术区成像存在过曝的现象,这将严重影响显微成像画面的呈现,影响术区解剖结构的观察。
发明内容
本发明实施例的目的在于提供一种基于显微手术成像系统的术区自动测光方法及装置,用以解决现有术区成像存在过曝的现象影响成像质量的问题。
为实现上述目的,本发明实施例主要提供如下技术方案:
第一方面,本发明实施例提供了一种基于显微手术成像系统的术区自动测光方法,所述方法包括:构建显微图像数据集并进行标注;构建深度卷积神经网络模型,并利用显微图像数据集对所述深度卷积神经网络模型进行训练和测试,得到分层掩膜神经网络模型;利用所述分层掩膜神经网络模型对实时显微图像进行检测,得到术区掩膜;根据所述术区掩膜得到测光值。
进一步地,对所述显微图像数据集进行标注,具体包括:对显微图像进行降采样操作,获取图像的分层掩膜和显微成像画面中的手术器械前端坐标,并进行标注。
进一步地,得到所述分层掩膜神经网络模型,具体包括:利用显微图像数据集的训练集和测试集对所述深度卷积神经网络模型进行训练和测试,直至分层掩膜的重叠率达到预设值,获取准确的网络参数,得到分层掩膜神经网络模型。
进一步地,所述分层掩膜神经网络模型包括图像输入层、特征提取层、分层掩膜获取层、术区坐标获取层和输出层。
进一步地,通过所述分层掩膜神经网络模型得到术区掩膜的方法具体包括:通过图像输入层对实时显微图像进行降采样,得到降采样后的手术显微图像;通过特征提取层对降采样后的手术显微图像进行特征提取;通过分层掩膜获取层获取实时图像的分层掩膜;通过术区坐标获取层获取手术器械前端坐标;根据手术器械前端坐标对分层掩膜进行分区,再进行上采样,得到术区掩膜;通过输出层输出术区掩膜。
进一步地,所述方法还包括:将术区掩膜应用到显微镜下的图像中,获取掩膜区域亮度值;对掩膜区域的亮度值求取均值,得到术区的测光值。
第二方面,本发明实施例还提供一种基于显微手术成像系统的术区自动测光装置,所述装置包括:数据采集单元,用于存储显微图像数据集;执行单元,用于构建深度卷积神经网络模型,并在训练和测试后形成分层掩膜神经网络模型,利用所述分层掩膜神经网络模型得到术区掩膜;测光单元,用于根据术区掩膜得到测光值。
进一步地,所述执行单元还用于对实时显微图像进行降采样,得到降采样后的手术显微图像,对降采样后的手术显微图像进行特征提取,并获取实时图像的分层掩膜和手术器械前端坐标,且根据手术器械前端坐标对分层掩膜进行分区,再进行上采样。
本发明实施例提供的技术方案至少具有如下优点:
本发明采用分层掩膜神经网络模型得到术区掩膜,通过术区掩膜得到测光值,从而实现术区自动测光,显微手术成像系统根据该测光值进行自动调整,避免术区图像出现过曝现象。
附图说明
图1为本发明实施例提供的一种基于显微手术成像系统的术区自动测光方法步骤图。
图2为本发明实施例提供的一种基于显微手术成像系统的术区自动测光装置结构示意图。
具体实施方式
以下由特定的具体实施例说明本发明的实施方式,熟悉此技术的人士可由本说明书所揭露的内容轻易地了解本发明的其他优点及功效。
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、接口、技术之类的具体细节,以便透彻理解本发明。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的系统、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
本发明实施例提供一种基于显微手术成像系统的术区自动测光方法,参考考图1,该方法包括:
步骤S1:构建显微图像数据集并进行标注;
具体地,依据手术类别,从显微手术成像系统中获取历史图像数据,组成显微图像数据集D,优选的数据集的数量大小不低于5000张,该数据集D包括训练集Dtrain和测试集Dtest。为了具有更好的训练效果,需要先对显微图像ID进行降采样操作,获得降采样后的图像I′D,降采样后的图像大小优选为832×512;
然后使用如labelme之类的标注工具,根据手术区域的轮廓以及深度信息将手术区域的分层信息画出,获取降采样后图像I′D的分层掩膜M′D;同时利用标注工具将显微成像画面中手术器械前端执行部分圈出,获取其位置区域坐标信息L′D;结合上述获得的M′D和L′D信息,得到术区关注区域的掩膜MD
步骤S2:构建深度卷积神经网络模型,并利用显微图像数据集对深度卷积神经网络模型进行训练和测试,得到分层掩膜神经网络模型;
卷积神经网络是一类包含卷积计算且具有深度结构的前馈神经网络,是深度学习的代表算法之一,卷积神经网络具有表征学习能力,能够按其阶层结构对输入信息进行平移不变分类。本实施例的卷积神经网络模型包括图像输入层、特征提取层、分层掩膜获取层、术区坐标获取层和输出层,在利用数据集D对其进行训练和学习后,使其具有快速识别术区掩膜的能力,即下文所述的分层掩膜神经网络模型。
利用显微图像数据集的训练集Dtrain和测试集Dtest对深度卷积神经网络模型进行训练和测试,调节超参数,直至分层掩膜的重叠率达到预设值,获取准确的网络参数,得到分层掩膜神经网络模型。预设值优选地为85%。
步骤S3:利用分层掩膜神经网络模型对实时显微图像进行检测,得到术区掩膜;
具体地,通过图像输入层对实时显微图像I进行降采样,得到降采样后的手术显微图像I′;
在特征提取层引入VGG16网络结构的前半部分卷积池化层进行特征提取,实现对降采样后的手术显微图像进行特征提取;
将特征提取层得到的卷积结果分为两部分,一部分用于通过分层掩膜获取层获取实时图像I′的分层掩膜M′,具体地引入U-Net网络的后半部分,进行上采样,直至跟图像I′的大小一致,输出图像I′的分层掩膜M′;
另一部分用于通过术区坐标获取层获取显微成像图像中手术器械前端执行部分的位置区域坐标,即手术器械前端坐标L′,具体地,引入YOLO3,从VGG16网络中的后三层提取特征进行检测,获取手术器械前端坐标L′。需要说明的是,因为手术器械前端是手术的操作区,医生会关注此区域,因此获取的是手术器械前端坐标,以此获取术区关注区域的掩膜M′L
根据位置区域坐标L′以及分层掩膜M′,将非位置区域坐标所在的分层掩膜置0变成背景分区,则剩下的位置区域坐标所在的分层掩膜区域为术区关注区域的掩膜M′L
将术区关注区域的掩膜M′L上采样至跟图像I相同的大小,获得术区掩膜M。
最后,通过输出层输出术区掩膜M。
步骤S4:根据术区掩膜得到测光值。
将术区掩膜M应用到显微镜下的图像中,获取掩膜区域亮度值;
对掩膜区域的亮度值求取均值,该均值即为术区的测光值。
本实施例采用分层掩膜神经网络模型得到术区掩膜,通过术区掩膜得到测光值,从而实现术区自动测光,显微手术成像系统根据该测光值进行自动调整,避免术区图像出现过曝现象。
与上述实施例对应的,本发明实施例还提供一种基于显微手术成像系统的术区自动测光装置,参考图2,该装置包括:
数据采集单元01,用于存储显微图像数据集;
执行单元02,用于构建深度卷积神经网络模型,并在训练和测试后形成分层掩膜神经网络模型,利用所述分层掩膜神经网络模型得到术区掩膜;
测光单元03,用于根据术区掩膜得到测光值。
上述执行单元02还用于对实时显微图像进行降采样,得到降采样后的手术显微图像,对降采样后的手术显微图像进行特征提取,并获取实时图像的分层掩膜和手术器械前端坐标,且根据手术器械前端坐标对分层掩膜进行分区,并根据位置区域坐标L′以及分层掩膜M′,将非位置区域坐标所在的分层掩膜置0变成背景分区,则剩下的位置区域坐标所在的分层掩膜区域为术区关注区域的掩膜M′L;将术区关注区域的掩膜M′L上采样至跟图像I相同的大小,获得术区掩膜M,最后,通过输出层输出。
本实施例采用分层掩膜神经网络模型得到术区掩膜,通过术区掩膜得到测光值,从而实现术区自动测光,显微手术成像系统根据该测光值进行自动调整,避免术区图像出现过曝现象。
本领域技术人员应该可以意识到,在上述一个或多个示例中,本发明所描述的功能可以用硬件与软件组合来实现。当应用软件时,可以将相应功能存储在计算机可读介质中或者作为计算机可读介质上的一个或多个指令或代码进行传输。计算机可读介质包括计算机存储介质和通信介质,其中通信介质包括便于从一个地方向另一个地方传送计算机程序的任何介质。存储介质可以是通用或专用计算机能够存取的任何可用介质。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的技术方案的基础之上,所做的任何修改、等同替换、改进等,均应包括在本发明的保护范围之内。

Claims (4)

1.一种基于显微手术成像系统的术区自动测光方法,其特征在于,所述方法包括:
构建显微图像数据集并进行标注;
构建深度卷积神经网络模型,并利用显微图像数据集对所述深度卷积神经网络模型进行训练和测试,得到分层掩膜神经网络模型;具体包括:利用显微图像数据集的训练集和测试集对所述深度卷积神经网络模型进行训练和测试,直至分层掩膜的重叠率达到预设值,获取准确的网络参数,得到分层掩膜神经网络模型;
所述分层掩膜神经网络模型包括图像输入层、特征提取层、分层掩膜获取层、术区坐标获取层和输出层;
利用所述分层掩膜神经网络模型对实时显微图像进行检测,得到术区掩膜,具体包括:
通过图像输入层对实时显微图像进行降采样,得到降采样后的手术显微图像;
通过特征提取层对降采样后的手术显微图像进行特征提取;
通过分层掩膜获取层获取降采样后的手术显微图像的分层掩膜;
通过术区坐标获取层获取手术器械前端坐标;
根据手术器械前端坐标对分层掩膜进行分区,再进行上采样,得到术区掩膜;
通过输出层输出术区掩膜;
根据所述术区掩膜得到测光值;具体包括:将术区掩膜应用到显微镜下的图像中,获取掩膜区域亮度值;对掩膜区域的亮度值求取均值,得到术区的测光值。
2.如权利要求1所述的一种基于显微手术成像系统的术区自动测光方法,其特征在于,对所述显微图像数据集进行标注,具体包括:对显微图像进行降采样操作,获取图像的分层掩膜和显微成像画面中的手术器械前端坐标,并进行标注。
3.一种基于显微手术成像系统的术区自动测光装置,其特征在于,所述装置基于权利要求1所述方法;所述装置包括:
数据采集单元,用于存储显微图像数据集;
执行单元,用于构建深度卷积神经网络模型,并在训练和测试后形成分层掩膜神经网络模型,利用所述分层掩膜神经网络模型得到术区掩膜;
测光单元,用于根据术区掩膜得到测光值。
4.如权利要求3所述的一种基于显微手术成像系统的术区自动测光装置,其特征在于,所述执行单元还用于对实时显微图像进行降采样,得到降采样后的手术显微图像,对降采样后的手术显微图像进行特征提取,并获取实时图像的分层掩膜和手术器械前端坐标,且根据手术器械前端坐标对分层掩膜进行分区,再进行上采样。
CN202010084876.4A 2020-02-10 2020-02-10 一种基于显微手术成像系统的术区自动测光方法及装置 Active CN111311561B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010084876.4A CN111311561B (zh) 2020-02-10 2020-02-10 一种基于显微手术成像系统的术区自动测光方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010084876.4A CN111311561B (zh) 2020-02-10 2020-02-10 一种基于显微手术成像系统的术区自动测光方法及装置

Publications (2)

Publication Number Publication Date
CN111311561A CN111311561A (zh) 2020-06-19
CN111311561B true CN111311561B (zh) 2023-10-10

Family

ID=71144953

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010084876.4A Active CN111311561B (zh) 2020-02-10 2020-02-10 一种基于显微手术成像系统的术区自动测光方法及装置

Country Status (1)

Country Link
CN (1) CN111311561B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112712878B (zh) * 2020-12-30 2024-09-06 四川桑瑞思环境技术工程有限公司 一种数字化手术室系统和控制方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004095359A2 (en) * 2003-04-18 2004-11-04 Medispectra, Inc. Systems for identifying, displaying, marking, and treating suspect regions of tissue
US8879813B1 (en) * 2013-10-22 2014-11-04 Eyenuk, Inc. Systems and methods for automated interest region detection in retinal images
WO2017113205A1 (zh) * 2015-12-30 2017-07-06 中国科学院深圳先进技术研究院 一种基于深度卷积神经网络的快速磁共振成像方法及装置
CN107730489A (zh) * 2017-10-09 2018-02-23 杭州电子科技大学 无线胶囊内窥镜小肠病变计算机辅助检测系统及检测方法
CN109087327A (zh) * 2018-07-13 2018-12-25 天津大学 一种级联全卷积神经网络的甲状腺结节超声图像分割方法
CN109215079A (zh) * 2018-07-17 2019-01-15 艾瑞迈迪医疗科技(北京)有限公司 图像处理方法、手术导航设备、电子设备、存储介质
CN109800631A (zh) * 2018-12-07 2019-05-24 天津大学 基于掩膜区域卷积神经网络的荧光编码微球图像检测方法
CN109801239A (zh) * 2019-01-14 2019-05-24 浙江未来技术研究院(嘉兴) 一种显微手术影像的高光区域消除方法及装置
US10304193B1 (en) * 2018-08-17 2019-05-28 12 Sigma Technologies Image segmentation and object detection using fully convolutional neural network

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004095359A2 (en) * 2003-04-18 2004-11-04 Medispectra, Inc. Systems for identifying, displaying, marking, and treating suspect regions of tissue
US8879813B1 (en) * 2013-10-22 2014-11-04 Eyenuk, Inc. Systems and methods for automated interest region detection in retinal images
WO2017113205A1 (zh) * 2015-12-30 2017-07-06 中国科学院深圳先进技术研究院 一种基于深度卷积神经网络的快速磁共振成像方法及装置
CN107730489A (zh) * 2017-10-09 2018-02-23 杭州电子科技大学 无线胶囊内窥镜小肠病变计算机辅助检测系统及检测方法
CN109087327A (zh) * 2018-07-13 2018-12-25 天津大学 一种级联全卷积神经网络的甲状腺结节超声图像分割方法
CN109215079A (zh) * 2018-07-17 2019-01-15 艾瑞迈迪医疗科技(北京)有限公司 图像处理方法、手术导航设备、电子设备、存储介质
US10304193B1 (en) * 2018-08-17 2019-05-28 12 Sigma Technologies Image segmentation and object detection using fully convolutional neural network
CN109800631A (zh) * 2018-12-07 2019-05-24 天津大学 基于掩膜区域卷积神经网络的荧光编码微球图像检测方法
CN109801239A (zh) * 2019-01-14 2019-05-24 浙江未来技术研究院(嘉兴) 一种显微手术影像的高光区域消除方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Dong Zhao.Mask-Pix2Pix Network for Overexposure Region Recovery of Solar Image.《ADVANCES IN ASTRONOMY》.2019,第1-11页. *
赵飞.基于神经网络和图像显著性的心脏图像自动分割算法研究.《中国优秀硕士学位论文全文数据库 信息科技辑》.2018,第1-79页. *

Also Published As

Publication number Publication date
CN111311561A (zh) 2020-06-19

Similar Documents

Publication Publication Date Title
CN113506334B (zh) 基于深度学习的多模态医学图像融合方法及系统
CN110619318B (zh) 基于人工智能的图像处理方法、显微镜、系统和介质
WO2018095346A1 (zh) 一种基于hmds的医学成像系统
CN111368849B (zh) 图像处理方法、装置、电子设备及存储介质
CN114612389B (zh) 基于多源多尺度特征融合的眼底图像质量评价方法和装置
CN107993229A (zh) 一种基于心血管ivoct图像的组织分类方法和装置
DE102007050343A1 (de) Vorrichtungen und Verfahren zur Kalibrierung eines Endoskops
WO2021159811A1 (zh) 青光眼辅助诊断装置、方法及存储介质
CN103606161A (zh) 一种医学图像处理方法及系统
CN111583385A (zh) 一种可变形数字人解剖学模型的个性化变形方法及系统
CN111311561B (zh) 一种基于显微手术成像系统的术区自动测光方法及装置
CN111339899B (zh) 导管特征获取方法、装置、设备、介质和智能显微镜
CN107146211A (zh) 基于线扩散函数和双边滤波的视网膜血管图像降噪方法
CN113570592A (zh) 肠胃病检测和模型训练方法、装置、设备及介质
CN113255756B (zh) 图像融合方法、装置、电子设备及存储介质
CN111462067B (zh) 图像分割方法及装置
WO2013150419A1 (en) Quality-check during medical imaging procedure
CN113554628A (zh) 图像处理方法、装置及计算机可读存储介质
CN117710233B (zh) 一种内窥图像的景深扩展方法及装置
WO2021081850A1 (zh) 基于vrds 4d医学影像的脊椎疾病识别方法及相关装置
US20230118522A1 (en) Maintaining neighboring contextual awareness with zoom
Avinash et al. Three-dimensional analysis of contrast-filled microvessel diameters
US20180344145A1 (en) Method and apparatus for colposcopic examination
CN117315792B (zh) 一种基于卧姿人体测量的实时调控系统
CN116152124B (zh) 一种脉管模型的平滑方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20240311

Address after: 314050 9F, No. 705, Asia Pacific Road, Nanhu District, Jiaxing City, Zhejiang Province

Patentee after: ZHEJIANG YANGTZE DELTA REGION INSTITUTE OF TSINGHUA University

Country or region after: China

Address before: No.152 Huixin Road, Nanhu District, Jiaxing City, Zhejiang Province 314000

Patentee before: ZHEJIANG FUTURE TECHNOLOGY INSTITUTE (JIAXING)

Country or region before: China

TR01 Transfer of patent right