CN110349197A - 一种白内障手术显微镜下单目深度估计方法 - Google Patents

一种白内障手术显微镜下单目深度估计方法 Download PDF

Info

Publication number
CN110349197A
CN110349197A CN201910595893.1A CN201910595893A CN110349197A CN 110349197 A CN110349197 A CN 110349197A CN 201910595893 A CN201910595893 A CN 201910595893A CN 110349197 A CN110349197 A CN 110349197A
Authority
CN
China
Prior art keywords
point
match
image
estimation method
cataract surgery
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910595893.1A
Other languages
English (en)
Other versions
CN110349197B (zh
Inventor
黄凯
白善荣
夏俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Weimou Medical Instrument Co ltd
Original Assignee
Sun Yat Sen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sun Yat Sen University filed Critical Sun Yat Sen University
Priority to CN201910595893.1A priority Critical patent/CN110349197B/zh
Publication of CN110349197A publication Critical patent/CN110349197A/zh
Application granted granted Critical
Publication of CN110349197B publication Critical patent/CN110349197B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • G06T2207/10061Microscopic image from scanning electron microscope
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明涉及一种白内障手术显微镜下单目深度估计方法,通过显微镜系统拍摄两张图像,通过对比计算获得第一张图像中准确的测试物点,再通过代价函数找到测试物点的匹配点,获得两个点之间的视差,从而计算出测试物点的深度。通过显微镜系统获得测试物点的平面坐标后,通过计算获得测试物点的深度,从而在手术的过程的位置转换为三维坐标,为自动手术提供位置的定位。

Description

一种白内障手术显微镜下单目深度估计方法
技术领域
本发明涉及计算机视觉领域,更具体地,涉及一种白内障手术显微镜下单目深度估计方法。
背景技术
单目深度估计方法,即通过拍摄工具获取的彩色图像预测出图像中各位置与拍摄工具之间的距离,即深度信息。但由于图像的视野单一,缺乏其他信息,因此难以准确得到深度信息。
现有的单目深度估计方法是通过在计算机上使用深卷积神经网络来实现的,但是对于手术场景来说,开放数据严重不足,无法准确得到深度信息,导致无法在白内障手术上实现深度估计。
发明内容
本发明旨在至少在一定程度上解决上述技术问题,提供一种白内障手术显微镜下单目深度估计方法,可准确得到深度信息。
为解决上述技术问题,本发明采用的技术方案是:一种白内障手术显微镜下单目深度估计方法,包括以下步骤:
步骤一:使用显微镜摄像系统以a毫米垂直位移拍摄两幅图像;
步骤二:对每幅图像进行预处理,转换为具有灰度值的图像,并对第一幅图像进行角点检测,得到若干候选角点,并且得到角点的坐标;
步骤三:若干角点以各自为中心,Rj为半径,求出相对于角点的黑点和白点,并且黑点位于角点白色像素区域和白点位于角点的黑色区域,且黑点的像素灰度<0.5且白点的像素灰度>0.5,则该角点为测试物点P′i,黑点和白点位置的计算公式如下:
其中,Xblacki和Yblacki分别为黑点的坐标值,Xwhitei和Ywhitei分别白点的坐标值,Xj和Yj是以角点为中心,Rj为半径的范围内所有像素点的各自坐标,I为该点的灰度值,range为选取的半径最大值;Xi、Yi分别为测试物点P′的坐标值;
步骤四:对第一幅图像P′i向第二幅图像进行匹配,得到匹配点P″i,P′i和P″i之间的的像素距离;
步骤五:测试物点的深度计算公式如下:
其中,r为测试点P′与显微镜放大中心之间的距离,Δr为P′i和P″i之间的的像素距离,称为视差。
优选的,在第一幅图像的P′i在第二幅图像中找到对应的P″i后,对第二幅图像的P″i向第一幅图像进行匹配。能够检测确认匹配的正确性。
优选的,在所述步骤四中,匹配的方法为在P′i建立一个以P′i为中心的基础点方块区域,定义P′i以外的点为邻近点,定义每个邻近点相对于P′i的深度一致;在对方块区域所有的基础点进行匹配,计算分别在第二幅图像对应的匹配点,匹配点和对应的视差通过选择使得代价函数数值最小的视差来计算得出,其中,代价函数公式为:
C(P′ij,Δr)=min{d(P′ij,P′ij-Δr,IZ,Iz-a),d(P′ij-Δr,P′ij,IZ-a,Iz}
d(P′ij,P′ij-Δr,Iz,Iz-a)=minP′ij-Δr-0.5
≤P′ij-Δr+0.5{|Iz(P′ij)-Iz-a(P″ij)|}
其中,P′ij为对应基础点的像素位置,P″ij为对应匹配点的像素位置,Iz为第一幅图像中每个像素的灰度值,Iz-a为第二幅图像中每个图像的灰度值,Iz(P′ij)为P′ij的灰度值,Iz-a(P″ij)为P″ij的灰度值。
优选的,在所述步骤四和步骤五之间设置有校核步骤,图像中对应的匹配点P″ij相对于P″i的位置与邻近点相对于P′i的位置一致,(其中,P′ij为领域点,P″ij为领域点的匹配点,P′i为中心点,P′i为中心点的匹配点)则校核成功,对于中心P′i加一分,总票数8票(8个领域点),达到4票以上(包括4票)匹配成功;否则,则以每个邻近点为中心建立基础点方块区域,重新执行步骤四中的计算公式,再次计算匹配点和对应的视差,并运行投票,第一个超过4票者胜出。超过半数以上的匹配点和领近点相对的位置一致,避免了P′i是噪点的情况,提高手术刀点的正确性。
优选的,第一个胜出的点即第一个校核成功的邻近点定义为新的P′i点,并舍弃其他领近点和校核不成功的点,再以第二幅图像中剩余的匹配点P″ik为基点与第一幅图像进行匹配,得到校核点,校核点与基础点的位置一致,则匹配成功。否侧,再次执行校核步骤。翻转匹配方向,再次校核匹配的正确性,提高测试物点的准确性。
优选的,对所述步骤五中的测试物点的深度计算公式进行插值优化计算。通过插值优化计算,使得深度的计算更加准确。
优选的,每个P″ik设置两个沿着外极线Lik插值点,分别为左插值点P″ikl和右插值点P″ikr,利用方块区域匹配的代价函数来计算代价C(P′i,Δrikr),C(P′i,Δrikl)和C(P′i,Δrik),去最小代价的插值点或原点,删除其余两个点,得到最终深度公式如下:
其中,Lik为外极线,Zkj为对应P″ik和P′ij的深度;
最终深度计算公式:
其中,no是Zkj的个数。
优选的,插值点的计算公式分别为:
P″ikl=(P″ik+Li+P″ik)/2
P″ikr=(P″ik-Li+P″ik)/2
其中,P″ik+Li为P″ik沿着外极线正向移动Li个像素距离的值,P″ik-Li为P″ik沿着外极线负向移动Li个像素距离的值。
与现有技术相比,有益效果是:通过显微镜系统获得测试物点的平面坐标后,通过计算获得测试物点的深度,从而在手术的过程的位置转换为三维坐标,为自动手术提供位置的定位。
附图说明
图1为本发明的方法流程图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。附图中描述位置关系仅用于示例性说明,不能理解为对本专利的限制。
本发明实施例的附图中相同或相似的标号对应相同或相似的部件;在本发明的描述中,需要理解的是,若有术语“上”、“下”、“左”、“右”“长”“短”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此附图中描述位置关系的用语仅用于示例性说明,不能理解为对本专利的限制,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
下面通过具体实施例,并结合附图,对本发明的技术方案作进一步的具体描述:
实施例
一种白内障手术显微镜下单目深度估计方法,包括以下步骤:
步骤一:使用显微镜摄像系统以6毫米垂直位移拍摄两幅图像;
步骤二:对每幅图像进行预处理,转换为具有灰度值的图像,并对第一幅图像进行角点检测,得到若干候选角点,并且得到角点的坐标;
步骤三:若干角点以各自为中心,Rj为半径,求出相对于角点的黑点和白点,并且黑点位于角点白色像素区域和白点位于角点的黑色区域,且黑点的像素灰度<0.5且白点的像素灰度>0.5,则该角点为测试物点P′i,黑点和白点位置的计算公式如下:
其中,Xblacki和Yblacki分别为黑点的坐标值,Xwhitei和Ywhitei分别白点的坐标值,Xj和Yj是以角点为中心,Rj为半径的范围内所有像素点的各自坐标,I为该点的灰度值,range为选取的半径最大值;Xi、Yi分别为测试物点P′的坐标值。
步骤四:对第一幅图像P′i向第二幅图像进行匹配,得到匹配点P″i,然后对第二幅图像的P″i向第一幅图像进行反向匹配,反向匹配成功后,获取P′i和P″i之间的的像素距离Δr。
具体的匹配方法为在P′i建立一个以P′i为中心的基础点方块区域,定义P′i以外的点为邻近点,定义每个邻近点相对于P′i的深度一致;在对方块区域所有的基础点进行匹配,计算分别在第二幅图像对应的匹配点,匹配点和对应的视差通过选择使得代价函数数值最小的视差来计算得出,其中,代价函数公式为:
C(P′ij,Δr)=min{d(P′ij,P′ij-Δr,IZ,Iz-a),d(P′ij-Δr,P′ij,IZ-a,Iz}
d(P′ij,P′ij-Δr,Iz,Iz-a)=minP′ij-Δr-0.5
≤P′ij-Δr+0.5{|Iz(P′ij)-Iz-a(P″ij)|}
其中,P′ij为对应基础点的像素位置,P″ij为对应匹配点的像素位置,Iz为第一幅图像中每个像素的灰度值,Iz-a为第二幅图像中每个图像的灰度值,Iz(P′ij)为P′ij的灰度值,Iz-a(P″ij)为P″ij的灰度值,Δr为P′i和P″i之间的像素距离,称为视差。
校核步骤:图像中对应的匹配点P″ij相对于P″i的位置与邻近点相对于P′i的位置一致,(其中,P′ij为领域点,P″ij为领域点的匹配点,P′i为中心点,P′i为中心点的匹配点)则校核成功,对于中心P′i加一分,总票数8票(8个领域点),达到4票以上(包括4票)匹配成功;否则,则以每个邻近点为中心建立基础点方块区域,重新执行步骤四中的计算公式,再次计算匹配点和对应的视差。超过半数以上的匹配点和领近点相对的位置一致,避免了P′i是噪点的情况,提高手术刀点的正确性。
再次计算匹配点和对应的视差后,进行校核,即运行投票,第一个超过4票者胜出,胜出的邻近点定义为新的P′i点,并舍弃其他领近点和校核不成功的点,再以第二幅图像中剩余的匹配点P″ik为基点与第一幅图像进行匹配,得到校核点,校核点与基础点的位置一致,则匹配成功。否侧,再次执行校核步骤。翻转匹配方向,再次校核匹配的正确性,提高手术刀点的准确性。
步骤五:测试物点的深度计算公式如下:
其中,r为测试点P′与显微镜放大中心之间的距离,Δr为P′i和P″i之间的像素距离,称为视差。
为了使得深度的计算更加准确,对深度计算公式进行插值优化,具体的方法为在每个P″ik设置两个沿着外极线Lik插值点,分别为左插值点P″ikl和右插值点P″ikr,利用方块区域匹配的代价函数来计算代价C(P′i,Δrikr),C(P′i,Δrikl)和C(P′i,Δrik),去最小代价的插值点或原点,删除其余两个点,得到插值点和最终深度公式如下:
P″ikl=(P″ik+Li+P″ik)/2
P″ikr=(P″ik-Li+P″ik)/2
其中,Lik为外极线,Zkj为对应P″ik和P′ij的深度;P″ik+Li为P″ik沿着外极线正向移动Li个像素距离的值,P″ik-Li为P″ik沿着外极线负向移动Li个像素距离的值。
最后,深度计算公式为:
其中,no是Zkj的个数。
本发明的有益效果:通过显微镜系统获得测试物点的平面坐标后,通过计算获得测试物点的深度,从而在手术的过程的位置转换为三维坐标,为自动手术提供位置的定位。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。

Claims (8)

1.一种白内障手术显微镜下单目深度估计方法,其特征在于,包括以下步骤:
步骤一:使用显微镜摄像系统以a毫米垂直位移拍摄两幅图像;
步骤二:对每幅图像进行预处理,转换为具有灰度值的图像,并对第一幅图像进行角点检测,得到若干候选角点,并且得到所述角点的坐标;
步骤三:若干所述角点以各自为中心,Rj为半径,求出相对于角点的黑点和白点,并且黑点位于角点白色像素区域和白点位于角点的黑色区域,且黑点的像素灰度<0.5,白点的像素灰度>0.5,则该角点为测试物点P′i,黑点和白点位置的计算公式如下:
其中,Xblacki和Yblacki分别为黑点的坐标值,Xwhitei和Ywhitei分别白点的坐标值,Xj和Yj是以角点为中心,Rj为半径的范围内所有像素点的各自坐标,I为该点的灰度值,range为选取的半径最大值;Xi、Yi分别为测试物点P′的坐标值;
步骤四:对第一幅图像P′i向第二幅图像进行匹配,得到匹配点P″i,P′i和P″i之间的的像素距离;
步骤五:测试物点的深度计算公式如下:
其中,r为测试点P′与显微镜放大中心之间的距离,Δr为P′i和P″i之间的的像素距离,称为视差。
2.根据权利要求1所述的一种白内障手术显微镜下单目深度估计方法,其特征在于,在所述步骤四中,匹配的方法为在P′i建立一个以P′i为中心的基础点方块区域,定义P′i以外的点为邻近点,定义每个邻近点相对于P′i的深度一致;在对方块区域所有的基础点进行匹配,计算分别在第二幅图像对应的匹配点,匹配点和对应的视差通过选择使得代价函数数值最小的视差来计算得出,其中,代价函数公式为:
C(P′ij,Δr)=min{d(P′ij,P′ij-Δr,Iz,Iz-a),d(P′ij-Δr,P′ij,IZ-a,Iz}
d(P′ij,P′ij-Δr,Iz,Iz-a)=minP′ij-Δr-0.5≤P′ij-Δr+0.5{|Iz(P′ij)-Iz-a(P′′ij)|}
其中,P′ij为对应基础点的像素位置,P″ij为对应匹配点的像素位置,Iz为第一幅图像中每个像素的灰度值,Iz-a为第二幅图像中每个图像的灰度值,Iz(P′ij)为P′ij的灰度值,Iz-a(P″ij)为P″ij的灰度值。
3.根据权利要求2所述的一种白内障手术显微镜下单目深度估计方法,其特征在于,在所述步骤四和步骤五之间设置有校核步骤,若干个第二幅图像中对应的匹配点P″ij相对于P″i的位置与邻近点相对于P′i的位置一致,则校核成功;否则,则以每个邻近点为中心建立基础点方块区域,按照步骤四中的计算公式,再次计算匹配点和对应的视差。
4.根据权利要求3所述的一种白内障手术显微镜下单目深度估计方法,其特征在于,至少有半数以上的匹配点相对于P″i的位置与邻近点相对于P′i的位置一致。
5.根据权利要求3或4所述的一种白内障手术显微镜下单目深度估计方法,其特征在于,第一个校核成功的邻近点定义为新的P′i点,并舍弃其他领近点和校核不成功的点,再以第二幅图像中剩余的匹配点P″ik为基点与第一幅图像进行匹配,得到校核点,校核点与基础点的位置一致,则匹配成功。否侧,再次执行校核步骤。
6.根据权利要求5所述的一种白内障手术显微镜下单目深度估计方法,其特征在于,对所述步骤五中的测试物点的深度计算公式进行插值优化计算。
7.根据权利要求6所述的一种白内障手术显微镜下单目深度估计方法,其特征在于,每个P″ik设置两个沿着外极线Lik插值点,分别为左插值点P″ikl和右插值点P″ikr,利用方块区域匹配的代价函数来计算代价C(P′i,Δrikr),C(P′i,Δrikl)和C(P′i,Δrik),去最小代价的插值点或原点,删除其余两个点,得到最终深度公式如下:
其中,Lik为外极线,Zkj为对应P″ik和P′ij的深度;
最终深度计算公式:
其中,no是Zkj的个数。
8.根据权利要求7所述的一种白内障手术显微镜下单目深度估计方法,其特征在于,插值点的计算公式分别为:
P″ikl=(P″ik+Li+P″ik)/2
P″ikr=(P′′ik-Li+P″ik)/2
其中,P″ik+Li为P″ik沿着外极线正向移动Li个像素距离的值,P″ik-Li为P″ik沿着外极线负向移动Li个像素距离的值。
CN201910595893.1A 2019-07-03 2019-07-03 一种白内障手术显微镜下单目深度估计方法 Active CN110349197B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910595893.1A CN110349197B (zh) 2019-07-03 2019-07-03 一种白内障手术显微镜下单目深度估计方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910595893.1A CN110349197B (zh) 2019-07-03 2019-07-03 一种白内障手术显微镜下单目深度估计方法

Publications (2)

Publication Number Publication Date
CN110349197A true CN110349197A (zh) 2019-10-18
CN110349197B CN110349197B (zh) 2021-01-01

Family

ID=68177640

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910595893.1A Active CN110349197B (zh) 2019-07-03 2019-07-03 一种白内障手术显微镜下单目深度估计方法

Country Status (1)

Country Link
CN (1) CN110349197B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102168954A (zh) * 2011-01-14 2011-08-31 浙江大学 基于单目摄像机的深度、深度场及物体大小的测量方法
CN102903096A (zh) * 2012-07-04 2013-01-30 北京航空航天大学 一种基于单目视频的对象深度提取方法
CN103528571A (zh) * 2013-10-12 2014-01-22 上海新跃仪表厂 单目立体视觉相对位姿测量方法
US8922628B2 (en) * 2009-09-01 2014-12-30 Prime Focus Vfx Services Ii Inc. System and process for transforming two-dimensional images into three-dimensional images
US20190035165A1 (en) * 2012-02-24 2019-01-31 Matterport, Inc. Employing three-dimensional (3d) data predicted from two-dimensional (2d) images using neural networks for 3d modeling applications and other applications

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8922628B2 (en) * 2009-09-01 2014-12-30 Prime Focus Vfx Services Ii Inc. System and process for transforming two-dimensional images into three-dimensional images
CN102168954A (zh) * 2011-01-14 2011-08-31 浙江大学 基于单目摄像机的深度、深度场及物体大小的测量方法
US20190035165A1 (en) * 2012-02-24 2019-01-31 Matterport, Inc. Employing three-dimensional (3d) data predicted from two-dimensional (2d) images using neural networks for 3d modeling applications and other applications
CN102903096A (zh) * 2012-07-04 2013-01-30 北京航空航天大学 一种基于单目视频的对象深度提取方法
CN103528571A (zh) * 2013-10-12 2014-01-22 上海新跃仪表厂 单目立体视觉相对位姿测量方法

Also Published As

Publication number Publication date
CN110349197B (zh) 2021-01-01

Similar Documents

Publication Publication Date Title
CN105023010B (zh) 一种人脸活体检测方法及系统
CN106340044B (zh) 摄像机外参自动标定方法及标定装置
CN100494886C (zh) 三维扫描系统中圆形标志点的检测方法
JP5743859B2 (ja) 画像処理装置、方法、及び画像表示装置
CN104363815B (zh) 图像处理装置以及图像处理方法
KR100631235B1 (ko) 스테레오 이미지의 에지를 체인으로 연결하는 방법
CN104933389B (zh) 一种基于指静脉的身份识别方法和装置
CN103852060B (zh) 一种基于单目视觉的可见光图像测距方法
CN108470356A (zh) 一种基于双目视觉的目标对象快速测距方法
CN101398886A (zh) 一种基于双目被动立体视觉的快速三维人脸识别方法
JP4521235B2 (ja) 撮影画像の変化抽出装置及び方法
CN103902953B (zh) 一种屏幕检测系统及方法
CN109523595A (zh) 一种建筑工程直线棱角间距视觉测量方法
CN110390306A (zh) 直角车位的检测方法、车辆和计算机可读存储介质
CN109948400A (zh) 一种能够进行人脸特征3d识别的智能手机及其识别方法
CN111027481A (zh) 基于人体关键点检测的行为分析方法及装置
CN113393439A (zh) 一种基于深度学习的锻件缺陷检测方法
CN104949657A (zh) 物体检测装置、物体检测方法、以及包括物体检测程序的计算机可读非瞬时性存储介质
CN102713975A (zh) 图像整理系统、图像整理方法和计算机程序
JP2012103213A (ja) 画像処理プログラムおよび画像処理装置
CN109308714A (zh) 基于分类惩罚的摄像头和激光雷达信息配准方法
Kruger et al. In-factory calibration of multiocular camera systems
CN111753781B (zh) 一种基于双目红外的实时3d人脸活体判断方法
CN106204564A (zh) 一种激光光心提取方法
TWI697846B (zh) 物體辨識方法及其裝置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20210825

Address after: 511466 803, floor 8, building 8 (Building 9), No. 6, Nanjiang Second Road, Zhujiang street, Nansha District, Guangzhou City, Guangdong Province

Patentee after: Guangzhou Weimou Medical Instrument Co.,Ltd.

Address before: 510275 No. 135 West Xingang Road, Guangzhou, Guangdong, Haizhuqu District

Patentee before: SUN YAT-SEN University

CB03 Change of inventor or designer information
CB03 Change of inventor or designer information

Inventor after: Huang Kai

Inventor after: Xia Jun

Inventor after: Bai Shanrong

Inventor before: Huang Kai

Inventor before: Bai Shanrong

Inventor before: Xia Jun