CN112220532B - 一种静脉分叉避让方法及静脉穿刺机器人 - Google Patents

一种静脉分叉避让方法及静脉穿刺机器人 Download PDF

Info

Publication number
CN112220532B
CN112220532B CN202010853723.1A CN202010853723A CN112220532B CN 112220532 B CN112220532 B CN 112220532B CN 202010853723 A CN202010853723 A CN 202010853723A CN 112220532 B CN112220532 B CN 112220532B
Authority
CN
China
Prior art keywords
vein
action
bifurcation
theta
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010853723.1A
Other languages
English (en)
Other versions
CN112220532A (zh
Inventor
齐鹏
曹旭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tongji University
Original Assignee
Tongji University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tongji University filed Critical Tongji University
Priority to CN202010853723.1A priority Critical patent/CN112220532B/zh
Publication of CN112220532A publication Critical patent/CN112220532A/zh
Application granted granted Critical
Publication of CN112220532B publication Critical patent/CN112220532B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/108Computer aided selection or customisation of medical implants or cutting guides
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Pathology (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种静脉分叉避让方法及静脉穿刺机器人,方法包括:S1:获取静脉图像;S2:通过深度强化学习得到静脉图像中静脉分叉位置;S3:判断作用点是否位于静脉分叉的影响范围内,若是,更换作用点位置,若否,完成静脉分叉避让;静脉穿刺机器人,包括静脉分叉避让模块,静脉分叉避让模块执行静脉分叉避让方法。与现有技术相比,静脉分叉检测和避让结果更加准确。

Description

一种静脉分叉避让方法及静脉穿刺机器人
技术领域
本发明涉及图像识别领域,尤其是涉及一种静脉分叉避让方法及静脉穿刺机器人。
背景技术
在静脉分叉处扎针容易导致扎穿血管等问题,故此一般的静脉穿刺操作需要避开这一结构。
专利CN210095745U公开了一种自动扎针装置,包括:支架、至少一个加压装置、扫描装置、夹持模块、自动出针装置、控制驱动模块和人机交互模块。该装置在使用过程中需要人工选定穿刺位置,没有实现自动化,也不存在对静脉分叉的自主识别与主动穿刺规避。
专利CN111096796A提出了一种全自动静脉穿刺机器人多层控制系统,包括:两台近红外相机及上位机组成的感知决策层,多轴运动控制卡、驱动器、编码器及直流伺服电机构成的控制层,机器人末端执行器构成的执行层。其中感知决策层中的上位机对双目红外相机图像进行处理,获得待穿刺手臂的血管深度以及血管点云图,并以此提取血管中心线,进行最终穿刺决策。该系统在穿刺决策时没有考虑到静脉分叉结构,系统有可能在选择最佳穿刺位置时,选择在了静脉分叉附近,导致穿刺失败风险增加。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种静脉分叉避让方法及静脉穿刺机器人。
本发明的目的可以通过以下技术方案来实现:
一种静脉分叉避让方法,该方法包括:
S1:获取静脉图像;
S2:通过深度强化学习得到静脉图像中静脉分叉位置;
S3:判断作用点是否位于静脉分叉的影响范围内,若是,更换作用点位置,若否,完成静脉分叉避让。
所述的静脉图像为可见光图像或红外线图像。
所述的可见光图像通过摄像机获取,所述红外线图像通过红外摄像机获取。
所述深度强化学习表达为:
Qnew(St,At)←Qold(St,At)+α·[Qtarget(St,At)-Qold(St,At)]
Qtarget(St,At)=Rt+1+γ·Qmax(St+1,A)
其中,Q为静脉的状态-动作值函数,α为学习率,γ为衰减因子,St为当前状态,即当前搜索位置周围的一定大小的正方形范围,At为根据行为策略选择的动作,A为贪婪策略选择的Q取值最大的动作,所谓动作是指当前状态沿图像坐标的移动,移动方向包含图像坐标x轴正、负方向和y轴正、负方向,Rt+1为执行动作At后得到的奖励,奖励的大小参照当前位置范围与静脉分叉位置的差异决定,St+1为执行A后的状态。
所述的深度强化学习采用深度Q网络对强化学习的状态-动作值函数作近似。
所述采用深度Q网络对强化学习的状态-动作值函数作近似的过程为:
首先,利用随机值θ初始化当前状态-动作值函数Q,并利用θ-=θ初始化目标值函数。DQN(Deep Q-Network,深度Q网络)的误差函数为:
Figure GDA0003338074970000021
其中,s′,a′为下一个状态和下一个动作,Q(s′,a′;θ-)为目标值函数,Q(s,a;θ)为当前值函数,E为期望值,r为执行动作a后得到的奖励。
结合上述DQN误差函数及梯度下降法,状态-动作值函数的参数更新的离散形式如下:
Figure GDA0003338074970000022
其中,θt为第t时间步的θ取值,θt+1为第t+1时间步的θ取值。此外,在参数θ更新过程中,每隔N时间步拷贝参数θ至θ-
所述的作用点为静脉穿刺的针头刺入点。
所述静脉分叉的影响范围为圆形,由针头的长度决定。
所述影响范围的半径r的计算公式为:
r=l针头
其中,l针头表示针头的长度。
一种静脉穿刺机器人,包括静脉分叉避让模块,所述静脉分叉避让模块执行所述的静脉分叉避让方法。
与现有技术相比,本发明具有以下优点:
采用深度强化学习进行静脉分叉检测,将深度学习引入到强化学习中,构建了从感知到决策的端到端结构,有效解析图像数据信息,进而进行特定场景下的静脉分叉避让,提升认知与决策能力,速度更快,鲁棒性更好,静脉分叉检测和避让结果更加准确。
附图说明
图1为本发明的整体流程图;
图2为本发明实施例流程图;
图3为本发明的深度强化学习原理图;
图4为本发明的深度强化学习状态转移图;
图5为本发明的深度强化学习优化过程图;
图6为本发明的影响范围示意图;
图7为本发明的静脉穿刺机器人示意图;
附图标记:
1为摄像机;2为手臂支撑单元;3为静脉分叉避让模块;4为静脉穿刺执行单元。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
实施例
本实施例提供一种静脉分叉避让方法,该方法包括:
步骤S1:获取静脉图像,静脉图像为可见光图像或红外线图像,可见光图像通过摄像机获取,红外线图像通过红外摄像机获取。
步骤S2:通过深度强化学习得到静脉图像中静脉分叉位置,深度强化学习表达为:
Qnew(St,At)←Qold(St,At)+α·[Qtarget(St,At)-Qold(St,At)]
Qtarget(St,At)=Rt+1+γ·Qmax(St+1,A)
其中,Q为静脉的状态-动作值函数,α为学习率,γ为衰减因子,St为当前状态,At为根据行为策略选择的动作,A为贪婪策略选择的Q取值最大的动作,Rt+1为执行动作At后得到的奖励,奖励的大小参照当前位置范围与静脉分叉位置的差异决定,St+1为执行A后的状态,new代表下一个,old代表当前,target代表目标;
深度强化学习采用深度Q网络对强化学习的状态-动作值函数作近似,采用深度Q网络对强化学习的状态-动作值函数作近似的过程包括:
初始化记忆单元;利用随机值θ初始化当前状态-动作值函数Q,并利用θ-=θ初始化目标值函数,深度Q网络的误差函数为:
Figure GDA0003338074970000041
其中,s′,a′为下一个状态和下一个动作,Q(s′,a′;θ-)为目标值函数,Q(s,a;θ)为当前值函数,E为期望值。
基于上述深度Q网络的误差函数及梯度下降法,状态-动作值函数参数θ更新的离散形式如下:
Figure GDA0003338074970000042
其中,θt为第t时间步的θ取值,θt+1为第t+1时间步的θ取值,在θ更新过程中,每隔N时间步拷贝θ至θ-
步骤S3:判断作用点是否位于静脉分叉的影响范围内,若是,更换作用点位置,若否,完成静脉分叉避让,作用点为静脉穿刺的针头刺入点,静脉分叉的影响范围为圆形,由针头的长度决定,影响范围的半径r的计算公式为:
r=l针头
其中,l针头表示针头的长度。
下面以手臂的静脉穿刺为例进行说明,静脉穿刺之前需要进行静脉分叉避让,静脉分叉避让方法包括以下步骤:
步骤101:针头规格获取。针头规格有相关的标准和使用场合,通常不同年龄段人群使用的针头规格不一,因此在确定待穿刺者基本信息后,将获取与其年龄匹配的针头规格信息用于后续静脉分叉影响范围确定。信息获取完毕后,进入并列步骤102和103。
步骤102:摄像机开启。摄像机位于手臂上方或斜上方,摄像机可以是可见光摄像机或近红外光摄像机。
步骤103:当手臂放置到指定位置并被摄相机捕捉,静脉分叉避让算法才被激活。
步骤201:对摄像机捕获的图像进行分析。
步骤202:对穿刺位置做出初始决策,进入静脉分叉识别部分。
步骤301:识别程序开启。该步骤主要识别摄像机获取的患者手臂图像中有无静脉分叉以及静脉分叉位置。检测程序以带有经验记忆的深度强化学习(Deep Q-learning,DQL)为基本方法,其基本原理如图3。在本实施例中,深度强化学习的状态、动作、及奖励的定义如图4,状态St为图像当前位置坐标周围一定大小的正方形范围;动作为当前位置坐标连同状态范围沿图像坐标的移动,即图像坐标x轴正、负方向,y轴正、负方向,奖励由当前位置的状态与目标位置状态的差异决定。DQL的基本公式如下:
深度强化学习的公式为:
Qnew(St,At)←Qold(St,At)+α·[Qtarget(St,At)-Qold(St,At)]
Qtarget(St,At)=Rt+1+γ·Qmax(St+1,A)
其中,Q为静脉的状态-动作值函数,α为学习率,γ为衰减因子,St为当前状态,At为根据行为策略选择的动作,A为贪婪策略选择的Q取值最大的动作,Rt+1为执行动作At后得到的奖励,奖励的大小参照当前位置范围与静脉分叉位置的差异决定,St+1为执行A后的状态,new代表下一个,old代表当前,target代表目标。
图像处理具有状态复杂的特点,而深度神经网络在复杂、连续、非线性问题上具有较大优势,因此采用深度Q网络(Deep Q-Network,DQN)对强化学习的值函数状态-动作值函数进行近似,DQN包含预设初始值并待学习的参数集θ,因而DQN的目标值函数也可以表示为非线性参数函数Q(s,a;θ-)的形式。在DQN训练过程中通过优化参数θ-来达到近似的效果,采用深度Q网络对强化学习的状态-动作值函数作近似的过程包括:
初始化记忆单元;利用随机值θ初始化当前状态-动作值函数Q,并利用θ-=θ初始化目标值函数,深度Q网络的误差函数为:
Figure GDA0003338074970000061
其中,s′,a′为下一个状态和下一个动作,Q(s′,a′;θ-)为目标值函数,Q(s,a;θ)为当前值函数,E为期望值。
基于上述深度Q网络的误差函数及梯度下降法,状态-动作值函数参数θ更新的离散形式如下:
Figure GDA0003338074970000062
其中,θt为第t时间步的θ取值,θt+1为第t+1时间步的θ取值,在θ更新过程中,每隔N时间步拷贝θ至θ-。其优化过程原理如图5。DQN采取了经验回收机制,将已训练过的数据存储至记忆单元中,并在后期随机采样进行训练,以减小连续样本的相关性,更好地逼近目标值网络。
步骤302:穿刺是否受静脉分叉的影响。静脉分叉影响范围示意图见图6,其影响范围的半径r可以由穿刺针头的长度l针头确定,即r=l针头,在该范围外执行穿刺可以确保针头置入后不会因静脉分叉而出现穿刺失败。当图像中检测出静脉分叉,且穿刺位置在静脉分叉影响范围内,如图6穿刺位置b,则穿刺可能因静脉分叉的存在而失败,此时,应进入步骤401。当图像中检测出静脉分叉而穿刺位置不在静脉分叉影响范围内,如图6穿刺位置a,或是图像中未检出静脉分叉,则穿刺不会受到静脉分叉的影响,进入步骤403。
步骤401:启动穿刺避让。当穿刺位置受到静脉分叉影响而可能失败时,机器人更换穿刺部位,保证穿刺成功率。
步骤402:判断初始穿刺位置远心侧是否适合穿刺。若远心侧静脉粗细、直线度适合穿刺且不受静脉分叉影响,则将初始位置远心侧静脉分叉影响范围外合适位置设为穿刺最终位置,进入步骤403;若远心侧静脉粗细、直线度不适合穿刺或受其他静脉分叉影响,则重新进行穿刺位置决策,进入步骤301。
本实施例还提供一种静脉穿刺机器人,包括静脉分叉避让模块,静脉分叉避让模块执行静脉分叉避让方法。静脉穿刺机器人的硬件设备如图7所示,包括摄像机1、手臂支撑单元2,静脉分叉避让模块3和静脉穿刺执行单元4,当静脉分叉避让方法执行结束后,静脉穿刺执行单元4执行穿刺。

Claims (6)

1.一种静脉穿刺机器人,其特征在于,包括静脉分叉避让模块,所述静脉分叉避让模块执行以下步骤:
S1:获取静脉图像;
S2:通过深度强化学习得到静脉图像中静脉分叉位置;
所述深度强化学习表达为:
Qnew(St,At)←Qold(St,At)+α·[Qtarget(St,At)-Qold(St,At)]
Qtarget(St,At)=Rt+1+γ·Qmax(St+1,A)
其中,Q为静脉的状态-动作值函数,α为学习率,γ为衰减因子,St为当前状态,At为根据行为策略选择的动作,A为贪婪策略选择的Q取值最大的动作,Rt+1为执行动作At后得到的奖励,奖励的大小参照当前位置范围与静脉分叉位置的差异决定,St+1为执行A后的状态,new代表下一个,old代表当前,target代表目标;
所述的深度强化学习采用深度Q网络对强化学习的状态-动作值函数作近似;
所述采用深度Q网络对强化学习的状态-动作值函数作近似的过程包括:
初始化记忆单元;利用随机值θ初始化当前状态-动作值函数Q,并利用θ-=θ初始化目标值函数,深度Q网络的误差函数为:
Figure FDA0003327538990000011
其中,s′,a′为下一个状态和下一个动作,Q(s′,a′;θ-)为目标值函数,Q(s,a;θ)为当前值函数,E为期望值,r为执行动作a后得到的奖励;
基于上述深度Q网络的误差函数及梯度下降法,状态-动作值函数参数θ更新的离散形式如下:
Figure FDA0003327538990000012
其中,θt为第t时间步的θ取值,θt+1为第t+1时间步的θ取值,在θ更新过程中,每隔N时间步拷贝θ至θ-
S3:判断作用点是否位于静脉分叉的影响范围内,若是,更换作用点位置,若否,完成静脉分叉避让。
2.根据权利要求1所述的一种静脉穿刺机器人,其特征在于,所述的静脉图像为可见光图像或红外线图像。
3.根据权利要求2所述的一种静脉穿刺机器人,其特征在于,所述的可见光图像通过摄像机获取,所述红外线图像通过红外摄像机获取。
4.根据权利要求1所述的一种静脉穿刺机器人,其特征在于,所述的作用点为静脉穿刺的针头刺入点。
5.根据权利要求4所述的一种静脉穿刺机器人,其特征在于,所述静脉分叉的影响范围为圆形,影响范围由针头的长度决定。
6.根据权利要求5所述的一种静脉穿刺机器人,其特征在于,所述影响范围的半径r的计算公式为:
r=l针头
其中,l针头表示针头的长度。
CN202010853723.1A 2020-08-24 2020-08-24 一种静脉分叉避让方法及静脉穿刺机器人 Active CN112220532B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010853723.1A CN112220532B (zh) 2020-08-24 2020-08-24 一种静脉分叉避让方法及静脉穿刺机器人

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010853723.1A CN112220532B (zh) 2020-08-24 2020-08-24 一种静脉分叉避让方法及静脉穿刺机器人

Publications (2)

Publication Number Publication Date
CN112220532A CN112220532A (zh) 2021-01-15
CN112220532B true CN112220532B (zh) 2022-04-05

Family

ID=74115535

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010853723.1A Active CN112220532B (zh) 2020-08-24 2020-08-24 一种静脉分叉避让方法及静脉穿刺机器人

Country Status (1)

Country Link
CN (1) CN112220532B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106821468A (zh) * 2017-03-23 2017-06-13 王燕青 一种留置针在穿刺静脉血管中的自动定位方法及装置
CN108289657A (zh) * 2015-09-11 2018-07-17 西比姆公司 用经静脉的超声成像和消融导管的颈动脉体消融
CN109276296A (zh) * 2018-12-02 2019-01-29 沈阳聚声医疗系统有限公司 一种基于二维超声影像的穿刺针可视化方法
CN109717932A (zh) * 2017-10-27 2019-05-07 西门子保健有限责任公司 脉管穿刺位置的确定

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9909966D0 (en) * 1999-04-29 1999-06-30 Torsana Diabetes Diagnostics A Analysis of fundus images
CN107194928B (zh) * 2017-06-15 2019-12-24 华中科技大学同济医学院附属协和医院 一种基于视觉的静脉采血扎针点自动提取方法
CN108764286B (zh) * 2018-04-24 2022-04-19 电子科技大学 一种基于迁移学习的血管图像中特征点的分类识别方法
CN110910370B (zh) * 2019-11-21 2023-02-28 北京理工大学 一种cta图像冠脉狭窄检测的方法及装置
CN111096796B (zh) * 2019-12-30 2021-11-19 哈尔滨工业大学 全自动静脉穿刺机器人多层控制系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108289657A (zh) * 2015-09-11 2018-07-17 西比姆公司 用经静脉的超声成像和消融导管的颈动脉体消融
CN106821468A (zh) * 2017-03-23 2017-06-13 王燕青 一种留置针在穿刺静脉血管中的自动定位方法及装置
CN109717932A (zh) * 2017-10-27 2019-05-07 西门子保健有限责任公司 脉管穿刺位置的确定
CN109276296A (zh) * 2018-12-02 2019-01-29 沈阳聚声医疗系统有限公司 一种基于二维超声影像的穿刺针可视化方法

Also Published As

Publication number Publication date
CN112220532A (zh) 2021-01-15

Similar Documents

Publication Publication Date Title
JP5065965B2 (ja) 非接触型生体認証装置の生体誘導制御方法及び非接触型生体認証装置
CN105286802B (zh) 基于视频信息的驾驶员疲劳检测方法
WO2022095440A1 (zh) 面向自动驾驶的人机协同感知方法及系统
JP6727228B2 (ja) リード先端位置画像認識方法及びリード先端位置画像認識システム
JP2007186915A (ja) パワーウインドウ装置
CN110136116B (zh) 一种注塑泵缺陷检测方法、装置、设备及存储介质
CN110766656B (zh) 筛查眼底黄斑区异常的方法、装置、设备和存储介质
WO2024051345A1 (zh) 驾驶员的视线识别方法及装置、车辆和存储介质
CN112220532B (zh) 一种静脉分叉避让方法及静脉穿刺机器人
WO2023035980A1 (zh) 存储介质、机器人系统以及计算机设备
CN111176443A (zh) 一种车载智能系统及其控制方法
CN114863571A (zh) 一种基于计算机视觉的协作机器人手势识别系统
CN111283689A (zh) 一种辅助肢体功能障碍者运动的装置及控制方法
EP3451125B1 (en) Driver monitoring apparatus, driver monitoring method, and program
CN117893751A (zh) 基于局部与全局特征融合的眼底图像血管分割方法及装置
CN112075981B (zh) 静脉穿刺机器人控制方法、装置及计算机可读存储介质
JP2011104191A (ja) 超音波診断システム、超音波診断装置用ロボット、及びプログラム
US20220066551A1 (en) Apparatus and method for obtaining facial information
JP5376254B2 (ja) 被写体認識装置
CN111968097B (zh) 一种血管穿刺图像处理方法及血管穿刺机器人
KR102260022B1 (ko) 딥러닝 기반 이미지 내 객체 분류 시스템 및 방법
CN115916030A (zh) 在捕获视网膜图像之前使用红外线检测正确的眼睛对准
CN112381816B (zh) 基于图像识别和反馈控制的血管穿刺角度获取和穿刺方法
CN112022293B (zh) 一种用于静脉注射机器人的姿态识别静脉穿刺方法和装置
JP2007164518A (ja) 楕円検出方法、画像認識装置、制御装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant