CN112022293B - 一种用于静脉注射机器人的姿态识别静脉穿刺方法和装置 - Google Patents
一种用于静脉注射机器人的姿态识别静脉穿刺方法和装置 Download PDFInfo
- Publication number
- CN112022293B CN112022293B CN202010831391.7A CN202010831391A CN112022293B CN 112022293 B CN112022293 B CN 112022293B CN 202010831391 A CN202010831391 A CN 202010831391A CN 112022293 B CN112022293 B CN 112022293B
- Authority
- CN
- China
- Prior art keywords
- punctured
- posture
- venipuncture
- image
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/34—Trocars; Puncturing needles
- A61B17/3403—Needle locating or guiding means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/107—Visualisation of planned trajectories or target regions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/108—Computer aided selection or customisation of medical implants or cutting guides
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Biomedical Technology (AREA)
- Veterinary Medicine (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Public Health (AREA)
- General Health & Medical Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- Molecular Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Robotics (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Pathology (AREA)
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明涉及一种用于静脉注射机器人的姿态识别静脉穿刺方法和装置,方法包括以下步骤:图像采集步骤:获取待识别图像;对象姿态识别步骤:根据待识别图像,采用图像语义识别的方法,识别待穿刺对象的姿态,待穿刺对象的姿态包括第一姿态和第二姿态;尺侧桡侧判断步骤:根据待识别图像,在待识别图像中进行尺侧和桡侧标注;自动静脉穿刺步骤:根据待穿刺对象的姿态识别结果以及尺侧和桡侧标注结果,进行自动静脉穿刺。与现有技术相比,本发明在静脉注射机器人进行自动静脉穿刺前,对患者的手臂姿态进行了识别,判断患者手臂是手掌朝上还是手背朝上,能避免造成医疗事故;还进行了尺侧桡侧判断,避免穿刺桡侧血管,可以减少患者的痛感。
Description
技术领域
本发明涉及自动静脉穿刺领域,尤其是涉及一种用于静脉注射机器人的姿态识别静脉穿刺方法和装置。
背景技术
自动静脉注射机器人面临患者姿态评估问题,当患者需要进行手背静脉穿刺时,可能错误地将手掌朝向上,或者在进行前臂静脉穿刺时,错误地将手背朝向上,若机器人不予以评估或纠正,将无法达到预定的静脉穿刺效果,甚至造成医疗事故。在目前的穿刺机器人研究中,还没有对患者姿态的评估方法研究。
专利CN 110812577 A公开了一种新型的自动静脉注射仪器,包括:壳体、套紧组件、前处理组件、注射组件、止血组件。该方法需要人工选定血管,自动化程度低,不存在对患者姿态的评估。
专利CN 106039487 A提供了一种自动扎针系统及其控制方法。包括依次连接的图像采集模块、图像处理模块、血管识别模块、定位模块以及扎针模块。该方法同样不对患者的姿态进行评估。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种对患者手臂姿态进行评估,避免造成医疗事故的用于静脉注射机器人的姿态识别静脉穿刺方法和装置。
本发明的目的可以通过以下技术方案来实现:
一种用于静脉注射机器人的姿态识别静脉穿刺方法,包括以下步骤:
图像采集步骤:获取待识别图像;
对象姿态识别步骤:根据所述待识别图像,采用图像语义识别的方法,识别待穿刺对象的姿态,所述待穿刺对象的姿态包括第一姿态和第二姿态;
自动静脉穿刺步骤:根据所述待穿刺对象的姿态识别结果,进行自动静脉穿刺。
进一步地,所述姿态识别静脉穿刺方法还包括尺侧桡侧判断步骤:根据所述待识别图像,进行尺侧桡侧评估,在所述待识别图像中进行尺侧和桡侧标注;
所述自动静脉穿刺步骤具体为,根据所述待穿刺对象的姿态识别结果以及尺侧和桡侧标注结果,进行自动静脉穿刺。
进一步地,所述对象姿态识别步骤还对所述待识别图像进行待穿刺对象识别,得出第一对象和第二对象的分类结果,所述尺侧桡侧评估的表达式为:
进一步地,所述对象姿态识别步骤中,采用深度卷积神经网络,进行所述待穿刺对象的姿态识别。
进一步地,所述图像采集步骤具体为,实时采集图像,用于捕捉待穿刺对象;根据所述采集到的图像,采用图像语义识别的方法,进行待穿刺对象的识别;根据所述待穿刺对象的识别结果进行图像分类,得到包含待穿刺对象的待识别图像和不包含待穿刺对象的不识别图像。
进一步地,采用深度卷积神经网络进行所述待穿刺对象的识别。
进一步地,通过摄像机进行所述捕捉待穿刺对象,所述摄像机位于预设的待穿刺对象托举平台的上方,所述待穿刺对象托举平台用于托举待穿刺对象。
进一步地,所述摄像机为可见光摄像机或近红外光摄像机。
进一步地,所述姿态识别静脉穿刺方法还包括识别模式设置步骤:选择预设设置的第一识别模式和第二识别模式;
所述自动静脉穿刺步骤具体为,在所述第一识别模式中,若所述待穿刺对象的姿态识别结果为第一姿态,则进行自动静脉穿刺,否则进行姿态更换提醒;
在所述第二识别模式中,若所述待穿刺对象的姿态识别结果为第二姿态,则进行自动静脉穿刺,否则进行姿态更换提醒。
本发明还提供一种用于静脉注射机器人的姿态识别静脉穿刺装置,包括存储器和处理器,所述存储器存储有计算机程序,处理器调用所述计算机程序执行如上所述的方法的步骤。
与现有技术相比,本发明具有以下优点:
(1)本发明在进行自动静脉穿刺前,对患者的手臂姿态进行了识别,判断患者手臂是手掌朝上还是手背朝上,避免造成医疗事故。
(2)在实际静脉穿刺的过程中,会选择患者前臂或手背靠近尺侧的静脉进行静脉穿刺,以减少静脉穿刺带来的痛感,但现有的自动静脉穿刺机器人在执行相同的任务时,却没有考虑穿刺时带来的痛感;
本发明在进行自动静脉穿刺前,还对患者手臂进行了尺侧桡侧判断,尺侧是指小指一侧,桡侧是指拇指一侧,如果不考虑尺侧和桡侧,可能导致系统在大量适合穿刺的血管中选择了桡侧血管,进而使得患者的痛感增加,本发明姿态识别静脉穿刺方法进行了尺侧桡侧判断,可以减少患者的痛感。
(3)采用深度神经网络进行图片识别和分类,鲁棒性强,适用范围广;
(4)本发明预先进行手背识别模式和前臂识别模式的选择,从而在对应的医疗模式中,根据手臂姿态的识别结果,对应进行静脉穿刺或手势更换提醒,使用方便可靠,用户友好度好。
附图说明
图1为本发明的整体流程图;
图2为本发明的硬件部分在静脉穿刺机器人系统中的第一应用示例图;
图3为本发明的硬件部分在静脉穿刺机器人系统中的第二应用示例图;
图4为本发明的流程步骤细分图;
图5为本发明的手臂捕捉方法原理示意图;
图6为本发明的分类方法原理示意图;
图7为本发明的患者手势评估参照图;
图8为本发明的尺侧桡侧评估参照图;
图中,1、摄像机,2、患者手臂支撑台,3、静脉识别模块,4、静脉穿刺执行模块。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
实施例1
本实施例提供一种用于静脉注射机器人的姿态识别静脉穿刺方法,包括以下步骤:
识别模式设置步骤:选择预设设置的第一识别模式和第二识别模式;
图像采集步骤:获取待识别图像;
图像采集步骤具体为,实时采集图像,用于捕捉待穿刺对象;根据采集到的图像,采用图像语义识别的方法,进行待穿刺对象的识别;根据待穿刺对象的识别结果进行图像分类,得到包含待穿刺对象的待识别图像和不包含待穿刺对象的不识别图像。
对象姿态识别步骤:根据待识别图像,采用图像语义识别的方法,识别待穿刺对象的姿态,待穿刺对象的姿态包括第一姿态和第二姿态;
尺侧桡侧判断步骤:根据待识别图像,进行尺侧桡侧评估,在待识别图像中进行尺侧和桡侧标注;
自动静脉穿刺步骤:根据待穿刺对象的姿态识别结果以及尺侧和桡侧标注结果,进行自动静脉穿刺。
对象识别步骤还对待识别图像进行待穿刺对象识别,得出第一对象和第二对象的分类结果,尺侧桡侧评估的表达式为:
式中,ri为像素i的尺侧程度,O1为待穿刺对象姿态判断函数,O2为待穿刺对象判断函数,w为图片宽度,xi为像素i的横坐标,e为为自然对数的底,目的是让整个式子取值在0至1的范围内,⊙和均为二进制运算符号,⊙为同或,为异或。
自动静脉穿刺步骤具体为,在第一识别模式中,若待穿刺对象的姿态识别结果为第一姿态,则进行自动静脉穿刺,否则进行姿态更换提醒;
在第二识别模式中,若待穿刺对象的姿态识别结果为第二姿态,则进行自动静脉穿刺,否则进行姿态更换提醒。
本实施例应用的用于静脉注射机器人的姿态识别静脉穿刺方法考虑了患者手臂姿态的识别以及左右手识别,具体包括以下步骤:
识别模式设置步骤:选择预设设置的手背识别模式和前臂识别模式;图像采集步骤:获取患者手臂图像;
患者姿态识别步骤:根据患者手臂图像,采用图像语义识别的方法,进行患者手臂姿态的识别以及左右手识别,患者手臂姿态包括手掌朝上和手背朝上;
本实施例中,采用深度卷积神经网络,进行患者手臂姿态的识别;
尺侧桡侧判断步骤:根据患者手臂图像,进行尺侧桡侧评估,在患者手臂图像中进行尺侧和桡侧标注;
尺侧桡侧评估的表达式为:
自动静脉穿刺步骤具体为,在手背识别模式中,若患者手臂姿态的识别结果为手背朝上,则再根据尺侧和桡侧标注结果进行自动静脉穿刺,否则进行手势更换提醒;
在前臂识别模式中,若患者手臂姿态的识别结果为手掌朝上,则再根据尺侧和桡侧标注结果进行自动静脉穿刺,否则进行手势更换提醒。
图像采集步骤具体为,实时采集图像,用于捕捉患者手臂;根据采集到的图像,采用图像语义识别的方法,进行手臂识别;根据手臂识别的结果对图像分类,得到有手臂的患者手臂图像和无手臂的图像。
本实施例中采用深度卷积神经网络进行手臂识别。通过摄像机进行捕捉患者手臂,摄像机位于预设的手臂托举平台的上方,手臂托举平台用于托举患者手臂。摄像机为可见光摄像机或近红外光摄像机。
下面对本实施例在具体实施时的工作环境和姿态识别静脉穿刺方法的详细步骤进行描述。
1、工作环境
如图2所示,为前臂静脉穿刺模式的工作环境,如图3所示,为手背静脉穿刺模式的工作环境。
前臂静脉穿刺的硬件结果包括摄像机1、患者手臂支撑台2、静脉识别模块3和静脉穿刺执行模块4,摄像机1属于静脉穿刺机器人的姿态评估与尺侧桡侧区分模块。当本发明所述方法执行结束后,静脉识别模块3对患者静脉进行识别,静脉穿刺执行模块4执行穿刺。
2、姿态识别静脉穿刺方法详细步骤
如图1和图4所示,具体实施中,姿态识别静脉穿刺方法包括以下步骤:
S1:程序准备与待命;具体包括以下子步骤:
S101:识别模式设置。该识别模式分为“手背识别模式”和“前臂识别模式”两种,该模式根据静脉穿刺模式设置,在手背静脉穿刺模式下,选择“手背识别模式”,在前臂静脉穿刺模式下,选择“前臂识别模式”。模式识别完成后,进入并列步骤102和103。
S102:摄像机开启。摄像机对准手臂托举平台并开启,摄像机位于手臂上方或斜上方,可以是可见光摄像机或近红外光摄像机。
S103:算法处于待命状态。等待患者伸入手臂并被摄相机捕捉,算法才被激活。
S2:程序自动唤起;具体包括以下子步骤:
S201:患者伸入手臂。患者按照引导,将手臂伸入机器的手臂托板上。
S202:摄相机捕捉患者手臂。手臂捕捉方法原理见图5,该方法建立在深度卷积神经网络基础上,对摄像机拍摄视频中的图片进行分类,类别共两种,分别为“有手臂”和“无手臂”,当出现“有手臂”类别的图片时(或者“有手臂”类别图片达到规定连续张数n时),视为成功捕捉患者手臂,否则继续待命。
S3:尺侧桡侧判断;具体包括以下子步骤:
S301:分类程序开启。该步骤对患者手臂的姿态、左右手进行分类。分类程序原理图见图6,分类程序以深度卷积神经网络为基础,当成功捕捉患者手臂时开启,经神经网络分为4类:手背向上,左手;手背向上,右手;手背向上,左手;手背向上,右手。
S302:识别患者手势是否正确。当识别模式为“手背识别模式”时,意味着患者要接受手背静脉穿刺,应当手背朝上;当识别模式为“前臂识别模式”时,意味着患者要接收前臂静脉穿刺,应当手掌朝上,患者手势评估参照表如图7,若手势错误,进入步骤S303,若患者手势正确,进入步骤S304。
S303:提醒患者更换手势。当患者手势错误时,机器对患者发出提醒。
S304:判断尺侧和桡侧。在人体上肢中,尺侧是指小指一侧,桡侧是指拇指一侧,在正确判断患者的左右手、姿态以及摄像机相对患者位置后,可正确在图片上标注尺侧和桡侧。当摄像机与患者手臂相对位置关系如图3所示时,其对应尺侧桡侧评估参照表如图8。设r为图像中像素的“尺侧程度”,通过下式对像素“尺侧程度”评分:
本实施例还提供一种用于静脉注射机器人的姿态识别静脉穿刺装置,包括存储器和处理器,所述存储器存储有计算机程序,处理器调用所述计算机程序执行如上所述的用于静脉注射机器人的姿态识别静脉穿刺方法的步骤。
以上详细描述了本发明的较佳具体实施例。应当理解,本领域的普通技术人员无需创造性劳动就可以根据本发明的构思做出诸多修改和变化。因此,凡本技术领域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到的技术方案,皆应在由权利要求书所确定的保护范围内。
Claims (7)
1.一种用于静脉注射机器人的姿态识别静脉穿刺装置,其特征在于,包括存储器和处理器,所述存储器存储有计算机程序,处理器调用所述计算机程序执行一种用于静脉注射机器人的姿态识别静脉穿刺方法,该方法包括以下步骤:
图像采集步骤:获取待识别图像;
对象姿态识别步骤:根据所述待识别图像,采用图像语义识别的方法,识别待穿刺对象的姿态,所述待穿刺对象的姿态包括第一姿态和第二姿态;
自动静脉穿刺步骤:根据所述待穿刺对象的姿态识别结果,进行自动静脉穿刺;
所述姿态识别静脉穿刺方法还包括尺侧桡侧判断步骤:根据所述待识别图像,进行尺侧桡侧评估,在所述待识别图像中进行尺侧和桡侧标注;
所述自动静脉穿刺步骤具体为,根据所述待穿刺对象的姿态识别结果以及尺侧和桡侧标注结果,进行自动静脉穿刺;
所述对象姿态识别步骤还对所述待识别图像进行待穿刺对象识别,得出第一对象和第二对象的分类结果,所述尺侧桡侧评估的表达式为:
所述第一对象为左手,所述第二对象为右手,所述第一姿态为手掌向上,所述第二姿态为手背向上。
2.根据权利要求1所述的一种用于静脉注射机器人的姿态识别静脉穿刺装置,其特征在于,所述对象姿态识别步骤中,采用深度卷积神经网络,进行所述待穿刺对象的姿态识别。
3.根据权利要求1所述的一种用于静脉注射机器人的姿态识别静脉穿刺装置,其特征在于,所述图像采集步骤具体为,实时采集图像,用于捕捉待穿刺对象;根据所述采集到的图像,采用图像语义识别的方法,进行待穿刺对象的识别;根据所述待穿刺对象的识别结果进行图像分类,得到包含待穿刺对象的待识别图像和不包含待穿刺对象的不识别图像。
4.根据权利要求3所述的一种用于静脉注射机器人的姿态识别静脉穿刺装置,其特征在于,采用深度卷积神经网络进行所述待穿刺对象的识别。
5.根据权利要求3所述的一种用于静脉注射机器人的姿态识别静脉穿刺装置,其特征在于,通过摄像机进行所述捕捉待穿刺对象,所述摄像机位于预设的待穿刺对象托举平台的上方,所述待穿刺对象托举平台用于托举待穿刺对象。
6.根据权利要求5所述的一种用于静脉注射机器人的姿态识别静脉穿刺装置,其特征在于,所述摄像机为可见光摄像机或近红外光摄像机。
7.根据权利要求1所述的一种用于静脉注射机器人的姿态识别静脉穿刺装置,其特征在于,所述姿态识别静脉穿刺方法还包括识别模式设置步骤:选择预设设置的第一识别模式和第二识别模式;
所述自动静脉穿刺步骤具体为,在所述第一识别模式中,若所述待穿刺对象的姿态识别结果为第一姿态,则进行自动静脉穿刺,否则进行姿态更换提醒;
在所述第二识别模式中,若所述待穿刺对象的姿态识别结果为第二姿态,则进行自动静脉穿刺,否则进行姿态更换提醒。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010831391.7A CN112022293B (zh) | 2020-08-18 | 2020-08-18 | 一种用于静脉注射机器人的姿态识别静脉穿刺方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010831391.7A CN112022293B (zh) | 2020-08-18 | 2020-08-18 | 一种用于静脉注射机器人的姿态识别静脉穿刺方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112022293A CN112022293A (zh) | 2020-12-04 |
CN112022293B true CN112022293B (zh) | 2022-04-05 |
Family
ID=73578271
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010831391.7A Active CN112022293B (zh) | 2020-08-18 | 2020-08-18 | 一种用于静脉注射机器人的姿态识别静脉穿刺方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112022293B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106039487A (zh) * | 2016-06-30 | 2016-10-26 | 梁涛 | 一种自动扎针系统及其控制方法 |
CN111032140A (zh) * | 2017-08-16 | 2020-04-17 | 直观外科手术操作公司 | 用于在医疗程序期间监测患者运动的系统和方法 |
CN111067597A (zh) * | 2019-12-10 | 2020-04-28 | 山东大学 | 肿瘤穿刺中根据人体姿态确定穿刺路径的系统及方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9916422B2 (en) * | 2011-01-26 | 2018-03-13 | Brainlab Ag | Method for planning the positioning of an implant |
CN102426651B (zh) * | 2011-08-25 | 2014-04-16 | 武汉理工大学 | 人体前臂表面肌电信号采集及模式识别系统 |
CN104799815B (zh) * | 2015-03-26 | 2018-03-27 | 山东大学 | 一种基于图像引导的血气采集装置及方法 |
US10573087B2 (en) * | 2017-08-16 | 2020-02-25 | Synaptive Medical (Barbados) Inc. | Method, system and apparatus for rendering medical image data |
CN111096796B (zh) * | 2019-12-30 | 2021-11-19 | 哈尔滨工业大学 | 全自动静脉穿刺机器人多层控制系统 |
-
2020
- 2020-08-18 CN CN202010831391.7A patent/CN112022293B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106039487A (zh) * | 2016-06-30 | 2016-10-26 | 梁涛 | 一种自动扎针系统及其控制方法 |
CN111032140A (zh) * | 2017-08-16 | 2020-04-17 | 直观外科手术操作公司 | 用于在医疗程序期间监测患者运动的系统和方法 |
CN111067597A (zh) * | 2019-12-10 | 2020-04-28 | 山东大学 | 肿瘤穿刺中根据人体姿态确定穿刺路径的系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112022293A (zh) | 2020-12-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3558025B2 (ja) | 個人認証装置及び方法 | |
US9245168B2 (en) | Authentication apparatus, authentication program, and authentication method | |
WO2012091799A1 (en) | Fingertip tracking for touchless user interface | |
CN104866804B (zh) | 一种掌纹信息识别的方法和设备 | |
CN110353622A (zh) | 一种视力检测方法及视力检测器 | |
CN111367415B (zh) | 一种设备的控制方法、装置、计算机设备和介质 | |
WO2020216091A1 (zh) | 图像处理方法及相关装置 | |
CN114092985A (zh) | 一种终端控制方法、装置、终端及存储介质 | |
CN114863571A (zh) | 一种基于计算机视觉的协作机器人手势识别系统 | |
CN112022293B (zh) | 一种用于静脉注射机器人的姿态识别静脉穿刺方法和装置 | |
CN115601811A (zh) | 面部痤疮的检测方法和装置 | |
CN112075981B (zh) | 静脉穿刺机器人控制方法、装置及计算机可读存储介质 | |
JP4251067B2 (ja) | 個人認証装置及び個人認証用の血管パターン抽出装置 | |
CN109522691A (zh) | 解锁控制方法及相关装置 | |
CN108664956B (zh) | 人体静脉生物特征信息采集过程中的活体识别方法及装置 | |
JP5134655B2 (ja) | 個人認証システム、個人認証装置、及び血管画像撮影装置 | |
CN111432131B (zh) | 一种拍照框选的方法、装置、电子设备及存储介质 | |
JP4389505B2 (ja) | 個人認証装置及び血管パターン抽出装置 | |
JP5789691B2 (ja) | 個人認証装置、及び血管画像撮影装置 | |
CN113435229A (zh) | 人脸虹膜多模态识别方法、装置、可读存储介质及设备 | |
JP2012128868A (ja) | 特徴画像撮影装置、及び個人認証装置 | |
JP2004171577A (ja) | 個人認証装置及び方法 | |
CN114546114A (zh) | 移动机器人的控制方法、控制装置及移动机器人 | |
JP6082766B2 (ja) | 血管画像撮影装置 | |
JP4603610B2 (ja) | 入退室管理システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |