CN117616497A - 一种远端及自主实验机器人装置,管理系统及方法 - Google Patents
一种远端及自主实验机器人装置,管理系统及方法 Download PDFInfo
- Publication number
- CN117616497A CN117616497A CN202280018415.4A CN202280018415A CN117616497A CN 117616497 A CN117616497 A CN 117616497A CN 202280018415 A CN202280018415 A CN 202280018415A CN 117616497 A CN117616497 A CN 117616497A
- Authority
- CN
- China
- Prior art keywords
- experimental
- robot
- control system
- main control
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 238000002474 experimental method Methods 0.000 claims abstract description 101
- 238000001035 drying Methods 0.000 claims abstract description 50
- 238000007726 management method Methods 0.000 claims abstract description 32
- 238000001816 cooling Methods 0.000 claims abstract description 24
- 238000010438 heat treatment Methods 0.000 claims abstract description 24
- 238000001914 filtration Methods 0.000 claims abstract description 23
- 238000002425 crystallisation Methods 0.000 claims abstract description 10
- 230000008025 crystallization Effects 0.000 claims abstract description 10
- 230000010391 action planning Effects 0.000 claims abstract description 9
- 239000000126 substance Substances 0.000 claims abstract description 8
- 238000012360 testing method Methods 0.000 claims abstract description 4
- 210000004027 cell Anatomy 0.000 claims description 45
- 244000005700 microbiome Species 0.000 claims description 37
- 230000000007 visual effect Effects 0.000 claims description 30
- 238000003756 stirring Methods 0.000 claims description 26
- 230000009471 action Effects 0.000 claims description 16
- 238000006243 chemical reaction Methods 0.000 claims description 14
- 230000003993 interaction Effects 0.000 claims description 14
- 238000004891 communication Methods 0.000 claims description 13
- 239000003086 colorant Substances 0.000 claims description 12
- 238000001514 detection method Methods 0.000 claims description 12
- 238000004043 dyeing Methods 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 11
- 238000000227 grinding Methods 0.000 claims description 10
- 238000013178 mathematical model Methods 0.000 claims description 9
- 241000894006 Bacteria Species 0.000 claims description 8
- 238000013528 artificial neural network Methods 0.000 claims description 8
- 230000006870 function Effects 0.000 claims description 8
- 230000010355 oscillation Effects 0.000 claims description 7
- 238000012549 training Methods 0.000 claims description 7
- 238000010801 machine learning Methods 0.000 claims description 6
- 238000010408 sweeping Methods 0.000 claims description 6
- 239000011324 bead Substances 0.000 claims description 5
- 238000004090 dissolution Methods 0.000 claims description 5
- 230000002255 enzymatic effect Effects 0.000 claims description 5
- 238000004108 freeze drying Methods 0.000 claims description 5
- 238000000265 homogenisation Methods 0.000 claims description 5
- 238000007603 infrared drying Methods 0.000 claims description 5
- 238000010297 mechanical methods and process Methods 0.000 claims description 5
- 230000003204 osmotic effect Effects 0.000 claims description 5
- 230000035939 shock Effects 0.000 claims description 5
- 238000001694 spray drying Methods 0.000 claims description 5
- 238000005199 ultracentrifugation Methods 0.000 claims description 5
- 238000003828 vacuum filtration Methods 0.000 claims description 5
- 102000004190 Enzymes Human genes 0.000 claims description 4
- 108090000790 Enzymes Proteins 0.000 claims description 4
- 241000700605 Viruses Species 0.000 claims description 4
- 230000015572 biosynthetic process Effects 0.000 claims description 4
- 238000010224 classification analysis Methods 0.000 claims description 4
- 238000005516 engineering process Methods 0.000 claims description 4
- 239000006260 foam Substances 0.000 claims description 4
- 230000001133 acceleration Effects 0.000 claims description 3
- 210000000078 claw Anatomy 0.000 claims description 3
- 238000012258 culturing Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000003825 pressing Methods 0.000 claims description 3
- 238000000926 separation method Methods 0.000 claims description 3
- 241000219112 Cucumis Species 0.000 claims description 2
- 235000015510 Cucumis melo subsp melo Nutrition 0.000 claims description 2
- FJJCIZWZNKZHII-UHFFFAOYSA-N [4,6-bis(cyanoamino)-1,3,5-triazin-2-yl]cyanamide Chemical compound N#CNC1=NC(NC#N)=NC(NC#N)=N1 FJJCIZWZNKZHII-UHFFFAOYSA-N 0.000 claims description 2
- 238000013135 deep learning Methods 0.000 claims description 2
- 230000001939 inductive effect Effects 0.000 claims description 2
- 239000004065 semiconductor Substances 0.000 claims description 2
- 210000000707 wrist Anatomy 0.000 claims description 2
- 230000001413 cellular effect Effects 0.000 claims 1
- 238000012544 monitoring process Methods 0.000 abstract description 9
- 238000000605 extraction Methods 0.000 abstract description 3
- 238000004458 analytical method Methods 0.000 abstract description 2
- 238000002955 isolation Methods 0.000 abstract description 2
- 238000012795 verification Methods 0.000 abstract 1
- 238000005303 weighing Methods 0.000 abstract 1
- 238000013473 artificial intelligence Methods 0.000 description 2
- 239000003814 drug Substances 0.000 description 2
- 241001510071 Pyrrhocoridae Species 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 210000003651 basophil Anatomy 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000003979 eosinophil Anatomy 0.000 description 1
- 230000001900 immune effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 210000004698 lymphocyte Anatomy 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 210000001616 monocyte Anatomy 0.000 description 1
- 210000000440 neutrophil Anatomy 0.000 description 1
- 238000010186 staining Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
- B25J9/1666—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Apparatus Associated With Microorganisms And Enzymes (AREA)
- Manipulator (AREA)
Abstract
一种远端及自主实验机器人装置、管理系统及方法,包括机器人主控制系统(101)、机器臂动作规划模块(102)、摄像头视觉模块(103)、移动模块(104)、语音模块(105)、多媒体触摸屏模块(106)、扫码信息模块(107)、振荡器模块(108)、培养器模块(109)、加热/冷却/干燥模块(110)、萃取过滤结晶模块(111)、显微镜模块(112)、360度旋转台称/放大模块(113)和多传感器模块(114)。可实现远端,自主实验,监测,智能化识别数据,分析数据,远距离实验,隔离实验,广泛应用于生物实验,物理实验,医学实验,化学实验等多场景实验,检验。
Description
本发明涉及人工智能机器人领域,具体地涉及一种生物实验,物理实验,医学实验,化学实验等多场景实验,实验机器人利用远端及自主定位移动,语音,显微镜下视觉识别,机器臂动作规划,生物物理化学医学等人工智能机器人技术,广泛应用于生物实验,物理实验,医学实验,化学实验等多场景实验,检验。
随着人工智能机器人在生物,物理,医学,化学领域的推广,生物,物理,医学,化学各实验,监测耗时长,实验操作精密度低,误操作导致实验失败,由于各种人为因素道中精准度差,各实验操作因人员专业能力差异,实验步骤,实验细节实验完成度,效率差异较大。因此标准化,精密化高效率实验机器装置成为重要课题。
一种语音控制,远端控制,自主操作,增加实验管理功能的远端及自主实验机器人装置的设计,开发成为市场需求。通过管理员远端控制实验机器,远端语音命令,远端监视实验环境,高效实现实验步骤管理,实验人员管理,实验耗材实验样本管理的机器人装置,管理平台涉及机器人理论,人工智能,生物化学医学物理等实践技术。利用机器人搭载的机器臂及摄像头,机器视觉及各种智能识别方法,实现远端,自主实验,监测,智能化识别数据,分析数据,远距离实验,隔离实验。
目前的市面产品多是单一的生物反应机器,还未出现远端控制,自主操作,远端监管实验环境,实验步骤,管理实验人员,实验样本等装置,实验管理系统。还未实现语音指令,语音交互,机器臂操作实验等功能的实验机器人及实验管理系统。本发明增加了过滤,振荡器搅拌,加热,冷却,干燥,细胞破碎,过滤,生物传感器监测实验一体化功能,远端控制及自主操作实验等功能。
解决了利用移动的机器臂远端控制及自主操作实验,实现语音指令,语音交互,显微镜视觉识别,过滤,振荡器搅拌,加热,冷却,干燥,细胞破碎,过滤,多生物传感器监测等。解决了由于各种人为因素道中精准度差,各实验操作因人员专业能力差异,实验细节实验完成度效率差异较大。解决了远端控制及自主操作实验,实现了过滤,振荡器搅拌,加热,冷却,干燥,细胞破碎,生物传感器监测实验一体化功能,提高了智能机器人的生物,物理,医学,化学实验效用。
发明内容
本发明的目的就在于克服上述现有技术的缺点和不足,提供一种语音交互,远端及自主控制,显微镜下实验样本的图像智能识别,辅助识别细菌,病毒等微生物,各类细胞。通过履带及滚轮移动机器臂抓取,扫码,放置物品一体化机器人装置,与实验管理系统连接,实现了远端用户-机器人-机器使用端的语音交互,语音指令,移动机器臂拾取实验器皿,扫码,提高了过滤,振荡器搅拌,加热,冷却,干燥,细胞破碎,过滤,生物传感器监测实验一体化功能,远端控制及自主操作实验。
本发明提供了视觉识别方法,可识别识别细菌,病毒等微生物以及其场景下各类细胞结构。利用信息采集装置采集,管理人脸,生物信息,RFID信息,通过视觉摄像头识别数字码,文字,二维码,颜色标识,特殊标识等辨识实验机器。
本发明提供了一种远端控制,机器人自主相结合的双控制方法。
进一步,本发明提供了一种远端控制及自主控制,机器臂动作规划方式。
又进一步,本发明提供了一种远端用户-机器人-机器人端用户语音交互,语音指令,语音识别,语音合成等语音识别方法。本发明提供了一种扫码装置用于扫码,识别管理实验耗材,实验人员,实验装置。
本发明提供了一种实验管理系统,用于查询,实验预约,实验实时监管,观察,管理实验器皿,实验管理实验日志,管理耗材样本,管理实验人员,远端机器臂控制,语音交互,指令,呼叫。
本发明解决了上述问题,实现这些功能所采用的技术方案
一种远端及自主实验机器人装置、管理系统及方法及方法其特征在于,一种远端及自主实验机器人装置包括:
机器人主控制系统,所述的机器人主控制系统用于控制机器人。机器人主系统是通过机器人主系统控制各机器人节点通信,各连接的硬件装置驱动,动作。机器人节点通信模块,通过消息,服务,动作等通信方式实现节点间发布,接收端通信。
显微镜视觉采集识别模块,与机器人主控制系统连接,用于实验样本的视觉采集,显微镜下的图片辅助微生物,细胞等智能识别。
培养器装置,所述的培养器装置包括:分装器,试管,烧杯等装置,用于细胞,微生物等实验的培养,过滤,分离,离心,细胞破碎,萃取,生物合成,沉析,干燥。
振荡器装置,与机器人主控制系统连接,所述的振荡器装置包括:搅拌棒,震荡装置,用于移动机器臂实验的振荡,搅拌。
加热装置,与机器人主控制系统连接,用于加热实验样本。
冷却装置,与机器人主控制系统连接,用于冷却实验样本。
干燥装置,与机器人主控制系统连接,所述的干燥装置包括:微波干燥装置,冷冻干燥装置,流化床干燥装置,红外干燥装置,气流干燥装置,喷雾干燥装置,厢式干燥装置中的一种或多种装置。
染色器装置,与机器人主控制系统连接,用于染色实验样本。
过滤装置,所述的过滤器装置包括:真空抽滤装置,离心过滤装置,管式离心装置,碟片式离心装置,超速离心装置中的一种或多种装置。
细胞破碎装置,与机器人主控制系统连接,用于多种破碎方式,包括:化学法,机械法,酶解法,碱处理法,渗透冲击法,脂溶解法。机械法包括:超声波,高压匀浆法,研磨法,珠磨法。
萃取器,与机器人主控制系统连接,所述的萃取器装置包括:萃取器,分离槽,膨胀阀,压缩机。
结晶装置,所述的结晶装置,与机器人主控制系统连接,用于结晶。
多传感器装置,与机器人主控制系统连接,多传感器装置包括:纳米生物传感器,酶生物传感器,生物假阵列芯片,微流控芯片,DNA传感器,免疫生物传感器,气体传感器,离子传感器,光电式传感器,应变与压阻式传感器,电感式传感器,电容式传感器,霍尔传感器,压电式传感器,阻抗型传感器,半导体型传感器,声波型传感器,热量式传感器,电化学传感器,光敏传感器。
360度旋转台及秤,与机器人主控制系统连接,用于360度观察实验细节,秤用于度量实验品。
视觉装置及放大装置,所述的视觉装置,放大视觉装置,与移动机器臂,机器人主控制系统连接,用于识别数字,颜色标签,依据器皿形状,位置识别实验过程中的步骤,流程中器皿,反应器的位置等。
移动装置,与机器人主控制系统,视觉摄像头,避障装置连接,所述的移动装置,包括轮式移动及履带式移动,用于移动机器臂移动。移动机器臂与轮式,履带式可拆卸,移动底座及机器人本体可独立使用。
机器臂,与机器人主控制系统,摄像头连接,用于机器臂抓,拾,取,放目标物品,扫码,整理,摆放物品等动作。利用改进的神经网络方法,自适应学习调整机器臂的参数实现自主的机器臂动作规划,以及利用机器人机体控制及远端用户控制调解机器臂规划参数。
语音装置,与机器人主控制系统连接,所述语音模块包括:定向识音装置,麦克。 用于远端用户-实验装置间的语音交互,实验指导,语音指令,实验步骤的语音问询,知识问答。
多媒体触摸屏,与机器人主控制系统连接,所述的多媒体触摸屏,用于实验步骤,实验过程展示,演示,实验学习指导等。
扫码信息采集装置,与机器人主控制系统连接,所述的扫码信息采集装置包括:条形码,二维码,生物信息采集器,RFID信息采集器。用于利用条形码,二维码,管理实验耗材,实验样本,实验人员,管理实验步骤及相关信息。
所述的视觉识别模块,与机器人主控制系统,摄像头,视觉识别放大器连接,所述视觉识别模块包括:摄像头,放大器。用于采集发布图像信息,用于识别人员人脸信息,实验生物反应装置,颜色标签,实验器皿信息,定位目标物品,目标人员,及其所在位置,通过识别颜色,数字码,文字,二维码,特殊标识等综合信息。通过机器人系统实现主控制单元的对各实验场景下视频摄像头下实验人员,实验耗材,实验物品管理。
所述的显微镜装置,与机器人主控制系统连接,通过改进的机器学习方法,改进的深度学习方法,抽取细胞,微生物等样本图像的轮廓,形状,结构,颜色,纹理等特征,智能识别细菌病毒等微生物的种类,学习训练图像参数,用于辅助识别实验样本,视觉采集显微镜下的图片辅助微生物,细胞等智能识别。
所述的机器臂,与主系统和视觉摄像头相连接,机器臂由主控制器动作规划模块,通过视觉识别目标,利用多机器臂抓,取,放目标物品,扫码实验样本,实验耗材。动作规划,所述机器臂动作规划模块通过配置机器臂,腕,爪的位置参数,角度参数,规划抓,取动,放置参数,机器臂移动,抓取,放置,扫码,整理,摆放物品,配置机器臂的动作参数包括自适应学习调整参数以及远端控制调解机器臂参数。
所述的振荡器装置,与机器人主控制系统连接,所述的振荡器装置包括:搅拌棒,震荡装置,用于移动机器臂实验的振荡,搅拌,通过震荡装置,搅拌装置完成振荡,搅拌。设置震荡装置参数包括:振荡搅拌次数,振荡搅拌时间,振荡搅拌强度,振荡搅拌方法等。
所述的加热装置,与机器人主控制系统连接,用于加热实验样本。设置震荡装置参数包括:加热温度,加热时间,加热位置,范围等。
所述的冷却装置,与机器人主控制系统连接,用于冷却实验样本。冷却装置参数包括:冷却温度,冷却时间等。
所述的干燥装置,与机器人主控制系统连接,用于干燥实验样本。所述的干燥装置包括:微波干燥装置,冷冻干燥装置,流化床干燥装置,红外干燥装置,气流干燥装置,喷雾干燥装置,厢式干燥装置中的一种或多种装置。干燥样本的参数包括:干燥时间,干燥的 方式,干燥的强度等。
所述的过滤装置,与机器人主控制系统连接,用于过滤。所述的过滤器装置包括:真空抽滤装置,离心过滤装置,管式离心装置,碟片式离心装置,超速离心装置中的一种或多种装置。
所述的细胞破碎装置,与机器人主控制系统连接,用于细胞破碎。所述的多种破碎装置对应多种破碎方式包括:化学法,机械法,酶解法,碱处理法,渗透冲击法,脂溶解法。机械法包括:超声波,高压匀浆法,研磨法,珠磨法。
所述的语音模块,与机器人主控制系统连接,语音模块包括:定向识音装置,麦克。通过配置定向识音装置,麦克等参数,通过语音识别,语音唤醒,语音文字转换技术,远端用户沟通,配置语言库,用于远端用户。远端用户-机器人间语音交互,语音指令,语音问询,语音知识问答。
所述的扫码信息采集装置,与机器人主控制系统连接,扫码信息采集装置包括:扫码信息采集,扫描,读取装置。扫码信息采集,扫描,读取装置是机器人主系统与摄像头,扫描器,读取器,信息采集读取装置连接,通过改进的机器学习算法与改进的神经网络方法,智能识别二维码,数字码,生物信息,RFID信息等管理人员,物品,器材等多种信息。
所述的360度旋转台及秤与视觉放大器,与机器人主控制系统连接,用于360度观察实验物品细节。所述的360度旋转台及秤,用于旋转,协助摄像头视觉识别,放大器装置360度观察实验品细节。
所述的染色器装置,与机器人主控制系统连接,用于染色实验样本。
所述的一种视觉识别实验装置,实验标签颜色,数字,字母,文字,特殊标识的方法,机器臂运动规划方法,所述的方法包括以下步骤:
S1、设置实验场景的对应实验装置参数及其对应的位置参数。
S2、输入实验台对应的实验装置,实验标签颜色,数字,字母,文字,特殊标识的数学模型。
S3、抽取实验场景下,器皿的形状,轮廓,结构,颜色,数字,字母,文字,特殊特标识图像,对应的图像特征作为输入值。
S4、改进权值优化器,快速训练图像,得到输出值。
S5、依据输出形状,轮廓,结构,颜色,数字,字母,文字,特殊标识结果,精准识别目标,指定目标及定位目标位置。
S6、依据实验,设置实验步骤,依据实验步骤规划机器臂动作,依据动作规划,移动机器臂到各实验步骤的试验装置及其位置,在主系统下,机器臂定位移动到指定的目标实验装置。
S7、各实验装置节点的配置文件中参数包括:频率,最大最小线速度,最大最小的旋转速度,x方向y方向最大的线加速度,最大的角速度,距离目标方向的误差,距离目标位置的误差,到达目标位置的权重,避开障碍物的权重等参数。
S8、在各实验装置节点中配置机器人机器臂参数,障碍物位置以及其尺寸参数,更新频率,发布频率,实验装置位置,实验台各装置的图标,颜色以及其参数,在坐标转换框架之间的转换最大延时等参数。
S9、设置机器人初始参数,包括机器人id,目标id及其位置和角度位姿消息。
S10、设置运动规划,选择关节角度,关节限位设置,机械臂移动到指定的关节位形,关节限制,关节轨迹位置,速度分量,关节速度。设置运动约束,目标轨迹,速度设置,执行规划的轨迹,设置关节位置,关节角度。
S11、设置机械臂上的笛卡尔路径,目标位姿所能拾取的物体对于机器人位姿参数设置。
S12、设置机械臂防碰撞矩阵,防碰撞检测模块设置(机器人自身其他部位检测,场景障碍物检测)。
S13、机械臂,爪参数设置,抓握,取放,抓取位姿参数设置与匹配目标位姿。
S14、初始化放置抓取,物体的位置,抓取姿态对象,生成抓取姿态(初始化抓取对象,创建夹瓜张开闭合的姿态)。设置期望的夹爪靠近,撤离目标的参数,设置抓取姿态。
S15、需求尝试改变姿态的数据列表。
S16、抓取姿态列表。改变姿态,生成抓取动作(设置抓取姿态;抓取ID号;设置允许接触的物体,设置抓取列表)。
所述的一种改进的机器学习方法分类分析微生物,细胞异常数据,所述方法包括以下步骤:
S1、建立微生物,细胞标本数学模型。
S2、抽取微生物,细胞标本的形状,颜色,轮廓,大小尺寸等细胞特征,包括颜色,形状,轮廓等的特征。
S3、提取微生物,细胞标本图像的特。颜色形状轮廓尺寸等图像的特征值,输入检测项目特征值。
S4、分类识别微生物,细胞种类(中性粒细胞,嗜酸性粒细胞,嗜碱性粒细胞,淋巴细胞,单核细胞),计算,分析占比及其识别微生物,细胞。
所述的一种改进的神经网络算法微生物,细胞样本识别方法,所述方法包括以下步骤:
S1、输入对应微生物,细胞的数学模型。
S2、抽取标本的实验前后的形态,轮廓,染色反应下颜色,结构,尺寸大小,状态特征(粒状,棒状,泡沫)以及不规则性,核左移,核右移等显微镜下图像识别。
S3、建立标本图像的特征的数学模型,输入检测项目特征值。
S4、改进权值优化器,快速训练图像,得到输出值。
S5、依据输出结果,辅助识别显微镜下图片微生物,细胞及其在各时间间隔,实验步骤中各自的形态,轮廓,染色反应下颜色,结构,尺寸大小,状态特征(粒状,棒状,泡沫)以及不规则性,核左移,核右移等变化。
S6、辅助记录动态实时的实验数据及其变化,实时数据分类分析,识别显微镜下图片微生物,细菌。
所述的一种实验管理系统与机器人主控制系统,语音模块,机器臂连接用于浏览及查询商品,实验预约,实验实时监管,观察,管理实验器皿,实验管理实验日志,管理耗材样本,管理实验人员等功能。一种实验管理系统包括:浏览模块,查询模块,实验预约模块,实验实时监管,观察模块,管理实验器皿模块,管理实验日志模块,管理耗材样本模块,管理实验人员,远端机器臂控制模块,视觉展示模块,语音呼叫模块。
图1是本申请中机器人模块示意图,附图1标记:
101-机器人主控制系统模块; 102-机器臂动作规划模块; 103-摄像头视觉模块;
104-移动模块; 105-语音模块; 106-多媒体触摸屏模块;
107-扫码信息模块; 108-振荡装置; 109-培养器模块;
110-加热/冷却/干燥模块; 111-萃取过滤结晶模块; 112-显微镜模块;
113-360度旋转台及放大模块; 114-生物传感器模块;
图2是本申请机器人结构组成图,附图2标记:
201-主控制系统; 202-多媒体触摸屏; 203-视觉模块; 204-放大器;
205-移动装置; 206-机器臂; 207-扫码支付装置; 208-过滤装置;
209-萃取装置; 210-X射线结晶装置; 211-振荡器装置; 212-细胞破碎装置;
213-生物传感器装置; 214-加热装置; 215-冷却装置; 216-干燥装置;
217-显微镜装置; 218-远端客户端; 219-染色装置; 220-语音装置;
221远端客户端;
具体的实施方式
本方案主要是通过定向识音装置与麦克模块的参数设置,利用语音识别,语音文字转换,语音唤醒等方法,实现人-机器人语音交互,解决语音交互,语音指令,语音查询物品信息。
本方案主要是通过摄像头,利用改进的机器学习方法与深度神经网络方法,识别物品的颜色,形状,轮廓等综合特征,分类实验反应器,智能识别颜色数字字母文字实验标识信息,返回实验人员,实验器皿信息,解决了实验信息。机器人用扫码器等信息采集读取装置,实现实验员,实验样本管理等。
本方案主要是通过机器臂模块,利用返回的位置信息,规划手臂抓取,扫码,摆放,操作实验反应器等动作。实现自主抓取,扫码,移动,摆放,操作实验反应器。利用机器人取代人完成重复作业,提高效率,节省人力成本。大大减轻了人力作业压力,提高了工作效率。
本申请实施中的技术方案为解决上述技术问题的总体思路如下:
为了更好的理解上述技术方案,下面结合实施例及附图,对本发明作进一步地的详细说明,但本发明的实施方式不限于此。
实施例1
如图1,图2所示,一种远端及自主实验机器人装置、管理系统及方法实施例包括:
机器人主控制系统201,所述的机器人主控制系统201,用于控制机器人。机器人主系统201是通过机器人主系统控制各机器人节点通信,各连接的硬件装置驱动,动作。机器人节点通信模块,通过消息,服务,动作等通信方式实现节点间发布,接收端通信。
显微镜217,与机器人主控制系统201连接,用于实验样本的视觉采集,显微镜下的图片辅助微生物,细胞等智能识别。
培养器装置218,所述的培养器装置包括:分装器,试管,烧杯等装置,用于细胞,微生物等实验的培养,过滤,分离,离心,细胞破碎,萃取,生物合成,沉析,干燥。
振荡器装置211,所述的振荡器装置包括:搅拌棒,震荡装置,用于移动机器臂实验的振荡搅拌。
加热装置214,与机器人主控制系统201连接,用于加热实验样本。
冷却装置215,与机器人主控制系统201连接,用于冷却实验样本。
干燥装置216,所述的干燥装置216包括:微波干燥装置,冷冻干燥装置,流化床干燥装置,红外干燥装置,气流干燥装置,喷雾干燥装置,厢式干燥装置中的一种或多种装置,用于干燥实验样本。
染色器装置219,所述的染色器装置,用于染色样本。
过滤装置208,与机器人主控制系统201连接,所述的过滤器装置208包括:真空抽滤装置,离心过滤装置,管式离心装置,碟片式离心装置,超速离心装置中的一种或多种装置,用于过滤实验样本。
细胞破碎装置212,与机器人主控制系统201连接,用于多种破碎方式,包括:化学法,机械法,酶解法,碱处理法,渗透冲击法,脂溶解法。机械法包括:超声波,高压匀浆法,研磨法,珠磨法。
生物传感器装置213,与机器人主控制系统201连接,生物传感器装置213包括:纳米生物传感器,酶生物传感器,生物假阵列芯片,微流控芯片,DNA传感器,免疫生物传感器,气体传感器,离子传感器。
360度旋转台及秤,与机器人主控制系统201连接,用于360度观察实验细节,秤度量实验品。
视觉放大装置及视觉装置203,204,所述的视觉装置203,放大视觉装置203,与移动机器臂206,机器人主控制系统201连接,用于识别数字,颜色标签,依据器皿形状,位置识别实验过程中的步骤,流程中器皿,反应器的位置等。
移动装置205,与机器人主控制系统201,视觉摄像头202,避障装置205连接,所述的移动装置205,包括轮式移动及履带式移动,用于移动机器臂移动。移动机器臂与轮式,履带式可拆卸。
机器臂206,与机器人主控制系统201,摄像头202连接,用于机器臂206抓,拾,取,放目标物品,扫码,整理,摆放物品等动作。机器臂206动作规划方法包括:利用改进的神经网络方法,自适应学习调整机器臂的参数实现自主的机器臂动作规划,以及利用机器人机体控制及远端用户控制调解机器臂规划参数。
语音装置220,与机器人主控制系统201连接,所述语音模块220包括:定向识音装置,麦克。用于远端用户-实验装置间的语音交互,实验指导,语音指令,实验步骤的语音问询,知识问答。
多媒体触摸屏202,与机器人主控制系统201连接,所述的多媒体触摸屏202,用于实验步骤,实验过程展示,演示,实验学习指导等。
扫码信息采集装置207,所述的扫码信息采集装置207包括:条形码,二维码,生物信息采集器,RFID信息采集器。用于利用条形码,二维码,管理实验耗材,实验样本,实验人员,管理实验步骤及相关信息。
萃取器209,所述的萃取器装置209包括:萃取器,分离槽,膨胀阀,压缩机。
X射线结晶装置210,所述的X射线结晶装置210与机器人主控制系统201连接,用于结晶。
实施例2
如图1,图2所示,实验机器人装置视觉识别实验装置,实验标签颜色标识的方法,机器臂运动抓取实验装置,步骤如下:
设置实验场景的对应实验装置参数及其对应的位置参数,输入实验台对应的实验装置,实验标签颜色,数字,字母,文字,特殊标识的数学模型。抽取实验场景下,器皿的形状,轮廓,颜色,数字,字母,文字,特殊特标识图像,对应的图像特征作为输入值。改进权值优化器,快速训练图像,得到输出值。
依据输出形状轮廓结构颜色数字字母文字特殊标识结果,精准识别目标,指定目标及定位目标位置。
设置实验步骤,规划机器臂206动作,依据动作移动机器臂206到各实验步骤的试验装置及其位置,在主系统下,机器臂定位移动到指定的目标实验装置。配置频率,最大最小线速度,最大最小的旋转速度,x方向y方向最大的线加速度,最大的角速度,距离目标方向的误差,距离目标位置的误差,到达目标位置的权重,避开障碍物的权重等参数。配置机器人机器臂参数,障碍物位置以及其尺寸参数,更新频率,发布频率,实验装置位置,实验台各装置的图标,颜色以及其参数,在坐标转换框架之间的转换最大延时等参数。
设置机器人初始化参数,目标id及其位置和角度位姿消息,设置运动规划,选择关节角度,关节限位设置,机械臂移动到指定的关节位形,关节限制,关节轨迹位置,速度分量,关节速度。设置运动约束,目标轨迹,速度设置,执行规划的轨迹,设置关节位置,关节角度。设置机械臂上的笛卡尔路径,目标位姿所能拾取的物体对于机器人位姿参数设置。设置机械臂防碰撞矩阵,防碰撞检测模块设置(机器人自身其他部位检测,场景障碍物检测)。实验动作如下:
初始化机器臂206,抓取对象,爪,抓握,取放,抓取位姿的参数设置,抓取实验目标。
利用扫码装置207扫码实验样本,实验耗材,实验员工作证,将实验样本放置在360度旋转台及秤207,利用视觉放大器203观察商品细节。
机器臂206从360度旋转台观察台207抓取物体,移动到定位的实验标签下的生物实验反应器位置,抓取目标,实验样本,实验耗材,利用机器臂,操作按压生物实验反应器特殊标识按钮及操作生物反应器,按照时间间隔,利用视觉放大器203,观察360度旋转台观察台,培养器218中的实验样本,记录实验过程,辅助记录动态实时的实验数据及其变化, 实现实时数据分类分析,识别显微镜图片下的微生物,细菌及其他实验的样本等。
机器臂206从360度旋转台观察台207抓取实验样本,按照实验步骤,定位移动到生物传感器装置213,包括纳米生物传感器,酶生物传感器,生物假阵列芯片,微流控芯片,DNA传感器,免疫生物传感器,气体传感器,离子传感器等机器臂按照规划动作,检测实验数据。
实施例3
在实施例1,2的基础上,机器人主控制系统201模块与视觉识别模块203与机器臂206交互,目标设定,识别,定位,利用机器臂206对应,机器臂206动作规划抓取,移动,扫码,放置实验器皿,实验样本,按压动作,本发明的机器臂206实施方式不限于此,具体实施步骤如下:
通过管理系统与机器人主控制系统201的语音模块220呼叫,语音指令,语音交互,浏览及查询实验数据。利用实验预约模块,预约实验,按照时间及预约,提醒实验员。利用摄像头及视觉模块203实时监管,观察,放大观察实验器皿,实验样本。记录,管理实验日志,管理耗材样本,管理实验人员。
通过多媒体触摸屏202,展示实验步骤,实验过程,远端与实验指导,实验用户远端通信,联系指导实验检测,监控实验。
Claims (10)
- 一种远端及自主实验机器人装置、管理系统及方法,其特征在于,一种远端及自主实验机器人装置包括:机器人主控制系统,所述的机器人主控制系统用于控制机器人。机器人主系统是通过机器人主系统控制各机器人节点通信,各连接的硬件装置驱动,动作。机器人节点通信模块,通过消息,服务,动作等通信方式实现节点间发布,接收端通信。显微镜视觉采集识别模块,与机器人主控制系统连接,用于实验样本的视觉采集,显微镜下的图片辅助微生物,细胞等智能识别。培养器装置,所述的培养器装置包括:分装器,试管,烧杯等装置,用于细胞,微生物等实验的培养,过滤,分离,离心,细胞破碎,萃取,生物合成,沉析,干燥。振荡器装置,与机器人主控制系统连接,所述的振荡器装置包括:搅拌棒,震荡装置,用于移动机器臂实验的振荡,搅拌。加热装置,与机器人主控制系统连接,用于加热实验样本。冷却装置,与机器人主控制系统连接,用于冷却实验样本。干燥装置,与机器人主控制系统连接,所述的干燥装置包括:微波干燥装置,冷冻干燥装置,流化床干燥装置,红外干燥装置,气流干燥装置,喷雾干燥装置,厢式干燥装置中的一种或多种装置。染色器装置,与机器人主控制系统连接,用于染色实验样本。过滤装置,所述的过滤器装置包括:真空抽滤装置,离心过滤装置,管式离心装置,碟片式离心装置,超速离心装置中的一种或多种装置。细胞破碎装置,与机器人主控制系统连接,用于多种破碎方式,包括:化学法,机械法,酶解法,碱处理法,渗透冲击法,脂溶解法。机械法包括:超声波,高压匀浆法,研磨法,珠磨法。萃取器,与机器人主控制系统连接,所述的萃取器装置包括:萃取器,分离槽,膨胀阀,压缩机。结晶装置,所述的结晶装置,与机器人主控制系统连接,用于结晶。多传感器装置,与机器人主控制系统连接,多传感器装置包括:纳米生物传感器,酶生物传感器,生物假阵列芯片,微流控芯片,DNA传感器,免疫生物传感器,气体传感器,离子传感器,光电式传感器,应变与压阻式传感器,电感式传感器,电容式传感器,霍尔传感器,压电式传感器,阻抗型传感器,半导体型传感器,声波型传感器,热量式传感器,电化学传感器,光敏传感器中的一种或多种装置。360度旋转台及秤,与机器人主控制系统连接,用于360度观察实验细节,秤用于度量 实验品。视觉装置及放大装置,所述的视觉装置,放大视觉装置,与移动机器臂,机器人主控制系统连接,用于识别数字,颜色标签,依据器皿形状,位置识别实验过程中的步骤,流程中器皿,反应器的位置等。移动装置,与机器人主控制系统,视觉摄像头,避障装置连接,所述的移动装置,包括轮式移动及履带式移动,用于移动机器臂移动。移动机器臂与轮式,履带式可拆卸,移动底座及机器人本体可独立使用。移动式机器臂,与机器人主控制系统,移动装置,摄像头连接,用于机器臂抓,拾,取,放目标物品,扫码,整理,摆放物品,按压,操作实验反应器等动作。机器臂动作规划方法包括:利用改进的神经网络方法,自适应学习调整机器臂的参数实现自主的机器臂动作规划,以及利用机器人机体控制及远端用户控制调解机器臂规划参数。语音装置,与机器人主控制系统连接,所述语音模块包括:定向识音装置,麦克。用于远端用户-实验装置间的语音交互,实验指导,语音指令,实验步骤的语音问询,知识问答。多媒体触摸屏,与机器人主控制系统连接,所述的多媒体触摸屏。用于实验步骤,实验过程展示,演示,实验学习指导等。扫码信息采集装置,所述的扫码信息采集装置包括:条形码,二维码,生物信息采集器,RFID信息采集器。用于利用条形码,二维码,管理实验耗材,实验样本,实验人员,管理实验步骤及相关信息。
- 一种远端及自主实验机器人装置,其特征在于,所述的视觉识别模块,与机器人主控制系统,摄像头,视觉识别放大器连接,所述视觉识别模块包括:摄像头,放大器。用于采集发布图像信息,用于识别人员人脸信息,实验生物反应装置,颜色标签,实验器皿信息,定位目标物品,目标人员,及其所在位置,通过识别颜色,数字码,文字,二维码,特殊标识等综合信息。通过机器人系统实现主控制单元的对各实验场景下视频摄像头下实验人员,实验耗材,实验物品管理。所述的360度旋转台及秤与视觉放大器,与机器人主控制系统连接,用于360度观察实验物品细节。所述的360度旋转台及秤,用于旋转,协助摄像头视觉识别,放大器装置360度观察实验品细节。
- 一种远端及自主实验机器人装置,其特征在于,所述的显微镜视觉采集识别模块,与机器人主控制系统连接,通过改进的机器学习方法,改进的深度学习方法,抽取细胞,微生物等样本图像的轮廓,形状,结构,颜色等特征,智能识别细菌病毒等微生物的种类,学习训练图像参数,用于辅助识别实验样本,视觉采集显微镜下的图片辅助微生物,细胞等智能识别。
- 一种远端及自主实验机器人装置,其特征在于,所述的移动式机器臂,与主系统和视觉摄像头相连接,机器臂由主控制器动作规划模块,通过视觉识别目标,利用多机器臂抓,取,放目标物品,扫码实验样本,实验耗材。动作规划,所述机器臂动作规划模块通过配置机器臂,腕,爪的位置参数,角度参数,规划抓,取动,放置参数,机器臂移动,抓取,放置,扫码,整理,摆放物品,按压,操作实验反应器,配置机器臂的动作参数包括自适应学习调整参数以及远端控制调解机器臂参数。
- 一种远端及自主实验机器人装置,其特征在于,所述的实验反应器装置,实验反应器装置包括:振荡器装置,加热装置,冷却装置,干燥装置,过滤装置,细胞破碎装置,细胞破碎装置。进一步,所述的振荡器装置,与机器人主控制系统连接,所述的振荡器装置包括:搅拌棒,震荡装置,用于移动机器臂实验的振荡,搅拌,通过震荡装置,搅拌装置完成振荡,搅拌。设置震荡装置参数包括:振荡搅拌次数,振荡搅拌时间,振荡搅拌强度,振荡搅拌方法等。进一步,所述的加热装置,与机器人主控制系统连接,用于加热实验样本。设置震荡装置参数包括:加热温度,加热时间,加热位置,范围等。进一步,所述的冷却装置,与机器人主控制系统连接,用于冷却实验样本。冷却装置参数包括:冷却温度,冷却时间等。进一步,所述的干燥装置,与机器人主控制系统连接,用于干燥实验样本。所述的干燥装置包括:微波干燥装置,冷冻干燥装置,流化床干燥装置,红外干燥装置,气流干燥装置,喷雾干燥装置,厢式干燥装置中的一种或多种装置。干燥样本的参数包括:干燥时间,干燥的方式,干燥的强度等。进一步,所述的过滤装置,与机器人主控制系统连接,用于过滤。所述的过滤器装置包括:真空抽滤装置,离心过滤装置,管式离心装置,碟片式离心装置,超速离心装置中的一种或多种装置。进一步,所述的细胞破碎装置,与机器人主控制系统连接,用于细胞破碎。所述的多种破碎装置对应多种破碎方式包括:化学法,机械法,酶解法,碱处理法,渗透冲击法,脂溶解法。机械法包括:超声波,高压匀浆法,研磨法,珠磨法。进一步,所述的染色器装置,与机器人主控制系统连接,用于染色实验样本。
- 一种远端及自主实验机器人装置,其特征在于,所述的语音模块,与机器人主控制系统连接,语音模块包括:定向识音装置,麦克。通过配置定向识音装置,麦克等参数,通过语音识别, 语音唤醒,语音文字转换技术,远端用户沟通,配置语言库,用于远端用户。远端用户-机器人-实验员间语音交互,语音指令,语音问询,语音知识问答。
- 一种远端及自主实验机器人装置,其特征在于,所述的扫码信息采集装置,与机器人主控制系统连接,扫码信息采集装置包括:扫码信息采集,扫描,读取装置。扫码信息采集,扫描,读取装置是机器人主系统与摄像头,扫描器,读取器,信息采集读取装置连接,智能采集识别二维码,数字码,生物信息,RFID信息等管理实验人员,实验物品,实验器材等多种信息。
- 一种远端及自主实验机器人装置、管理系统及方法,其特征在于,一种实验管理系统,与机器人主控制系统,语音模块,机器臂连接,用于浏览及查询商品,实验预约,实验实时监管,观察,管理实验器皿,实验管理实验日志,管理耗材样本,管理实验人员,远端机器臂控制模块,视觉展示模块,语音呼叫模块等功能。
- 一种远端及自主实验机器人装置、管理系统及方法,其特征在于,一种视觉识别实验装置,实验标签的机器臂动作方法,所述的方法包括以下步骤:S1、设置实验场景的对应实验装置参数及其对应的位置参数。S2、输入实验台对应的实验装置,实验标签颜色,数字,字母,文字,特殊标识的数学模型。S3、抽取实验场景下,器皿的形状,轮廓,结构,颜色,数字,字母,文字,特殊特标识图像,对应的图像特征作为输入值。S4、改进权值优化器,快速训练图像,得到输出值。S5、依据输出形状,轮廓,结构,颜色,数字,字母,文字,特殊标识结果,精准识别目标,指定目标及定位目标位置。S6、依据实验,设置实验步骤,依据实验步骤规划机器臂动作,依据动作规划,移动机器臂到各实验步骤的试验装置及其位置,在主系统下,机器臂定位移动到指定的目标实验装置。S7、各实验装置节点的配置文件中参数包括:频率,最大最小线速度,最大最小的旋转速度,x方向y方向最大的线加速度,最大的角速度,距离目标方向的误差,距离目标位置的误差,到达目标位置的权重,避开障碍物的权重等参数。S8、在各实验装置节点中配置机器人机器臂参数,障碍物位置以及其尺寸参数更新频率发布频率,实验装置位置,实验台各装置的图标颜色以及其参数,在坐标转换框架之间的转换最大延时等参数。S9、设置机器人初始参数,包括机器人,目标及其位置和角度位姿消息。S10、设置运动规划,选择关节角度,关节限位设置,机械臂移动到指定的关节位形,关节限制,关节轨迹位置,速度分量,关节速度。设置运动约束,目标轨迹,速度设置,执行规划的轨迹设置关节位置,关节角度。S11、设置机械臂上的笛卡尔路径,目标位姿所能拾取的物体对于机器人位姿参数设置。S12、设置机械臂防碰撞矩阵,防碰撞检测模块设置(机器人自身其他部位检测,场景障碍物检测)。S13、机械臂,爪参数设置,抓握,取放,抓取位姿参数设置与匹配目标位姿。S14、初始化放置抓取,物体的位置,抓取姿态对象,生成抓取姿态。(初始化抓取对象,创建夹瓜张开闭合的姿态)。设置期望的夹爪靠近,撤离目标的参数,设置抓取姿态。S15、需求尝试改变姿态的数据列表。S16、抓取姿态列表。改变姿态,生成抓取动作(设置抓取姿态;抓取ID号;设置允许接触的物体,设置抓取列表)。
- 一种远端及自主实验机器人装置、管理系统及方法,其特征在于,一种实时记录实验数据,分析,分类实验数据及其变化的实验方法,利用改进的神经网络方法实时识别微生物,细胞方法,所述的方法包括以下步骤:一种改进的机器学习方法分类微生物,细胞异常数据,所述方法包括以下步骤:S1、建立微生物,细胞标本数学模型,设定观察的时间间隔。S2、抽取微生物,细胞标本的形状,颜色,轮廓,大小尺寸等细胞特征,包括颜色,形状,轮廓等的特征,提取微生物,细胞标本图像的特。图像的特征值(颜色形状轮廓)等,输入检测项目特征值,,记录每个时间间隔内的样本信息及变化。S3、辅助记录动态实时的实验数据及其变化,实现实时数据分类分析识别显微镜下图片微生物,细菌。分类识别微生物种类,细胞种类,计算,分析占比及其识别微生物,细胞。进一步,一种改进的神经网络方法分析识别实验标本,智能化识别微生物,细胞方法,其特征在于,所述的方法包括以下步骤:S1、输入对应微生物,细胞的数学模型。S2、抽取标本的实验前后的形态,轮廓,染色反应下颜色,结构,尺寸大小,状态特征(粒 状,棒状,泡沫)以及不规则性,核左移,核右移等显微镜下图像识别。S3、建立标本图像的特征的数学模型,输入检测项目特征值。S4、改进权值优化器,快速训练图像,得到输出值。S5、依据输出结果,辅助识别显微镜下图片微生物,细胞及其在各时间间隔,实验步骤中各自的形态,轮廓,染色反应下颜色,结构,尺寸大小,状态特征(粒状,棒状,泡沫)以及不规则性,核左移,核右移等变化。S6、辅助记录动态实时的实验数据及其变化,实现实时数据分类分析识别显微镜下图片微生物,细菌。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110180722.X | 2021-02-08 | ||
CN202110180722.XA CN112951230A (zh) | 2021-02-08 | 2021-02-08 | 一种远端及自主实验机器人装置、管理系统及方法 |
PCT/CN2022/000018 WO2022166505A1 (zh) | 2021-02-08 | 2022-02-07 | 一种远端及自主实验机器人装置、管理系统及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117616497A true CN117616497A (zh) | 2024-02-27 |
Family
ID=76245108
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110180722.XA Pending CN112951230A (zh) | 2021-02-08 | 2021-02-08 | 一种远端及自主实验机器人装置、管理系统及方法 |
CN202280018415.4A Pending CN117616497A (zh) | 2021-02-08 | 2022-02-07 | 一种远端及自主实验机器人装置,管理系统及方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110180722.XA Pending CN112951230A (zh) | 2021-02-08 | 2021-02-08 | 一种远端及自主实验机器人装置、管理系统及方法 |
Country Status (3)
Country | Link |
---|---|
CN (2) | CN112951230A (zh) |
AU (1) | AU2022217204A1 (zh) |
WO (1) | WO2022166505A1 (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112951230A (zh) * | 2021-02-08 | 2021-06-11 | 谈斯聪 | 一种远端及自主实验机器人装置、管理系统及方法 |
CN113110325A (zh) * | 2021-04-12 | 2021-07-13 | 谈斯聪 | 一种多臂分拣作业移动投递装置、最优化的管理系统及方法 |
WO2023164811A1 (zh) * | 2022-03-01 | 2023-09-07 | 深圳先进技术研究院 | 机器人科学家辅助晶体材料数字制造的方法及系统 |
CN114995467B (zh) * | 2022-08-08 | 2022-12-30 | 中国科学技术大学 | 化学机器人管理和规划调度系统、方法及设备 |
CN116423471B (zh) * | 2023-06-13 | 2023-08-15 | 中国农业科学院蔬菜花卉研究所 | 一种用于通量实验操作的智能协作机器人 |
CN116859788A (zh) * | 2023-08-04 | 2023-10-10 | 北京三维天地科技股份有限公司 | 一种多设备任务调度中控管理平台 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4532264B2 (ja) * | 2002-05-17 | 2010-08-25 | ベクトン・ディキンソン・アンド・カンパニー | 自動システム及び自動処理方法並びに核酸自動抽出方法 |
US20160144358A1 (en) * | 2016-01-28 | 2016-05-26 | Nilesh Patel | Dynamic Lab on a Chip Based Point-Of-Care Device For Analysis of Pluripotent Stem Cells, Tumor Cells, Drug Metabolites, Immunological Response, Glucose Monitoring, Hospital Based Infectious Diseases, and Drone Delivery Point-of-Care Systems |
CN110275037A (zh) * | 2019-06-14 | 2019-09-24 | 齐鲁工业大学 | 一种用于制作细胞学病理检验样本的无人生产流水线及方法 |
CN111496770B (zh) * | 2020-04-09 | 2023-04-07 | 上海电机学院 | 基于3d视觉与深度学习的智能搬运机械臂系统及使用方法 |
CN111916195A (zh) * | 2020-08-05 | 2020-11-10 | 谈斯聪 | 一种医疗用机器人装置,系统及方法 |
CN112205982A (zh) * | 2020-06-19 | 2021-01-12 | 谈斯聪 | 血液数据采集分析智能识别诊断机器人平台 |
CN111704996A (zh) * | 2020-06-29 | 2020-09-25 | 杭州医学院 | 智能化全自动生物安全病原微生物研究系统 |
CN111906785A (zh) * | 2020-07-23 | 2020-11-10 | 谈斯聪 | 多模式综合信息识别移动式双臂机器人装置系统及方法 |
CN112951230A (zh) * | 2021-02-08 | 2021-06-11 | 谈斯聪 | 一种远端及自主实验机器人装置、管理系统及方法 |
-
2021
- 2021-02-08 CN CN202110180722.XA patent/CN112951230A/zh active Pending
-
2022
- 2022-02-07 WO PCT/CN2022/000018 patent/WO2022166505A1/zh active Application Filing
- 2022-02-07 AU AU2022217204A patent/AU2022217204A1/en active Pending
- 2022-02-07 CN CN202280018415.4A patent/CN117616497A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
AU2022217204A1 (en) | 2023-09-28 |
WO2022166505A1 (zh) | 2022-08-11 |
CN112951230A (zh) | 2021-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN117616497A (zh) | 一种远端及自主实验机器人装置,管理系统及方法 | |
WO2022016826A1 (zh) | 多模式综合信息识别移动式双臂机器人装置、系统及方法 | |
US10031149B2 (en) | Robotic system for sorting sample tubes | |
JP5244801B2 (ja) | 細胞及び/又は細胞コロニーの自動化した除去のための方法及び装置 | |
CN103917635B (zh) | 液体处理系统和液体处理方法 | |
WO2010022391A9 (en) | Integrated, automated system for the study of cell and tissue function | |
CN111590611B (zh) | 一种基于多模态主动感知的物品分类回收方法 | |
US20200283713A1 (en) | Methods and systems for control of a fermentation system | |
WO2007014190A2 (en) | Computerized factorial experimental design and control of reaction sites and arrays thereof | |
CN112205982A (zh) | 血液数据采集分析智能识别诊断机器人平台 | |
Che et al. | Intelligent robotic control system based on computer vision technology | |
Yu et al. | Autonomous injection of biological cells using visual servoing | |
Zhuang et al. | Microinjection in biomedical applications: An effortless autonomous omnidirectional microinjection system | |
Knobbe et al. | Core processes in intelligent robotic lab assistants: Flexible liquid handling | |
AU2021291903A1 (en) | Integrated device, system and method for blood collection and analysis as well as intelligent image identification and diagnosis | |
CN110191756A (zh) | 用于回收和分析粒子的系统和方法 | |
Eshaghi et al. | Automated real time image based visual servo control of single cell surgery | |
Butterworth et al. | Leveraging Multi-modal Sensing for Robotic Insertion Tasks in R&D Laboratories | |
Zhang et al. | Integrating a Manual Pipette into a Collaborative Robot Manipulator for Flexible Liquid Dispensing | |
Qian et al. | Octopus-inspired microgripper for deformation-controlled biological sample manipulation | |
Zhu et al. | Study of robotic system for automated oocyte manipulation | |
Yu et al. | Robotic donor cell injection in somatic cell nuclear transfer (SCNT) | |
Diouf et al. | Automatic sorting of zebrafish embryos using deep learning | |
Lange et al. | MIROB: automatic rapid identification of micro‐organisms in high through‐put | |
Shukla et al. | A Framework for Improving Information Content of Human Demonstrations for Enabling Robots to Acquire Complex Tool Manipulation Skills |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination |