CN111716368A - 智能匹配核对机器人 - Google Patents
智能匹配核对机器人 Download PDFInfo
- Publication number
- CN111716368A CN111716368A CN202010609003.0A CN202010609003A CN111716368A CN 111716368 A CN111716368 A CN 111716368A CN 202010609003 A CN202010609003 A CN 202010609003A CN 111716368 A CN111716368 A CN 111716368A
- Authority
- CN
- China
- Prior art keywords
- robot
- module
- user
- information
- head
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 210000001503 joint Anatomy 0.000 claims abstract description 5
- 230000003993 interaction Effects 0.000 claims abstract description 4
- 238000012795 verification Methods 0.000 claims abstract description 4
- 238000004891 communication Methods 0.000 claims abstract description 3
- 230000001815 facial effect Effects 0.000 claims abstract description 3
- IJGRMHOSHXDMSA-UHFFFAOYSA-N Atomic nitrogen Chemical compound N#N IJGRMHOSHXDMSA-UHFFFAOYSA-N 0.000 claims description 10
- 239000007788 liquid Substances 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 7
- 238000013527 convolutional neural network Methods 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 6
- 238000003860 storage Methods 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 claims description 6
- 238000004458 analytical method Methods 0.000 claims description 5
- 238000012544 monitoring process Methods 0.000 claims description 5
- 229910052757 nitrogen Inorganic materials 0.000 claims description 5
- 230000011218 segmentation Effects 0.000 claims description 5
- 230000009471 action Effects 0.000 claims description 4
- 238000001514 detection method Methods 0.000 claims description 3
- 239000000969 carrier Substances 0.000 claims description 2
- 238000013135 deep learning Methods 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 description 5
- 238000000034 method Methods 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 102000002322 Egg Proteins Human genes 0.000 description 1
- 108010000912 Egg Proteins Proteins 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000004720 fertilization Effects 0.000 description 1
- 210000003754 fetus Anatomy 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012826 global research Methods 0.000 description 1
- 238000000338 in vitro Methods 0.000 description 1
- 210000001161 mammalian embryo Anatomy 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 210000004681 ovum Anatomy 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000002054 transplantation Methods 0.000 description 1
- 210000004291 uterus Anatomy 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01D—MEASURING NOT SPECIALLY ADAPTED FOR A SPECIFIC VARIABLE; ARRANGEMENTS FOR MEASURING TWO OR MORE VARIABLES NOT COVERED IN A SINGLE OTHER SUBCLASS; TARIFF METERING APPARATUS; MEASURING OR TESTING NOT OTHERWISE PROVIDED FOR
- G01D21/00—Measuring or testing not otherwise provided for
- G01D21/02—Measuring two or more variables by means not covered by a single other subclass
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/18—Status alarms
- G08B21/24—Reminder alarms, e.g. anti-loss alarms
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Manipulator (AREA)
Abstract
本发明涉及一种智能匹配核对机器人,属于医疗智能化领域。该机器人包括主体、头部和脚部:机器人通过与数据对接后,分析实验室中环境,分析潜在风险,通过语音模块向实验人员报警,如果未发现实验人员,将通过远程报警提醒通知到相关人员;机器人通过设置声源定位单元可对用户进行定位,运动组件再根据摄像模块获取的环境信息和用户的位置信息,驱动机器人运动到用户身边,由面部识别单元进行身份验证,并通过与服务器连接的无线通信模块获取信息,最后由语音播放模块实现与用户交互,实现完成用户指令。
Description
技术领域
本发明属于医疗智能化领域,涉及智能匹配核对机器人。
背景技术
IVF是试管婴儿的简称,又称为体外受精-胚胎移植技术,是分别将卵子和精子取出后,置于培养液内使其受精,再将胚胎移植回母体子宫内发育成胎儿的过程。世界首例试管婴儿的诞生被誉为继心脏移植成功后20世纪医学界的又一奇迹,激发了全球许多国家研究这一高新技术的热潮。
随着技术的进步,大量的机器人被设计和制造出来并运用于社会的生产和生活中,以提高社会生产力和提升人们的生活品质。生产类机器人多用于工厂的生产制造和物料运输等,如常见的智能机械臂、AGV机器人等。家庭服务类的机器人主要用于清洁卫生和人机互动等,如常见的扫地机器人、早教机器人、看护机器人等。但还没有一个适用于IVF实验室中的机器人,智能匹配核对机器人主要应用于IVF实验室中,是为了提高实验室效率,减少繁琐步骤,减少核对错误几率,减少实验室操作风险而做出的发明。
发明内容
有鉴于此,本发明的目的在于提供一种智能匹配核对机器人。
为达到上述目的,本发明提供如下技术方案:
智能匹配核对机器人,包括主体、头部和脚部:
所述主体为液氮罐存储装置,用于放置样本;
所述液氮罐存储装置还设置有温度监测模块和液位监测模块;
所述头部包括用于驱动头部进行点头和转动的头部支架,以及摄像模块,语音模块;
其中,语音模块包括声源定位单元,摄像模块包括用于验证用户脸部特征信息的面部识别单元;
所述脚部包括与主框架下方连接的两个相对设置的轮架,与两轮架另一端连接的底板,底板上的驱动电机,底板上的转向电机,以及设置在驱动电机和转向电机上的轮组;
所述摄像模块包括用于测量视觉范围内的景物深度信息和轮廓信息的深度摄像单元,用于获取普通影像的主摄像单元;
所述头部设有深度学习模块,机器人通过摄像模块采集数据,对数据进行建模,对机器人内部的硬件模块进行数据清洗,再进行物联建模;
机器人通过与数据对接后,分析实验室中环境,分析潜在风险,通过语音模块向实验人员报警,如果未发现实验人员,将通过远程报警提醒通知到相关人员;
机器人通过设置声源定位单元可对用户进行定位,运动组件再根据摄像模块获取的环境信息和用户的位置信息,驱动机器人运动到用户身边,由面部识别单元进行身份验证,并通过与服务器连接的无线通信模块获取信息,最后由语音播放模块实现与用户交互,实现完成用户指令。
可选的,所述机器人还包括设置在头部支架上的显示模块,显示模块与主控模块连接,用于显示操作界面和样本信息;
所述显示模块还包括设置在头部支架上的投影单元,投影单元与主控模块连接,用于投放图文和影像信息;
所述摄像模块还包括与主摄像单元和深度摄像单元连接的体感识别单元,用于识别用户的体态和手势信息。
可选的,所述机器人还包括设置在底板上的防跌防撞模块,包括设置在底板下的多个超声波探测单元,机器人还包括与主框架连接的手臂,手臂包括驱动手臂分别进行前后摆动和上下开合,抓取样本的动作根据指令设置。
可选的,所述机器人采用卷积神经网络和超像素分割与深度玻尔兹曼机相结合的方式进行物体识别;
其中,利用卷积神经网络对大尺寸场景图像进行预处理得到卷积特征后,将结果作为深度玻尔兹曼机的可视层输入,进行特征提取,然后利用Softmax分类器实现场景的分类;
通过和数据的对比判断出所识别的物体;
判断物体后,通过识别指令进行逻辑的处理与分析,做出相应的处理。
可选的,所述超像素分割是利用简单线性迭代聚类算法对图像进行预处理,然后将在距离以及颜色上相似的像素点聚集而形成的。
本发明的有益效果在于:
(1)不受个人主观情绪影响,最大限度保证实验严谨性,方便医院监管;
(2)节省人工成本,可以做到24小时不间断监测实验室保障实验室安全;
(3)协助实验人员完成简单,重复的工作,利于实验人员将更多精力投入到高技术,高创造的工作中。
本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书来实现和获得。
附图说明
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作优选的详细描述,其中:
图1为本发明运作流程图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
其中,附图仅用于示例性说明,表示的仅是示意图,而非实物图,不能理解为对本发明的限制;为了更好地说明本发明的实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
本发明实施例的附图中相同或相似的标号对应相同或相似的部件;在本发明的描述中,需要理解的是,若有术语“上”、“下”、“左”、“右”、“前”、“后”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此附图中描述位置关系的用语仅用于示例性说明,不能理解为对本发明的限制,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
请参阅图1,为一种智能匹配核对机器人,包括主体、头部和脚部:
其中主体为液氮罐存储装置,可以直接将样本放置到主体中,并且主体中集成温度,液位监测模块。头部包括用于驱动头部进行点头和转动的头部支架,以及摄像模块,语音模块其中语音接收模块还包括声源定位单元,摄像模块还包括验证用户脸部特征信息的面部识别单元;脚步包括一端与主框架下方连接的两相对设置的轮架、连接两轮架另一端的底板、底板上的驱动电机和转向电机以及设置在驱动电机和转向电机上的轮组。摄像模块包括用于测量视觉范围内的景物深度信息和轮廓信息的深度摄像单元、用于获取普通影像的主摄像单元。并且头部设有深度学习模块,机器人具有人工智能能力,能够通过摄像模块采集数据,对数据进行建模,并且对接在机器人内部的硬件模块,也将进行数据的清洗后进行物联建模,以做到及时纠正实验人员错误,智能选择操作方法,耗材等功能。并且机器人通过与数据对接后,将智能分析实验室中环境,实验室人员操作,样本存储环境等所有模块的潜在存在风险,并且第一时间将会通过语音模块向实验人员报警,如果未发现实验人员将通过远程报警提醒通知到相关人员。机器人,还包括设置在头部支架上的显示模块,显示模块与主控模块连接,用于显示操作界面和样本信息。显示模块还包括设置在头部支架上的投影单元,投影单元与主控模块连接,用于投放图文和影像信息。摄像模块还包括与主摄像单元和深度摄像单元连接的体感识别单元,用于识别用户的体态和手势信息。机器人还包括设置在底板上的防跌防撞模块,包括设置在底板下的多个超声波探测单元,机器人还包括主框架连接的手臂,手臂包括驱动手臂分别进行前后摆动和上下开合,抓取的动作可以根据指令抓取样本本发明通过设置声源定位单元可对用户进行定位,运动组件再根据摄像模块获取的环境信息和用户的位置信息,驱动机器人运动到用户身边,由面部识别单元进行身份验证,并通过与服务器连接的无线通信模块获取信息,最后由语音播放模块实现与用户交互,实现完成用户指令。
采用卷积神经网络和超像素分割与深度玻尔兹曼机相结合,其中利用卷积神经网络对大尺寸场景图像进行预处理得到卷积特征后,将结果作为深度玻尔兹曼机的可视层输入,进行特征提取,然后利用Softmax分类器实现场景的分类。超像素是由简单线性迭代聚类算法对图像进行预处理,然后将在距离以及颜色上相似的像素点聚集而形成的,能使得到的图像轮廓更清晰,也就可以处理复杂场景图,并通过和数据的对比可以智能判断出所识别的物体。判断物体后将通过对于指令的识别后进行逻辑的处理与分析,来做出相应的处理。
实施例:在实验人员指令取出1号精子样本时,通过语音识别技术将语言转换为文字后放入逻辑分析模块,这时系统将会提取出:精子样本,1号,取出三个关键词并且通过系统处理机器人将会执行取出动作并对比精子样本是否1号,随后通过人像识别技术将系统与语音匹配的人像识别到,并启动移动模块到达发出指令人员身边完成指令。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (5)
1.智能匹配核对机器人,其特征在于:包括主体、头部和脚部:
所述主体为液氮罐存储装置,用于放置样本;
所述液氮罐存储装置还设置有温度监测模块和液位监测模块;
所述头部包括用于驱动头部进行点头和转动的头部支架,以及摄像模块,语音模块;
其中,语音模块包括声源定位单元,摄像模块包括用于验证用户脸部特征信息的面部识别单元;
所述脚部包括与主框架下方连接的两个相对设置的轮架,与两轮架另一端连接的底板,底板上的驱动电机,底板上的转向电机,以及设置在驱动电机和转向电机上的轮组;
所述摄像模块包括用于测量视觉范围内的景物深度信息和轮廓信息的深度摄像单元,用于获取普通影像的主摄像单元;
所述头部设有深度学习模块,机器人通过摄像模块采集数据,对数据进行建模,对机器人内部的硬件模块进行数据清洗,再进行物联建模;
机器人通过与数据对接后,分析实验室中环境,分析潜在风险,通过语音模块向实验人员报警,如果未发现实验人员,将通过远程报警提醒通知到相关人员;
机器人通过设置声源定位单元可对用户进行定位,运动组件再根据摄像模块获取的环境信息和用户的位置信息,驱动机器人运动到用户身边,由面部识别单元进行身份验证,并通过与服务器连接的无线通信模块获取信息,最后由语音播放模块实现与用户交互,实现完成用户指令。
2.根据权利要求1所述的智能匹配核对机器人,其特征在于:所述机器人还包括设置在头部支架上的显示模块,显示模块与主控模块连接,用于显示操作界面和样本信息;
所述显示模块还包括设置在头部支架上的投影单元,投影单元与主控模块连接,用于投放图文和影像信息;
所述摄像模块还包括与主摄像单元和深度摄像单元连接的体感识别单元,用于识别用户的体态和手势信息。
3.根据权利要求1所述的智能匹配核对机器人,其特征在于:所述机器人还包括设置在底板上的防跌防撞模块,包括设置在底板下的多个超声波探测单元,机器人还包括与主框架连接的手臂,手臂包括驱动手臂分别进行前后摆动和上下开合,抓取样本的动作根据指令设置。
4.根据权利要求1所述的智能匹配核对机器人,其特征在于:所述机器人采用卷积神经网络和超像素分割与深度玻尔兹曼机相结合的方式进行物体识别;
其中,利用卷积神经网络对大尺寸场景图像进行预处理得到卷积特征后,将结果作为深度玻尔兹曼机的可视层输入,进行特征提取,然后利用Softmax分类器实现场景的分类;
通过和数据的对比判断出所识别的物体;
判断物体后,通过识别指令进行逻辑的处理与分析,做出相应的处理。
5.根据权利要求4所述的智能匹配核对机器人,其特征在于:所述超像素分割是利用简单线性迭代聚类算法对图像进行预处理,然后将在距离以及颜色上相似的像素点聚集而形成的。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010609003.0A CN111716368A (zh) | 2020-06-29 | 2020-06-29 | 智能匹配核对机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010609003.0A CN111716368A (zh) | 2020-06-29 | 2020-06-29 | 智能匹配核对机器人 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111716368A true CN111716368A (zh) | 2020-09-29 |
Family
ID=72571863
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010609003.0A Pending CN111716368A (zh) | 2020-06-29 | 2020-06-29 | 智能匹配核对机器人 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111716368A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101196551A (zh) * | 2007-05-10 | 2008-06-11 | 北京深浪电子技术有限公司 | 高压输电线路地线巡检机器人 |
US20130340390A1 (en) * | 2012-06-21 | 2013-12-26 | Omnicare, Inc. | Methods and apparatus for automated filling of packagings with medications |
CN108000529A (zh) * | 2017-12-08 | 2018-05-08 | 子歌教育机器人(深圳)有限公司 | 智能机器人 |
CN108528995A (zh) * | 2018-04-17 | 2018-09-14 | 苏州金建达智能科技有限公司 | 一种机器人化学药品存放箱 |
CN110070531A (zh) * | 2019-04-19 | 2019-07-30 | 京东方科技集团股份有限公司 | 用于检测眼底图片的模型训练方法、眼底图片的检测方法及装置 |
CN110148241A (zh) * | 2019-05-21 | 2019-08-20 | 重庆市柏玮熠科技有限公司 | Ivf液氮罐智能锁控制系统 |
-
2020
- 2020-06-29 CN CN202010609003.0A patent/CN111716368A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101196551A (zh) * | 2007-05-10 | 2008-06-11 | 北京深浪电子技术有限公司 | 高压输电线路地线巡检机器人 |
US20130340390A1 (en) * | 2012-06-21 | 2013-12-26 | Omnicare, Inc. | Methods and apparatus for automated filling of packagings with medications |
CN108000529A (zh) * | 2017-12-08 | 2018-05-08 | 子歌教育机器人(深圳)有限公司 | 智能机器人 |
CN108528995A (zh) * | 2018-04-17 | 2018-09-14 | 苏州金建达智能科技有限公司 | 一种机器人化学药品存放箱 |
CN110070531A (zh) * | 2019-04-19 | 2019-07-30 | 京东方科技集团股份有限公司 | 用于检测眼底图片的模型训练方法、眼底图片的检测方法及装置 |
CN110148241A (zh) * | 2019-05-21 | 2019-08-20 | 重庆市柏玮熠科技有限公司 | Ivf液氮罐智能锁控制系统 |
Non-Patent Citations (2)
Title |
---|
JINGYU GAO: "Natural Scene Recognition Based on Convolutional Neural Networks and Deep Boltzmann Machines", 《NATURAL SCENE RECOGNITION BASED ON CONVOLUTIONAL NEURAL NETWORKS AND DEEP BOLTZMANN MACHINES》 * |
郭源生主编: "《智慧医疗与健康养老》", 30 September 2017, 中国科学技术出版社 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Mamat et al. | Enhancing image annotation technique of fruit classification using a deep learning approach | |
Dahmani et al. | An intelligent and low-cost eye-tracking system for motorized wheelchair control | |
Leo et al. | Computational assessment of facial expression production in ASD children | |
Li et al. | Tomato maturity detection and counting model based on MHSA-YOLOv8 | |
CN110458101B (zh) | 基于视频与设备结合的服刑人员体征监测方法及设备 | |
Jo et al. | Robust real-time detection of laparoscopic instruments in robot surgery using convolutional neural networks with motion vector prediction | |
US11335000B2 (en) | Fertile ovum quality evaluation method, fertile ovum quality evaluation system, program, and information processing apparatus | |
CN110135242B (zh) | 基于低分辨率红外热成像深度感知的情绪识别装置及方法 | |
Kolhe et al. | Internet of Thing and Machine Learning Approach for Agricultural Application: A Review | |
US20220293219A1 (en) | System and method for dfi-based gamete selection | |
Lai et al. | The use of convolutional neural networks and digital camera images in cataract detection | |
Wang et al. | Tomato young fruits detection method under near color background based on improved faster R-CNN with attention mechanism | |
Heydarian et al. | Deep learning for intake gesture detection from wrist-worn inertial sensors: The effects of data preprocessing, sensor modalities, and sensor positions | |
Yang et al. | Artificial intelligence-assisted smartphone-based sensing for bioanalytical applications: A review | |
Montaño-Serrano et al. | Artificial vision algorithms for socially assistive Robot applications: A review of the literature | |
Ji et al. | Automatic position detection and posture recognition of grouped pigs based on deep learning | |
Lei et al. | Detection and analysis of sow targets based on image vision | |
Fujii et al. | Surgical tool detection in open surgery videos | |
Krittanawong et al. | Deep learning for echocardiography: Introduction for clinicians and future vision: State-of-the-art review | |
Chang et al. | A glaucoma detection system based on generative adversarial network and incremental learning | |
CN111716368A (zh) | 智能匹配核对机器人 | |
Xiao et al. | Fatigue driving recognition method based on multi-scale facial landmark detector | |
Isa et al. | Image Processing Approach for Grading IVF Blastocyst: A State-of-the-Art Review and Future Perspective of Deep Learning-Based Models | |
CN113642525A (zh) | 一种基于骨骼点的婴儿神经发育评估方法和系统 | |
Wang et al. | Daniosense: automated high-throughput quantification of zebrafish larvae group movement |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200929 |
|
RJ01 | Rejection of invention patent application after publication |