CN112334989A - 用于表征婴幼儿粪便模式的方法和系统 - Google Patents
用于表征婴幼儿粪便模式的方法和系统 Download PDFInfo
- Publication number
- CN112334989A CN112334989A CN201980040963.5A CN201980040963A CN112334989A CN 112334989 A CN112334989 A CN 112334989A CN 201980040963 A CN201980040963 A CN 201980040963A CN 112334989 A CN112334989 A CN 112334989A
- Authority
- CN
- China
- Prior art keywords
- image
- stool
- cnn
- portable device
- captured
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0002—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
- A61B5/0004—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by the type of physiological signal transmitted
- A61B5/0013—Medical image data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0002—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
- A61B5/0015—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
- A61B5/0022—Monitoring a patient using a global network, e.g. telephone networks, internet
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0077—Devices for viewing the surface of the body, e.g. camera, magnifying lens
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/48—Other medical applications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7264—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
- A61B5/7267—Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Pathology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Molecular Biology (AREA)
- Veterinary Medicine (AREA)
- Heart & Thoracic Surgery (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Epidemiology (AREA)
- Databases & Information Systems (AREA)
- Primary Health Care (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Radiology & Medical Imaging (AREA)
- Physiology (AREA)
- Computer Networks & Wireless Communication (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Quality & Reliability (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种分析粪便稠度的方法,包括以下步骤:提供婴儿的粪便,用包括摄像头的便携式设备捕捉粪便的图像,将捕捉的图像提供给预训练的卷积神经网络(CNN)的输入层,使用CNN对捕捉的图像进行处理,从而从CNN的最终层获得分类矢量,并且从所述分类矢量获得关于预测的分数的信息,其中对CNN的至少最终层进行定制,使得所述分类矢量的每个元素对应于粪便分析尺度的一个分数,并且储存关于预测的分数的信息。
Description
技术领域
本发明涉及一种用于分析粪便样本的稠度的方法和系统。
背景技术
婴儿的保健是父母最重要的任务。技术的进步允许通过追踪婴儿的发育并且快速地检测某些异常情况的任务来帮助父母和照顾者。当谈到婴儿的营养时,检测婴儿的消化系统是否有异常,或者检测婴儿的身体是否吸收了其所需的所有营养是重要的。
为了评估消化系统的能力,已知分析粪便模式可以提供良好的见解。将粪便与粪便分析尺度分数集合对比所得到的尺度有助于对粪便的类型进行分类,并从中检索出结论。这种尺度的实施例是布里斯托粪便形态尺度(BSS)和阿姆斯特丹粪便尺度。所述BSS由七幅不同稠度的粪便图像组成,允许以客观地方式评估成人粪便的稠度(尺度1表示硬结块粪便直至7级表示水样粪便)。所述BSS也可用于表征婴儿和幼儿的粪便。
当父母因为关心他们的婴儿的健康而去咨询医疗保健专业人员(HCPs)时,HCPs通常会询问有关婴儿粪便的稠度的问题,而这些问题对大多数父母来说是难以回答的。当要求父母记录他们的婴儿的粪便稠度时,他们难以识别出粪便稠度以及与他们的孩子的粪便适配的相关联的粪便分析尺度分数。
期望有一种系统,在该系统中父母和照顾者能够实时地保持对他们的婴儿的粪便模式(即粪便稠度、频率和颜色)的追踪。还期望的是,无论是哪位照顾者(父母、祖父母、保姆或日托照顾者)正在更换尿布,或帮助孩子使用便盆或马桶椅,都能以客观并且一致的方式追踪粪便的模式。还期望有一种系统,该系统基于所观察到的粪便模式提供指示,要么指示一切正常,这将使父母和照料者放心,或者指示婴儿的粪便模式与期望不相符,并且建议去咨询HCP。
如今,随着人们不间断地携带他们的智能手机、平板电脑或其他便携式设备的习惯,有提供通过这些便携式设备执行的移动应用程序(apps)的努力,这可以使用户的日常任务变得更轻松。此外,为婴儿拍照以便观察其发育的方法是父母的常见做法,借助于这种方法,他们可以大致地了解婴儿的成长情况。
上述方法也可以用于保持对粪便模式的追踪。已知的程序或应用程序允许导入或捕捉粪便的图像,并且手动地选择更适合于图像上粪便的粪便分析尺度的分数,以便在整个时间段内保持对消化系统能力的记录。此外,已知的程序或应用程序允许使用颜色识别技术来自动地检测粪便的颜色。
虽然这些应用程序可以帮助父母和照顾者分析他们的孩子的粪便的一些特征,但有时手动地进行分类是困难的,而且手动地保持记录是繁琐的,因此需要一种方法,能够以对于父母和照顾者而言简单的方式更准确地分析婴儿的粪便的特征,并且还提供准确并且快速的分类。
发明内容
本发明提供了一种分析粪便稠度的方法,包括以下步骤:提供婴儿的粪便,用包括摄像头的便携式设备捕捉粪便的图像,将捕捉的图像提供给预训练的卷积神经网络(CNN)的输入层,使用CNN对捕捉的图像进行处理,从而从CNN的最终层获得分类矢量,并且从所述分类矢量获得关于预测的分数的信息,其中对CNN的至少最终层进行定制,使得所述分类矢量的每个元素对应于粪便分析尺度的相应分数,并且储存关于预测的分数的信息。
因此,本发明提供了一种表征婴儿粪便的方法,该方法易于实施,且又能提供快速和准确的分类结果。使用CNN对粪便进行分类为分类结果提供了提高的准确性,并且使用便携式设备的摄像头捕捉图像允许简化父母或照顾者的任务,因为可以简单地捕捉粪便的图像并且自动地接收结果,而不必对粪便进行进一步操作。此外,不存在观察者之间的变化性,因为无论谁捕捉图像,结果都将以客观的方式提供。
在根据本发明的一个实施方案中,粪便设置在打开的尿布中。因为可以直接从放置了所述粪便的尿布中捕捉图像,这允许简化父母和照顾者的任务,并且在给婴儿换尿布时,可以在处理尿布之前容易地捕捉所述图像。
在根据本发明的一个实施方案中,粪便设置在便盆、床便器、马桶椅或带平台的马桶中。因此,由于可以在婴儿放置粪便的位置直接地捕捉图像(适于可能的不同情况),本发明便于父母和照顾者的任务,使他们不需要对粪便进行操作。
在根据本发明的一个实施方案中,该方法还包括在捕捉图像之前,通过便携式设备显示引导信息从而来满足预定条件。这可以帮助便携式设备的用户(例如可以是父母、其他家庭成员或照顾者)捕捉具有在分类步骤中要使用的最优特征的图像。
在根据本发明的一个实施方案中,捕捉图像包括当满足预定条件时通过便携式设备自动地捕捉图像。
在根据本发明的一个实施方案中,所述预定条件包括将粪便放置在具有规则背景的表面上的条件。该规则背景可以是具有特定图案的背景、统一背景等等。在根据本发明的一个实施方案中,预定条件包括粪便是图像中出现的唯一物体的条件。
如果粪便设置在打开的尿布中,在根据本发明的实施方案中,预定条件包括将尿布放置在具有规则背景的表面上的条件,并且在根据本发明的一个实施方案中,预定条件包括尿布是图像中出现的唯一物体的条件。
在根据本发明的一个实施方案中,关于预测的分数的信息包括以下信息中的至少一个:预测的分数、捕捉的粪便的图像、以及捕捉图像的日期和/或时间。该信息还可以包括对父母和照顾者或对应用程序来说有用的其他类型的信息,诸如粪便的颜色是否被认为是正常的。
在根据本发明的一个实施方案中,使用CNN对捕捉的图像进行处理是通过便携式设备执行的。在根据本发明的一个实施方案中,使用CNN对捕捉的图像进行处理是通过与所述便携式设备通信的服务器执行的。在这第二种情况下,便携式设备可以通过网络(例如互联网)将捕捉的图像发送至与所述便携式设备通信的服务器,并且从所述服务器接收分类矢量或预测的分数。在便携式设备没有足够的计算能力来执行CNN中所需要的所有操作的情况下,这可能是有利的。然而,当便携式设备未连接到网络时,第一种情况可能是有利的,因为其允许离线预测分数。
在根据本发明的一个实施方案中,关于预测的分数的信息储存在便携式设备或与便携式设备通信的服务器中的至少一个中。所述服务器可以用于储存关于预测分数的所有信息,也可以用于储存捕捉的图像,从而从所述便携式设备中释放内存,并且如果需要,允许例如HCP访问该信息。所述便携式设备还可以在本地储存所捕捉的图像的副本和由捕捉的图像导出的信息(分数)。
在根据本发明的一个实施方案中,所述图像是彩色图像。这允许所述图像包含更多的信息(第三层次的信息),这些信息可用于CNN以提高其性能。在根据本发明的一个实施方案中,该方法还包括从捕捉的图像中自动检测粪便的颜色,并且对其进行分析以便提供信息。这可以允许该方法也提供关于颜色是否正常的信息,关于颜色是否正常的信息连同稠度一起可以允许更好地确定可能的异常。
在根据本发明的一个实施方案中,该方法还包括基于与多个捕捉图像的预测分数相关的储存时间信息来分析粪便产生的频率。通过根据每天捕捉的图像数量和捕捉它们的时间来确定发生频率,频率可用于提供附加的信息,此外,稠度和频率的组合可以用来提供例如腹泻(每天三次或更多次的水样粪便)或便秘(每周两次或更少次的硬粪便)的信息。
本发明还提供了一种用于分析粪便稠度的系统,该系统包括:便携式设备,所述便携式设备包括:摄像头,所述摄像头被配置为捕捉婴儿的粪便的图像;控制器,所述控制器被配置为将捕捉的图像提供给预训练的卷积神经网络(CNN)的输入层、从CNN的最终层获得分类矢量,其中对CNN的至少最终层进行定制,使得所述分类矢量的每个元素对应于粪便分析尺度的相应分数,以及从所述分类矢量获得关于预测的分数的信息;以及,存储器,用于储存关于预测的分数的信息。
在根据本发明的一个实施方案中,该粪便设置在打开的尿布中。在根据本发明的一个实施方案中,该粪便设置在便盆、床便器、马桶椅、或带平台的马桶中。
在根据本发明的一个实施方案中,关于预测的分数的信息包括以下信息中的至少一个:预测的分数、捕捉的粪便的图像、以及捕捉图像的日期和/或时间。
在根据本发明的一个实施方案中,所述系统还包括用于与便携式设备通信的服务器,其中所述服务器被配置为储存关于所述预测的分数的信息。
在根据本发明的一个实施方案中,使用CNN对捕捉的图像进行处理从而从CNN的最终层获得分类矢量是通过便携式设备执行的。
在根据本发明的一个实施方案中,所述服务器还被配置为使用CNN对捕捉的图像进行处理,从而从CNN的最终层获得分类矢量,并且便携式设备还被配置为将捕捉的图像传输到服务器,并且从所述服务器接收预测的分数。因此,在一个实施例中,所述服务器可以基于分类矢量,在粪便分析尺度的可能分数中执行最可能的分数的决定,并且将该分数发送至便携式设备。
在根据本发明的一个实施方案中,所述图像是彩色图像。
本发明还提供了一种用于分析粪便的稠度的计算机程序产品,包括计算机可读介质,所述计算机可读介质包括能够由至少一个处理器执行的代码,从而执行根据本发明的方法。
附图说明
下面将参考附图更详细地讨论本发明,其中:
图1描述了本发明一个实施方案的概述。
图2a和图2b示出了根据本发明的包含粪便的尿布的不同处置。
图3示出了例示根据本发明的方法的流程图。
图4示出了根据本发明训练图像的图解。
图5示意性地示出了根据本发明的一个实施方案的便携式设备。
图6示意性地示出了根据本发明的一个实施方案的便携式设备和服务器。
具体实施方式
图1描绘了本发明一个实施方案的概述。虽然本发明的实施方案包括放置在尿布、便盆、床便器、马桶椅、带平台的马桶或其它类似位置中的粪便,但是在图1的实施方案中,描述了粪便放置在尿布中的实施例。将包含婴儿粪便30的尿布20以打开的位置放置在表面40上,并且通过用户使用便携式设备10来捕捉具有粪便30的打开的尿布20的图像。捕捉的图像可以被在便携式设备上运行的应用程序使用,并且该应用程序可以将捕捉的图像输入到包括CNN的模型中,所述CNN将执行一系列操作,以便获得分类矢量,所述分类矢量具有在粪便分析尺度中可能的分数的概率,从而基于所述分类矢量获得预测的分数(即具有最高的概率的分数)。为了从分类过程中获得最好的结果,期望所捕捉的图像具有良好的特征,因此,需要满足某些预定条件。作为需要满足的条件的一个实施例,粪便30应当尽可能是最近的,使得其特性(颜色、稠度)尚未由于例如部分粪便被尿布吸收而改变。因此,应在粪便排出后不久捕捉图像,并且在图1的实施方案中,应在尿布20被粪便填充后不久捕捉图像,并且捕捉图像的合适时期是从尿布被填充后的十分钟内。捕捉的图像中粪便的颜色也可以被CNN或不同的算法使用,从而提供附加的信息。便携式设备的应用程序可以自动地从捕捉的图像中检测粪便的颜色,并且对其进行分析以提供信息。这还允许提供与颜色是否正常有关的信息,这与稠度一同可以允许更好地确定可能的异常。
应当满足的条件的另一个实施例是,以足够的光捕捉图像,从而清楚地区分图像中的特征,但不要以过多的光捕捉图像,因为这可能会改变图像特征的真实颜色和外观。如何实现此目的的一个实施例是使用自然光(日光)或来自天花板灯的光。然而,使用摄像头的闪光灯是次优选的,因为这可能会改变图像的外观。
条件的另一个实施例是,优选地图像的背景应当是有规则的,诸如遵循某一图案或者是统一的。如果将粪便放置在便盆、床便器、马桶椅、或带平台的马桶中,则期望所述背景是统一的。如果将粪便放置在尿布中(如图1的实施方案所表示的),则优选地尿布20是在图像的前景中。统一的桌子表面40是合适的背景的一个实施例。
应当满足的条件的另一个实施例是,图像中不应当出现其他物体。如果将粪便放置在便盆、床便器、马桶椅、或带平台的马桶中,则期望图像中只出现粪便和背景,而没有其他物体或身体的部位。如果将粪便放置在尿布中,则期望除了包含有粪便30的尿布20外没有其他物体出现。婴幼儿的身体的部位或其他物体不应当出现在图像中。然而,如果捕捉的图像具有围绕所述粪便的不期望的物体,则可以在图像输入到CNN之前切割捕捉的图像以消除不期望的物体。可以执行其他预处理步骤,诸如修改捕捉的图像的分辨率、改变图像的格式或去除图像中噪声的其他步骤。
应当注意的是,本发明的实施方案可以仅使用预定条件中的一个,或它们的任何组合。还应当注意的是,可以使用其他预定条件,只要它们有助于用户获得适合于输入到CNN的图像即可。可以在应用程序的设置中确定和修改所要使用的预定条件,或者可以预限定所要使用的预定条件,并且便携式设备的控制器可以控制所要使用的预定条件,以及如何确定这些预定条件。
应当满足的条件的其他实施例可以在图2a和图2b中观察到,图2a和图2b示出了根据本发明的包含粪便的尿布的不同处置。再次表示出了粪便在尿布中的实施例,但技术人员将理解的是,这些特征可以类似地应用于将粪便设置在便盆、床便器、马桶椅、带平台的马桶等的其他实施方案。在图2a中,可以观察到包括粪便30的打开的尿布20,具有统一的背景40,在这种情况下,统一的背景40对应于统一表面的桌子的顶部。在图2a中,图像中没有出现除尿布以外的其它物体。像图2a中的图像这样的图像可以被认为适合于本发明的方法。
根据一个实施方案,在捕捉图像之前,例如在将摄像头指向粪便之前,或者当用户将摄像头指向粪便时,便携式设备10可以向用户发出指示,以提醒他/她应当满足的一些条件(光应当足够等)。这些条件可以是上述预定条件中的一些或全部,也可以是不同的条件。该便携式设备可以附加地引导用户,以便使便携式设备10更接近或远离图2a中的在尿布20中的粪便,以改变角度或房间中的光源,以便在图像中获得更好的光,等等,并提供图像何时可以合适的指示。这样可以允许用户捕捉到具有良好特征的图像,并且将提高分类的成功率。根据一个实施方案,当便携式设备10检测到便携式设备10位于距粪便或尿布20的合适距离处、光条件合适时,或者满足任何其他期望条件时,便携式设备10可以自动地捕捉图像。可以预先限定便于便携式设备决定自动地捕捉图像所要满足的一个或多个条件。
在图2b中,由于尿布20没有完全地打开,因此不能充分地识别粪便30,因此尿布20不在适合于捕捉图像的位置。根据本发明的一个实施方案,通过观察便携式设备中显示的引导,可以使用户意识到这是一个不合适的位置,并且可以打开尿布。根据另一个实施方案,应用程序将在将摄像头指向粪便之前提供引导,并且用户将意识到例如尿布需要被打开,使得不会捕捉到像图2b中所表示的图像那样的图像。
图3示出了例示根据本发明的方法的流程图。在步骤301中,提供粪便30。如上所述,粪便30可以提供在尿布中,随后将尿布打开以便捕捉图像,或者粪便30也可以提供在便盆、床便器、马桶椅、或带平台的马桶中。在步骤302中,用包含在便携式装置10中的摄像头来捕捉粪便30的图像。捕捉步骤可以通过在便携式设备10中运行的应用程序来执行,用户可以初始化该应用程序。
在步骤303中,将捕捉的图像提供给卷积神经网络(CNN)的输入层。CNN是一种适用于分类图像的神经网络,并且与常规的神经网络不同,CNN的层具有以三个维度(宽度、高度和深度)布置的神经元。出于本公开内容的目的,CNN被理解为具有多个层的神经网络,例如前馈神经网络,其包括将输入3D量转化为输出3D量的层。在一个实施方案中,CNN包括输入层和输出层,在输入层和输出层之间具有多个隐含层。每个隐含层可以是卷积层、池化层、完全连接层和规范化层中的一个。例如,可以使用TensorFlow程序库来实现这样的神经网络(Abadi等人的《TensorFlow:用于大规模机器学习的系统》,第12届USENIX操作系统设计与实现研讨会,2016年)。
贯穿CNN的各个层,完整的输入图像(彩色的或灰度的)被简化为用于分类分数的单个矢量、或分类矢量。在本发明中,步骤304包括对捕捉的图像进行处理以获得分类矢量并根据粪便分析尺度获得预测的分数。用便携式设备捕捉的图像是CNN的输入图像,可以是红色、绿色、蓝色的图像,也可以是灰度图像。输出的单个矢量是包括每个可能分数的概率值的分类矢量。可以将预测的分数设置成在分类矢量的分数中具有最高概率的分数。
可以使用若干粪便分析尺度,例如布里斯托粪便形态尺度(BSS)、阿姆斯特丹粪便尺度或任何其他合适的尺度,诸如目前正在开发的布鲁塞尔婴儿和幼儿粪便尺度(BITSS)(VandenPla等人的《布鲁塞尔婴儿和幼儿粪便尺度(“BITSS”)的开发:研究协议》,BMJOpen2017;7:e014620)。
例如如果使用BSS,则该矢量是一个1×1×7的矢量,其包括构成尺度的七个可能分数中的每一个的概率。
步骤304可以通过便携式设备10的控制器执行,或者可以通过与便携式设备10通信的服务器执行。在第二种情况下,便携式设备的控制器将指示便携式设备10的收发器将捕捉的图像传输至服务器,并且由服务器执行所述捕捉的图像的处理,也即是CNN的计算,从而提供分类矢量和/或预测的分数。这适用于当便携式设备缺乏足够的计算能力和图形能力来执行CNN所需的操作时。在通过服务器或便携式设备10获得分类矢量之后,步骤305由储存关于分类矢量或关于分数的信息组成。该信息可以储存在便携式设备10中或储存在服务器中,或同时储存在两者中。如果储存了关于分类矢量的信息,则便携式设备随后可以通过在分类矢量的分数中选择具有最高概率值的分数来做出最有可能的分数的决定。如果储存了分数,则可以省略做出决定的步骤。随后该分数由执行该应用程序的便携式设备10显示。在另一个实施方案中,服务器还可以基于所有分数的概率值来执行分数的选择,并将分数发送至便携式设备。关于预测的分数的信息包括以下信息中的至少一个:分数本身、捕捉的图像、关于捕捉图像的日期和/或时间的信息、通过CNN获得的分类矢量,或可能对父母和照顾者以及应用程序有用的一些附加信息。
图4示出了根据本发明训练图像的图解。当在便携式设备10中执行用于提供粪便信息的应用程序时,将捕捉的图像输入到包括CNN的模型中,作为结果,CNN将提供分类矢量,或者来自所述分类矢量的预测的分数,所述分类矢量包括粪便分析尺度内的可能分数的概率值。为了提供分类矢量,需要预先对CNN进行预训练,也即是需要给CNN提供足够的信息以能够对输入图像进行分类。这可以通过标记的图像(用粪便分析尺度的分数进行标记)的集合来执行,使得从标记的图像的集合中,CNN可以学习去自动地预测具体的标签。也可以使用迁移学习以便回答具体的图像识别任务(如从粪便的图片中预测BSS或BITSS的分数)。这种方法允许建立能回答具体问题的模型,而不需要收集数千张图片并从头开始训练模型。在这种方法中,可以使用预先训练的模型并且仅对最后几层进行定制,以便预测分数。所要使用的CNN可以基于已知的CNN(例如基于Tensorflow库),但对至少最后一层进行定制,使得CNN的输出提供包含粪便分析尺度的每个分数的分类矢量。CNN的至少最后一层的训练如下执行。在步骤401中,提供图像初始集合。合适的集合大小的实施例是每个分数至少200张图像,总共至少1000张图像(包括该尺度的所有分数的图像),更优选地至少1500张图像,并且更优选至少1600张图像。这些图像被手动地标记有所使用的粪便分析尺度(诸如BBS)的一个分数。在图像的初始集合中,在步骤402中选择一个子集合作为测试图像,并且在步骤403中选择一个子集合作为训练图像。通过训练图像的子集合,在步骤404中实施训练模型,并且在训练模型中,通过将操作结果与图像最初具有的标签进行比较,来更新赋予给执行的操作中的某些元素的值。通过这种方式,CNN“学习”如何更好地预测图像的正确分数。在此之后,在步骤405中使用测试图像的子集合来评估该模型。一旦完成该迭代,可以可选地执行步骤406,其中可以增加训练集合的大小(并且因此减少测试集合的大小),并且从步骤401开始重复该迭代过程。此微调步骤406可以增加模型的准确性。一旦CNN被训练,其在不同操作中所使用的元素的值是已知的,并且通过这些值,所述CNN就能够预测输入图像(诸如由便携式设备捕捉的尿布中的粪便的图像)的分类。随后,如上文所述,包含CNN的训练的模型可以在便携式设备或服务器中运行,以提供捕捉的图像的分数。根据本发明的实施方案,除了微调步骤406之外,如果初始数据集合不足以达到可接受的准确性,则所述应用程序可以允许收集附加图像,以用于重新训练模型。
在训练步骤期间,并且为了提高分类的准确性和可靠性,可以执行以下步骤:其中对于图像的手动标记,由父母中的至少一方(优选两方)或照料者(例如母亲)给出评估,其中优选地这些父母或照料者与获得图像的初始集合的婴儿没有关系。在一个优选实施方案中,在采用父母双方或照料者(或组合)进行评估时,他们评估中的分歧通过医疗保健专业人员的评估结论来解决,以便获得最终的分数,也即是标签。
在根据本发明的一个实施方案的一个实施例中,共使用2731张图像作为图像初始集合。在这些图像中,选择2478张图像子集合作为训练图像,并且选择209张图像子集合作为测试图像。下面的表1示出了通过209张测试图像执行评价的实施例。
表1
如表1所示,从209张测试图像中,有16张图像被人类和机器学习分类系统均识别为属于分数1。类似地,如表1对角线中的单元格所示,有10张图像被人类和机器学习分类系统等均识别为属于分数2。这表示了63.6%的一致程度。如果考虑±1分的误差,则这个一致水平是更高的,如与表1中对角线元素邻近的单元格所示,从中可以看出一致性达到了93.8%。
根据本发明的实施方案,通过在便携式设备中或在服务器上运行的应用程序所提供的粪便稠度的分类遵循BSS的七个可能的分数。
在根据本发明的一个实施方案中,所述便携式设备的操作系统是iOS和/或Android。提供粪便分类的应用程序可以在便携式设备10中如下运行:
首先,可以有注册过程。当打开应用程序时,为用户提供登录或注册的选项。如果点击注册,则新的屏幕可以被显示为请求代码(诸如一次性密码(OTP)代码)。一旦输入并被系统验证为可用,则新的屏幕可以被显示要求登录凭据,诸如电子邮件和密码。之后,在下个屏幕中可能会导入婴儿的信息(姓名、出生日期、性别)。
其次,一旦注册完成,或一旦用户登录,可以显示具有不同类型的信息和选项的“主页”屏幕,包括关于“粪便模块”的信息。在粪便模块内,用户能够创建新的条目,从而被允许如上文所解释的那样捕捉图像,或者输入储存的图像,该储存的图像可以是以前捕捉的,或由便携式设备接收的。根据本发明的一个实施方案,当满足某些条件时,便携式设备可以自动捕获图像。根据另一个实施方案,该应用程序可以显示某种引导,使得用户可以拍摄具有足够好的特征的照片。该引导可以是诸如“为了获得最佳质量的图像,请位于具有足够光的房间内,并且尝试只捕捉粪便(和尿布)”这样的信息。然而,技术人员明白这仅仅是一个实施例,并且可以显示其他引导信息。随后,该应用程序将使用上述公开的方法显示粪便分析尺度的分数(诸如,例如基于与BSS对应关系的水样、软、成形和硬),并且与分数相关的信息可以储存在便携式设备中。同样,捕捉的图像也可以储存在便携式设备中。在储存了多个条目的情况下,可以创建发展图以便允许跟踪粪便稠度的变化,并且还便于确定提供粪便的频率,这可以提供例如与腹泻或便秘相关的附加信息。
条目可以被修改和删除。这些条目还可以与婴儿的健康保健提供者(HCP)共享的健康数据库(服务器)共享,使得如果有给予需要特别护理的指示,则便携式设备可以警告用户联系HCP,随后所述HCP可以快速访问相关的信息,从而允许在下一步做出更快的决定。
HCP可以将预测的分数与实际图像进行比较,并且如果需要,修正分数。在一个实施方案中,这样的更正样本自动地进入到另一训练数据的集合,使得模型可以被重新训练以提高准确性。
利用应用程序捕捉的所有图像可以储存在便携式设备中和/或储存在可以与移动设备通信的远程服务器上,如果授予访问权,这将允许HCP访问数据并且评估他们的患者的数据。
图5示意性地示出了根据本发明的一个实施方案的便携式设备10。该便携式设备10具有显示单元501,该显示单元501可以是适合于显示信息和处理用户输入的触摸屏。该设备10还具有用于记录图像和视频片段的摄像头502、用于处理记录的图像的处理器503、用于储存图像、程序数据、CNN等的存储器504,以及用于通过有线连接或无线连接与其它设备通信的通信单元505。在一个实施方案中,处理器503被编程为使用CNN处理记录的图像,并且大体地实施本申请所描述的过程。
图6示意性地示出了根据本发明的一个实施方案的便携式设备10和服务器100。便携式设备10和服务器100可以通过有线连接或无线连接进行通信。在一个实施方案中,便携式设备10向服务器发送记录的图像。所述服务器具有处理器、存储器和通信单元。服务器100可以被编程为使用CNN处理接收的图像并且将结果发送回便携式设备10。另外,所述服务器可以储存获得的结果和/或储存接收的图像和/或储存任何中间计算结果。服务器还可以被布置成实施参考图4所描述的训练方法。
在附图的前述描述中,已经参考本发明的具体实施方案描述了本发明。然而,将是显而易见的是,在不偏离所附权利要求书中总结的发明范围的情况下,可以对本发明进行各种修改和改变。
特别地,可以对本发明的各个方面的具体特征进行组合。通过添加关于本发明的另一个方面描述的特征,可以进一步有利地增强本发明的一个方面。
应理解的是,本发明仅由所附权利要求书以及其技术等同物限定。在本文件及其权利要求书中,动词“包括”以及其变形以其非限制性含义使用,意指包括该词之后的项目,而不排除未具体地提及的项目。另外,通过不定冠词“一”或“一个”所提及的元件不排除存在多于一个所述元件的可能性,除非语境明确地要求仅有一个元素。因此,不定冠词“一”或“一个”通常意指“至少一个”。
Claims (24)
1.一种分析粪便稠度的计算机执行的方法,包括以下步骤:
-提供婴儿的粪便,
-用包括摄像头的便携式设备捕捉粪便的图像,
-将捕捉的图像提供给预训练的卷积神经网络(CNN)的输入层;
-使用CNN对捕捉的图像进行处理,从而从CNN的最终层获得分类矢量,并且从所述分类矢量获得关于预测的分数的信息;
其中对CNN的至少最终层进行定制,使得所述分类矢量的每个元素对应于粪便分析尺度的相应分数,以及
-储存关于预测的分数的信息。
2.根据权利要求1所述的方法,其中所述粪便设置在打开的尿布中。
3.根据权利要求1所述的方法,其中所述粪便设置在便盆、床便器、马桶椅或带平台的马桶中。
4.根据前述权利要求中的任一项所述的方法,还包括在捕捉图像之前,通过便携式设备显示引导信息从而来满足预定条件。
5.根据前述权利要求中的任一项所述的方法,其中捕捉图像包括当满足预定条件时通过便携式设备自动地捕捉图像。
6.根据权利要求4或5所述的方法,其中预定条件包括将粪便放置在具有规则背景的表面上的条件。
7.根据权利要求4或5中任一项所述的方法,其中预定条件包括粪便是图像中出现的唯一物体的条件。
8.根据权利要求2所述的方法,其中预定条件包括将尿布放置在具有规则背景的表面上的条件。
9.根据权利要求2所述的方法,其中预定条件包括尿布是图像中出现的唯一物体的条件。
10.根据前述权利要求中的任一项所述的方法,其中关于预测的分数的信息包括以下信息中的至少一个:预测的分数、捕捉的粪便的图像、以及捕捉图像的日期和/或时间。
11.根据前述权利要求中的任一项所述的方法,其中使用CNN对捕捉的图像进行处理是通过便携式设备执行的。
12.根据权利要求1至10中的任一项所述的方法,其中使用CNN对捕捉的图像进行处理是通过与便携式设备通信的服务器执行的。
13.根据前述权利要求中的任一项所述的方法,其中关于预测的分数的信息储存在便携式设备或与便携式设备通信的服务器中的至少一个中。
14.根据前述权利要求中的任一项所述的方法,其中所述图像是彩色图像。
15.根据权利要求1所述的方法,还包括基于与多个捕捉图像的预测分数相关的储存时间信息,来分析粪便产生的频率。
16.一种用于分析粪便稠度的系统,包括:
-便携式设备,所述便携式设备包括:
摄像头,所述摄像头被配置为捕捉婴儿的粪便的图像,
控制器,所述控制器被配置为:
将捕捉的图像提供给预训练的卷积神经网络(CNN)的输入层,
从CNN的最终层获得分类矢量,其中对CNN的至少最终层进行定制,使得所述分类矢量的每个元素对应于粪便分析尺度的相应分数,以及
从所述分类矢量获得关于预测的分数的信息,以及
存储器,用于储存关于预测的分数的信息。
17.根据权利要求16所述的系统,其中所述粪便设置在打开的尿布中。
18.根据权利要求16所述的系统,其中所述粪便设置在便盆、床便器、马桶椅或带平台的马桶中。
19.根据权利要求16至18中的任一项所述的方法,其中关于预测的分数的信息包括以下信息中的至少一个:预测的分数、捕捉的粪便的图像、以及捕捉图像的日期和/或时间。
20.根据权利要求16至19中的任一项所述的系统,还包括用于与便携式设备通信的服务器,其中所述服务器被配置为储存关于所述预测的分数的信息。
21.根据权利要求16至20中的任一项所述的系统,其中使用CNN对捕捉的图像进行处理从而从所述CNN的最终层获得分类矢量是通过便携式设备执行的。
22.根据权利要求16至20中任一项所述的系统,
其中所述服务器还被配置为使用CNN对捕捉的图像进行处理,从而从所述CNN的最终层获得分类矢量,以及
其中所述便携式设备还被配置为将捕捉的图像传输到服务器,并且从所述服务器接收预测的分数。
23.根据权利要求16至122中的任一项所述的系统,其中所述图像是彩色图像。
24.一种用于分析粪便的稠度的计算机程序产品,包括:
计算机可读介质,所述计算机可读介质包括能够由至少一个处理器执行的代码,从而执行根据权利要求1至15中的任一项所述的方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/NL2018/050401 WO2019245359A1 (en) | 2018-06-21 | 2018-06-21 | Method and system for characterizing stool patterns of young infants |
NLPCT/NL2018/050401 | 2018-06-21 | ||
PCT/NL2019/050310 WO2019245360A1 (en) | 2018-06-21 | 2019-05-28 | Method and system for characterizing stool patterns of young infants |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112334989A true CN112334989A (zh) | 2021-02-05 |
Family
ID=63143335
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980040963.5A Pending CN112334989A (zh) | 2018-06-21 | 2019-05-28 | 用于表征婴幼儿粪便模式的方法和系统 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20210265059A1 (zh) |
EP (1) | EP3811376A1 (zh) |
CN (1) | CN112334989A (zh) |
WO (2) | WO2019245359A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114073504A (zh) * | 2021-11-26 | 2022-02-22 | 四川护理职业学院 | 一种婴幼儿生命体征监测系统及监测方法 |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11532396B2 (en) * | 2019-06-12 | 2022-12-20 | Mind Medicine, Inc. | System and method for patient monitoring of gastrointestinal function using automated stool classifications |
CN112183674B (zh) * | 2020-11-06 | 2022-06-10 | 南昌航空大学 | 一种粪便宏观图像颜色和性状多任务识别方法及系统 |
JP7454766B2 (ja) | 2021-04-26 | 2024-03-25 | パナソニックIpマネジメント株式会社 | 便状態表示システム |
WO2022271572A1 (en) * | 2021-06-20 | 2022-12-29 | Dieta Inc. | System and method for determining a stool condition |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104376193A (zh) * | 2013-08-12 | 2015-02-25 | 登塔尔图像科技公司 | 管理由便携式计算设备获取的牙科照片 |
CN105654469A (zh) * | 2015-12-22 | 2016-06-08 | 深圳贝申医疗技术有限公司 | 一种婴儿大便颜色的自动分析方法及系统 |
US20170046613A1 (en) * | 2015-08-10 | 2017-02-16 | Facebook, Inc. | Systems and methods for content classification and detection using convolutional neural networks |
CN107492099A (zh) * | 2017-08-28 | 2017-12-19 | 京东方科技集团股份有限公司 | 医学图像分析方法、医学图像分析系统以及存储介质 |
US20180032846A1 (en) * | 2016-08-01 | 2018-02-01 | Nvidia Corporation | Fusing multilayer and multimodal deep neural networks for video classification |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3642336B2 (ja) * | 2003-07-01 | 2005-04-27 | 松下電器産業株式会社 | 目画像撮像装置 |
US7817914B2 (en) * | 2007-05-30 | 2010-10-19 | Eastman Kodak Company | Camera configurable for autonomous operation |
CN110235138B (zh) * | 2016-12-05 | 2023-09-05 | 摩托罗拉解决方案公司 | 用于外观搜索的系统和方法 |
WO2019104003A1 (en) * | 2017-11-21 | 2019-05-31 | Beth Israel Deaconess Medical Center, Inc | Systems and methods for automatically interpreting images of microbiological samples |
US10719932B2 (en) * | 2018-03-01 | 2020-07-21 | Carl Zeiss Meditec, Inc. | Identifying suspicious areas in ophthalmic data |
-
2018
- 2018-06-21 WO PCT/NL2018/050401 patent/WO2019245359A1/en active Application Filing
-
2019
- 2019-05-28 US US17/253,130 patent/US20210265059A1/en active Pending
- 2019-05-28 EP EP19743020.0A patent/EP3811376A1/en active Pending
- 2019-05-28 CN CN201980040963.5A patent/CN112334989A/zh active Pending
- 2019-05-28 WO PCT/NL2019/050310 patent/WO2019245360A1/en active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104376193A (zh) * | 2013-08-12 | 2015-02-25 | 登塔尔图像科技公司 | 管理由便携式计算设备获取的牙科照片 |
US20170046613A1 (en) * | 2015-08-10 | 2017-02-16 | Facebook, Inc. | Systems and methods for content classification and detection using convolutional neural networks |
CN105654469A (zh) * | 2015-12-22 | 2016-06-08 | 深圳贝申医疗技术有限公司 | 一种婴儿大便颜色的自动分析方法及系统 |
US20180032846A1 (en) * | 2016-08-01 | 2018-02-01 | Nvidia Corporation | Fusing multilayer and multimodal deep neural networks for video classification |
CN107492099A (zh) * | 2017-08-28 | 2017-12-19 | 京东方科技集团股份有限公司 | 医学图像分析方法、医学图像分析系统以及存储介质 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114073504A (zh) * | 2021-11-26 | 2022-02-22 | 四川护理职业学院 | 一种婴幼儿生命体征监测系统及监测方法 |
CN114073504B (zh) * | 2021-11-26 | 2024-06-25 | 四川护理职业学院 | 一种婴幼儿生命体征监测系统及监测方法 |
Also Published As
Publication number | Publication date |
---|---|
EP3811376A1 (en) | 2021-04-28 |
US20210265059A1 (en) | 2021-08-26 |
WO2019245359A1 (en) | 2019-12-26 |
WO2019245360A1 (en) | 2019-12-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112334989A (zh) | 用于表征婴幼儿粪便模式的方法和系统 | |
KR102643554B1 (ko) | 개인 맞춤식 디지털 치료 방법 및 디바이스 | |
KR102166011B1 (ko) | 터치입력을 이용한 인지장애 판단 시스템 및 방법 | |
Slone et al. | Self‐generated variability in object images predicts vocabulary growth | |
US20190362835A1 (en) | System and method for generating textual descriptions from medical images | |
CN111768863B (zh) | 一种基于人工智能的婴幼儿发展监测系统及其方法 | |
Ryait et al. | Data-driven analyses of motor impairments in animal models of neurological disorders | |
Derbali et al. | Autism spectrum disorder detection: Video games based facial expression diagnosis using deep learning | |
KR102494373B1 (ko) | 기저귀 대변 이미지를 활용한 아기 건강 진단 솔루션 제공 방법, 장치 및 시스템 | |
Lavori | ANOVA, MANOVA, my black hen: comments on repeated measures | |
KR102424120B1 (ko) | 성장캡슐을 이용한 유아정보제공장치 및 그 장치의 구동방법 | |
Prinsen et al. | Automatic eye localization for hospitalized infants and children using convolutional neural networks | |
Selvi et al. | Early diagnosis of autism using indian autism grading tool | |
WO2024055283A1 (en) | Nutrition digestive efficacy assistant and computer implemented algorithm thereof | |
Leidman et al. | Accuracy of Fully Automated 3D Imaging System for Child Anthropometry in a Low-Resource Setting: Effectiveness Evaluation in Malakal, South Sudan | |
JP2021026328A (ja) | 勉強見守り方法、住宅及びコンピュータプログラム | |
Yin et al. | AI-powered low-cost wearable health tracker targeted towards elderly in developing countries | |
US20220358645A1 (en) | Systems and methods for developmental monitoring of children | |
KR20230086554A (ko) | 전자 장치의 사용을 관리하는 방법 및 장치 | |
Weaver et al. | Becoming word meaning experts: Infants' processing of familiar words in the context of typical and atypical exemplars | |
Bejan et al. | Deep Learning-based software application for assisting people with Alzheimer's disease | |
de Almeida | Socially Assistive Robots Adoption | |
Cleghern | Who’sa Good Dog? Fusing Multimodal Environmental and Behavioral Data from IoT Sensors, Analytics, and Machine Learning to Characterize, Predict, and Improve Guide Dog Outcomes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |