JP2024021900A - Intervention detection apparatus, intervention detection method, intervention detection program, and information processing system - Google Patents

Intervention detection apparatus, intervention detection method, intervention detection program, and information processing system Download PDF

Info

Publication number
JP2024021900A
JP2024021900A JP2022125079A JP2022125079A JP2024021900A JP 2024021900 A JP2024021900 A JP 2024021900A JP 2022125079 A JP2022125079 A JP 2022125079A JP 2022125079 A JP2022125079 A JP 2022125079A JP 2024021900 A JP2024021900 A JP 2024021900A
Authority
JP
Japan
Prior art keywords
image
intervention
images
space
detection device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022125079A
Other languages
Japanese (ja)
Inventor
隼人 林
Hayato Hayashi
秀胤 浅野
Hidetane Asano
正明 大橋
Masaaki Ohashi
祐人 朝山
Yuto Asayama
英司 平川
Eiji Hirakawa
啓介 濱田
Keisuke Hamada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Atom Medical Corp
Original Assignee
Atom Medical Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Atom Medical Corp filed Critical Atom Medical Corp
Priority to JP2022125079A priority Critical patent/JP2024021900A/en
Publication of JP2024021900A publication Critical patent/JP2024021900A/en
Pending legal-status Critical Current

Links

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an intervention detection apparatus, an intervention detection method, an intervention detection program, and an information processing system for analyzing biological information with higher accuracy.
SOLUTION: In an information processing system 1 in which an intervention detection apparatus 100, a camera 140, and an analysis apparatus 150 are connected via a network N, the intervention detection apparatus 100 comprises: an acquisition unit 110 for acquiring an image obtained by capturing a space in which a subject is accommodated, wherein the image is selected from at least one of a thermal image, a visible image, a distance image, and an infrared image; and an intervention determination unit 114 for inputting the image into a pre-trained intervention determination model and determining whether or not there is intervention in the space in the image.
EFFECT: The biological information can be analyzed with higher accuracy by inputting the image into the intervention determination model to determine whether or not there is intervention and excluding and analyzing images that are likely to indicate intervention.
SELECTED DRAWING: Figure 3
COPYRIGHT: (C)2024,JPO&INPIT

Description

本開示は、介入検出装置、介入検出方法、介入検出プログラム及び情報処理システムに関する。 The present disclosure relates to an intervention detection device, an intervention detection method, an intervention detection program, and an information processing system.

熱画像を用いた対象物の検出に関する技術がある。 There is a technology related to detecting objects using thermal images.

例えば、対象空間を撮像した熱画像を用いて、従来よりも人の検知精度を向上できる人検知装置に係る技術がある(特許文献1参照)。 For example, there is a technology related to a human detection device that can improve human detection accuracy compared to the conventional technology by using a thermal image captured in a target space (see Patent Document 1).

特開2021-033516号公報Japanese Patent Application Publication No. 2021-033516

ここで、例えば保育器を使用する医療現場において、保育器に収容された児の生体情報をモニタリング及び解析し、医療の現場に活用したいというニーズがある。このようなニーズを満たす手段として、例えば保育器に収容された児の熱画像等の画像を撮影し、その撮影画像を用いて児の生体情報を解析することが想定される。 Here, for example, in a medical field where an incubator is used, there is a need to monitor and analyze biological information of a child housed in an incubator and utilize the information in the medical field. As a means to meet such needs, it is assumed that, for example, an image such as a thermal image of a child housed in an incubator is photographed and the photographed image is used to analyze the biological information of the child.

しかし、実際の医療現場では、保育器に収容されている児を単独で撮影することができないケースも考えられる。例えば、児を看護等するために、医師や看護師等の医療従事者や児の家族等(以下、医療従事者等という)の身体の一部が児と一緒に映り込んでしまうケースや、手術ロボット等の医療機器(呼吸チューブ等の呼吸器具や栄養チューブ等を除く)の一部が児と一緒に映り込んでしまうケースなどがある。 However, in actual medical settings, there may be cases in which it is not possible to photograph a baby housed in an incubator alone. For example, there may be cases where a part of the body of a medical worker such as a doctor or nurse or the child's family member (hereinafter referred to as "medical worker, etc.") is shown together with the child in order to care for the child. There are cases where parts of medical equipment such as surgical robots (excluding respiratory equipment such as breathing tubes, feeding tubes, etc.) are shown together with the child.

それらのケースにおいて、医療従事者等の身体の一部又は手術ロボット等の医療機器の一部が児と重なるようにして画像に映り込んでしまう(このような事象を本明細書では「介入(が有る)」と表現する)と、児の生体情報を高い精度で解析するのが困難となることが予想される。この課題は、保育器を使用する医療現場に限らず、例えば手術室や病室で成人等の生体情報を解析する場面でも生じるものと考えられる。 In these cases, a part of the body of a medical worker or a part of a medical device such as a surgical robot appears in the image in such a way that it overlaps with the child. It is expected that it will be difficult to analyze the child's biological information with high accuracy. This problem is thought to occur not only in medical settings where incubators are used, but also in situations where biological information of adults, etc. is analyzed in operating rooms or hospital rooms, for example.

本開示の課題は、生体情報をより高い精度で解析することを可能とする介入検出装置、介入検出方法、介入検出プログラム及び情報処理システムを提供することである。 An object of the present disclosure is to provide an intervention detection device, an intervention detection method, an intervention detection program, and an information processing system that make it possible to analyze biological information with higher accuracy.

本開示の第1態様に係る介入検出装置は、対象者が収容される空間を撮影した画像であって、熱画像、可視画像、距離画像及び赤外線画像のうち少なくとも1つから選択される画像を取得する取得部と、予め学習された介入判定モデルに前記画像を入力し、前記画像中の前記空間への介入の有無を判定する介入判定部と、を含む。これにより、生体情報をより高い精度で解析することを可能とする。 An intervention detection device according to a first aspect of the present disclosure captures an image of a space in which a subject is accommodated, the image being selected from at least one of a thermal image, a visible image, a distance image, and an infrared image. The image forming apparatus includes an acquisition unit that acquires the image, and an intervention determination unit that inputs the image to an intervention determination model learned in advance and determines whether or not there is an intervention in the space in the image. This makes it possible to analyze biological information with higher accuracy.

また、第2態様に係る介入検出装置は、第1態様に係る介入検出装置であって、前記取得部は、時系列に前記画像を複数取得し、時系列に取得された複数の前記画像の各々に基づいて、差分画像を算出する差分算出部を更に含み、前記介入判定部は、前記画像と、前記差分画像とを前記介入判定モデルに入力し、前記介入の有無を判定する。これにより、生体情報をさらに高い精度で解析することを可能とする。 Further, the intervention detection device according to a second aspect is the intervention detection device according to the first aspect, in which the acquisition unit acquires a plurality of the images in chronological order, and a plurality of images acquired in the chronological order. The apparatus further includes a difference calculation section that calculates a difference image based on each image, and the intervention determination section inputs the image and the difference image into the intervention determination model, and determines whether or not the intervention is necessary. This makes it possible to analyze biological information with even higher accuracy.

また、第3態様に係る介入検出装置は、第1又は第2態様に係る介入検出装置であって、前記介入判定モデルは、学習用の前記画像及び時系列に取得された前記画像の差分画像を入力して、所定の機械学習の手法を用いて、前記介入の有無を示す判定結果を出力するように学習されている。これにより、生体情報をより高い精度で、かつ比較的容易に解析することを可能とする。 Further, the intervention detection device according to a third aspect is the intervention detection device according to the first or second aspect, wherein the intervention determination model is a difference image between the images for learning and the images acquired in chronological order. is input, and a predetermined machine learning method is used to output a determination result indicating the presence or absence of the intervention. This makes it possible to analyze biological information with higher precision and with relative ease.

また、本開示の第4態様に係る介入判定方法は、プロセッサが、対象者が収容される空間を撮影した画像であって、熱画像、可視画像、距離画像及び赤外線画像のうち少なくとも1つから選択される画像を取得する処理と、予め学習された介入判定モデルに前記画像を入力し、前記画像中の前記空間への介入の有無を判定する処理と、をコンピュータに実行させる。 In addition, in the intervention determination method according to the fourth aspect of the present disclosure, the processor uses at least one of a thermal image, a visible image, a distance image, and an infrared image, the image taken of the space in which the subject is accommodated. A computer is caused to execute a process of acquiring a selected image, and a process of inputting the image into an intervention determination model learned in advance and determining whether or not there is an intervention in the space in the image.

また、本開示の第5態様に係る介入判定プログラムは、プロセッサが、対象者が収容される空間を撮影した画像であって、熱画像、可視画像、距離画像及び赤外線画像のうち少なくとも1つから選択される画像を取得する処理と、予め学習された介入判定モデルに前記画像を入力し、前記画像中の前記空間への介入の有無を判定する処理と、をコンピュータに実行させる。 Further, in the intervention determination program according to the fifth aspect of the present disclosure, the processor selects an image taken of a space in which a subject is accommodated, from at least one of a thermal image, a visible image, a distance image, and an infrared image. A computer is caused to execute a process of acquiring a selected image, and a process of inputting the image into an intervention determination model learned in advance and determining whether or not there is an intervention in the space in the image.

また、本開示の第6態様に係る情報処理システムは、対象者が収容される空間を撮影した画像であって、熱画像、可視画像、距離画像及び赤外線画像のうち少なくとも1つから選択される画像を取得する取得部、及び予め学習された介入判定モデルに前記画像を入力し、前記画像中の前記空間への介入の有無を判定する介入判定部、を含む介入検出装置、を備える。 Further, in the information processing system according to the sixth aspect of the present disclosure, the image taken of the space in which the subject is accommodated is selected from at least one of a thermal image, a visible image, a distance image, and an infrared image. The intervention detection device includes an acquisition unit that acquires an image, and an intervention determination unit that inputs the image to an intervention determination model learned in advance and determines whether or not there is an intervention in the space in the image.

また、本開示の第7態様に係る情報処理システムは、第6態様に係る情報処理システムであって、前記取得部は、時系列に前記画像を複数取得し、前記介入検出装置は、時系列に取得された複数の前記画像の各々に基づいて、差分画像を算出する差分算出部を更に含み、前記介入判定部は、前記画像と、前記差分画像とを前記介入判定モデルに入力し、前記介入の有無を判定し、前記介入検出装置から前記画像及び前記介入の有無の判定結果を解析装置に出力し、前記解析装置において、前記画像及び前記介入の有無の判定結果に基づいて、前記介入の有無の判定結果をラベルとし、少なくとも前記介入の無い前記画像を用いて、前記対象者の生体情報を解析する。これにより、介入の有無の判定結果を用いて、精度の高い生体情報の解析が行える。 Further, an information processing system according to a seventh aspect of the present disclosure is the information processing system according to the sixth aspect, wherein the acquisition unit acquires the plurality of images in chronological order, and the intervention detection device acquires the plurality of images in chronological order. The intervention determination unit further includes a difference calculation unit that calculates a difference image based on each of the plurality of images acquired in the above, and the intervention determination unit inputs the image and the difference image to the intervention determination model, and The presence or absence of an intervention is determined, the intervention detection device outputs the image and the determination result of the presence or absence of the intervention to an analysis device, and the analysis device detects the intervention based on the image and the determination result of the presence or absence of the intervention. The biological information of the subject is analyzed using at least the image without the intervention, using the determination result of the presence or absence of the intervention as a label. Thereby, highly accurate analysis of biological information can be performed using the determination result of the presence or absence of intervention.

また、本開示の第8態様に係る情報処理システムは、第7態様に係る情報処理システムであって、複数の前記画像のうち、介入が有ると判定された前記画像を除外して前記対象者の生体情報を解析する。これにより、介入の有無の判定結果を用いて介入の有る画像を除外し、精度の高い生体情報の解析が行える。 Further, an information processing system according to an eighth aspect of the present disclosure is an information processing system according to a seventh aspect, in which the information processing system according to the seventh aspect excludes the image determined to involve intervention from among the plurality of images, and Analyze biological information. Thereby, images with intervention can be excluded using the determination result of presence or absence of intervention, and biometric information can be analyzed with high accuracy.

本開示の介入検出装置、介入検出方法、介入検出プログラム及び情報処理システムによれば、生体情報をより高い精度で解析することを可能とする、という効果を得られる。 According to the intervention detection device, intervention detection method, intervention detection program, and information processing system of the present disclosure, it is possible to obtain the effect that biological information can be analyzed with higher precision.

画像中の介入の有無の一例を示す図である。FIG. 3 is a diagram illustrating an example of the presence or absence of intervention in an image. 介入検出装置のハードウェア構成を示すブロック図である。FIG. 2 is a block diagram showing the hardware configuration of the intervention detection device. 介入検出装置を含む情報処理システムの構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of an information processing system including an intervention detection device. 介入判定モデルの入出力のイメージ図である。FIG. 2 is an image diagram of input and output of an intervention determination model. 深部体温推定について、介入無しの場合と介入有りの場合とを比較した一例である。This is an example comparing a case without intervention and a case with intervention regarding core body temperature estimation. 介入検出装置による介入検出処理の流れを示すフローチャートである。It is a flowchart which shows the flow of intervention detection processing by an intervention detection device.

以下、開示の技術の実施形態の一例を、図面を参照しつつ説明する。なお、各図面において同一又は等価な構成要素及び部分には同一の参照符号を付与している。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。 An example of an embodiment of the disclosed technology will be described below with reference to the drawings. In addition, the same reference numerals are given to the same or equivalent components and parts in each drawing. Furthermore, the dimensional ratios in the drawings are exaggerated for convenience of explanation and may differ from the actual ratios.

本開示の実施形態の概要を説明する。なお、本実施形態では、対象者が収容される空間を保育器の児収容室(臥床台上の空間)とし、対象者を児として熱画像を撮影する場合を例に説明するが、本実施形態の手法は、これに限定されるものではない。本実施形態の手法は、空間内に対象者とは異なる者又は他の物体が映り込む場合を想定し、多様な空間を撮影するケースに対して適用できる。また、対象者が収容される空間が撮影されていればよく、対象者の映り込みが確認できないような画像が撮影される場合も想定される。また、対象者として児以外を想定する場合は、例えば、空間を手術室とし、対象者を患者とする場合や、空間を作業現場とし、対象者を作業者とする場合等にも適用できる。また、撮影する画像は、熱画像に限らず、可視画像、距離画像又は赤外線画像であってもよい。距離画像は、TOFカメラ等の距離画像カメラで撮影され、画素ごとに距離画像カメラと撮影対象との間の距離情報を含む。なお、これらの画像から1の画像を選択取得する方法として、例えば、1つのカメラを用いて1の画像(例えば熱画像)を撮影し当該画像を取得する方法であってもよいし、異なる種類の複数の画像から選択取得してもよい。異なる種類の複数の画像から選択取得する場合、例えば、1つ又は複数のカメラを用いて複数の画像(例えば熱画像と可視画像の2画像)を同時に撮影し、撮影された複数の画像のうち1の画像(例えば熱画像)を選択取得してもよい。また、1つ又は複数のカメラを用いて複数の画像(例えば熱画像と可視画像の2画像)を同時に撮影し、撮影された複数の画像のすべてを取得しておき、介入判定モデルに入力されるのはその中から選択される1の画像(例えば熱画像)のみとするようにしてもよい。また、以下の説明では、解析対象とする児の生体情報が深部体温である場合を例示して説明するが、これに限定されず、対象は皮膚温(末梢温)等であってもよい。 An overview of an embodiment of the present disclosure will be described. In this embodiment, the space in which the subject is accommodated is an infant storage room of an incubator (the space above the bed bed), and a thermal image is taken with the subject as a child. The format method is not limited to this. The method of this embodiment assumes that a person different from the subject or another object is reflected in the space, and can be applied to cases where various spaces are photographed. Furthermore, it is sufficient that the space in which the subject is accommodated is photographed, and it is possible that an image may be photographed in which the reflection of the subject cannot be confirmed. Further, when the target person is assumed to be someone other than a child, for example, the present invention can be applied to cases where the space is an operating room and the target person is a patient, or when the space is a work site and the target person is a worker. Moreover, the image to be photographed is not limited to a thermal image, but may be a visible image, a distance image, or an infrared image. A distance image is photographed by a distance image camera such as a TOF camera, and includes distance information between the distance image camera and the object to be photographed for each pixel. Note that the method of selecting and acquiring one image from these images may be, for example, a method of capturing one image (for example, a thermal image) using one camera and acquiring the image, or a method of capturing one image (for example, a thermal image) using one camera, or You may select and acquire from a plurality of images. When selecting and acquiring multiple images of different types, for example, multiple images (for example, two images, a thermal image and a visible image) are simultaneously captured using one or multiple cameras, and one of the captured images is One image (for example, a thermal image) may be selectively acquired. In addition, multiple images (for example, a thermal image and a visible image) are simultaneously captured using one or multiple cameras, and all of the captured images are acquired and input into the intervention determination model. Only one image (for example, a thermal image) selected from among them may be displayed. Further, in the following explanation, a case will be explained in which the biological information of a child to be analyzed is core body temperature, but the present invention is not limited to this, and the target may be skin temperature (peripheral temperature) or the like.

図1は、画像中の介入の有無の一例を示す図である。図1の(a1)及び(b1)の画像は保育器の児を撮影した熱画像であり、(a1)は介入無しの熱画像、(b1)は介入有りの熱画像である。(a1)及び(b1)において、児は図面に対して右側に頭が位置し、図の左側に足が位置するように仰向けの状態で映っている。また、(a1)では児の足先を除く全身が映っているのに対し、(b1)では図の上側から医療従事者等の手が伸びて児と重なるように映り込んでおり、その手によって児の半身が隠れている。(a2)及び(b2)は、(a1)及び(b1)の熱画像それぞれについてサーモグラフの温度が所定温度以上となる部分を可視化した模式的な画像である。介入が有ると、(b2)の符号bvの範囲に示すように、映り込んだ手で児の半身が隠れてしまい、この熱画像からは医療従事者等の手で隠れた領域にある児の温度を識別することができないだけではなく、当該隠れた領域に児の温度ではない物体(すなわち医療従事者等の手)の温度を写した画像になってしまう。児の正確な体温を測定するためには、児の各部位が重要な領域となり得るが、撮影した熱画像からこれらの部位の温度を識別することができないと、例えば生体情報等の情報の解析精度が損なわれる。つまり、(b1)及び(b2)に示すように介入が有ると、映り込んだ物体によって児の体温の識別が阻害される結果、児の生体情報を高い精度で解析するのが困難となる。 FIG. 1 is a diagram illustrating an example of the presence or absence of intervention in an image. Images (a1) and (b1) in FIG. 1 are thermal images taken of a child in an incubator, where (a1) is a thermal image without intervention, and (b1) is a thermal image with intervention. In (a1) and (b1), the child is shown lying on his back with his head on the right side of the drawing and his feet on the left side of the drawing. In addition, (a1) shows the child's entire body except for the toes, while (b1) shows the hand of a medical worker extending from the top of the image and overlapping with the child's. Half of the child's body is hidden. (a2) and (b2) are schematic images that visualize the portions where the temperature of the thermograph is equal to or higher than a predetermined temperature for each of the thermal images (a1) and (b1). If there is an intervention, half of the child's body will be hidden by the reflected hand, as shown in the range bv in (b2), and this thermal image will show that the child's body is in the area hidden by the hand of the medical worker. Not only is it impossible to identify the temperature, but the image ends up showing the temperature of an object (ie, the hand of a medical worker, etc.) rather than the temperature of the child in the hidden area. In order to accurately measure the baby's body temperature, each part of the baby can be an important area, but if the temperature of these parts cannot be identified from the captured thermal image, it will be difficult to analyze information such as biological information. Accuracy is compromised. In other words, if there is an intervention as shown in (b1) and (b2), the reflected object obstructs identification of the baby's body temperature, making it difficult to analyze the baby's biological information with high accuracy.

ところで、児の深部体温等の生体情報を解析するための解析モデルを学習しようとする際、介入が有る画像を用いた場合、学習及び評価の双方に影響が生じ、解析モデルの精度が低下してしまう懸念がある。そこで本実施形態では、学習された介入判定モデルを用いて、画像中の空間への介入の有無を判定する手法を実現する。これにより、児の生体情報をより高い精度で、かつ比較的容易に解析することを可能とする。なお、空間への介入とは、対象者とは異なる物体(医療従事者等の身体の一部、手術ロボット等の医療機器(呼吸チューブ等の呼吸器具や栄養チューブ等を除く)の一部、等)が、空間内に入り込んでくることを意味する。 By the way, when trying to learn an analytical model for analyzing biological information such as a child's core body temperature, if images with intervention are used, both learning and evaluation will be affected, and the accuracy of the analytical model will decrease. There is a concern that this may occur. Therefore, in this embodiment, a learned intervention determination model is used to realize a method of determining whether or not there is intervention in a space in an image. This makes it possible to analyze the child's biological information with higher precision and with relative ease. In addition, intervention in space refers to objects that are different from the target person (parts of the body of medical workers, etc., parts of medical equipment such as surgical robots (excluding breathing equipment such as breathing tubes, feeding tubes, etc.), etc.) means entering the space.

図2は、介入検出装置100のハードウェア構成を示すブロック図である。 FIG. 2 is a block diagram showing the hardware configuration of the intervention detection device 100.

図2に示すように、介入検出装置100は、プロセッサであるCPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、ストレージ14、入力部15、表示部16及び通信インタフェース(I/F)17を有する。各構成は、バス19を介して相互に通信可能に接続されている。 As shown in FIG. 2, the intervention detection device 100 includes a CPU (Central Processing Unit) 11 which is a processor, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a storage 14, an input unit 15, and a display unit 16. and a communication interface (I/F) 17. Each configuration is communicably connected to each other via a bus 19.

CPU11は、中央演算処理ユニットであり、各種プログラムを実行したり、各部を制御したりする。すなわち、CPU11は、ROM12又はストレージ14からプログラムを読み出し、RAM13を作業領域としてプログラムを実行する。CPU11は、ROM12又はストレージ14に記憶されているプログラムに従って、上記各構成の制御及び各種の演算処理を行う。本実施形態では、ROM12又はストレージ14には、予測プログラムが格納されている。 The CPU 11 is a central processing unit that executes various programs and controls various parts. That is, the CPU 11 reads a program from the ROM 12 or the storage 14 and executes the program using the RAM 13 as a work area. The CPU 11 controls each of the above components and performs various arithmetic operations according to programs stored in the ROM 12 or the storage 14. In this embodiment, a prediction program is stored in the ROM 12 or the storage 14.

ROM12は、各種プログラム及び各種データを格納する。RAM13は、作業領域として一時的にプログラム又はデータを記憶する。ストレージ14は、HDD(Hard Disk Drive)又はSSD(Solid State Drive)等の記憶装置により構成され、オペレーティングシステムを含む各種プログラム、及び各種データを格納する。 The ROM 12 stores various programs and data. The RAM 13 temporarily stores programs or data as a work area. The storage 14 is constituted by a storage device such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive), and stores various programs including an operating system and various data.

入力部15は、マウス等のポインティングデバイス、及びキーボードを含み、各種の入力を行うために使用される。 The input unit 15 includes a pointing device such as a mouse and a keyboard, and is used to perform various inputs.

表示部16は、例えば、液晶ディスプレイであり、各種の情報を表示する。表示部16は、例えばタッチパネル方式(ホバー入力等の非接触型の操作方式のものを含む)を採用して、入力部15として機能してもよい。 The display unit 16 is, for example, a liquid crystal display, and displays various information. The display unit 16 may function as the input unit 15 by employing, for example, a touch panel system (including non-contact operation systems such as hover input).

通信インタフェース17は、端末等の他の機器と通信するためのインタフェースである。当該通信には、例えば、イーサネット(登録商標)若しくはFDDI等の有線通信の規格、又は、4G、5G、若しくはWi-Fi(登録商標)等の無線通信の規格が用いられる。 The communication interface 17 is an interface for communicating with other devices such as terminals. For this communication, for example, a wired communication standard such as Ethernet (registered trademark) or FDDI, or a wireless communication standard such as 4G, 5G, or Wi-Fi (registered trademark) is used.

図3は、本実施形態の介入検出装置100を含む情報処理システム1の構成を示すブロック図である。情報処理システム1では、介入検出装置100と、カメラ140と、解析装置150とがネットワークNを介して接続されている。各装置は例えば無線接続されているが、有線接続であってもよい。 FIG. 3 is a block diagram showing the configuration of an information processing system 1 including the intervention detection device 100 of this embodiment. In the information processing system 1, an intervention detection device 100, a camera 140, and an analysis device 150 are connected via a network N. Although each device is connected wirelessly, for example, it may be connected by wire.

介入検出装置100は、予め学習された介入判定モデルに熱画像を入力して介入判定を行い、介入の有無を判定する。カメラ140は、保育器における児収容室の熱画像を撮影する。解析装置150は、熱画像について判定された介入の有無をフラグとして用いて、生体情報を出力できるように予め学習された解析モデルに熱画像を入力し、児収容室に収容されている児の生体情報を解析する。なお、解析装置150は、カメラ140から熱画像を取得してもよいし、介入検出装置100から熱画像を取得してもよい。また、解析装置150のハードウェア構成は介入検出装置100と同様とすればよい。 The intervention detection device 100 performs intervention determination by inputting a thermal image into an intervention determination model that has been learned in advance, and determines the presence or absence of intervention. The camera 140 takes a thermal image of the child storage room in the incubator. The analysis device 150 inputs the thermal image into an analysis model that has been trained in advance so as to be able to output biological information, using the presence or absence of intervention determined for the thermal image as a flag, and analyzes the infant held in the infant storage room. Analyze biological information. Note that the analysis device 150 may acquire a thermal image from the camera 140 or may acquire a thermal image from the intervention detection device 100. Further, the hardware configuration of the analysis device 150 may be the same as that of the intervention detection device 100.

介入検出装置100の各機能構成について説明する。各機能構成は、CPU11がROM12又はストレージ14に記憶された学習プログラムを読み出し、RAM13に展開して実行することにより実現される。図3に示すように、介入検出装置100は機能的には取得部110と、差分算出部112と、介入判定部114と、画像記憶部120と、モデル記憶部122とを含んで構成される。 Each functional configuration of the intervention detection device 100 will be explained. Each functional configuration is realized by the CPU 11 reading out a learning program stored in the ROM 12 or the storage 14, loading it into the RAM 13, and executing it. As shown in FIG. 3, the intervention detection device 100 is functionally configured to include an acquisition section 110, a difference calculation section 112, an intervention determination section 114, an image storage section 120, and a model storage section 122. .

取得部110は、カメラ140から時系列に複数の熱画像を取得し、画像記憶部120に格納する。なお、以下の説明では時系列に取得した熱画像を用いる態様を説明するが、時系列に取得する場合に限らず1枚の熱画像を取得して処理を行ってもよい。 The acquisition unit 110 acquires a plurality of thermal images in time series from the camera 140 and stores them in the image storage unit 120. In addition, although the following explanation explains the aspect which uses the thermal image acquired chronologically, it is not limited to the case where thermal images are acquired chronologically, but it is also possible to acquire one thermal image and perform processing.

画像記憶部120には、時系列に取得された熱画像が格納される。以下に説明する処理では画像記憶部120の熱画像を参照して処理を行うことを想定するため、説明において画像記憶部120の記載は省略する。 The image storage unit 120 stores thermal images acquired in chronological order. In the process described below, it is assumed that the process is performed with reference to the thermal image in the image storage unit 120, so the description of the image storage unit 120 will be omitted in the description.

差分算出部112は、時系列に取得された複数の熱画像の各々に基づいて、差分画像を算出する。差分画像の態様について説明する。例えば、差分算出部112は、熱画像がA1~Anであるとすれば、着目する熱画像と時系列の次(以降)の熱画像とを組として、差分画像を算出する。例えば、着目する熱画像がA1であれば、時系列の次の熱画像であるA2と組み合わせたA1-A2の組について、差分画像となるB1を算出することになる。例えば、A1~A5の熱画像を対象にする場合、A1-A2、A2-A3、A3-A4、A4-A5の組が得られ、B1~B4の差分画像が算出される。また、時系列の次以降、つまり1つ先に限らず、2つ先(例えばA1-A3の組)、3つ先(例えばA1-A4の組)等との組について差分画像を算出してもよい。どのような組で差分画像を算出するかは、介入判定モデルの学習時に用いた差分画像の組の仕様に応じて適宜設定すればよい。 The difference calculation unit 112 calculates a difference image based on each of the plurality of thermal images acquired in time series. The aspect of the difference image will be explained. For example, assuming that the thermal images are A1 to An, the difference calculation unit 112 calculates a difference image by pairing the thermal image of interest and the next (subsequent) thermal image in time series. For example, if the thermal image of interest is A1, then B1, which is a difference image, is calculated for the set A1-A2 combined with A2, which is the next thermal image in time series. For example, when targeting thermal images A1 to A5, sets of A1-A2, A2-A3, A3-A4, and A4-A5 are obtained, and difference images of B1 to B4 are calculated. In addition, difference images are calculated for the next and subsequent pairs in the time series, that is, not only for the next pair, but also for the pairs that are two pairs ahead (for example, A1-A3 pair), three pairs ahead (for example, A1-A4 pair), etc. Good too. What set of difference images should be used to calculate the difference images may be set as appropriate depending on the specifications of the set of difference images used when learning the intervention determination model.

モデル記憶部122には、予め学習された介入判定モデルが格納されている。図4は介入判定モデルの入出力のイメージ図である。介入判定モデルは、例えば、ニューラルネットワークのネットワーク構成としては、2系統入力のResNet-18を用いる。2系統入力で、熱画像及び差分画像をそれぞれ入力する。入力の枚数は、例えば熱画像は5枚、差分画像は4枚とする。前処理として、学習用の熱画像、学習用の差分画像をそれぞれ標準化して入力する。介入判定モデルの学習においては、学習用の熱画像には、介入の有無を示す正解ラベルを人手により付与してもよい。学習の仕様は、任意の活性化関数(Linear Unit)で統合、データ拡張(Augmentation)はFlipとし、損失関数(Loss Function)には、NLL(Negative Log Likelihood)+Center loss +Floodingを用いる。なお、介入判定モデルにニューラルネットワークを用いることは一例であり、画像及び差分画像から介入の有無を判定するための二値の出力が可能な機械学習手法であれば適用可能である。また、ネットワークを1系統とし、差分画像を用いずに、熱画像のみを用いて介入判定モデルを学習するようにしてもよい(この場合、差分算出部112は不要である)。このように、介入判定モデルは、学習用の画像及び時系列に取得された当該画像の差分画像を入力して、所定の機械学習の手法を用いて、介入の有無を示す判定結果を出力するように学習されている。 The model storage unit 122 stores intervention determination models learned in advance. FIG. 4 is an image diagram of the input and output of the intervention determination model. The intervention determination model uses, for example, ResNet-18 with two input systems as the network configuration of the neural network. A thermal image and a differential image are each input using two input systems. The number of input images is, for example, five for thermal images and four for difference images. As preprocessing, a thermal image for learning and a difference image for learning are each standardized and input. In learning the intervention determination model, a correct label indicating the presence or absence of intervention may be manually added to the learning thermal image. The learning specifications are integration using an arbitrary activation function (Linear Unit), Flip for data augmentation, and NLL (Negative Log Likelihood) + Center loss + Flooding for the loss function. Note that using a neural network as an intervention determination model is one example, and any machine learning method that can output binary values for determining the presence or absence of intervention from an image and a difference image can be applied. Alternatively, the network may be one system, and the intervention determination model may be learned using only thermal images without using difference images (in this case, the difference calculation unit 112 is not required). In this way, the intervention determination model inputs a learning image and a differential image of the image acquired in chronological order, uses a predetermined machine learning method, and outputs a determination result indicating the presence or absence of intervention. This is how it is learned.

介入判定部114は、熱画像と、差分画像とを介入判定モデルに入力し、介入の有無を判定する。熱画像の各々について判定した介入の有無の判定結果は、解析装置150に出力される。介入の有無の判定結果により、介入の有無を検出することができる。 The intervention determination unit 114 inputs the thermal image and the difference image into an intervention determination model, and determines the presence or absence of intervention. The determination result of the presence or absence of intervention determined for each thermal image is output to the analysis device 150. The presence or absence of intervention can be detected based on the determination result of presence or absence of intervention.

解析装置150は、介入の有無の判定結果をラベルとし、熱画像を用いて児の生体情報を解析する。例えば、解析装置150は、ラベルにより介入が有ると判定された熱画像を除外し、除外後の熱画像を用いて、児の生体情報を解析する。また、解析装置150は、ラベルを考慮せずに熱画像を用いて児の生体情報を解析する。このように介入が有る画像を除外する場合と除外しない場合とでそれぞれ解析を行うことで、生体情報の解析結果を介入の有無の観点から比較できる。また、例えば、時系列を所定時間の区間で区切り、区間単位で画像を除外してもよい。介入有りのラベルが区間内に所定数以上含まれている場合に、当該区間の介入有りのラベルの画像を除外する。これにより、介入検出が誤検出である場合も考慮して、介入有りである可能性の高い画像だけを除外することができる。 The analysis device 150 uses the determination result of the presence or absence of intervention as a label, and analyzes the child's biological information using a thermal image. For example, the analysis device 150 excludes thermal images determined to require intervention based on the label, and uses the excluded thermal images to analyze the biological information of the child. Furthermore, the analysis device 150 analyzes the child's biological information using the thermal image without considering the label. In this way, by performing the analysis with and without excluding images with intervention, it is possible to compare the analysis results of biological information from the viewpoint of the presence or absence of intervention. Furthermore, for example, the time series may be divided into sections of predetermined time, and images may be excluded in units of sections. When a predetermined number or more of labels with intervention are included in a section, images of labels with intervention in the section are excluded. With this, it is possible to exclude only images that are highly likely to show intervention, taking into consideration the case where the intervention detection is a false detection.

生体情報の解析としては、一例として、深部体温の推定が挙げられる。図5は、深部体温推定について、介入無しの場合と介入有りの場合とを比較した一例である。図5では、縦軸が温度(深部体温)、横軸が時系列の時間である。介入有りでは、介入が有った画像を除外して解析モデルに入力して解析を行った。図5に破線で示す「Estimate」は単純な熱画像の画像処理で算出した体温の結果であり、薄い色の実線で示す「AI」は推定した体温の解析結果であり、黒色の実線で示す「Temperature」が測定した体温である。図5から明らかなように、介入有りの場合のほうが介入無しの場合に比べて、推定した体温の分散が小さくなり、AIの精度が向上していることが理解できる。 An example of analysis of biological information is estimation of core body temperature. FIG. 5 is an example comparing a case without intervention and a case with intervention regarding core body temperature estimation. In FIG. 5, the vertical axis represents temperature (core body temperature), and the horizontal axis represents time in chronological order. In the case of intervention, images with intervention were excluded and input into the analysis model for analysis. "Estimate" shown by the broken line in Figure 5 is the result of body temperature calculated by simple image processing of thermal images, and "AI" shown by the light solid line is the analysis result of the estimated body temperature, shown by the solid black line. "Temperature" is the measured body temperature. As is clear from FIG. 5, it can be seen that the variance of the estimated body temperature is smaller in the case with intervention than in the case without intervention, and the accuracy of AI is improved.

解析装置150では、推定した体温を、頭部、体幹、腕、及び足といったセグメンテーションに区分して出力するようにしてもよい。 The analysis device 150 may output the estimated body temperature by segmenting the head, trunk, arms, and legs.

解析装置150の解析によれば、例えば、参考文献1に記載されているような腹部温度のムラから壊死性腸炎の検出を行う医療情報の解析も可能である、また、解析によれば、参考文献2に記載されているような抹消(足)の温度測定も可能である。
[参考文献1]Knobel RB, Guenther BD, Rice HE. Thermoregulation and thermography in neonatal physiology and disease. Biol Res Nurs. 2011;13:274-282.
[参考文献2]Knobel-Dail RB, Holditch-Davis D, Sloane R, Guenther BD, Katz LM. Body temperature in premature infants during the first week of life: exploration using infrared thermal imaging. J Therm Biol. 2017;69:118-123.
According to the analysis of the analyzer 150, it is also possible to analyze medical information for detecting necrotizing enterocolitis from unevenness in abdominal temperature as described in Reference 1, for example. Peripheral (foot) temperature measurements as described in Ref. 2 are also possible.
[Reference 1] Knobel RB, Guenther BD, Rice HE. Thermoregulation and thermography in neonatal physiology and disease. Biol Res Nurs. 2011;13:274-282.
[Reference 2] Knobel-Dail RB, Holditch-Davis D, Sloane R, Guenther BD, Katz LM. Body temperature in premature infants during the first week of life: exploration using infrared thermal imaging. J Therm Biol. 2017;69: 118-123.

(処理の流れ)
次に、介入検出装置100の作用について説明する。図6は、介入検出装置100による介入検出処理の流れを示すフローチャートである。CPU11がROM12又はストレージ14から介入検出プログラムを読み出して、RAM13に展開して実行することにより、介入検出処理が行われる。CPU11が介入検出装置100の各部として機能することにより、以下の処理を実行させる。
(Processing flow)
Next, the operation of the intervention detection device 100 will be explained. FIG. 6 is a flowchart showing the flow of intervention detection processing by the intervention detection device 100. The intervention detection process is performed by the CPU 11 reading the intervention detection program from the ROM 12 or the storage 14, expanding it to the RAM 13, and executing it. The CPU 11 functions as each part of the intervention detection device 100 to execute the following processing.

ステップS100において、CPU11は、カメラ140から時系列に複数の熱画像を取得し、画像記憶部120に格納する。 In step S<b>100 , the CPU 11 acquires a plurality of thermal images in time series from the camera 140 and stores them in the image storage unit 120 .

ステップS102において、CPU11は、時系列に取得された複数の熱画像の各々に基づいて、差分画像を算出する。 In step S102, the CPU 11 calculates a difference image based on each of the plurality of thermal images acquired in time series.

ステップS104において、CPU11は、熱画像と、差分画像とを介入判定モデルに入力し、介入の有無を判定する。これにより複数の熱画像の各々について介入の有無を判定する。 In step S104, the CPU 11 inputs the thermal image and the difference image into the intervention determination model, and determines whether intervention is required. Thereby, the presence or absence of intervention is determined for each of the plurality of thermal images.

ステップS106において、CPU11は、複数の熱画像の各々の介入の判定結果を解析装置150に出力する。 In step S106, the CPU 11 outputs the intervention determination results for each of the plurality of thermal images to the analysis device 150.

情報処理システム1としては、解析装置150が介入の判定結果を受け付け、介入の有無の判定結果をラベルとし、熱画像を用いて、児の生体情報を解析する。 In the information processing system 1, the analysis device 150 receives the intervention determination result, uses the intervention determination result as a label, and analyzes the child's biological information using a thermal image.

以上説明したように、本実施形態に係る介入検出装置100は、介入を検出し、生体情報をより高い精度で解析することを可能とする。 As described above, the intervention detection device 100 according to the present embodiment detects an intervention and makes it possible to analyze biological information with higher accuracy.

なお、本開示の技術は、上述した実施形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。 Note that the technology of the present disclosure is not limited to the embodiments described above, and various modifications and applications are possible without departing from the gist of the present invention.

また、本願明細書中において、プログラムが予めインストールされている実施形態として説明したが、当該プログラムを、コンピュータ読み取り可能な記録媒体に格納して提供することも可能である。 Furthermore, although the present specification has been described as an embodiment in which a program is installed in advance, it is also possible to provide the program by storing it in a computer-readable recording medium.

また、上記実施形態では保育器を例に説明したが、これに限定されず、例えば、対象者が収容される空間を「インファントウォーマにおける臥床台上の空間」とし、インファントウォーマの臥床台に載置される児の熱画像を撮影する場合にも、本発明を適用可能である。 Further, although the above embodiment has been described using an incubator as an example, the present invention is not limited to this, and for example, the space in which the subject is accommodated is defined as "the space above the bed bed in the infant warmer", and The present invention can also be applied to the case of photographing a thermal image of a baby placed on a child's body.

1 情報処理システム
100 介入検出装置
110 取得部
112 差分算出部
114 介入判定部
120 画像記憶部
122 モデル記憶部
140 カメラ
150 解析装置
1 Information processing system 100 Intervention detection device 110 Acquisition unit 112 Difference calculation unit 114 Intervention determination unit 120 Image storage unit 122 Model storage unit 140 Camera 150 Analysis device

Claims (8)

対象者が収容される空間を撮影した画像であって、熱画像、可視画像、距離画像及び赤外線画像のうち少なくとも1つから選択される画像を取得する取得部と、
予め学習された介入判定モデルに前記画像を入力し、前記画像中の前記空間への介入の有無を判定する介入判定部と、
を含む介入検出装置。
an acquisition unit that acquires an image of a space in which the subject is accommodated, which is selected from at least one of a thermal image, a visible image, a distance image, and an infrared image;
an intervention determination unit that inputs the image into a pre-trained intervention determination model and determines whether or not there is an intervention in the space in the image;
an intervention detection device including;
前記取得部は、時系列に前記画像を複数取得し、
時系列に取得された複数の前記画像の各々に基づいて、差分画像を算出する差分算出部を更に含み、
前記介入判定部は、前記画像と、前記差分画像とを前記介入判定モデルに入力し、前記介入の有無を判定する、
請求項1に記載の介入検出装置。
The acquisition unit acquires the plurality of images in chronological order,
further comprising a difference calculation unit that calculates a difference image based on each of the plurality of images acquired in time series,
The intervention determination unit inputs the image and the difference image into the intervention determination model, and determines the presence or absence of the intervention.
The intervention detection device according to claim 1.
前記介入判定モデルは、学習用の前記画像及び時系列に取得された前記画像の差分画像を入力して、所定の機械学習の手法を用いて、前記介入の有無を示す判定結果を出力するように学習されている請求項1に記載の介入検出装置。 The intervention determination model inputs the images for learning and the difference images of the images acquired in time series, and uses a predetermined machine learning method to output a determination result indicating the presence or absence of the intervention. The intervention detection device according to claim 1, wherein the intervention detection device is trained to perform learning. プロセッサが、
対象者が収容される空間を撮影した画像であって、熱画像、可視画像、距離画像及び赤外線画像のうち少なくとも1つから選択される画像を取得する処理と、
予め学習された介入判定モデルに前記画像を入力し、前記画像中の前記空間への介入の有無を判定する処理と、
をコンピュータに実行させる介入検出方法。
The processor
A process of acquiring an image of a space in which the subject is accommodated, which is selected from at least one of a thermal image, a visible image, a distance image, and an infrared image;
inputting the image into a pre-trained intervention determination model and determining whether or not there is an intervention in the space in the image;
An intervention detection method that causes a computer to perform
プロセッサが、
対象者が収容される空間を撮影した画像であって、熱画像、可視画像、距離画像及び赤外線画像のうち少なくとも1つから選択される画像を取得する処理と、
予め学習された介入判定モデルに前記画像を入力し、前記画像中の前記空間への介入の有無を判定する処理と、
をコンピュータに実行させる介入検出プログラム。
The processor
A process of acquiring an image of a space in which the subject is accommodated, which is selected from at least one of a thermal image, a visible image, a distance image, and an infrared image;
inputting the image into a pre-trained intervention determination model and determining whether or not there is an intervention in the space in the image;
An intervention detection program that causes a computer to execute.
対象者が収容される空間を撮影した画像であって、熱画像、可視画像、距離画像及び赤外線画像のうち少なくとも1つから選択される画像を取得する取得部、及び
予め学習された介入判定モデルに前記画像を入力し、前記画像中の前記空間への介入の有無を判定する介入判定部、を含む介入検出装置、
を備える情報処理システム。
an acquisition unit that acquires an image of a space in which a subject is accommodated, which is selected from at least one of a thermal image, a visible image, a distance image, and an infrared image; and a pre-trained intervention determination model. an intervention detection device including an intervention determination unit that inputs the image into the image and determines whether or not there is an intervention in the space in the image;
An information processing system equipped with.
前記取得部は、時系列に前記画像を複数取得し、
前記介入検出装置は、時系列に取得された複数の前記画像の各々に基づいて、差分画像を算出する差分算出部を更に含み、
前記介入判定部は、前記画像と、前記差分画像とを前記介入判定モデルに入力し、前記介入の有無を判定し、
前記介入検出装置から前記画像及び前記介入の有無の判定結果を解析装置に出力し、
前記解析装置において、前記画像及び前記介入の有無の判定結果に基づいて、前記介入の有無の判定結果をラベルとし、少なくとも前記介入の無い前記画像を用いて、前記対象者の生体情報を解析する請求項6に記載の情報処理システム。
The acquisition unit acquires a plurality of the images in chronological order,
The intervention detection device further includes a difference calculation unit that calculates a difference image based on each of the plurality of images acquired in time series,
The intervention determination unit inputs the image and the difference image into the intervention determination model, and determines the presence or absence of the intervention;
outputting the image and the determination result of the presence or absence of the intervention from the intervention detection device to an analysis device;
In the analysis device, based on the image and the determination result of the presence or absence of the intervention, the determination result of the presence or absence of the intervention is used as a label, and the biological information of the subject is analyzed using at least the image without the intervention. The information processing system according to claim 6.
複数の前記画像のうち、介入が有ると判定された前記画像を除外して前記対象者の生体情報を解析する請求項7に記載の情報処理システム。 The information processing system according to claim 7, wherein the biological information of the subject is analyzed by excluding the image determined to involve intervention from among the plurality of images.
JP2022125079A 2022-08-04 2022-08-04 Intervention detection apparatus, intervention detection method, intervention detection program, and information processing system Pending JP2024021900A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022125079A JP2024021900A (en) 2022-08-04 2022-08-04 Intervention detection apparatus, intervention detection method, intervention detection program, and information processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022125079A JP2024021900A (en) 2022-08-04 2022-08-04 Intervention detection apparatus, intervention detection method, intervention detection program, and information processing system

Publications (1)

Publication Number Publication Date
JP2024021900A true JP2024021900A (en) 2024-02-16

Family

ID=89855412

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022125079A Pending JP2024021900A (en) 2022-08-04 2022-08-04 Intervention detection apparatus, intervention detection method, intervention detection program, and information processing system

Country Status (1)

Country Link
JP (1) JP2024021900A (en)

Similar Documents

Publication Publication Date Title
US11776146B2 (en) Edge handling methods for associated depth sensing camera devices, systems, and methods
Huang et al. Mobile robotic platform for contactless vital sign monitoring
JP2009279076A (en) Monitoring system
KR102321991B1 (en) Method for analyzing shape of respiratory tract for diagnosis of sleep apnea and apparatus thereof
JP6822328B2 (en) Watching support system and its control method
CN111212220A (en) Recording medium storing image processing program and image processing apparatus
US20210279452A1 (en) Action-estimating device
Watt et al. Novel screening and monitoring techniques for deformational plagiocephaly: a systematic review
Cassidy et al. Artificial intelligence for automated detection of diabetic foot ulcers: A real-world proof-of-concept clinical evaluation
Inoue et al. Bed-exit prediction applying neural network combining bed position detection and patient posture estimation
JP2024021900A (en) Intervention detection apparatus, intervention detection method, intervention detection program, and information processing system
CN112438723A (en) Cognitive function evaluation method, cognitive function evaluation device, and storage medium
CN116807452A (en) Scoliosis 3D detection method, system, equipment and medium
WO2008033010A1 (en) Device and method for positioning recording means for recording images relative to an object
Agarwal et al. Method to improve gait speed assessment for low frame rate AI enabled visual sensor
CN109923616B (en) Automatic pan-tilt-zoom adjustment for improved vital sign acquisition
Shcherbakova et al. Optical thermography infrastructure to assess thermal distribution in critically ill children
WO2019186955A1 (en) Biological information estimation device, biological information estimation method, and biological information estimation program
US11669962B2 (en) Temperature monitoring with a thermal camera
US10258237B2 (en) Photobiomedical measurement apparatus
US11883186B2 (en) Methods and systems for continuous measurement of anomalies for dysmorphology analysis
JP7440665B2 (en) retinal image processing
Shi Infrared Imaging Decision Aid Tools for Diagnosis of Necrotizing Enterocolitis
WO2023076655A1 (en) In-bed pose and posture tracking system
EP4099338A1 (en) Autonomous image acquisition start-stop managing system