JP7243439B2 - DIETARY RISK DETERMINATION METHOD, DIETARY RISK DETERMINATION PROGRAM AND INFORMATION PROCESSOR - Google Patents

DIETARY RISK DETERMINATION METHOD, DIETARY RISK DETERMINATION PROGRAM AND INFORMATION PROCESSOR Download PDF

Info

Publication number
JP7243439B2
JP7243439B2 JP2019096388A JP2019096388A JP7243439B2 JP 7243439 B2 JP7243439 B2 JP 7243439B2 JP 2019096388 A JP2019096388 A JP 2019096388A JP 2019096388 A JP2019096388 A JP 2019096388A JP 7243439 B2 JP7243439 B2 JP 7243439B2
Authority
JP
Japan
Prior art keywords
function
dysphagia
care
risk
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019096388A
Other languages
Japanese (ja)
Other versions
JP2020190962A (en
Inventor
剛史 紺野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019096388A priority Critical patent/JP7243439B2/en
Publication of JP2020190962A publication Critical patent/JP2020190962A/en
Application granted granted Critical
Publication of JP7243439B2 publication Critical patent/JP7243439B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Rehabilitation Tools (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Description

本発明は、食事リスク判定方法、食事リスク判定プログラムおよび情報処理装置に関する。 The present invention relates to a dietary risk determination method, a dietary risk determination program, and an information processing apparatus.

介護現場では、嚥下障害などにより窒息リスクが高まることがあるので、食事の付添に多くの時間を取られている。嚥下障害を予防する手法としては、首を左右に倒すや口を膨らますなどの嚥下体操を食事前に行うことで、唾液の分泌を促して喉のつまりを防ぐ手法が利用されている。また、食事前の会話時間などで顔を動かくした時間も嚥下体操と同様の効果があることから、会話時間を長くとるなどの手法も利用されている。近年では、食事に揮発性化合物を混入させて、呼気中における揮発性化合物の存在を測定して、被介護者の嚥下機能を測定する手法も知られている。 At nursing care sites, dysphagia may increase the risk of suffocation, so a lot of time is spent accompanying meals. As a method to prevent dysphagia, a method of preventing throat blockage by promoting saliva secretion is used by performing swallowing exercises such as tilting the neck to the left and right and puffing out the mouth before meals. In addition, since the time during which the face is moved during conversation before meals has the same effect as the swallowing exercise, methods such as taking longer conversation time are also used. In recent years, there is also known a method of measuring the swallowing function of a care-receiver by mixing volatile compounds into meals and measuring the presence of volatile compounds in exhalation.

特開2012-544659号公報JP 2012-544659 A

しかしながら、上記技術は、食事に揮発性化合物を混入させたり、揮発性化合物の存在を測定したり、特別な装置が要求されるので、簡単に利用することができず、汎用的に利用して被介護者の嚥下障害を検出することが難しい。 However, the above technology requires special equipment such as mixing volatile compounds into meals, measuring the presence of volatile compounds, etc., so it cannot be used easily and cannot be used for general purposes. It is difficult to detect dysphagia in care recipients.

なお、食事をつまらせないために、とろみ剤を食事に入れることも考えられるが、触感が失われることから、食事に満足感が得られず、被介護者にとって負担が大きいので、積極的に利用することが難しい。 In addition, adding a thickening agent to the meal may be an option in order to prevent the meal from becoming boring. difficult to use.

一つの側面では、被介護者の嚥下障害を検出することができる食事リスク判定方法、食事リスク判定プログラムおよび情報処理装置を提供することを目的とする。 An object of one aspect of the present invention is to provide a dietary risk determination method, a dietary risk determination program, and an information processing apparatus capable of detecting dysphagia in a care-receiver.

第1の案では、食事リスク判定方法は、コンピュータが、食事を飲み込む際の一連の動作を構成する複数の口腔機能の中で、予め設定された基準を満たしていない被介護者の口腔機能である不足機能を特定する処理を実行する。リスク判定方法は、コンピュータが、前記被介護者を撮像した画像データに基づいて、前記不足機能に対応する動作を食事前に実行しているか否かを判定する処理を実行する。リスク判定方法は、コンピュータが、判定結果に基づいて、嚥下障害のリスクに関するアラートを報知する処理を実行する。 In the first proposal, the dietary risk determination method is such that the computer determines the oral function of the care-receiver that does not meet a preset standard among a plurality of oral functions that constitute a series of actions when swallowing a meal. Perform a process to identify certain missing features. In the risk determination method, the computer determines whether or not the operation corresponding to the insufficient function is performed before eating, based on the image data of the care-receiver. In the risk determination method, the computer performs a process of issuing an alert regarding the risk of dysphagia based on the determination result.

一つの側面では、被介護者の嚥下障害を検出することができる。 In one aspect, dysphagia of a care recipient can be detected.

図1は、実施例1にかかる情報処理装置の全体例を説明する図である。FIG. 1 is a diagram illustrating an overall example of an information processing apparatus according to a first embodiment; 図2は、実施例1にかかる情報処理装置の機能構成を示す機能ブロック図である。FIG. 2 is a functional block diagram of the functional configuration of the information processing apparatus according to the first embodiment; 図3は、口腔機能の一例を説明する図である。FIG. 3 is a diagram illustrating an example of oral cavity functions. 図4は、各機能の基準モデルの生成を説明する図である。FIG. 4 is a diagram illustrating generation of a reference model for each function. 図5は、不足している口腔機能の特定を説明する図である。FIG. 5 is a diagram for explaining identification of deficient oral cavity functions. 図6は、学習データの生成を説明する図である。FIG. 6 is a diagram for explaining generation of learning data. 図7は、学習モデルの生成を説明する図である。FIG. 7 is a diagram explaining generation of a learning model. 図8は、嚥下障害の予測を説明する図である。FIG. 8 is a diagram explaining prediction of dysphagia. 図9は、嚥下障害の予測を説明する図である。FIG. 9 is a diagram explaining prediction of dysphagia. 図10は、処理の流れを示すフローチャートである。FIG. 10 is a flowchart showing the flow of processing. 図11は、ハードウェア構成例を説明する図である。FIG. 11 is a diagram illustrating a hardware configuration example.

以下に、本願の開示する食事リスク判定方法、食事リスク判定プログラムおよび情報処理装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。また、各実施例は、矛盾のない範囲内で適宜組み合わせることができる。 Hereinafter, embodiments of the dietary risk determination method, the dietary risk determination program, and the information processing apparatus disclosed in the present application will be described in detail based on the drawings. In addition, this invention is not limited by this Example. Moreover, each embodiment can be appropriately combined within a range without contradiction.

[情報処理装置の説明]
図1は、実施例1にかかる情報処理装置10の全体例を説明する図である。図1に示す情報処理装置10は、被介護者の画像データや介護日誌などを利用して、食事前に被介護者の嚥下障害のリスクを予測し、介護者に通知することで、介護者の負担軽減と被介護者の窒息リスクの低減を実現するコンピュータ装置である。具体的には、図1に示すように、情報処理装置10は、事前フェーズと、学習フェーズと、予測フェーズとを実行する。
[Description of information processing device]
FIG. 1 is a diagram illustrating an overall example of an information processing apparatus 10 according to a first embodiment. The information processing apparatus 10 shown in FIG. 1 predicts the risk of dysphagia of the care recipient before eating using the care recipient's image data, nursing care diary, etc., and notifies the caregiver, so that the caregiver It is a computer device that reduces the burden on caregivers and reduces the risk of suffocation for caregivers. Specifically, as shown in FIG. 1, the information processing device 10 executes a preliminary phase, a learning phase, and a prediction phase.

例えば、事前フェーズでは、情報処理装置10は、複数の被介護者のデータを用いて、食事を飲み込む際の一連の動作を構成する複数の口腔機能の状態を判定するための指標である基準モデルを生成する。 For example, in the preliminary phase, the information processing apparatus 10 uses data of a plurality of caregivers to create a reference model that is an index for determining the state of a plurality of oral functions that constitute a series of actions when swallowing a meal. to generate

続いて、学習フェーズでは、情報処理装置10は、複数の口腔機能それぞれに対応する各基準モデルと対象者(被介護者)の各口腔機能の状態とを比較し、基準を満たさない対象者の口腔機能(以降では、不足機能と記載する場合がある)を特定する。そして、情報処理装置10は、特定された各不足機能について、対象者の嚥下障害を予測するための学習モデルを生成する。 Subsequently, in the learning phase, the information processing apparatus 10 compares each reference model corresponding to each of a plurality of oral functions with the state of each oral function of the subject (care recipient), and the subject who does not meet the criteria Identify oral function (hereinafter sometimes referred to as deficient function). Then, the information processing apparatus 10 generates a learning model for predicting the dysphagia of the subject for each of the specified deficient functions.

その後、予測フェーズでは、情報処理装置10は、学習済みの各学習モデルを用いて、判定当日の対象者の不足機能の状態を予測する。そして、情報処理装置10は、嚥下障害の発生リスクがあることが予測されると、介護者にアラートを報知する。 After that, in the prediction phase, the information processing apparatus 10 predicts the state of the subject's lack of function on the day of determination using each learned model. Then, when it is predicted that there is a risk of developing dysphagia, the information processing device 10 notifies the caregiver of an alert.

このように、情報処理装置10は、被介護者ごとに、不足機能を特定し、不足機能に対応する学習モデルを学習して、不足機能に対してのみ嚥下障害の発生リスクを予測することができる。この結果、情報処理装置10は、被介護者の負担を軽減しつつ、被介護者の嚥下障害を検出することができる。なお、ここでは、情報処理装置10が各フェーズを実行する例を説明したが、これに限定されるものではなく、各フェーズを別々の情報処理装置が実行することもできる。 In this way, the information processing apparatus 10 can identify the missing function for each care-receiver, learn a learning model corresponding to the missing function, and predict the risk of occurrence of dysphagia only for the missing function. can. As a result, the information processing apparatus 10 can detect the dysphagia of the care-receiver while reducing the burden on the care-receiver. Although an example in which the information processing apparatus 10 executes each phase has been described here, the present invention is not limited to this, and separate information processing apparatuses may execute each phase.

[機能構成]
図2は、実施例1にかかる情報処理装置10の機能構成を示す機能ブロック図である。図2に示すように、情報処理装置10は、通信部11、記憶部12、制御部20を有する。
[Function configuration]
FIG. 2 is a functional block diagram of the functional configuration of the information processing apparatus 10 according to the first embodiment. As shown in FIG. 2 , the information processing device 10 has a communication section 11 , a storage section 12 and a control section 20 .

通信部11は、他の装置との間の通信を制御する処理部であり、例えば通信インタフェースなどである。例えば、通信部11は、介護者のタブレット、スマートフォンなどのコンピュータ装置にアラートを送信したり、介護者や管理者などから処理開始の指示を受信したりする。 The communication unit 11 is a processing unit that controls communication with other devices, such as a communication interface. For example, the communication unit 11 transmits an alert to a caregiver's computer device such as a tablet or a smartphone, or receives an instruction to start processing from a caregiver or administrator.

記憶部12は、各種データや制御部20が実行するプログラムなどを記憶する記憶装置の一例であり、例えばメモリやハードディスクなどである。この記憶部12は、履歴情報DB13、測定値DB14、学習データDB15、学習結果DB16を記憶する。 The storage unit 12 is an example of a storage device that stores various data, programs executed by the control unit 20, and the like, and is, for example, a memory or a hard disk. The storage unit 12 stores a history information DB 13, a measured value DB 14, a learning data DB 15, and a learning result DB 16.

履歴情報DB13は、被介護者ごとに、被介護者の画像データを記憶するデータベースである。例えば、履歴情報DB13は、各被介護者に対応付けて、食事を飲み込む際の一連の動作を構成する複数の口腔機能それぞれを実行したときの画像データを記憶する。 History information DB13 is a database which memorize|stores the image data of a cared person for every cared person. For example, the history information DB 13 stores image data when each of a plurality of oral functions constituting a series of actions when swallowing a meal is executed in association with each care-receiver.

測定値DB14は、被介護者ごとに、上記複数の口腔機能の測定結果を記憶するデータベースである。具体的には、測定値DB14は、可動域訓練を行う各口腔周囲筋の測定結果、嚥下訓練を行う各嚥下機能の測定結果、筋力負荷訓練を行う各咀嚼機能の測定結果などを記憶する。 The measured value DB 14 is a database that stores the plurality of oral function measurement results for each care recipient. Specifically, the measurement value DB 14 stores the measurement results of each perioral muscle for range-of-motion training, the measurement results of each swallowing function for swallowing training, the measurement results for each masticatory function for muscle load training, and the like.

図3は、口腔機能の一例を説明する図である。図3に示すように、口腔機能は、複数の訓練項目を含み、各訓練項目は、複数の機能に細分化される。また、各機能は、当該機能が正常か否かを判定するための判定方法と判定条件とが定義されている。 FIG. 3 is a diagram illustrating an example of oral cavity functions. As shown in FIG. 3, the oral function includes multiple training items, and each training item is subdivided into multiple functions. Also, for each function, a determination method and determination conditions for determining whether the function is normal are defined.

可動域訓練は、舌や航空周囲の可動域の状態を測定するものであり、口腔周囲筋A、口腔周囲筋B、口腔周囲筋C、口腔周囲筋Dの各機能を有する。口腔周囲筋Aは、舌を顎先(または鼻先)に届かせるように突出させた状態を、10秒間のうち維持できた割合により判定される。口腔周囲筋Bは、“ア”の発音と同様に、口を大きく開けた状態を、10秒間のうち維持できた割合により判定される。口腔周囲筋Cは、“イ”の発音と同様に、口を大きく開けた状態を、10秒間のうち維持できた割合により判定される。口腔周囲筋Cの測定は、“ウ”の発音と同様に、口を大きく開けた状態を、10秒間のうち維持できた割合により判定される。 Range-of-motion training measures the state of the range of motion around the tongue and aviation, and has the functions of perioral muscle A, perioral muscle B, perioral muscle C, and perioral muscle D. The perioral muscle A is determined by the rate at which the tongue can be kept protruding to reach the tip of the chin (or the tip of the nose) within 10 seconds. The perioral muscle B is determined by the rate at which the mouth is kept wide open for 10 seconds, as in the pronunciation of "a". The perioral muscle C is judged by the rate at which the mouth is kept wide open for 10 seconds, as in the pronunciation of "i". The measurement of the perioral muscle C is determined by the rate at which the mouth can be kept wide open for 10 seconds, similar to the pronunciation of "U".

嚥下訓練は、嚥下反射を誘発させて、嚥下動作の状態を測定するものであり、嚥下機能Aと嚥下機能Bとを含む。嚥下機能Aは、10秒間、前口蓋弓または咽頭後壁に触れて嚥下反射を誘発させ、何秒で嚥下反射が発生したかにより測定される。嚥下機能Bは、10秒間、K-pointを圧刺激して嚥下反射を誘発させ、何秒で嚥下反射が発生したかにより測定される。なお、K-pointの位置は、一般的に定義されており、臼後三角最後部やや後方の内側である。 The swallowing training includes swallowing function A and swallowing function B, which is to induce a swallowing reflex and measure the state of swallowing motion. Swallowing function A is measured by touching the anterior palatine arch or the posterior pharyngeal wall for 10 seconds to induce a swallowing reflex, and measuring the number of seconds before the swallowing reflex occurs. Swallowing function B was measured by pressure stimulation of the K-point for 10 seconds to induce a swallowing reflex, and the number of seconds in which the swallowing reflex occurred. The position of the K-point is generally defined as slightly posterior and medial to the rearmost part of the retromolar triangle.

筋力負荷訓練は、舌や航空周囲の筋力の状態を測定するものであり、咀嚼機能A、咀嚼機能B、咀嚼機能Cの各機能を有する。咀嚼機能Aは、10回、スプーンを舌の上から押し、そのうち舌で押し返すことができた回数により判定される。咀嚼機能Bは、10回、ストローを唇に挟んだまま引っ張り、そのうちその力に抵抗できた回数により判定される。咀嚼機能Cは、10回、頬を膨らませて指でその頬を圧迫し、そのうちその力に抵抗できた回数により判定される。 Muscle load training measures the state of muscle strength around the tongue and aircraft, and has masticatory function A, masticatory function B, and masticatory function C. Masticatory function A was determined by the number of times the spoon was pushed from above the tongue 10 times and the tongue was able to push it back. Masticatory function B is determined by the number of times the straw can be resisted by pulling the straw between the lips 10 times. Masticatory function C is determined by the number of times the cheek is puffed up and pressed against the cheek with a finger and the force is resisted.

学習データDB15は、被介護者ごとに、学習データを記憶するデータベースである。例えば、学習データDB15は、各被介護者の不足機能の測定値と嚥下障害の発生有無とを対応付けて記憶する。ここで、不足機能の測定値が説明変数として利用され、嚥下障害の発生有無が目的変数として利用される。 The learning data DB 15 is a database that stores learning data for each cared person. For example, the learning data DB 15 stores the measurement value of the insufficient function of each cared person and the presence or absence of dysphagia in association with each other. Here, the measured value of insufficient function is used as an explanatory variable, and the presence or absence of dysphagia is used as an objective variable.

学習結果DB16は、学習結果を記憶するデータベースである。例えば、学習結果DB16は、学習済みの学習モデルの各種パラメータなどを記憶する。ここで記憶される各種パラメータを用いることで、学習済みの学習モデルを構築することができる。 The learning result DB 16 is a database that stores learning results. For example, the learning result DB 16 stores various parameters of a learned learning model. By using various parameters stored here, a learned learning model can be constructed.

制御部20は、情報処理装置10全体を司る処理部であり、例えばプロセッサなどである。この制御部20は、撮像部30、事前処理部40、学習処理部50、予測処理部60を有する。 The control unit 20 is a processing unit that controls the entire information processing apparatus 10, such as a processor. The control unit 20 has an imaging unit 30 , a preprocessing unit 40 , a learning processing unit 50 and a prediction processing unit 60 .

撮像部30は、カメラなどの撮像機器を用いて、各被介護者の画像を撮像する処理部である。例えば、撮像部30は、図3に示す各機能の判定方法に規定される動きを各被介護者に実行してもらい、その時の画像を撮像して、履歴情報DB13に格納する。なお、撮像部30は、毎日、画像を撮像して履歴情報DB13に格納する。 The image capturing unit 30 is a processing unit that captures an image of each cared person using an image capturing device such as a camera. For example, the imaging unit 30 causes each cared person to perform a movement specified by the determination method of each function shown in FIG. Note that the imaging unit 30 takes images every day and stores them in the history information DB 13 .

事前処理部40は、学習および予測に前もって、事前準備を行う処理部である。具体的には、事前処理部40は、履歴情報DB13に記憶される各被介護者の各機能の画像データを用いて、各機能が正常か否かを判定するための時系列の基準モデルを生成する。 The preprocessing unit 40 is a processing unit that prepares in advance for learning and prediction. Specifically, the preprocessing unit 40 uses the image data of each function of each care-receiver stored in the history information DB 13 to create a time-series reference model for determining whether each function is normal. Generate.

図4は、各機能の基準モデルの生成を説明する図である。図4に示すように、事前処理部40は、各機能の画像データを解析して各機能の状態を判定する。例えば、事前処理部40は、被介護者である「A氏」の口腔周囲筋Aの状態を判定する場合、「舌を顎先(または鼻先)に届かせるように突出させた状態」の画像を10回撮像する。そして、事前処理部40は、各画像データに対して、画像解析により口や舌の座標を特定し、口や舌の可動域を特定する。その後、事前処理部40は、10回中、舌の可動域が閾値以上であり「舌を顎先(または鼻先)に届かせるように突出させた状態」と判定できた回数(例えば7回)を計数する。その後、事前処理部40は、測定値DB14におけるA氏の口腔周囲筋Aに、「7/10=0.7」を設定する。 FIG. 4 is a diagram illustrating generation of a reference model for each function. As shown in FIG. 4, the preprocessing unit 40 analyzes the image data of each function and determines the state of each function. For example, when the pre-processing unit 40 determines the state of the perioral muscle A of "Mr. A" who is the care recipient, the image of "a state in which the tongue protrudes so as to reach the tip of the chin (or the tip of the nose)" is imaged 10 times. Then, the preprocessing unit 40 identifies the coordinates of the mouth and tongue by image analysis for each image data, and identifies the range of motion of the mouth and tongue. After that, the pre-processing unit 40 determines the number of times (for example, 7 times) that the range of motion of the tongue is equal to or greater than the threshold value and that "the tongue is projected so as to reach the tip of the chin (or the tip of the nose)" out of the 10 times. to count. After that, the preprocessing unit 40 sets “7/10=0.7” for the perioral muscle A of Mr. A in the measured value DB 14 .

別例を説明すると、事前処理部40は、被介護者である「B氏」の嚥下機能Aの状態を判定する場合、「10秒間、前口蓋弓または咽頭後壁に触れて嚥下反射を誘発させる状態」の画像を撮像する。そして、事前処理部40は、当該画像データに対して、画像解析により口や喉の座標を特定し、口や喉の可動域を特定する。その後、事前処理部40は、測定状態が開始されてから、口や喉の可動域が閾値以上であり「嚥下反射が発生した状態」と判定できた時間(例えば3秒)を計数する。その後、事前処理部40は、測定値DB14におけるB氏の嚥下機能Aに、「3/10=0.3」を設定する。 To explain another example, when determining the state of the swallowing function A of “Mr. Take an image of the state where the Then, the preprocessing unit 40 identifies the coordinates of the mouth and throat by image analysis of the image data, and identifies the range of motion of the mouth and throat. After that, the preprocessing unit 40 counts the time (for example, 3 seconds) after the start of the measurement state during which the range of motion of the mouth and throat is equal to or greater than the threshold and it can be determined that the swallowing reflex has occurred. After that, the preprocessing unit 40 sets "3/10=0.3" for Mr. B's swallowing function A in the measured value DB 14 .

さらに別例を説明すると、事前処理部40は、被介護者である「A氏」の咀嚼機能Bの状態を判定する場合、「ストローを唇に挟んだまま引っ張った状態」の画像を10回撮像する。そして、事前処理部40は、各画像データに対して、画像解析によりストローや唇の座標を特定し、ストローや唇の可動域を特定する。その後、事前処理部40は、10回中、ストローと唇との距離が閾値以上であり「ストローが唇から離れた状態」と判定できた回数(例えば8回)を計数する。その後、事前処理部40は、測定値DB14におけるA氏の咀嚼機能Bに、「(10-8)/10=0.2」を設定する。 To explain another example, when determining the state of masticatory function B of “Mr. Take an image. Then, the preprocessing unit 40 identifies the coordinates of the straw and lips by image analysis for each image data, and identifies the range of motion of the straw and lips. After that, the pre-processing unit 40 counts the number of times (for example, 8 times) that the distance between the straw and the lips is equal to or greater than the threshold and that the "straw is separated from the lips" can be determined out of the 10 times. After that, the preprocessing unit 40 sets “(10−8)/10=0.2” to the masticatory function B of Mr. A in the measured value DB 14 .

図4に戻り、このようにして、事前処理部40は、A氏やB氏などの各被介護者に対して、図3に示した各機能の画像データの解析を実行して、各機能の判定を実行し、その結果を測定値DB14に格納する。その後、事前処理部40は、機能ごとにモデリングを実行して、各機能の基準モデルを生成する。 Returning to FIG. 4, in this manner, the preprocessing unit 40 analyzes the image data of each function shown in FIG. , and the result is stored in the measured value DB 14 . After that, the preprocessing unit 40 performs modeling for each function to generate a reference model for each function.

例えば、事前処理部40は、口腔周囲筋Aの基準モデルを生成する場合、横軸を年齢、縦軸を口腔周囲筋Aの判定結果(算出された割合)とするグラフに、各被介護者の測定値をプロットする。そして、事前処理部40は、各プロット値からの誤差が最も小さくなる近似直線を生成し、その近似直線を口腔周囲筋Aの基準モデルと決定する。このようにして、事前処理部40は、各機能の基準モデルを生成して、記憶部12に格納したり、学習処理部50に出力したりする。なお、誤差に関しては、最小二乗法などの公知の手法を採用することができ、近似直線に関しては、近似曲線など公知の他の手法を採用することができる。 For example, when the preprocessing unit 40 generates the reference model of the perioral muscle A, each cared person is plotted on a graph in which the horizontal axis is the age and the vertical axis is the determination result (calculated ratio) of the perioral muscle A. Plot the measurements of . Then, the preprocessing unit 40 generates an approximate straight line that minimizes the error from each plot value, and determines the approximate straight line as the reference model of the muscles A around the oral cavity. In this manner, the preprocessing unit 40 generates a reference model for each function, stores it in the storage unit 12, and outputs it to the learning processing unit 50. FIG. As for the error, a known method such as the least squares method can be employed, and as for the approximate straight line, another known method such as an approximate curve can be employed.

図2に戻り、学習処理部50は、不足判定部51と、学習データ生成部52と、学習部53とを有し、被介護者ごとに、嚥下障害の発生を予測する学習モデルを生成する処理部である。 Returning to FIG. 2, the learning processing unit 50 includes a shortage determination unit 51, a learning data generation unit 52, and a learning unit 53, and generates a learning model for predicting the occurrence of dysphagia for each care recipient. processing unit.

不足判定部51は、被介護者ごとに、不足機能を判定する処理部である。具体的には、不足判定部51は、各被介護者について、各機能の基準モデルと測定値(実測値)とを比較し、基準を満たさない対象者の口腔機能である不足機能を判定する。 The shortage determination unit 51 is a processing unit that determines a shortage function for each care recipient. Specifically, the lack determination unit 51 compares the reference model and the measured value (actual value) of each function for each care recipient, and determines the lack function, which is the oral function of the subject who does not meet the criteria. .

図5は、不足している口腔機能の特定を説明する図である。図5に示すように、不足判定部51は、測定値DB14を参照し、予め指定された特定日に測定された口腔周囲筋Aや嚥下機能Aなどの各機能の測定値を取得する。続いて、不足判定部51は、測定値が基準モデルよりも上に位置する場合に、当該機能が基準を満たすと判定し、測定値が基準モデルよりも下に位置する場合に、当該機能が基準を満たさないと判定する。 FIG. 5 is a diagram for explaining identification of deficient oral cavity functions. As shown in FIG. 5 , the deficiency determination unit 51 refers to the measured value DB 14 and acquires measured values of each function such as the perioral muscle A and the swallowing function A measured on a specific date specified in advance. Subsequently, the shortage determination unit 51 determines that the function satisfies the criterion when the measured value is positioned above the reference model, and determines that the function satisfies the criterion when the measured value is positioned below the reference model. judged not to meet the criteria.

図5の例では、不足判定部51は、A氏に関して、口腔周囲筋Aと口腔周囲筋Cと嚥下機能Aとが基準を満たし、口腔周囲筋Bと口腔周囲筋Dと咀嚼機能Aとが基準を満たさないと判定したことを示している。そして、不足判定部51は、基準を満たさないと判定された不足機能として、口腔周囲筋Bと口腔周囲筋Dと咀嚼機能Aとを学習データ生成部52に出力する。このようにして、不足判定部51は、各被介護者の不足機能を特定して、学習データ生成部52に出力する。 In the example of FIG. 5, the deficiency determination unit 51 determines that Mr. A has the perioral muscles A, the perioral muscles C, and the swallowing function A, and the perioral muscles B, the perioral muscles D, and the masticatory function A satisfy the criteria. It indicates that it was determined that the criteria were not met. Then, the deficiency determination unit 51 outputs the perioral muscle B, the perioral muscle D, and the masticatory function A to the learning data generation unit 52 as insufficient functions determined not to satisfy the criteria. In this way, the shortage determination unit 51 identifies the missing functions of each care receiver and outputs them to the learning data generation unit 52 .

学習データ生成部52は、各被介護者に対して、各不足機能に対応する学習モデルを学習するための学習データを生成する処理部である。具体的には、学習データ生成部52は、各被介護者の各不足機能について、測定値DB14に記憶される当該介護者の不足機能の測定値を説明変数とし、介護日誌等で取得可能な嚥下障害の発生有無を目的変数とする学習データを生成して、学習データDB15に格納する。 The learning data generation unit 52 is a processing unit that generates learning data for learning a learning model corresponding to each insufficient function for each cared person. Specifically, the learning data generation unit 52 uses the measured value of the caregiver's insufficient function stored in the measured value DB 14 as an explanatory variable for each care-receiver's insufficient function, and the learning data generation unit 52 can acquire the care diary or the like. Learning data having occurrence of dysphagia as an objective variable is generated and stored in the learning data DB 15 .

図6は、学習データの生成を説明する図である。図6に示すように、学習データ生成部52は、A氏に関して不足機能と特定された口腔周囲筋Bと口腔周囲筋Dと咀嚼機能Aとのそれぞれに対応した学習データを生成する。 FIG. 6 is a diagram for explaining generation of learning data. As shown in FIG. 6, the learning data generation unit 52 generates learning data corresponding to each of the perioral muscles B, the perioral muscles D, and the masticatory function A, which are identified as insufficient functions for Mr. A. As shown in FIG.

具体的には、学習データ生成部52は、A氏の口腔周囲筋Bについて、「説明変数、目的変数」として、「5月1日の測定値(0.4)、嚥下障害の発生記録(あり)」、「5月2日の測定値(0.7)、嚥下障害の発生記録(なし)」、「5月3日の測定値(0.5)、嚥下障害の発生記録(あり)」などとする教師有の学習データを生成する。 Specifically, the learning data generation unit 52 sets the “explanatory variable, objective variable” for Mr. A’s perioral muscle B as “measured value (0.4) on May 1, record of occurrence of dysphagia ( Yes)”, “measured value on May 2nd (0.7), record of dysphagia (no record)”, “measured value on May 3rd (0.5), record of dysphagia (yes) ” and so on to generate supervised learning data.

同様に、学習データ生成部52は、A氏の口腔周囲筋Dについて、「説明変数、目的変数」として、「5月1日の測定値(0.5)、嚥下障害の発生記録(あり)」、「5月2日の測定値(0.5)、嚥下障害の発生記録(なし)」、「5月3日の測定値(0.5)、嚥下障害の発生記録(あり)」などとする教師有の学習データを生成する。 Similarly, the learning data generation unit 52 sets the “explanatory variable, objective variable” for Mr. A’s perioral muscle D as “measured value on May 1 (0.5), record of occurrence of dysphagia (present) ”, “measured value on May 2nd (0.5), dysphagia recorded (none)”, “measured value on May 3rd (0.5), dysphagia recorded (yes)”, etc. Generate supervised learning data with

同様に、学習データ生成部52は、A氏の咀嚼機能Aについて、「説明変数、目的変数」として、「5月1日の測定値(0.5)、嚥下障害の発生記録(あり)」、「5月2日の測定値(0.5)、嚥下障害の発生記録(なし)」、「5月3日の測定値(0.2)、嚥下障害の発生記録(あり)」などとする教師有の学習データを生成する。 Similarly, the learning data generation unit 52 sets “measured value on May 1 (0.5), occurrence record of dysphagia (yes)” as “explanatory variable, objective variable” for Mr. A’s masticatory function A. , "Measured value on May 2nd (0.5), dysphagia recorded (no)", "Measured value on May 3rd (0.2), dysphagia recorded (yes)", etc. Generate supervised training data that

このようにすることで、学習データ生成部52は、被介護者ごとに、食事を飲み込む際の一連の動作を構成する全口腔機能ではなく、不足する機能についてのみを学習データを生成することができる。 By doing so, the learning data generation unit 52 can generate learning data only for functions that are lacking, not for all oral functions that constitute a series of actions when swallowing a meal, for each care recipient. can.

学習部53は、被介護者の不足機能ごとに、嚥下障害の発生を予測する学習モデルを学習する処理部である。具体的には、学習部53は、各被介護者の各不足機能について、対応する学習データを学習データDB15から取得し、取得した学習データを用いて、機械学習などを実行する。そして、学習部53は、学習が終了すると、「被介護者、不足機能、学習結果」を学習結果DB16に格納する。なお、学習を終了するタイミングは、所定数以上の学習データを用いた学習が完了した時点や復元誤差が閾値未満となった時点など、任意に設定することができる。 The learning unit 53 is a processing unit that learns a learning model for predicting the occurrence of dysphagia for each of the care-receiver's insufficient functions. Specifically, the learning unit 53 acquires learning data corresponding to each insufficient function of each care-receiver from the learning data DB 15, and performs machine learning or the like using the acquired learning data. Then, after completing the learning, the learning unit 53 stores “the cared person, the missing function, the learning result” in the learning result DB 16 . Note that the timing for ending learning can be arbitrarily set, such as when learning using a predetermined number or more of learning data is completed, or when the restoration error becomes less than a threshold.

ここで、学習モデルの一例として、ロジスティック回帰モデル(以下、単にロジスティック回帰と記載する場合がある)を用いた例を説明する。学習部53は、式(1)に示す線形回帰の式を、式(2)に示すシグモイド関数に入力し、式(2)で得られる値をロジスティック回帰として取得する。ここで、式(1)におけるXに説明変数が入力され、yが目的変数、wは重みであり、bは予め指定された定数である。 Here, an example using a logistic regression model (hereinafter sometimes simply referred to as logistic regression) will be described as an example of a learning model. The learning unit 53 inputs the linear regression equation shown in equation (1) to the sigmoid function shown in equation (2), and acquires the value obtained by equation (2) as logistic regression. Here, an explanatory variable is input to X in Equation (1), y is an objective variable, w is a weight, and b is a prespecified constant.

Figure 0007243439000001
Figure 0007243439000001
Figure 0007243439000002
Figure 0007243439000002

図7は、学習モデルの生成を説明する図である。図7に示すように、学習部53は、A氏の口腔周囲筋Bの学習モデルを生成する場合、5月1日の説明変数「0.4」を式(1)のXに入力し、目的変数「あり=1.0」をyに入力して、重みwを算出する。同様に、学習部53は、5月2日の説明変数「0.7」を式(1)のXに入力し、目的変数「なし=0.0」をyに入力して重みwを算出し、さらに、5月3日の説明変数「0.5」を式(1)のXに入力し、目的変数「あり=1.0」をyに入力して重みwを算出する。 FIG. 7 is a diagram explaining generation of a learning model. As shown in FIG. 7, when the learning unit 53 generates a learning model of Mr. A's perioral muscle B, the explanatory variable "0.4" for May 1 is input to X in Equation (1), The weight w is calculated by inputting the objective variable “yes=1.0” into y. Similarly, the learning unit 53 inputs the explanatory variable “0.7” for May 2nd to X in Equation (1), inputs the objective variable “none=0.0” to y, and calculates the weight w. Then, the explanatory variable “0.5” for May 3 is input to X in Equation (1), and the objective variable “Yes=1.0” is input to y to calculate the weight w.

このようにして、学習部53は、学習データと一致するように重みwを最適化するモデル学習を実行し、学習された重みwを用いた式(1)を式(2)に代入してロジスティック回帰を生成する。学習部53は、A氏について、不足機能と特定された口腔周囲筋Bと口腔周囲筋Dと咀嚼機能Aのそれぞれについて、ロジスティック回帰を生成する。ロジスティック回帰では、出力値が1に近いほど、嚥下障害の出現確率のリスクが高く、出力値が0に近いほど、嚥下障害の出現確率のリスクが低く、出力値が閾値以上の場合に、嚥下障害の出現確率が高いと判定される。 In this way, the learning unit 53 performs model learning that optimizes the weight w so as to match the learning data, substitutes the formula (1) using the learned weight w into the formula (2), and obtains Generate a logistic regression. For Mr. A, the learning unit 53 generates a logistic regression for each of the perioral muscle B, the perioral muscle D, and the masticatory function A that are identified as lacking functions. In logistic regression, the closer the output value is to 1, the higher the risk of occurrence of dysphagia, the closer the output value is to 0, the lower the risk of occurrence of dysphagia, and when the output value is above the threshold, swallowing It is determined that the occurrence probability of failure is high.

図2に戻り、予測処理部60は、予測部61と報知部62を有し、各被介護者に対して、嚥下障害の発生を予測し、予測結果に応じた報知処理を実行する処理部である。 Returning to FIG. 2, the prediction processing unit 60 has a prediction unit 61 and a notification unit 62. A processing unit that predicts the occurrence of dysphagia for each care recipient and executes notification processing according to the prediction result. is.

予測部61は、各被介護者について、食事前に、各被介護者の不足機能に対応する各学習モデルを用いて、嚥下障害の出現確率のリスクを予測する処理部である。具体的には、予測部61は、予測対象者の不足機能に対応する学習結果を学習結果DB16から読み出して、各不足機能に対応する学習済みの学習モデルを構築する。続いて、予測部61は、予測対象者の予測日の食事前の画像データから、各不足機能の測定値を算出する。そして、予測部61は、各不足機能の測定値を、各不足機能に対応する学習済みの学習モデルに入力し、各出力結果を取得する。その後、予測部61は、各出力結果に基づき、嚥下障害の発生確率が高いと予測された場合に、報知部62にその旨を出力する。 The prediction unit 61 is a processing unit that predicts the risk of occurrence probability of dysphagia for each care-receiver before meals using each learning model corresponding to the function deficiency of each care-receiver. Specifically, the prediction unit 61 reads out the learning results corresponding to the insufficient functions of the person to be predicted from the learning result DB 16, and constructs a learned learning model corresponding to each insufficient function. Subsequently, the prediction unit 61 calculates the measurement value of each insufficient function from the image data before the meal on the predicted date of the person to be predicted. Then, the prediction unit 61 inputs the measured value of each insufficient function to the learned learning model corresponding to each insufficient function, and acquires each output result. After that, based on each output result, the prediction unit 61 outputs that fact to the notification unit 62 when it is predicted that the probability of occurrence of dysphagia is high.

図8と図9は、嚥下障害の予測を説明する図である。図8に示すように、嚥下障害の発生予測は、ロジスティック回帰において不足機能の測定値に対応する目的変数の値により判定される。図8の(1)に示す説明変数の場合、目的変数「0」よりも目的変数「1」の方がロジスティック回帰との距離が短いことから、嚥下障害ありと予測される。一方、図8の(2)に示す説明変数の場合、目的変数「1」よりも目的変数「0」の方がロジスティック回帰との距離が短いことから、嚥下障害なしと予測される。 8 and 9 are diagrams for explaining prediction of dysphagia. As shown in FIG. 8, the prediction of the occurrence of dysphagia is determined by the value of the objective variable corresponding to the deficit measure in the logistic regression. In the case of the explanatory variables shown in (1) of FIG. 8, since the objective variable "1" has a shorter distance from the logistic regression than the objective variable "0", it is predicted that there is dysphagia. On the other hand, in the case of the explanatory variables shown in (2) of FIG. 8, since the objective variable "0" has a shorter distance from the logistic regression than the objective variable "1", it is predicted that there is no dysphagia.

予測部61は、予測対象者の各不足機能のうち、1つでの嚥下障害ありと予測された場合は、当該予測対象者に嚥下障害の発生の危険性があると予測する。具体的には、図9の(1)に示すように、予測部61は、予測対象者であるA氏の不足機能である口腔周囲筋B、口腔周囲筋D、咀嚼機能Aのそれぞれについて、予測当日の測定値とロジスティック回帰とに基づき、嚥下障害を予測する。そして、予測部61は、口腔周囲筋Aについて「嚥下障害あり」が検出されると、A氏に関して嚥下障害の危険性が高いと予測する。 The prediction unit 61 predicts that the prediction target person is at risk of developing dysphagia when it is predicted that one of the insufficient functions of the prediction target person has dysphagia. Specifically, as shown in (1) of FIG. 9 , the prediction unit 61 predicts, for each of the perioral muscle B, the perioral muscle D, and the masticatory function A, which are the insufficient functions of Mr. A, who is the person to be predicted, Dysphagia is predicted based on measurements on the day of prediction and logistic regression. Then, when "dysphagia" is detected for the perioral muscle A, the prediction unit 61 predicts that Mr. A has a high risk of dysphagia.

一方、図9の(2)に示すように、予測部61は、予測対象者であるB氏の不足機能である口腔周囲筋A、嚥下機能A、咀嚼機能Bのそれぞれについて、予測当日の測定値とロジスティック回帰とに基づき、嚥下障害を予測する。そして、予測部61は、いずれの不足機能についても「嚥下障害なし」が検出されると、B氏に関して嚥下障害の危険性が低いと予測する。 On the other hand, as shown in (2) of FIG. 9 , the prediction unit 61 performs measurement on the prediction day for each of the perioral muscles A, the swallowing function A, and the masticatory function B, which are insufficient functions of Mr. B, who is the person to be predicted. Predict dysphagia based on values and logistic regression. Then, when "no dysphagia" is detected for any of the missing functions, the prediction unit 61 predicts that Mr. B has a low risk of dysphagia.

報知部62は、嚥下障害の発生が予測された場合に、介護者に対してアラームを報知する処理部である。例えば、報知部62は、A氏に関して嚥下障害の発生が予測された場合、介護者のスマートフォンなどに、「A氏、嚥下障害の危険あり、注意」などの注意を促すメッセージを送信する。 The notification unit 62 is a processing unit that issues an alarm to a caregiver when the occurrence of dysphagia is predicted. For example, when the occurrence of dysphagia for Mr. A is predicted, the notification unit 62 transmits a message to the caregiver's smartphone or the like to call attention such as "Mr. A is in danger of dysphagia, be careful."

別例を挙げると、報知部62は、介護者の有する端末装置やAR眼鏡(augmented reality glass)に対して、嚥下障害の発生確率の高い被介護者を監視するよう指示する画像、音、振動を出力する。また、報知部62は、嚥下障害の発生確率の高い被介護者のリスクが低くなるまで、被介護者が嚥下体操をするように、コミュニケーションロボットにコーチングさせる。例えば、コミュニケーションロボットは、介護者に代わって、被介護者の食事の手伝いや嚥下障害の監視などを行う。 To give another example, the notification unit 62 instructs a terminal device or AR glasses (augmented reality glasses) possessed by a caregiver to monitor a care-receiver who is likely to develop dysphagia. to output In addition, the notification unit 62 causes the communication robot to coach the care recipient to perform swallowing exercises until the risk of the care recipient having a high probability of developing dysphagia decreases. For example, the communication robot helps the care recipient with meals and monitors dysphagia on behalf of the caregiver.

[処理の流れ]
次に、上述した情報処理装置10が実行する一連の処理の流れを説明する。図10は、処理の流れを示すフローチャートである。ここでは、事前フェーズ、学習フェーズ、予測フェーズの一連の流れを説明するが、各フェーズを別々のタイミングで実行することもできる。
[Process flow]
Next, a flow of a series of processes executed by the information processing apparatus 10 described above will be described. FIG. 10 is a flowchart showing the flow of processing. Here, a series of flow of the preliminary phase, the learning phase, and the prediction phase will be described, but each phase can also be executed at different timings.

図10に示すように、事前処理部40は、管理者等により処理の開始が指示されると(S101:Yes)、撮像部30により撮像された履歴情報を履歴情報DB13から収集し(S102)、各口腔機能について、時系列モデル(基準)を生成する(S103)。 As shown in FIG. 10, when the administrator or the like instructs the preprocessing unit 40 to start processing (S101: Yes), the preprocessing unit 40 collects history information captured by the imaging unit 30 from the history information DB 13 (S102). , a time-series model (reference) is generated for each oral cavity function (S103).

続いて、学習処理部50は、管理者等により学習開始が指示されると(S104:Yes)、対象者の測定結果を収集し(S105)、各基準と測定結果とを比較して、不足機能を特定する(S106)。そして、学習処理部50は、各不足機能に対応する学習データを生成して、各学習データを用いたモデル学習により、各不足機能のロジスティック回帰モデル(学習モデル)を生成する(S107)。 Subsequently, when the administrator or the like instructs to start learning (S104: Yes), the learning processing unit 50 collects the measurement results of the subject (S105), compares each standard with the measurement results, A function is specified (S106). Then, the learning processing unit 50 generates learning data corresponding to each missing function, and generates a logistic regression model (learning model) of each missing function by model learning using each learning data (S107).

その後、予測処理部60は、管理者等により予測開始が指示されると(S108:Yes)、対象者の当日の測定値を測定値DB14から取得し(S109)、測定された測定値から不足機能の測定値を抽出する(S110)。 After that, when the administrator or the like instructs to start prediction (S108: Yes), the prediction processing unit 60 acquires the target person's measurement value of the day from the measurement value DB 14 (S109), The functional measurements are extracted (S110).

続いて、予測処理部60は、各不足機能の測定値を各不足機能のロジスティック回帰モデルに入力して得られる結果に基づき、嚥下障害を予測する(S111)。そして、予測処理部60は、各不足機能のいずれかにおいて「嚥下障害あり」が予測された場合(S112:Yes)、介護者にアラームを報知する(S113)。なお、予測処理部60は、各不足機能のいずれにも「嚥下障害あり」が予測されない場合(S112:No)、S113を実行することなく、S114を実行する。 Subsequently, the prediction processing unit 60 predicts dysphagia based on the results obtained by inputting the measured values of each function deficiency into the logistic regression model of each function deficiency (S111). Then, when "dysphagia is present" is predicted for any of the missing functions (S112: Yes), the prediction processing unit 60 issues an alarm to the caregiver (S113). Note that the prediction processing unit 60 executes S114 without executing S113 when "dysphagia" is predicted for none of the missing functions (S112: No).

その後、予測処理部60は、予測処理を継続する場合(S114:No)、S108以降を繰り返し、予測処理を終了する場合(S114:Yes)、処理を終了する。 Thereafter, the prediction processing unit 60 repeats S108 and subsequent steps when continuing the prediction processing (S114: No), and ends the processing when ending the prediction processing (S114: Yes).

[効果]
上述したように、情報処理装置10は、介護日誌等から嚥下障害(食事中のむせる)の記録と、食事前の顔を動かした情報(画像データなど)とを用いて、モデリングを実行する。そして、情報処理装置10は、食事前の画像データを入力として嚥下障害のリスクを推定することができる。したがって、情報処理装置10は、被介護者の嚥下障害を検出することができる。また、情報処理装置10は、事前に嚥下詳細の発生リスクを検出できるので、被介護者に対して介護者の最適な割り当てが実現でき、介護者の余計な負担を軽減することができる。
[effect]
As described above, the information processing apparatus 10 performs modeling using a record of dysphagia (choking during meals) from a care diary or the like and information (image data, etc.) on facial movement before meals. Then, the information processing apparatus 10 can estimate the risk of dysphagia by inputting the image data before meals. Therefore, the information processing apparatus 10 can detect the dysphagia of the care-receiver. In addition, since the information processing apparatus 10 can detect the risk of occurrence of details of swallowing in advance, it is possible to realize optimal assignment of caregivers to caregivers, thereby reducing the extra burden on the caregivers.

さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。 Although the embodiments of the present invention have been described so far, the present invention may be implemented in various different forms other than the embodiments described above.

[データや数値等]
上記実施例で用いたデータ例、数値例、表示例等は、あくまで一例であり、任意に変更することができる。また、食事を飲み込む際の一連の動作を構成する複数の口腔機能も一例であり、他の情報を用いることもできる。
[Data, figures, etc.]
The data examples, numerical values, display examples, etc. used in the above embodiments are only examples, and can be arbitrarily changed. A plurality of oral cavity functions constituting a series of actions when swallowing a meal is also an example, and other information can also be used.

[学習モデル]
上記実施例では、学習モデルとして、ロジスティック回帰モデルを用いた例を説明したが、これに限定されるものではなく、ニューラルネットワークやサポートベクターマシンなど他の機械学習を採用することもできる。学習済みのモデルを用いた予測は、判定対象の当日のうち食事前であればいつ実行してもよい。
[Learning model]
In the above embodiment, an example using a logistic regression model as a learning model has been described, but the learning model is not limited to this, and other machine learning such as neural networks and support vector machines can also be adopted. Prediction using a learned model may be performed at any time before meals on the day to be determined.

[学習データ]
上記実施例では、口腔機能の判定や学習データとして、嚥下体操の実行時間や実行回数などを用いる例を説明したが、これに限定されるものではなく、食事前の会話時間などを用いることもできる。
[Learning data]
In the above embodiment, the execution time and the number of executions of swallowing exercises are used as oral function determination and learning data. can.

[基準モデル]
また、基準モデルは、各被介護者の情報や嚥下障害がない被介護者の情報などを用いた統計処理により、予め設定されていてもよい。また、基準モデルを生成する際に、各被介護者の測定結果を用いる例を説明したが、これに限定されるものではなく、全被介護者のうち嚥下障害が発生したことがない被介護者の測定値のみを用いて、基準モデルを生成することもできる。
[Reference model]
Further, the reference model may be set in advance by statistical processing using information of each care recipient, information of care recipients who do not have dysphagia, and the like. In addition, an example of using the measurement results of each care recipient when generating the reference model has been described, but the present invention is not limited to this. It is also possible to generate a reference model using only the person's measurements.

[嚥下体操による判定]
上記実施例では、不足機能の学習モデルを用いて嚥下障害の出願確率のリスクを判定する例を説明したが、これに限定されるものではなく、学習モデルを生成することなく、画像データから判定することもできる。
[Determination by swallowing exercises]
In the above example, an example of determining the risk of filing a dysphagia application using a learning model of insufficient function was described, but it is not limited to this, and determination is made from image data without generating a learning model. You can also

例えば、情報処理装置10は、不足機能があると判定された対象者に対して、食事前に画像を撮像する。続いて、情報処理装置10は、食事前の画像データを解析して、座標等を用いて口等の動きや動いた距離などを特定する。そして、情報処理装置10は、嚥下対象や各口腔機能を特定する動きを予め保存しておき、食事前の画像データを解析して、各口腔機能の動きが実施されたかを判定する。その後、情報処理装置10は、未実施の口腔機能が検出された場合、介護者にアラームを報知する。 For example, the information processing apparatus 10 captures an image of the subject determined to have insufficient function before eating. Subsequently, the information processing apparatus 10 analyzes the image data before the meal, and uses the coordinates and the like to identify the movement of the mouth and the like, the distance of the movement, and the like. Then, the information processing apparatus 10 pre-stores movements that specify the swallowing target and each oral function, analyzes the pre-meal image data, and determines whether or not the movement of each oral cavity function has been performed. After that, the information processing device 10 notifies the caregiver of an alarm when an unimplemented oral cavity function is detected.

[システム]
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
[system]
Information including processing procedures, control procedures, specific names, and various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散や統合の具体的形態は図示のものに限られない。つまり、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Also, each component of each device illustrated is functionally conceptual, and does not necessarily need to be physically configured as illustrated. That is, the specific forms of distribution and integration of each device are not limited to those shown in the drawings. That is, all or part of them can be functionally or physically distributed and integrated in arbitrary units according to various loads and usage conditions.

さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。 Further, each processing function performed by each device may be implemented in whole or in part by a CPU and a program analyzed and executed by the CPU, or implemented as hardware based on wired logic.

[ハードウェア]
図11は、ハードウェア構成例を説明する図である。図11に示すように、情報処理装置10は、通信装置10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ10dを有する。また、図11に示した各部は、バス等で相互に接続される。
[hardware]
FIG. 11 is a diagram illustrating a hardware configuration example. As shown in FIG. 11, the information processing device 10 has a communication device 10a, a HDD (Hard Disk Drive) 10b, a memory 10c, and a processor 10d. 11 are interconnected by a bus or the like.

通信装置10aは、ネットワークインタフェースカードなどであり、他の装置との通信を行う。HDD10bは、図2に示した機能を動作させるプログラムやDBを記憶する。 The communication device 10a is a network interface card or the like, and communicates with other devices. The HDD 10b stores programs and DBs for operating the functions shown in FIG.

プロセッサ10dは、図2に示した各処理部と同様の処理を実行するプログラムをHDD10b等から読み出してメモリ10cに展開することで、図2等で説明した各機能を実行するプロセスを動作させる。例えば、このプロセスは、情報処理装置10が有する各処理部と同様の機能を実行する。具体的には、プロセッサ10dは、撮像部30、事前処理部40、学習処理部50、予測処理部60等と同様の機能を有するプログラムをHDD10b等から読み出す。そして、プロセッサ10dは、撮像部30、事前処理部40、学習処理部50、予測処理部60等と同様の処理を実行するプロセスを実行する。 The processor 10d reads from the HDD 10b or the like a program that executes the same processing as each processing unit shown in FIG. 2 and develops it in the memory 10c, thereby operating the process of executing each function described with reference to FIG. 2 and the like. For example, this process executes the same function as each processing unit of the information processing apparatus 10 . Specifically, the processor 10d reads a program having functions similar to those of the imaging unit 30, the preprocessing unit 40, the learning processing unit 50, the prediction processing unit 60, and the like, from the HDD 10b and the like. Then, the processor 10d executes the same processes as those of the imaging unit 30, the preprocessing unit 40, the learning processing unit 50, the prediction processing unit 60, and the like.

このように、情報処理装置10は、プログラムを読み出して実行することで学習方法を実行する情報処理装置として動作する。また、情報処理装置10は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、情報処理装置10によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。 Thus, the information processing apparatus 10 operates as an information processing apparatus that executes a learning method by reading and executing a program. Further, the information processing apparatus 10 can read the program from the recording medium by the medium reading device and execute the read program, thereby realizing the same function as the embodiment described above. Note that the programs referred to in other embodiments are not limited to being executed by the information processing apparatus 10 . For example, the present invention can be applied in the same way when another computer or server executes the program, or when they cooperate to execute the program.

10 情報処理装置
11 通信部
12 記憶部
13 履歴情報DB
14 測定値DB
15 学習データDB
16 学習結果DB
20 制御部
30 撮像部
40 事前処理部
50 学習処理部
51 不足判定部
52 学習データ生成部
53 学習部
60 予測処理部
61 予測部
62 報知部
REFERENCE SIGNS LIST 10 information processing device 11 communication unit 12 storage unit 13 history information DB
14 Measured value DB
15 Learning data DB
16 Learning result database
20 control unit 30 imaging unit 40 preprocessing unit 50 learning processing unit 51 shortage determination unit 52 learning data generation unit 53 learning unit 60 prediction processing unit 61 prediction unit 62 notification unit

Claims (10)

コンピュータが、
食事を飲み込む際の一連の動作を構成する複数の口腔機能の中で、予め設定された基準を満たしていない被介護者の口腔機能である不足機能を特定し、
前記被介護者を撮像した画像データに基づいて、前記不足機能に対応する動作を食事前に実行しているか否かを判定し、
判定結果に基づいて、嚥下障害のリスクに関するアラートを報知する
処理を実行することを特徴とする食事リスク判定方法。
the computer
Among multiple oral functions that constitute a series of actions when swallowing a meal, identify the insufficient function, which is the oral function of the care recipient that does not meet the preset criteria,
Determining whether or not an operation corresponding to the lacking function is being performed before eating based on image data of the care-receiver;
A method for judging a dietary risk, characterized by executing a process of notifying an alert regarding a risk of dysphagia based on a judgment result.
蓄積された複数の被介護者の前記複数の口腔機能に関する測定値を用いて、前記複数の口腔機能それぞれに対応する複数の基準モデルを生成する処理、を前記コンピュータが実行し、
前記特定する処理は、前記複数の基準モデルと、前記被介護者の前記複数の口腔機能それぞれに関する測定値とを比較し、前記不足機能を特定する、ことを特徴とする請求項1に記載の食事リスク判定方法。
The computer executes a process of generating a plurality of reference models corresponding to each of the plurality of oral functions using the accumulated measured values regarding the plurality of oral functions of the plurality of care recipients,
2. The process of specifying, according to claim 1, characterized in that the plurality of reference models and the measured values relating to each of the plurality of oral functions of the care recipient are compared to specify the lacking function. Dietary risk determination method.
前記被介護者に対応する前記複数の口腔機能うち前記不足機能に関する測定値を説明変数、前記嚥下障害の発生有無を目的変数とする学習モデルを学習する処理を前記コンピュータが実行し、
前記判定する処理は、判定日に測定された前記不足機能に関する測定値を前記学習モデルに入力して得られる出力結果に基づいて、前記嚥下障害の出現確率のリスクを判定することを特徴とする請求項1または2に記載の食事リスク判定方法。
The computer executes a process of learning a learning model in which the measurement value related to the insufficient function among the plurality of oral functions corresponding to the care recipient is an explanatory variable, and the presence or absence of the dysphagia occurrence is an objective variable,
The determination process is characterized by determining the risk of the occurrence probability of the dysphagia based on the output result obtained by inputting the measurement value related to the insufficient function measured on the determination date into the learning model. The dietary risk determination method according to claim 1 or 2.
前記判定する処理は、前記判定日の食事前に撮像された前記被介護者の画像データから、前記不足機能に対応する動きを特定し、前記動きに基づき前記測定値を生成することを特徴とする請求項3に記載の食事リスク判定方法。 The determination process is characterized in that, from the image data of the care-receiver captured before eating on the determination date, a movement corresponding to the lacking function is identified, and the measured value is generated based on the movement. The dietary risk determination method according to claim 3. 前記特定する処理は、判定対象である被介護者ごとに、前記不足機能を特定し、
前記学習する処理は、前記被介護者ごとの不足機能ごとに、前記学習モデルを生成し、
前記判定する処理は、前記被介護者ごとに、前記不足機能に対応する前記学習モデルを用いて、前記嚥下障害の出現確率のリスクを判定することを特徴とする請求項4に記載の食事リスク判定方法。
The identifying process identifies the missing function for each care receiver to be determined,
The learning process generates the learning model for each missing function of each care recipient,
5. The dietary risk according to claim 4, wherein the judging process judges the risk of occurrence probability of the dysphagia for each care recipient using the learning model corresponding to the deficient function. judgment method.
前記報知する処理は、介護者が有する端末装置に対して、前記嚥下障害の出現確率が閾値以上である被介護者を監視するよう指示する、画像、音、振動の少なくとも一つを出力することを特徴とする請求項1から5のいずれか一つに記載の食事リスク判定方法。 The notification process includes outputting at least one of an image, sound, and vibration to a terminal device possessed by a caregiver to instruct the care-receiver to monitor the care-receiver whose probability of occurrence of dysphagia is equal to or greater than a threshold. The dietary risk determination method according to any one of claims 1 to 5, characterized by: 前記報知する処理は、前記嚥下障害の出現確率が閾値以上である被介護者の前記嚥下障害のリスクが低下するまで、前記被介護者が嚥下体操をするように、コミュニケーションロボットにコーチングさせることを特徴とする請求項1から5のいずれか一つに記載の食事リスク判定方法。 The notification processing is to instruct the communication robot to coach the care recipient to perform swallowing exercises until the risk of the care recipient having the dysphagia occurrence probability of a threshold value or higher decreases. The method for judging dietary risk according to any one of claims 1 to 5. 前記不足機能に対応する嚥下体操の実行状況に基づき、嚥下障害の出現確率のリスクに関するアラートを報知することを特徴とする請求項1から7のいずれか一つに記載の食事リスク判定方法。 8. The dietary risk determination method according to any one of claims 1 to 7, wherein an alert regarding the risk of occurrence of dysphagia is notified based on the execution status of the swallowing exercise corresponding to the lacking function. コンピュータに、
食事を飲み込む際の一連の動作を構成する複数の口腔機能の中で、予め設定された基準を満たしていない被介護者の口腔機能である不足機能を特定し、
前記被介護者を撮像した画像データに基づいて、前記不足機能に対応する動作を食事前に実行しているか否かを判定し、
判定結果に基づいて、嚥下障害のリスクに関するアラートを報知する
処理を実行させることを特徴とする食事リスク判定プログラム。
to the computer,
Among multiple oral functions that constitute a series of actions when swallowing a meal, identify the insufficient function, which is the oral function of the care recipient that does not meet the preset criteria,
Determining whether or not an operation corresponding to the lacking function is being performed before eating based on image data of the care-receiver;
A dietary risk determination program characterized by executing a process of notifying an alert regarding the risk of dysphagia based on the determination result.
食事を飲み込む際の一連の動作を構成する複数の口腔機能の中で、予め設定された基準を満たしていない被介護者の口腔機能である不足機能を特定する特定部と、
前記被介護者を撮像した画像データに基づいて、前記不足機能に対応する動作を食事前に実行しているか否かを判定する判定部と、
判定結果に基づいて、嚥下障害のリスクに関するアラートを報知する報知部と
を有することを特徴とする情報処理装置。
an identifying unit that identifies, among a plurality of oral functions constituting a series of actions when swallowing a meal, a deficient function that is an oral function of a care-receiver that does not meet a preset standard;
a determination unit that determines whether or not an action corresponding to the lacking function is being performed before eating, based on image data of the care-receiver;
and an information processing device, comprising: a notification unit that provides an alert regarding a risk of dysphagia based on a determination result.
JP2019096388A 2019-05-22 2019-05-22 DIETARY RISK DETERMINATION METHOD, DIETARY RISK DETERMINATION PROGRAM AND INFORMATION PROCESSOR Active JP7243439B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019096388A JP7243439B2 (en) 2019-05-22 2019-05-22 DIETARY RISK DETERMINATION METHOD, DIETARY RISK DETERMINATION PROGRAM AND INFORMATION PROCESSOR

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019096388A JP7243439B2 (en) 2019-05-22 2019-05-22 DIETARY RISK DETERMINATION METHOD, DIETARY RISK DETERMINATION PROGRAM AND INFORMATION PROCESSOR

Publications (2)

Publication Number Publication Date
JP2020190962A JP2020190962A (en) 2020-11-26
JP7243439B2 true JP7243439B2 (en) 2023-03-22

Family

ID=73453709

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019096388A Active JP7243439B2 (en) 2019-05-22 2019-05-22 DIETARY RISK DETERMINATION METHOD, DIETARY RISK DETERMINATION PROGRAM AND INFORMATION PROCESSOR

Country Status (1)

Country Link
JP (1) JP7243439B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118447580B (en) * 2024-07-08 2024-10-18 宁波星巡智能科技有限公司 Dysphagia risk identification method and device based on machine vision

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6285002B1 (en) * 2016-11-30 2018-02-28 益弘 古川 System and program for treatment of dental diseases such as temporomandibular disorders

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
中屋 隆,Kinectセンサを用いた嚥下体操支援システム,情報処理学会 研究報告 ヒューマンコンピュータインタラクション(HCI) 2015-HCI-162 [online] ,日本,情報処理学会,2015年03月13日,1-8ページ

Also Published As

Publication number Publication date
JP2020190962A (en) 2020-11-26

Similar Documents

Publication Publication Date Title
WO2019239813A1 (en) Information processing method, information processing program, and information processing system
KR101788030B1 (en) System and method for risk diagnosis on oral disease and oral care
CN112673378B (en) Device for generating estimator, monitoring device, method for generating estimator, and program for generating estimator
US9408562B2 (en) Pet medical checkup device, pet medical checkup method, and non-transitory computer readable recording medium storing program
US20190223983A1 (en) Methods and systems for employing artificial intelligence in automated orthodontic diagnosis & treatment planning
CN109564779A (en) For evaluating the device of medical supply quality
EP3839973A1 (en) Automated mobility assessment
JP7276018B2 (en) LEARNING METHOD, ESTIMATION METHOD AND LEARNING PROGRAM
CN110765972A (en) Animal monitoring method and device, electronic equipment and storage medium
US20230394653A1 (en) Oral Condition Evaluation System, Oral Care Recommendation System, and Oral Condition Notification System
Egede et al. Automatic neonatal pain estimation: An acute pain in neonates database
JP2023553957A (en) System and method for determining sleep analysis based on body images
JP7243439B2 (en) DIETARY RISK DETERMINATION METHOD, DIETARY RISK DETERMINATION PROGRAM AND INFORMATION PROCESSOR
KR102619758B1 (en) A System for snoring analysis service providing snoring analysis and disease diagnosis prediction service based on snoring sound analysis
JP6798068B2 (en) Function improvement support device and function improvement support system
JP2018033624A (en) Information processing device, information processing method and program
CN118338853A (en) Computer program, information processing method, and information processing apparatus
EP4183291A1 (en) Permanent tooth emergence assessment
KR102429447B1 (en) Information provision method for diagnosing mood disorders using facial expression recognition
US12009101B2 (en) Wellness monitoring by measurement of incidental routine
CN113270168A (en) Method and system for improving medical image processing capability
JP7358842B2 (en) Failure determination method, failure determination program, and information processing device
JP2021121176A (en) Delivery timing notification system and delivery timing notification method
KR102619800B1 (en) Apparatus, method and recording medium of determining orthodontic method based on condition of patient
WO2024150512A1 (en) Method for generating trained model, device for generating trained model, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230220

R150 Certificate of patent or registration of utility model

Ref document number: 7243439

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150