JP7223103B1 - Extrapyramidal Symptom Diagnosis Device and Extrapyramidal Symptom Diagnosis Program - Google Patents

Extrapyramidal Symptom Diagnosis Device and Extrapyramidal Symptom Diagnosis Program Download PDF

Info

Publication number
JP7223103B1
JP7223103B1 JP2021182784A JP2021182784A JP7223103B1 JP 7223103 B1 JP7223103 B1 JP 7223103B1 JP 2021182784 A JP2021182784 A JP 2021182784A JP 2021182784 A JP2021182784 A JP 2021182784A JP 7223103 B1 JP7223103 B1 JP 7223103B1
Authority
JP
Japan
Prior art keywords
feature point
feature
degree
extrapyramidal
position information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021182784A
Other languages
Japanese (ja)
Other versions
JP2023070542A (en
Inventor
勇次 深谷
和正 大串
佑太 田辺
俊也 稲田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Information Services International Dentsu Ltd
Original Assignee
Information Services International Dentsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=85221703&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP7223103(B1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Information Services International Dentsu Ltd filed Critical Information Services International Dentsu Ltd
Priority to JP2021182784A priority Critical patent/JP7223103B1/en
Application granted granted Critical
Publication of JP7223103B1 publication Critical patent/JP7223103B1/en
Publication of JP2023070542A publication Critical patent/JP2023070542A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)

Abstract

【課題】錐体外路症状の診断を適切に行う技術を提供する。【解決手段】錐体外路症状診断装置が、診断の対象者を撮影した動画像を取得することと、前記動画像から時系列に画像データを取得することと、前記画像データから前記対象者の特徴点を複数求め、各特徴点の位置情報を時系列に求めることと、時系列に求めた前記各特徴点の時間経過に伴う位置情報の変化に基づいて、各特徴点の特徴量を求めることと、各特徴点の前記特徴量が入力された際に、推定される錐体外路症状の程度を算出するように、教師データを用いた機械学習処理が施された学習済み診断モデルに、前記対象者を撮影した前記動画像から求めた前記特徴量を入力することにより、前記錐体外路症状の程度を算出することと、算出した前記錐体外路症状の程度を出力することとを実行する制御部を備える。【選択図】図1A technique for appropriately diagnosing extrapyramidal symptoms is provided. A device for diagnosing extrapyramidal symptoms obtains a moving image of a person to be diagnosed, obtains image data in time series from the moving image, and obtains image data of the subject from the image data. Obtaining a plurality of feature points, obtaining the position information of each feature point in time series, and obtaining the feature amount of each feature point based on the change in the position information of each feature point obtained in time series over time. That, when the feature amount of each feature point is input, a learned diagnostic model that has been subjected to machine learning processing using teacher data so as to calculate the estimated degree of extrapyramidal symptoms, Calculating the degree of the extrapyramidal symptom by inputting the feature amount obtained from the moving image of the subject, and outputting the calculated degree of the extrapyramidal symptom. It has a control unit that [Selection drawing] Fig. 1

Description

本発明は、錐体外路症状診断装置及び錐体外路症状診断プログラムに関する。 The present invention relates to an extrapyramidal symptom diagnostic device and an extrapyramidal symptom diagnostic program.

錐体外路症状とは、大脳皮質運動野から、抹消運動に指令をだす神経路のうち、錐体路以外の通り道の錐体外路で異常が起きたことによって生じる症状の総称である。錐体外路症状としては、振戦・薬剤性パーキンソニズム・ジスキネジア・ジストニア・アカシジア・パーキンソン様症状などが知られている。例えば、ジスキネジアでは、繰り返し唇をすぼめる・口をもぐもぐさせる・口を突き出す・歯を食いしばる・目を閉じるとなかなか開けずしわを寄せているといった症状が現れることがある。 Extrapyramidal symptoms are a general term for symptoms caused by abnormalities in the extrapyramidal pathways other than the pyramidal pathways, among the neural pathways that issue commands to peripheral movements from the motor area of the cerebral cortex. Known extrapyramidal symptoms include tremor, drug-induced parkinsonism, dyskinesia, dystonia, akathisia, and parkinsonian symptoms. For example, dyskinesias may manifest symptoms such as repetitive pursed lips, mouth muzzling, mouth thrusting, teeth clenching, and wrinkled eyes when closed.

国際公開第2018/179419号WO2018/179419 特開2014-168700号公報Japanese Patent Application Laid-Open No. 2014-168700

錐体外路症状に対する治療方針を決定するためには、どのような症状が、どの程度現れているかを適切に診断することが求められるが、振戦やジスキネジア、ジストニアなどでは、何れも不随意運動の反復が現れ、類似した症状となるので、明確な区別は難しいという問題があった。また、これらの症状は、複合的に現れることがある。例えば、ジスキネジア症状とジストニア症状とが現れた場合、どちらの症状の程度が高いかによって、投薬の方針を決定することがあるため、これらの症状の程度を適切に診断することが肝要である。しかしながら、これら症状の程度は、医師の所見によって定められるのが一般的であり、例えば、長期にわたる治療過程において、一定の基準で程度の診断を下すのは非常に難しいという問題があった。 In order to determine the treatment policy for extrapyramidal symptoms, it is necessary to properly diagnose what kind of symptoms are present and to what extent, but in tremor, dyskinesia, dystonia, etc., all of them are involuntary movements. appears repeatedly, resulting in similar symptoms, making clear distinction difficult. Moreover, these symptoms may appear in combination. For example, when dyskinesia symptoms and dystonia symptoms appear, it is important to appropriately diagnose the severity of these symptoms, since the medication policy may be determined depending on which symptom is more severe. However, the severity of these symptoms is generally determined by a doctor's findings, and there is a problem that, for example, it is very difficult to make a diagnosis based on a fixed standard during a long-term treatment process.

開示の技術の課題は、錐体外路症状の診断を適切に行う技術を提供することにある。 An object of the disclosed technique is to provide a technique for appropriately diagnosing extrapyramidal symptoms.

開示の技術の一側面は、次の錐体外路症状診断装置の構成によって例示される。すなわち、本錐体外路症状診断装置は、
診断の対象者を撮影した動画像から時系列に画像データを取得することと、
前記画像データから前記対象者の特徴点を複数求め、各特徴点の位置情報を時系列に求めることと、
時系列に求めた前記各特徴点の時間経過に伴う位置情報の変化に基づいて、各特徴点の特徴量を求めることと、
各特徴点の前記特徴量が入力された際に、推定される錐体外路症状の程度を算出するように、教師データを用いた機械学習処理が施された学習済み診断モデルに、前記対象者を撮影した前記動画像から求めた前記特徴量を入力することにより、前記錐体外路症状の程度を算出することと、
算出した前記錐体外路症状の程度を出力することと、
を実行する制御部を備える。
One aspect of the disclosed technique is exemplified by the configuration of the following extrapyramidal symptom diagnosis device. That is, the present extrapyramidal symptom diagnosis device
Acquiring image data in chronological order from moving images of a person to be diagnosed;
Obtaining a plurality of feature points of the subject from the image data, and obtaining position information of each feature point in time series;
Obtaining a feature amount of each feature point based on a change in position information of each feature point over time obtained in time series;
When the feature amount of each feature point is input, a trained diagnostic model that has been subjected to machine learning processing using teacher data so as to calculate the estimated degree of extrapyramidal symptoms is added to the subject calculating the degree of the extrapyramidal symptom by inputting the feature amount obtained from the moving image photographed;
outputting the calculated degree of extrapyramidal symptoms;
A control unit for executing

前記錐体外路症状診断装置は、前記特徴量が、時間経過に伴う前記位置情報の変化量について求めた、平均値、中央値、標準偏差、分散、最小値、最大値、歪度、尖度、総和、
二乗和、平均値を跨いだ回数、及び平均パワースペクトルのうち、少なくとも一つであってもよい。
In the extrapyramidal symptom diagnosis device, the feature value is the mean value, median value, standard deviation, variance, minimum value, maximum value, skewness, and kurtosis obtained for the amount of change in the positional information over time. , the sum,
At least one of the sum of squares, the number of crossing over the average value, and the average power spectrum may be used.

前記錐体外路症状診断装置は、各特徴点における前記位置情報の時間経過に伴う変化が、前記対象者の顔の基準位置を基準とする相対的な位置の変化であってもよい。 In the extrapyramidal symptom diagnostic apparatus, the change with time of the position information of each feature point may be a change in position relative to a reference position of the face of the subject.

前記錐体外路症状診断装置において、前記顔の基準部位は鼻であり、前記特徴点が、前記対象者の顔の部位であって、唇、及び当該唇の周辺部を含む特定の部位であってもよい。 In the apparatus for diagnosing extrapyramidal symptoms, the reference part of the face is the nose, and the feature point is a part of the subject's face that is a specific part including lips and peripheral parts of the lips. may

前記錐体外路症状診断装置において、前記制御部が、
前記錐体外路症状の程度を算出した際、当該算出結果への影響度が高い前記特徴点を求めることと、
前記影響度が高い前記特徴点を前記画像に重畳して表示することと、
を更に実行してもよい。
In the extrapyramidal symptom diagnosis device, the control unit
When calculating the degree of the extrapyramidal symptom, obtaining the feature point that has a high degree of influence on the calculation result;
displaying the feature points having the high degree of influence superimposed on the image;
may also be performed.

開示の技術の一側面は、次の錐体外路症状診断プログラムによって例示される。すなわち、本錐体外路症状診断プログラムは、
診断の対象者を撮影した動画像を取得することと、
前記動画像から時系列に画像データを取得することと、
前記画像データから前記対象者の特徴点を複数求め、各特徴点の位置情報を時系列に求めることと、
時系列に求めた前記各特徴点の時間経過に伴う位置情報の変化に基づいて、各特徴点の特徴量を求めることと、
各特徴点の前記特徴量が入力された際に、推定される錐体外路症状の程度を算出するように、教師データを用いた機械学習処理が施された学習済み診断モデルに、前記対象者を撮影した前記動画像から求めた前記特徴量を入力することにより、前記錐体外路症状の程度を算出することと、
算出した前記錐体外路症状の程度を出力することと、
を制御部に実行させる。
One aspect of the disclosed technology is exemplified by the following extrapyramidal symptom diagnosis program. That is, this extrapyramidal symptom diagnostic program is
Acquiring a moving image of a person to be diagnosed;
obtaining image data in time series from the moving image;
Obtaining a plurality of feature points of the subject from the image data, and obtaining position information of each feature point in time series;
Obtaining a feature amount of each feature point based on a change in position information of each feature point over time obtained in time series;
When the feature amount of each feature point is input, a trained diagnostic model that has been subjected to machine learning processing using teacher data so as to calculate the estimated degree of extrapyramidal symptoms is added to the subject calculating the degree of the extrapyramidal symptom by inputting the feature amount obtained from the moving image photographed;
outputting the calculated degree of extrapyramidal symptoms;
is executed by the control unit.

更に、開示の技術の一側面は、この錐体外路症状診断プログラムをコンピュータが読み取り可能な記録媒体に記録したものによって例示される。コンピュータに、この記録媒体のプログラムを読み込ませて実行させることにより、その機能を提供させることができる。 Furthermore, one aspect of the disclosed technique is exemplified by a computer-readable recording medium recording this extrapyramidal symptom diagnostic program. The function can be provided by causing a computer to read and execute the program of this recording medium.

ここで、コンピュータ等が読み取り可能な記録媒体とは、データやプログラム等の情報を電気的、磁気的、光学的、機械的、または化学的作用によって蓄積し、コンピュータ等から読み取ることができる記録媒体をいう。このような記録媒体のうちコンピュータ等から取り外し可能なものとしては、例えばフレキシブルディスク、光磁気ディスク、CD(Compact Disc)、CD-R/W、DVD(Digital Versatile Disk)、ブルーレイディスク(Blu-ray(登録商標) Disc)、DAT、8mmテープ、フラッシュメモリなどのメモリカード等がある。また、コンピュータ等に固定された記録媒体としてハードディスクやROM(リードオンリーメモリ)等がある。 Here, a computer-readable recording medium is a recording medium that stores information such as data and programs by electrical, magnetic, optical, mechanical, or chemical action and can be read by a computer, etc. Say. Examples of such recording media that can be removed from a computer or the like include flexible discs, magneto-optical discs, CDs (Compact Discs), CD-R/Ws, DVDs (Digital Versatile Discs), Blu-ray discs, (registered trademark) Disc), DAT, 8 mm tape, and memory cards such as flash memory. In addition, there are a hard disk, a ROM (read only memory), and the like as a recording medium fixed to a computer or the like.

本開示の技術によれば、錐体外路症状の診断を適切に行うことができる。 According to the technology of the present disclosure, it is possible to appropriately diagnose extrapyramidal symptoms.

本実施形態に係る錐体外路症状診断装置の概略構成図である。1 is a schematic configuration diagram of an extrapyramidal symptom diagnosis device according to the present embodiment; FIG. 特徴点を抽出する処理の説明図である。FIG. 4 is an explanatory diagram of processing for extracting feature points; 特徴点の時間的変位を示す図である。It is a figure which shows the temporal displacement of a feature point. 特徴点の時間経過に伴う位置の変化を示すグラフである。4 is a graph showing changes in position of feature points over time; パワースペクトルの説明図である。FIG. 4 is an explanatory diagram of power spectrum; 影響度が高い10点の特徴点を求めて、画像に重畳して表示した例を示す。An example in which 10 feature points having a high degree of influence are obtained and superimposed on an image is shown. 診断装置の制御部が、プログラムにしたがって機械学習を行う処理を示す図である。A control unit of a diagnostic device is a diagram showing a process of performing machine learning according to a program. 診断装置の制御部が、錐体外路症状診断プログラムに従って実行する処理を示す図である。FIG. 4 is a diagram showing processing executed by a control unit of the diagnostic device according to an extrapyramidal symptom diagnostic program;

以下、図面を参照して、一実施形態に係る錐体外路症状診断装置について説明する。以下の実施形態の構成は例示であり、本錐体外路症状診断装置は実施形態の構成には限定されない。 Hereinafter, an extrapyramidal symptom diagnosis device according to one embodiment will be described with reference to the drawings. The configuration of the following embodiment is an example, and the present extrapyramidal symptom diagnosis device is not limited to the configuration of the embodiment.

《装置構成》
図1は、本実施形態に係る錐体外路症状診断装置(以下単に診断装置とも称す)10の概略構成図である。診断装置10は、患者20の顔の表情を撮影した画像を診断モデルに入力し、錐体外路症状の診断結果を算出する。この診断モデルは、患者20の顔を所定期間(例えば数十秒)撮影し、撮影画像から顔の特徴点を複数抽出して、各特徴点の変位を時系列に求めたデータと、医師が定めたラベルとを教師データとしてディープラーニング(機械学習)を行ったものである。これにより本実施形態の錐体外路症状診断装置10は、患者20の顔の表情をAIで機械的に診断し、例えば、振戦、ジスキネジア、又はジストニアの症状の有無や、その症状の程度といった錐体外路症状を適切に診断できるようにしている。
"Device configuration"
FIG. 1 is a schematic configuration diagram of an extrapyramidal symptom diagnostic device (hereinafter also simply referred to as a diagnostic device) 10 according to this embodiment. The diagnostic apparatus 10 inputs an image obtained by photographing the facial expression of the patient 20 to a diagnostic model, and calculates a diagnostic result of extrapyramidal symptoms. This diagnostic model captures the face of the patient 20 for a predetermined period of time (for example, several tens of seconds), extracts a plurality of facial feature points from the captured image, and obtains the displacement of each feature point in chronological order. Deep learning (machine learning) was performed using determined labels as teacher data. As a result, the extrapyramidal symptom diagnostic apparatus 10 of the present embodiment mechanically diagnoses the facial expression of the patient 20 with AI, for example, the presence or absence of symptoms of tremor, dyskinesia, or dystonia, and the degree of the symptoms It enables appropriate diagnosis of extrapyramidal symptoms.

《診断装置》
診断装置10は、接続バス11によって相互に接続された制御部12、メモリ13、入出力IF(インターフェース)14、通信IF15、撮影装置16を有するコンピュータである。制御部12は、入力された情報を処理し、処理結果を出力することにより、装置全体の制御等を行う。制御部12は、CPU(Central Processing Unit)や、MPU(Micro-processing unit)とも呼ばれる。制御部12は、単一のプロセッサに限られず、マルチプロセッサ構成であってもよい。また、単一のソケットで接続される単一のチップ内に複数のコアを有したマルチコア構成であってもよい。
《Diagnostic device》
The diagnostic device 10 is a computer having a control unit 12, a memory 13, an input/output IF (interface) 14, a communication IF 15, and an imaging device 16, which are interconnected by a connection bus 11. FIG. The control unit 12 processes input information and outputs processing results to control the entire apparatus. The control unit 12 is also called a CPU (Central Processing Unit) or an MPU (Micro-processing unit). The control unit 12 is not limited to a single processor, and may have a multiprocessor configuration. Also, a multi-core configuration having a plurality of cores in a single chip connected by a single socket may be used.

メモリ13は、主記憶装置と補助記憶装置とを含む。主記憶装置は、制御部12の作業領域、制御部12で処理される情報を一時的に記憶する記憶領域、通信データのバッファ領域として使用される。主記憶装置は、制御部12がプログラムやデータをキャッシュしたり、作業領域を展開したりするための記憶媒体である。主記憶装置は、例えば、RAM(Random Access Memory)やROM(Read Only Memory)、フラッシュメモリを含む。補助記憶装置は、制御部12により実行されるプログラムや、情報処理に用いられるデータ、動作の設定情報、診断モデルとして用いられるデータなどを記憶する記憶媒体である。補助記憶装置は、例えば、HDD(Hard-disk Drive)やSSD(Solid State Drive)、EPROM(Erasable Programmable ROM)、フラッシュメモリ、USBメモリ、メモリ
カード等である。また、補助記憶装置は、診断対象とする画像(撮影画像)や、診断結果を記憶する。
The memory 13 includes a main memory and an auxiliary memory. The main storage device is used as a work area for the control unit 12, a storage area for temporarily storing information processed by the control unit 12, and a buffer area for communication data. The main storage device is a storage medium for the control unit 12 to cache programs and data, and to develop work areas. The main memory includes, for example, RAM (Random Access Memory), ROM (Read Only Memory), and flash memory. The auxiliary storage device is a storage medium that stores programs executed by the control unit 12, data used for information processing, operation setting information, data used as diagnostic models, and the like. Auxiliary storage devices are, for example, HDDs (Hard-disk Drives), SSDs (Solid State Drives), EPROMs (Erasable Programmable ROMs), flash memories, USB memories, memory cards, and the like. In addition, the auxiliary storage device stores images to be diagnosed (captured images) and diagnosis results.

入出力IF14は、診断装置10に接続する機器との間でデータの入出力を行うインターフェースである。入出力IF14は、例えば、CDやDVD等の記憶媒体からデータを読み取るディスクドライブ、操作部、表示装置、撮影装置16等の機器との間でデータの
入出力を行う。操作部は、マウスやキーボード、タッチパネル等、オペレータの操作によって診断装置10に対する情報が入力される入力部である。表示装置は、処理結果などの情報をオペレータに対して表示出力する出力部である。
The input/output IF 14 is an interface for inputting/outputting data with devices connected to the diagnostic device 10 . The input/output IF 14 performs data input/output with devices such as a disk drive that reads data from a storage medium such as a CD or DVD, an operation unit, a display device, and a photographing device 16, for example. The operation unit is an input unit such as a mouse, a keyboard, a touch panel, or the like, through which information to the diagnostic apparatus 10 is input by operator's operation. The display device is an output unit that displays and outputs information such as processing results to the operator.

通信IF15は、通信回線(ネットワーク)を介して他の装置との通信を行うインターフェース(通信モジュール)であり、CCU(Communication Control Unit)とも称す。例えば、通信IF15は、患者20の自宅など診断装置10とは別の場所に配置されたコンピュータや撮影装置から情報を受信する構成、又はこれらへ情報を送信する構成であってもよい。 The communication IF 15 is an interface (communication module) that communicates with other devices via a communication line (network), and is also called a CCU (Communication Control Unit). For example, the communication IF 15 may be configured to receive information from, or transmit information to, a computer or imaging device located at a location other than the diagnostic device 10, such as the patient's 20 home.

撮影装置16は、患者20の顔を所定期間撮影して動画データを取得し、入出力IF14を介して制御部12へ入力する。撮影装置16は、所謂カメラであるが、動画データを取得できれば、三次元センサやToF(Time of Flight)センサであってもよい。また、撮影装置16は、水平方向に離間した二つのカメラで患者20の顔を撮影することにより三次元情報を得ることが可能なステレオカメラであってもよい。 The imaging device 16 captures the face of the patient 20 for a predetermined period of time to acquire moving image data, and inputs the moving image data to the control unit 12 via the input/output IF 14 . The imaging device 16 is a so-called camera, but may be a three-dimensional sensor or a ToF (Time of Flight) sensor as long as it can acquire moving image data. Alternatively, the imaging device 16 may be a stereo camera capable of obtaining three-dimensional information by imaging the face of the patient 20 with two horizontally spaced cameras.

撮影装置16は、例えば、患者20と正対して配置され、患者が居る空間の垂直方向及び水平方向と撮影画像の垂直方向及び水平方向とが一致するように配置されている。このため例えば患者20が顔を垂直方向に対して傾けた場合に、この傾きを画像上から識別できるように設定されている。 The imaging device 16 is arranged, for example, to face the patient 20 so that the vertical direction and horizontal direction of the space in which the patient is present coincide with the vertical direction and horizontal direction of the captured image. Therefore, for example, when the patient 20 tilts his/her face with respect to the vertical direction, the tilt can be identified from the image.

診断装置10の上記構成要素11~16は、それぞれ複数設けられてもよく、一部の構成要素が省略されてもよい。例えば、診断装置10は、撮影装置16を備えず、外部の撮影装置で撮影した患者20の画像を入出力IF14や通信IF15を介して取得する構成としてもよい。 A plurality of each of the components 11 to 16 of the diagnostic device 10 may be provided, or some components may be omitted. For example, the diagnostic apparatus 10 may be configured to acquire an image of the patient 20 captured by an external imaging device via the input/output IF 14 and the communication IF 15 without the imaging device 16 .

本実施形態の診断装置10では、制御部12が、アプリケーションプログラムを実行することにより、制御部12が、特徴点決定部111、前処理部112、特徴量算出部113、機械学習部114、診断部115、結果出力部116といった各処理部として機能する。即ち、制御部12は、実行するソフトウェアに応じて各処理部として兼用され得る。但し、上記各処理部の一部又は全部が、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)等の専用LSI(large scale integration)、論理回路、その他のデジタル回路
といったハードウェアで形成されたものであってもよい。また、上記各処理部の少なくとも一部にアナログ回路を含む構成としてもよい。制御部12は、一つのプロセッサが複数の処理部として機能する構成であっても、一つの処理部として機能するプロセッサを複数備える構成であってもよい。
In the diagnostic apparatus 10 of the present embodiment, the control unit 12 executes an application program, whereby the control unit 12 includes a feature point determination unit 111, a preprocessing unit 112, a feature amount calculation unit 113, a machine learning unit 114, a diagnostic It functions as each processing unit such as the unit 115 and the result output unit 116 . That is, the control unit 12 can also be used as each processing unit according to the software to be executed. However, part or all of the above processing units are DSP (Digital Signal Processor), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array) such as dedicated LSI (large scale integration), logic circuit, etc. It may be formed by hardware such as a digital circuit. Further, at least part of each processing unit may include an analog circuit. The control unit 12 may have a configuration in which one processor functions as a plurality of processing units, or may have a configuration in which a plurality of processors function as one processing unit.

特徴点決定部111は、撮影装置16で撮影された動画像を撮影装置16から取得する、或は他の装置で撮影された動画像を入出力IF14若しくは通信IF15を介して取得し、当該動画像から時系列に画像データを取得する。例えば、1秒間当り複数のフレームを撮影することで動画が構成されている場合、各フレームを撮影順に取得して画像データとする。なお、動画のフレームレートは、特段限定されるものではないが、例えば15fps~120fpsが挙げられ、25fps~90fpsが望ましく、30fps~60fpsが更に望ましい。本実施形態における動画のフレームレートは、30fpsである。なお、取得した動画像のフレームレートが、診断モデルに入力する画像データのレート(1秒間当りの画像の枚数)と異なる場合、フレームを間引いて画像データの数を削減することや、フレームを補間して画像データの数を増加させることにより、調整を行ってもよい。 The feature point determining unit 111 acquires a moving image captured by the imaging device 16 from the imaging device 16, or acquires a moving image captured by another device via the input/output IF 14 or the communication IF 15, and determines the Acquire image data in time series from moving images. For example, when a moving image is composed by photographing a plurality of frames per second, each frame is obtained in photographing order and used as image data. The frame rate of moving images is not particularly limited, but is, for example, 15 fps to 120 fps, preferably 25 fps to 90 fps, and more preferably 30 fps to 60 fps. The frame rate of moving images in this embodiment is 30 fps. If the frame rate of the acquired moving image is different from the rate of image data input to the diagnostic model (the number of images per second), the number of image data can be reduced by thinning frames, or the frames can be interpolated. Adjustments may be made by increasing the number of image data by

また、特徴点決定部111は、各画像データから特徴点を抽出する。図2は、特徴点を抽出する処理の説明図である。図2において符号40が画像データとして取得される画像の一例を示す。特徴点決定部111は、パターンマッチングにより、画像40から人の顔41を識別し、この顔41から、目42、眉43、鼻44、口唇45などのパーツを識別する。そして、特徴点決定部111は、各パーツにおける所定箇所を特徴点として求める。例えば、鼻44であれば、鼻先(鼻の最も前側に位置する箇所)401や、鼻の稜線に位置する箇所402、鼻の輪郭に位置する箇所403、鼻の穴の輪郭に位置する箇所404などを特徴点とすることが挙げられる。また、口唇45であれば、口唇の左右端部405、上唇の輪郭に位置する箇所406、下唇の輪郭に位置する箇所407、口唇の周囲に位置する箇所408などを特徴点とすることが挙げられる。この他、頬、顎、及び顔の輪郭(フェイスライン)に位置する箇所などを特徴点としてもよい。なお、図2では、一部の特徴点にのみ符号を付したが、上記特徴点401~408と同様のドットが特徴点を示している。なお、図2では、一部の特徴点を省略して示しており、本実施形態では、例えば468点の特徴点を定めている。なお、特徴点の位置や数は、一例であり、これに限定されるものではない。 Further, the feature point determination unit 111 extracts feature points from each image data. FIG. 2 is an explanatory diagram of processing for extracting feature points. Reference numeral 40 in FIG. 2 indicates an example of an image acquired as image data. The feature point determining unit 111 identifies a human face 41 from the image 40 by pattern matching, and identifies parts such as eyes 42 , eyebrows 43 , nose 44 and lips 45 from this face 41 . Then, the feature point determination unit 111 obtains a predetermined location in each part as a feature point. For example, for the nose 44, the tip of the nose (located on the frontmost side of the nose) 401, the location 402 located on the ridge of the nose, the location 403 located on the outline of the nose, and the location 404 located on the outline of the nostrils. etc. are used as feature points. In the case of the lip 45, the left and right ends 405 of the lip, the portion 406 located on the outline of the upper lip, the portion 407 located on the outline of the lower lip, the portion 408 located around the lip, etc. can be used as feature points. mentioned. In addition, cheeks, chin, and portions located on the outline of the face (face line) may be used as feature points. In FIG. 2, only some of the feature points are labeled, but dots similar to the feature points 401 to 408 indicate the feature points. Note that some feature points are omitted in FIG. 2, and in this embodiment, for example, 468 feature points are defined. Note that the positions and number of feature points are merely examples, and are not limited to these.

前処理部112は、各画像データについて、スケーリング、特徴点の位置情報取得、及び欠落した特徴点の補完などの前処理を行う。例えば、画像データに写る顔の大きさが患者毎に異なると、特徴点が変位した場合の変位の大きさを正しく評価できないため、図2に示すように顔の上下方向の長さLHや、左右方向の長さLW、左目の中心と右目の中心との距離LEなど、患者20の顔における所定箇所の長さが規定の大きさとなるようにスケーリングする。 The preprocessing unit 112 performs preprocessing such as scaling, acquisition of feature point position information, and complementation of missing feature points for each image data. For example, if the size of the face shown in the image data differs from patient to patient, the magnitude of displacement when the feature point is displaced cannot be evaluated correctly. The length LW in the left-right direction, the distance LE between the center of the left eye and the center of the right eye, etc., are scaled so that the lengths of predetermined parts of the face of the patient 20 have prescribed sizes.

また、前処理部112は、各画像データにおいて座標を定め、各特徴点の位置情報を取得する。例えば、顔の基準部位、本では鼻先401を原点とし、垂直方向をY軸、水平方向をX軸、奥行き方向をZ軸とし、この座標系における各特徴点の座標を位置情報として求める。即ち、顔の各パーツの鼻先(基準部位)401に対する相対的な位置の変化を求める。なお、顔の基準部位は、鼻に限らず、右目と左目との間における中央などであってもよい。 The preprocessing unit 112 also determines coordinates in each image data and acquires position information of each feature point. For example, the reference part of the face, in this example , the tip of the nose 401, is the origin, the vertical direction is the Y axis, the horizontal direction is the X axis, and the depth direction is the Z axis. That is, the change in the position of each part of the face relative to the tip of the nose (reference part) 401 is obtained. The reference part of the face is not limited to the nose, and may be the center between the right eye and the left eye.

なお、撮影装置16が、二次元画像を撮影する装置の場合、画像データから取得される位置情報は、Y軸上の位置と、X軸上の位置となる。しかしながら、撮影装置16側に向いた場合の人の顔は、鼻先が撮影装置16側(手前側)に位置し、目や頬等のパーツは鼻先よりも奥側に位置し、鼻の周辺からフェイスライン側へ向かうに連れて徐々に奥側に位置するような曲面となっている。このため、一般的な顔の曲面(以下、規定曲面とも称す)における三次元座標を規定し、各特徴源のXY座標に基づいて、各特徴点をこの規定曲面上にマッピングし、マッピングした位置のZ座標を当該特徴点のZ座標として推定する。 Note that if the image capturing device 16 is a device that captures a two-dimensional image, the position information acquired from the image data is the position on the Y axis and the position on the X axis. However, when the human face is facing the imaging device 16, the tip of the nose is located on the imaging device 16 side (front side), and parts such as the eyes and cheeks are located further back than the tip of the nose. It is a curved surface that gradually moves to the back side as it goes to the face line side. For this reason, three-dimensional coordinates on a general curved surface of the face (hereinafter also referred to as a defined curved surface) are defined, and each feature point is mapped on this defined curved surface based on the XY coordinates of each feature source, and the mapped position is estimated as the Z coordinate of the feature point.

更に、患者20が左を向いた場合、顔の左側部分が奥側に位置するように、顔の向きによっても各特徴点の奥行き方向の位置が変わるため、前処理部112は、各画像データについて顔の向きを求め、この顔の向きに応じて各特徴点のZ座標を推定する。なお、Z座標の推定方法は、これに限らず、他の推定方法を用いてもよい。 Furthermore, when the patient 20 faces left, the position of each feature point in the depth direction changes depending on the orientation of the face, such that the left side of the face is located on the far side. , and the Z coordinate of each feature point is estimated according to the face orientation. Note that the Z-coordinate estimation method is not limited to this, and other estimation methods may be used.

また、撮影装置16としてステレオカメラを用いた場合、前処理部112は、このステレオカメラで撮影したステレオ画像から、各特徴点の三次元座標を求めてもよい。更に、撮影装置16として三次元スキャナやToFセンサを用いた場合、前処理部112は、この三次元スキャナやToFセンサの測定結果から各特徴点の三次元座標を求めてもよい。 Moreover, when a stereo camera is used as the imaging device 16, the preprocessing unit 112 may obtain the three-dimensional coordinates of each feature point from the stereo images captured by the stereo camera. Furthermore, when a three-dimensional scanner or ToF sensor is used as the imaging device 16, the preprocessing unit 112 may obtain the three-dimensional coordinates of each feature point from the measurement results of the three-dimensional scanner or ToF sensor.

なお、患者20が横を向いた場合や、患者20が下を向いた場合など、顔の向きによっ
ては、顔の奥側部分が、正面に配置した撮影装置16において撮影されず、一部の特徴点のデータが欠落することがある。このため、前処理部112は、各画像データにおいて患者20の顔の向きを求め、この向きに応じて、前述の推定方法と同様に画像に写っていない特徴点の位置を規定曲面上の位置から推定し、位置情報を補完する。
Note that depending on the direction of the face, such as when the patient 20 faces sideways or when the patient 20 faces downward, the back side of the face is not captured by the imaging device 16 arranged in front, and part of the face is captured. Feature point data may be missing. For this reason, the preprocessing unit 112 obtains the orientation of the face of the patient 20 in each image data, and according to this orientation, the positions of the feature points that are not shown in the image are determined as the positions on the prescribed curved surface in the same manner as in the estimation method described above. and complement the location information.

特徴量算出部113は、前処理部112で時系列に求めた各特徴点の時間経過に伴う位置情報の変化に基づいて、各特徴点の特徴量を求める。ここで、特徴量は、例えば、時間経過に伴う位置情報の変化量について求めた、平均値、中央値、標準偏差、分散、最小値、最大値、歪度、尖度、総和、二乗和、平均値を跨いだ回数、及び平均パワースペクトルのうち、少なくとも一つが挙げられる。 The feature amount calculation unit 113 obtains the feature amount of each feature point based on the change in the position information of each feature point over time obtained in time series by the preprocessing unit 112 . Here, the feature amount is, for example, the mean value, median value, standard deviation, variance, minimum value, maximum value, skewness, kurtosis, sum, square sum, At least one of the number of times across the average value and the average power spectrum can be mentioned.

図3は、特徴点の時間的変位を示す図、図4は、特徴点の時間経過に伴う位置の変化を示すグラフである。図3では、口唇45に含まれる特徴点451が、タイミングt1からタイミングt4へ時間が経過するのに伴って、Y軸方向下側へ移動した場合を示している。図4では、横軸に時間をとり、縦軸にY座標の値をとって、実線50が特徴点451の位置の変化を示している。特徴量算出部113は、この時間経過に伴って変化するY座標の値、即ち鼻先(原点)からの距離の変化を所定時間間隔(ウィンドウとも称す)twで区分し、このウィンドウtw毎に得たY座標の値について、平均値、中央値、標準偏差、分散、最小値、最大値、歪度、尖度、総和、二乗和、平均値を跨いだ回数、及びパワースペクトル密度平均といった統計量を算出して特徴量とする。同様に各特徴点のX座標の値及びZ座標の値についても夫々特徴量を算出する。即ち、468個の特徴点における3つの座標値(X,Y,Z座標の値)について、それぞれ上記12個の統計値を求めた場合、各特徴点について16848の特徴量が得られる。 FIG. 3 is a diagram showing temporal displacement of feature points, and FIG. 4 is a graph showing changes in position of feature points over time. FIG. 3 shows a case where a feature point 451 included in the lip 45 moves downward in the Y-axis direction as time elapses from timing t1 to timing t4. In FIG. 4 , the horizontal axis represents time, the vertical axis represents the Y coordinate value, and a solid line 50 indicates the change in position of the feature point 451 . The feature amount calculation unit 113 divides the value of the Y coordinate that changes over time, that is, the change in the distance from the tip of the nose (origin) into predetermined time intervals (also called windows) tw, and obtains the values for each window tw. Statistics such as mean, median, standard deviation, variance, minimum value, maximum value, skewness, kurtosis, summation, sum of squares, number of crossings over the mean value, and power spectrum density average is calculated as a feature quantity. Similarly, feature quantities are calculated for the X-coordinate value and Z-coordinate value of each feature point. That is, when the above 12 statistical values are obtained for each of the three coordinate values (X, Y, Z coordinate values) of 468 feature points, 16848 feature amounts are obtained for each feature point.

錐体外路症状には「繰り返し唇をすぼめる」「口をもぐもぐさせる」「口を突き出す」などの外見的特徴がある。この特徴を捉えるため、上記特徴量のうち、特に標準偏差、分散、平均値を跨いだ回数、及び平均パワースペクトルが有効である。なお、平均値を跨いだ回数とは、座標値が時間の経過に伴い、平均より低い値から平均より高い値へ変化した場合、或は平均より高い値から平均より低い値へ変化した場合に、回数を増加させ、全期間中の回数を積算したものである。 Extrapyramidal symptoms are characterized by appearance, such as ``repeated lip pursedness'', ``mouth mumbling'', and ``mouth sticking out''. In order to capture this feature, the standard deviation, the variance, the number of crossing over the average value, and the average power spectrum are particularly effective among the above feature quantities. In addition, the number of times crossing the average value is the number of times the coordinate value changes from a value lower than the average to a value higher than the average, or from a value higher than the average to a value lower than the average with the passage of time. , the number of times is increased, and the number of times during the entire period is integrated.

図5は、パワースペクトルの説明図である。図5におけるグラフ51は、横軸に時間、縦軸に信号の強度をとり、ランダムな信号の時間推移を示している。グラフ52は、この信号のパワースペクトルと呼ばれるものであり、横軸が周波数、縦軸が各周波数成分の強さを示している。ランダムな信号の場合、グラフ52に示すようにパワースペクトルの分布もランダムとなる。 FIG. 5 is an explanatory diagram of a power spectrum. A graph 51 in FIG. 5 shows the temporal transition of random signals, with time on the horizontal axis and signal intensity on the vertical axis. A graph 52 is called a power spectrum of this signal, in which the horizontal axis indicates the frequency and the vertical axis indicates the intensity of each frequency component. In the case of random signals, the distribution of the power spectrum is also random as shown in graph 52 .

これに対し、グラフ53は、ランダムな信号に2つの周期性信号を足し合わせた信号の時間推移を示している。そして、この信号のパワースペクトルをグラフ54に示している。グラフ54に示されるように、周期性を持つ信号の場合、パワースペクトルにおいて、周期性信号の周波数に相当する箇所に鋭いピークが現れる。このようなパワースペクトルにおいて、周波数kを0,1,・・・,K-1とした時、平均パワースペクトル(mse)は、式(1)から求まる。

Figure 0007223103000002
On the other hand, graph 53 shows the time transition of a signal obtained by adding two periodic signals to a random signal. Graph 54 shows the power spectrum of this signal. As shown in graph 54, in the case of a periodic signal, a sharp peak appears in the power spectrum at a location corresponding to the frequency of the periodic signal. In such a power spectrum, when the frequency k is 0, 1, .
Figure 0007223103000002

このように平均パワースペクトルは、特定の周波数成分を多く持つ信号の場合、その周
波数におけるF(k)が非常に大きくなり、また、2乗されることで更に大きな値となる。
この結果、「口をもぐもぐさせる」といった反復運動に起因する特定の周波数成分を含む信号の平均パワースペクトルは、そうでない信号と比べて大きな値になると推定される。このため、平均パワースペクトルを求めることで、変位の周期性を捉えることができる。
In this way, in the average power spectrum, in the case of a signal having many specific frequency components, F(k) at that frequency becomes very large, and when it is squared, it becomes a larger value.
As a result, it is estimated that the average power spectrum of a signal containing a specific frequency component due to repetitive motion such as "mouth-mugging" is larger than that of a signal that does not. Therefore, by obtaining the average power spectrum, the periodicity of the displacement can be captured.

機械学習部114は、学習用の動画について、特徴点決定部111及び前処理部112で求めた各特徴点の特徴量と、教師ラベルとに基づいて機械学習を行い、学習済み診断モデルを生成する。なお、診断モデルは、ディープラーニングによって学習処理が施されたニューラルネットワークを一部に含むもの、或は全てが当該ニューラルネットワークから成るものであってもよい。ここで、教師ラベルは、例えば、医師などが、学習用の動画について錐体外路症状の程度を評価したものである。本実施形態における錐体外路症状の程度は、例えば、振戦、ジスキネジア、及びジストニアといった症状の夫々のレベルを0~4の5段階で評価したものである。なお、レベル0は、症状が認められない状態を示し、レベルの数値が大きい程、症状が顕著に表れている状態を示す。 The machine learning unit 114 performs machine learning on the learning video based on the feature amount of each feature point obtained by the feature point determination unit 111 and the preprocessing unit 112 and the teacher label, and generates a learned diagnostic model. do. The diagnostic model may partially include a neural network trained by deep learning, or may consist entirely of the neural network. Here, the teacher label is, for example, a doctor's evaluation of the degree of extrapyramidal symptoms in the learning video. The degree of extrapyramidal symptoms in this embodiment is obtained by evaluating the level of symptoms such as tremor, dyskinesia, and dystonia on a five-grade scale of 0 to 4, for example. Level 0 indicates a state in which no symptoms are observed, and a higher level indicates a state in which symptoms are more pronounced.

診断部115は、患者20を撮影した動画像について、特徴点決定部111及び前処理部112で求めた各特徴点の特徴量を診断モデルに入力することにより、錐体外路症状の程度を算出する。 The diagnosis unit 115 calculates the degree of extrapyramidal symptoms by inputting the feature amount of each feature point obtained by the feature point determination unit 111 and the preprocessing unit 112 into the diagnostic model for the moving image of the patient 20 . do.

結果出力部116は、診断部115で算出した錐体外路症状の程度を表示部に表示すること等によって出力する。なお、錐体外路症状の程度の出力は、表示に限らず、印刷や、他の装置への送信、記録媒体への記録であってもよい。 The result output unit 116 outputs the degree of the extrapyramidal symptom calculated by the diagnosis unit 115 by displaying it on the display unit or the like. The output of the degree of extrapyramidal symptoms is not limited to display, and may be printed, transmitted to another device, or recorded on a recording medium.

また、結果出力部116は、錐体外路症状の程度を算出した際、当該算出結果への影響度が高い特徴点を求めて、これを出力してもよい。図6は、影響度が高い10点の特徴点450を求めて、画像に重畳して表示した例を示す。これにより、顔のどの部位が評価結果に影響したのかを示すことができる。結果出力部116は、例えば、診断モデルの目標変数である錐体外路症状の程度に対し、相関性の高い特徴変数(各特徴量)、例えば、目標変数との相関係数が所定以上の特徴量の値をデータテーブルや関数等から求めて基準値とする。そして、結果出力部116は、特徴点決定部111で決定した各特徴点における各特徴量を夫々の基準値と比較し、基準値に達する特徴量が多いほど影響度が高いものとし、影響度が高い順にランキングして所定数の特徴点を求める。具体的には、ジスキネジアのレベルが2の場合に採り得る特徴量の値や、ジスキネジアのレベルが3の場合に採り得る特徴量の値などのように、症状とレベル毎に基準値を定義したデータテーブルや関数等を定義し、診断結果に応じた基準値を設定しておく。なお、本実施形態では、標準偏差、平均値を跨いだ回数、及び平均パワースペクトル等、12の特徴量を用いているため、それぞれについて基準値を設定。 Further, when calculating the degree of extrapyramidal symptoms, the result output unit 116 may obtain and output a feature point having a high degree of influence on the calculation result. FIG. 6 shows an example in which ten feature points 450 having a high degree of influence are obtained and superimposed on an image. This makes it possible to indicate which part of the face affected the evaluation result. The result output unit 116 outputs, for example, a feature variable (each feature value) highly correlated with the degree of extrapyramidal symptoms, which is the target variable of the diagnostic model, for example, a feature having a predetermined or more correlation coefficient with the target variable. A quantity value is obtained from a data table, a function, or the like, and used as a reference value. Then, the result output unit 116 compares each feature amount at each feature point determined by the feature point determination unit 111 with each reference value, and determines that the more feature amounts that reach the reference value, the higher the degree of influence. A predetermined number of feature points are obtained by ranking in descending order of . Specifically, standard values were defined for each symptom and level, such as the value of the feature value that can be taken when the dyskinesia level is 2 and the value of the feature value that can be taken when the dyskinesia level is 3. Define data tables, functions, etc., and set reference values according to diagnostic results. In addition, in this embodiment, since 12 feature quantities such as standard deviation, the number of crossing over the average value, and the average power spectrum are used, a reference value is set for each.

なお、特徴量が「基準値に達する特徴量」のほか、「基準値に近い特徴量」を求めても良い。特徴量が「基準値に近い」とは、例えば、特徴量が基準値から所定範囲内にある場合である。そして、結果出力部116は、各特徴点について、複数の特徴量のうち、基準値と近いものをカウントし、影響度とする。これに限らず、結果出力部116は、特徴量と比較する範囲を複数設定することで、特徴量と基準値の近さを複数段階で判定してもよい。例えば、基準値を中心とした所定範囲を第一範囲、第一範囲よりも広い第二範囲、第二範囲よりも広い第三範囲などのように、基準値を中心とした複数の範囲を定め、特徴量がどの範囲に含まれるかによって特徴点と基準値の近さを判定する。この場合、結果出力部116は、例えば、特徴量が第一範囲に含まれる場合に最も高い重み係数を付与し、特徴量が第一範囲を超えて第二範囲に含まれる場合に二番目に高い重み係数を付与し、特徴量が第二範囲を超えて第三範囲に含まれる場合に三番目に高い重み係数を付与するといったように、特徴量が含まれる範囲に応じて重み係数を付与する。そして、結果出力部11
6は、各特徴点において、複数の特徴量の重み係数を積算し、影響度として求めてもよい。この場合、各範囲の大きさや重み係数の値は、比較する特徴量毎に適宜定めることができる。例えば、標準偏差、分散、平均値を跨いだ回数、又は平均パワースペクトルについては、他の特徴量の場合より、近さを判定する範囲が広く設定されてもよく、また、付加する重み係数の値が大きく設定されてもよい。なお、錐体外路症状の程度に対して、相関性の高い特徴量の値を求める手法は、例えば、SHAP(Lundberg, Scott M., and Su-In Lee. "A unified approach to interpreting model predictions." Advances in Neural Information Processing Systems. 2017. https://arxiv.org/abs/1705.07874)といった技術を用いることができる。また、影響度を求める手法は、上記に限らず、他の手法を用いて算出してもよい。
In addition to the "feature amount reaching the reference value", the "feature amount close to the reference value" may be obtained. For example, when the feature amount is "close to the reference value", the feature amount is within a predetermined range from the reference value. Then, for each feature point, the result output unit 116 counts feature amounts that are close to the reference value among the plurality of feature amounts, and determines the degree of influence. Without being limited to this, the result output unit 116 may determine the closeness between the feature amount and the reference value in multiple stages by setting multiple ranges for comparison with the feature amount. For example, multiple ranges centered on the reference value are defined, such as a predetermined range centered on the reference value as the first range, a second range that is wider than the first range, and a third range that is wider than the second range. , the closeness between the feature point and the reference value is determined according to the range in which the feature amount is included. In this case, the result output unit 116, for example, gives the highest weighting factor when the feature amount is included in the first range, and gives the second highest weighting factor when the feature amount exceeds the first range and is included in the second range. Assign a high weighting factor, and assign a third highest weighting factor when the feature exceeds the second range and is included in the third range. do. And the result output unit 11
6 may be obtained as an influence degree by accumulating weight coefficients of a plurality of feature amounts at each feature point. In this case, the size of each range and the value of the weighting factor can be appropriately determined for each feature quantity to be compared. For example, for the standard deviation, variance, number of times across the average value, or average power spectrum, the range for determining closeness may be set wider than in the case of other feature quantities, and the weighting factor to be added may be set to A large value may be set. In addition, for the degree of extrapyramidal symptoms, methods for obtaining highly correlated feature values include, for example, SHAP (Lundberg, Scott M., and Su-In Lee. "A unified approach to interpreting model predictions. " Advances in Neural Information Processing Systems. 2017. https://arxiv.org/abs/1705.07874) can be used. Further, the method for obtaining the degree of influence is not limited to the above method, and other methods may be used for calculation.

《機械学習処理》
図7は、診断装置10の制御部12が、プログラムにしたがって機械学習を行う処理を示す図である。制御部12は、機械学習の開始が指示されると、図7の処理を実行する。
《Machine learning processing》
FIG. 7 is a diagram showing a process in which the control unit 12 of the diagnostic device 10 performs machine learning according to a program. When instructed to start machine learning, the control unit 12 executes the process of FIG. 7 .

ステップS10にて、制御部12は、学習用データを補助記憶装置や入出力IF14に接続した記憶媒体から取得する。なお、学習用データは、例えば機械学習のために予め患者20を撮影した動画像と、当該患者20について医師等が錐体外路症状の程度を評価した教師ラベルとを含むものである。 In step S<b>10 , the control unit 12 acquires learning data from an auxiliary storage device or a storage medium connected to the input/output IF 14 . The learning data includes, for example, moving images of the patient 20 captured in advance for machine learning, and teacher labels obtained by evaluating the degree of extrapyramidal symptoms of the patient 20 by a doctor or the like.

ステップS20にて、制御部12は、ステップS10で取得した動画像から特徴点を抽出する。なお、錐体外路症状は、目元や口元の周期的な動きとして現れる傾向があるため、患者(対象者)の顔の部位であって、目、当該目の周辺部、唇、及び当該唇の周辺部を含む特定の部位を特徴点として含むことが望ましい。 At step S20, the control unit 12 extracts feature points from the moving image acquired at step S10. Extrapyramidal symptoms tend to appear as periodic movements around the eyes and mouth. It is desirable to include specific sites including the periphery as feature points.

ステップS30にて、制御部12は、ステップS20で求めた特徴点について、スケーリング、特徴点の位置情報取得、及び欠落した特徴点の補完などの前処理を行う。 In step S30, the control unit 12 performs preprocessing on the feature points obtained in step S20, such as scaling, acquisition of feature point position information, and complementation of missing feature points.

ステップS40にて、制御部12は、ステップS30で求めた特徴点の位置情報を取得し、この各特徴点の時間経過に伴う位置情報の変化に基づいて、各特徴点の特徴量を求める。本実施形態では、各特徴点に係る位置情報の変化量について、平均値、中央値、標準偏差、分散、最小値、最大値、歪度、尖度、総和、二乗和、平均値を跨いだ回数、及び平均パワースペクトルといった12の特徴量を求める。 In step S40, the control unit 12 acquires the position information of the feature points obtained in step S30, and obtains the feature amount of each feature point based on the change in the position information of each feature point over time. In this embodiment, the amount of change in position information for each feature point is defined as the mean value, median value, standard deviation, variance, minimum value, maximum value, skewness, kurtosis, sum, sum of squares, and mean value. 12 feature quantities such as the number of times and the average power spectrum are obtained.

ステップS50にて、制御部12は、ステップS40で求めた特徴量と、ステップS10で取得した教師ラベルとに基づいて、機械学習を行い、診断モデルを生成する。 In step S50, the control unit 12 performs machine learning based on the feature amount obtained in step S40 and the teacher label obtained in step S10 to generate a diagnostic model.

ステップS60にて、制御部12は、全ての学習データについて学習が完了したか否かを判定し、否定判定であればステップS10へ戻り、肯定判定であれば図7の処理を終了する。 In step S60, the control unit 12 determines whether or not learning has been completed for all learning data, returns to step S10 if the determination is negative, and terminates the processing of FIG.

《錐体外路症状の診断処理》
図8は、診断装置10の制御部12が、錐体外路症状診断プログラムに従って実行する処理を示す図である。制御部12は、診断の開始が指示されると、図8の処理を実行する。
<<Diagnostic processing for extrapyramidal symptoms>>
FIG. 8 is a diagram showing processing executed by the control unit 12 of the diagnostic device 10 according to the extrapyramidal symptom diagnostic program. When instructed to start diagnosis, the control unit 12 executes the process of FIG. 8 .

ステップS110にて、制御部12は、患者20を撮影した動画像を撮影装置16や、補助記憶装置、或は入出力IF14に接続した記憶媒体から取得する。 In step S<b>110 , the control unit 12 acquires a moving image of the patient 20 from the imaging device 16 , an auxiliary storage device, or a storage medium connected to the input/output IF 14 .

ステップS120にて、制御部12は、ステップS110で取得した動画像から特徴点
を抽出する。ここで抽出する特徴点は、図7に示す機械学習処理のステップS20で求めるものと同じである。
At step S120, the control unit 12 extracts feature points from the moving image acquired at step S110. The feature points extracted here are the same as those obtained in step S20 of the machine learning process shown in FIG.

ステップS130にて、制御部12は、ステップS120で求めた特徴点について、スケーリング、特徴点の位置情報取得、及び欠落した特徴点の補完などの前処理を行う。 In step S130, the control unit 12 performs preprocessing on the feature points obtained in step S120, such as scaling, acquisition of feature point position information, and complementation of missing feature points.

ステップS140にて、制御部12は、ステップS130で求めた特徴点の位置情報を取得し、この各特徴点の時間経過に伴う位置情報の変化に基づいて、各特徴点の特徴量を求める。ここで算出する特徴量は、図7に示す機械学習処理のステップS40で求めるものと同じ、平均値、中央値、標準偏差、分散、最小値、最大値、歪度、尖度、総和、二乗和、平均値を跨いだ回数、及び平均パワースペクトルといった12種類の特徴量である。 In step S140, the control unit 12 acquires the positional information of the feature points obtained in step S130, and obtains the feature amount of each feature point based on the change in the positional information of each feature point over time. The feature values calculated here are the same as those obtained in step S40 of the machine learning process shown in FIG. There are 12 types of feature quantities, such as sum, number of crossing over the average value, and average power spectrum.

ステップS150にて、制御部12は、ステップS140で求めた特徴量を診断モデルに入力し、患者20の錐体外路症状の程度を算出する。 In step S150, the control unit 12 inputs the feature amount obtained in step S140 to the diagnostic model, and calculates the degree of extrapyramidal symptoms of the patient 20. FIG.

ステップS160にて、制御部12は、ステップS150で算出した錐体外路症状の程度を診断結果として出力する。また、制御部12は、当該診断結果への影響度が高い特徴点を求め、これらを画像に重畳して図6に示すように表示する。 In step S160, the control unit 12 outputs the degree of extrapyramidal symptoms calculated in step S150 as a diagnosis result. The control unit 12 also obtains feature points that have a high degree of influence on the diagnosis result, and superimposes them on the image for display as shown in FIG.

このように本実施形態の診断装置10は、患者20を撮影した動画像から、特徴点を抽出し、この特徴点の時間経過に伴う位置の変化に基づいて特徴量を求め、この特徴量に基づきAIで錐体外路症状の程度を算出する。これにより、診断装置10は、一定の基準で機械的に診断を行うので、長期にわたる症状進行具合や、治療の成果などを適切に評価できる。 As described above, the diagnostic apparatus 10 of the present embodiment extracts feature points from a moving image of the patient 20, obtains feature amounts based on changes in the positions of the feature points over time, and uses the feature amounts as Based on this, AI calculates the degree of extrapyramidal symptoms. As a result, the diagnosis apparatus 10 mechanically diagnoses according to a certain standard, so that it is possible to appropriately evaluate the progress of symptoms over a long period of time, the results of treatment, and the like.

また、本実施形態の診断装置10は、診断結果への影響度が高い特徴点を画像に重畳して表示するので、錐体外路症状がどこで発生しているか、例えば目の周りなのか、口の周りなのか、頬なのか、それが、右側なのか、左側なのかなどを患者20や医師に提示することができる。また、どの部位の動きによって、当該診断結果となったのかが提示されるので、医師や患者20が的確に診断結果を把握することができ、診断装置10の信頼度を向上させることができる。 In addition, since the diagnostic apparatus 10 of the present embodiment superimposes the feature points that have a high degree of influence on the diagnostic result on the image, it is possible to determine where the extrapyramidal symptom occurs, for example, around the eyes, mouth, and so on. It can be presented to the patient 20 or the doctor whether it is around the neck, the cheek, the right side, the left side, and so on. In addition, since it is presented which movement of the part led to the diagnosis result, the doctor and the patient 20 can accurately grasp the diagnosis result, and the reliability of the diagnostic apparatus 10 can be improved.

《その他》
以上の実施形態は、一例であり明細書及び図面に例示した構成に限定されるものではない。例えば、前述の診断装置10は、機械学習を行う機能と診断を行う機能を備えたが、機械学習を行う装置と診断を行う装置とが別体に構成されてもよい。また、診断装置10は、ネットワークを介して動画像を取得し、この動画像に基づいて診断した結果を返信するサーバであってもよい。
"others"
The above embodiment is an example and is not limited to the configurations illustrated in the specification and drawings. For example, although the diagnostic device 10 described above has a function of performing machine learning and a function of performing diagnosis, the device for performing machine learning and the device for performing diagnosis may be configured separately. Further, the diagnostic apparatus 10 may be a server that acquires a moving image via a network and returns the result of diagnosis based on this moving image.

10: 錐体外路症状診断装置(診断装置)
11: 接続バス
111: 特徴点決定部
112: 前処理部
113: 特徴量算出部
114: 機械学習部
115: 診断部
116: 結果出力部
12: 制御部
12: 上記
13: メモリ
16: 撮影装置
20: 患者
40: 画像
401: 鼻先
401~408,450,451: 特徴点
10: extrapyramidal symptom diagnostic device (diagnostic device)
11: Connection bus 111: Feature point determination unit 112: Preprocessing unit 113: Feature amount calculation unit 114: Machine learning unit 115: Diagnosis unit 116: Result output unit 12: Control unit 12: Above 13: Memory 16: Imaging device 20 : Patient 40: Image 401: Nose 401-408, 450, 451: Feature points

Claims (6)

診断の対象者を撮影した動画像から時系列に画像データを取得することと、
前記画像データから前記対象者の特徴点を複数求め、各特徴点の位置情報を時系列に求めることと、
時系列に求めた前記各特徴点の時間経過に伴う位置情報の相対的な変化に基づいて、各特徴点の特徴量を求めることと、
各特徴点の前記特徴量が入力された際に、前記各特徴点の時間経過に伴う位置情報の相対的な変化に基づいて推定される、振戦の程度、ジスキネジアの程度、又はジストニアの程度を錐体外路症状の程度として算出するように、教師データを用いた機械学習処理が施された学習済み診断モデルに、前記対象者を撮影した前記動画像から求めた前記特徴量を入力して、当該動画像について前記錐体外路症状の程度を出力することと、
を実行する制御部を備える錐体外路症状診断装置。
Acquiring image data in chronological order from moving images of a person to be diagnosed;
Obtaining a plurality of feature points of the subject from the image data, and obtaining position information of each feature point in time series;
Obtaining a feature amount of each feature point based on a relative change in position information of each feature point over time obtained in time series;
The degree of tremor, the degree of dyskinesia, or the degree of dystonia estimated based on the relative change in position information of each feature point over time when the feature amount of each feature point is input is calculated as the degree of extrapyramidal symptoms, inputting the feature amount obtained from the moving image of the subject to a learned diagnostic model that has been subjected to machine learning processing using teacher data , outputting the degree of extrapyramidal symptoms for the moving image ;
An extrapyramidal symptom diagnostic device comprising a control unit for executing
前記特徴量が、時間経過に伴う前記位置情報の変化量について求めた、平均値、中央値、標準偏差、分散、最小値、最大値、歪度、尖度、総和、二乗和、平均値を跨いだ回数、及び平均パワースペクトルのうち、少なくとも一つである請求項1に記載の錐体外路症状診断装置。 The feature quantity is the mean value, median value, standard deviation, variance, minimum value, maximum value, skewness, kurtosis, sum, sum of squares, and mean value obtained for the amount of change in the position information over time. 2. The extrapyramidal symptom diagnostic device according to claim 1, wherein at least one of the number of straddlings and the average power spectrum is used. 各特徴点における前記位置情報の時間経過に伴う変化が、前記対象者の顔の基準部位を基準とする相対的な位置の変化である請求項1又は2に記載の錐体外路症状診断装置。 3. The extrapyramidal symptom diagnosis apparatus according to claim 1, wherein the change over time of the positional information of each feature point is a relative positional change with reference to a reference portion of the subject's face. 前記顔の基準部位は鼻であり、前記特徴点が、前記対象者の顔の部位であって、唇、及び当該唇の周辺部を含む特定の部位である請求項3に記載の錐体外路症状診断装置。 4. The extrapyramidal tract according to claim 3, wherein the reference part of the face is the nose, and the feature point is a specific part of the subject's face, including the lips and the periphery of the lips. Symptom diagnosis device. 前記制御部が、
前記錐体外路症状の程度を算出した際、当該算出結果への影響度が高い前記特徴点を求めることと、
前記影響度が高い前記特徴点を前記対象者の画像上に重畳して表示することと、
を更に実行する請求項1~4の何れか1項に記載の錐体外路症状診断装置。
The control unit
When calculating the degree of the extrapyramidal symptom, obtaining the feature point that has a high degree of influence on the calculation result;
superimposing and displaying the feature points having the high degree of influence on the image of the subject;
The extrapyramidal symptom diagnosis device according to any one of claims 1 to 4, further comprising:
診断の対象者を撮影した動画像から時系列に画像データを取得することと、
前記画像データから前記対象者の特徴点を複数求め、各特徴点の位置情報を時系列に求めることと、
時系列に求めた前記各特徴点の時間経過に伴う位置情報の相対的な変化に基づいて、各特徴点の特徴量を求めることと、
各特徴点の前記特徴量が入力された際に、前記各特徴点の時間経過に伴う位置情報の変化に基づいて前記各特徴点の時間経過に伴う位置情報の相対的な変化に基づいて推定される、振戦の程度、ジスキネジアの程度、又はジストニアの程度を錐体外路症状の程度として算出するように、教師データを用いた機械学習処理が施された学習済み診断モデルに、前記対象者を撮影した前記動画像から求めた前記特徴量を入力することにより、前記錐体外路症状の程度を出力することと、
を制御部に実行させるための錐体外路症状診断プログラム。
Acquiring image data in chronological order from moving images of a person to be diagnosed;
Obtaining a plurality of feature points of the subject from the image data, and obtaining position information of each feature point in time series;
Obtaining a feature amount of each feature point based on a relative change in position information of each feature point over time obtained in time series;
When the feature amount of each feature point is input, estimation based on relative change in position information of each feature point over time based on change in position information of each feature point over time A trained diagnostic model that has been subjected to machine learning processing using teacher data so as to calculate the degree of tremor, the degree of dyskinesia, or the degree of dystonia as the degree of extrapyramidal symptoms, the subject outputting the degree of the extrapyramidal symptom by inputting the feature amount obtained from the moving image photographed;
extrapyramidal symptom diagnosis program for causing the control unit to execute
JP2021182784A 2021-11-09 2021-11-09 Extrapyramidal Symptom Diagnosis Device and Extrapyramidal Symptom Diagnosis Program Active JP7223103B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021182784A JP7223103B1 (en) 2021-11-09 2021-11-09 Extrapyramidal Symptom Diagnosis Device and Extrapyramidal Symptom Diagnosis Program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021182784A JP7223103B1 (en) 2021-11-09 2021-11-09 Extrapyramidal Symptom Diagnosis Device and Extrapyramidal Symptom Diagnosis Program

Publications (2)

Publication Number Publication Date
JP7223103B1 true JP7223103B1 (en) 2023-02-15
JP2023070542A JP2023070542A (en) 2023-05-19

Family

ID=85221703

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021182784A Active JP7223103B1 (en) 2021-11-09 2021-11-09 Extrapyramidal Symptom Diagnosis Device and Extrapyramidal Symptom Diagnosis Program

Country Status (1)

Country Link
JP (1) JP7223103B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018185717A (en) 2017-04-27 2018-11-22 コニカミノルタ株式会社 Health management system and health management method
WO2021100815A1 (en) 2019-11-22 2021-05-27 社会福祉法人聖隷福祉事業団 Movement data collection method, movement data analysis system, movement diagnosis assistance system, and analysis program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018185717A (en) 2017-04-27 2018-11-22 コニカミノルタ株式会社 Health management system and health management method
WO2021100815A1 (en) 2019-11-22 2021-05-27 社会福祉法人聖隷福祉事業団 Movement data collection method, movement data analysis system, movement diagnosis assistance system, and analysis program

Also Published As

Publication number Publication date
JP2023070542A (en) 2023-05-19

Similar Documents

Publication Publication Date Title
AU2018250385B2 (en) Motor task analysis system and method
CN110084259B (en) Facial paralysis grading comprehensive evaluation system combining facial texture and optical flow characteristics
Lou et al. Realistic facial expression reconstruction for VR HMD users
US9687189B2 (en) Automatic visual remote assessment of movement symptoms in people with parkinson&#39;s disease for MDS-UPDRS finger tapping task
JP6833708B2 (en) How to handle asynchronous signals
Birla et al. PATRON: Exploring respiratory signal derived from non-contact face videos for face anti-spoofing
Ahmedt-Aristizabal et al. Vision-based mouth motion analysis in epilepsy: A 3d perspective
US11779260B2 (en) Cognitive function evaluation method, cognitive function evaluation device, and non-transitory computer-readable recording medium in which cognitive function evaluation program is recorded
Jaroensri et al. A video-based method for automatically rating ataxia
Maia et al. Epileptic seizure classification using the NeuroMov database
CN113197558B (en) Heart rate and respiratory rate detection method and system and computer storage medium
CN111448589B (en) Device, system and method for detecting body movement of a patient
JP7223103B1 (en) Extrapyramidal Symptom Diagnosis Device and Extrapyramidal Symptom Diagnosis Program
Ahmedt-Aristizabal et al. Motion signatures for the analysis of seizure evolution in epilepsy
JP7087969B2 (en) Pretreatment device, pretreatment method and pretreatment program
CN118338853A (en) Computer program, information processing method, and information processing apparatus
US20240215865A1 (en) Determining the quality of setting up a headset for cranial accelerometry
Babu et al. Eye blink to speech conversion for paralyzed (mnd) patients using ml based algorithm
KR20190125707A (en) Method for estimating emotion based on psychological activity and biosignal of user and system therefor
JP3686418B2 (en) Measuring device and method
Vedernikov et al. Analyzing Participants' Engagement during Online Meetings Using Unsupervised Remote Photoplethysmography with Behavioral Features
KR102074977B1 (en) Electronic devices and methods thereof
WO2023195148A1 (en) Pulse wave estimation device, condition estimation device, and pulse wave estimation method
Yu et al. An enhancement algorithm for head characteristics of caged chickens detection based on cyclic consistent migration neural network
JP7558451B2 (en) Pulse wave estimation device, condition estimation device, and pulse wave estimation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230203

R150 Certificate of patent or registration of utility model

Ref document number: 7223103

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350