JP2023070542A - Diagnostic equipment of extrapyramidal symptom and diagnostic program of extrapyramidal symptom - Google Patents
Diagnostic equipment of extrapyramidal symptom and diagnostic program of extrapyramidal symptom Download PDFInfo
- Publication number
- JP2023070542A JP2023070542A JP2021182784A JP2021182784A JP2023070542A JP 2023070542 A JP2023070542 A JP 2023070542A JP 2021182784 A JP2021182784 A JP 2021182784A JP 2021182784 A JP2021182784 A JP 2021182784A JP 2023070542 A JP2023070542 A JP 2023070542A
- Authority
- JP
- Japan
- Prior art keywords
- feature
- feature point
- extrapyramidal
- degree
- symptom
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 208000027776 Extrapyramidal disease Diseases 0.000 title claims abstract description 68
- 238000003745 diagnosis Methods 0.000 claims abstract description 26
- 230000008859 change Effects 0.000 claims abstract description 19
- 238000012545 processing Methods 0.000 claims description 20
- 238000010801 machine learning Methods 0.000 claims description 19
- 238000001228 spectrum Methods 0.000 claims description 19
- 208000024891 symptom Diseases 0.000 claims description 19
- 238000004364 calculation method Methods 0.000 claims description 8
- 210000001263 extrapyramidal tract Anatomy 0.000 claims 1
- 238000005516 engineering process Methods 0.000 abstract description 2
- 238000000034 method Methods 0.000 description 21
- 238000003384 imaging method Methods 0.000 description 16
- 230000015654 memory Effects 0.000 description 14
- 238000007781 pre-processing Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 208000012661 Dyskinesia Diseases 0.000 description 7
- 238000006073 displacement reaction Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 208000014094 Dystonic disease Diseases 0.000 description 4
- 208000010118 dystonia Diseases 0.000 description 4
- 230000000737 periodic effect Effects 0.000 description 4
- 206010044565 Tremor Diseases 0.000 description 3
- 210000000887 face Anatomy 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000037361 pathway Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000003252 repetitive effect Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000011282 treatment Methods 0.000 description 2
- 206010001540 Akathisia Diseases 0.000 description 1
- 206010034010 Parkinsonism Diseases 0.000 description 1
- 208000001431 Psychomotor Agitation Diseases 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 206010006514 bruxism Diseases 0.000 description 1
- 210000003710 cerebral cortex Anatomy 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000000875 corresponding effect Effects 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000011866 long-term treatment Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000010004 neural pathway Effects 0.000 description 1
- 210000000118 neural pathway Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、錐体外路症状診断装置及び錐体外路症状診断プログラムに関する。 The present invention relates to an extrapyramidal symptom diagnostic device and an extrapyramidal symptom diagnostic program.
錐体外路症状とは、大脳皮質運動野から、抹消運動に指令をだす神経路のうち、錐体路以外の通り道の錐体外路で異常が起きたことによって生じる症状の総称である。錐体外路症状としては、振戦・薬剤性パーキンソニズム・ジスキネジア・ジストニア・アカシジア・パーキンソン様症状などが知られている。例えば、ジスキネジアでは、繰り返し唇をすぼめる・口をもぐもぐさせる・口を突き出す・歯を食いしばる・目を閉じるとなかなか開けずしわを寄せているといった症状が現れることがある。 Extrapyramidal symptoms are a general term for symptoms caused by abnormalities in the extrapyramidal pathways other than the pyramidal pathways, among the neural pathways that issue commands to peripheral movements from the motor area of the cerebral cortex. Known extrapyramidal symptoms include tremor, drug-induced parkinsonism, dyskinesia, dystonia, akathisia, and parkinsonian symptoms. For example, dyskinesias may manifest symptoms such as repetitive pursed lips, mouth muzzling, mouth thrusting, teeth clenching, and wrinkled eyes when closed.
錐体外路症状に対する治療方針を決定するためには、どのような症状が、どの程度現れているかを適切に診断することが求められるが、振戦やジスキネジア、ジストニアなどでは、何れも不随意運動の反復が現れ、類似した症状となるので、明確な区別は難しいという問題があった。また、これらの症状は、複合的に現れることがある。例えば、ジスキネジア症状とジストニア症状とが現れた場合、どちらの症状の程度が高いかによって、投薬の方針を決定することがあるため、これらの症状の程度を適切に診断することが肝要である。しかしながら、これら症状の程度は、医師の所見によって定められるのが一般的であり、例えば、長期にわたる治療過程において、一定の基準で程度の診断を下すのは非常に難しいという問題があった。 In order to determine the treatment policy for extrapyramidal symptoms, it is necessary to properly diagnose what kind of symptoms are present and to what extent. appears repeatedly, resulting in similar symptoms, making clear distinction difficult. Moreover, these symptoms may appear in combination. For example, when dyskinesia symptoms and dystonia symptoms appear, it is important to appropriately diagnose the severity of these symptoms, since the medication policy may be determined depending on which symptom is more severe. However, the severity of these symptoms is generally determined by a doctor's findings, and there is a problem that, for example, it is very difficult to make a diagnosis based on a fixed standard during a long-term treatment process.
開示の技術の課題は、錐体外路症状の診断を適切に行う技術を提供することにある。 An object of the disclosed technique is to provide a technique for appropriately diagnosing extrapyramidal symptoms.
開示の技術の一側面は、次の錐体外路症状診断装置の構成によって例示される。すなわち、本錐体外路症状診断装置は、
診断の対象者を撮影した動画像から時系列に画像データを取得することと、
前記画像データから前記対象者の特徴点を複数求め、各特徴点の位置情報を時系列に求めることと、
時系列に求めた前記各特徴点の時間経過に伴う位置情報の変化に基づいて、各特徴点の特徴量を求めることと、
各特徴点の前記特徴量が入力された際に、推定される錐体外路症状の程度を算出するように、教師データを用いた機械学習処理が施された学習済み診断モデルに、前記対象者を撮影した前記動画像から求めた前記特徴量を入力することにより、前記錐体外路症状の程度を算出することと、
算出した前記錐体外路症状の程度を出力することと、
を実行する制御部を備える。
One aspect of the disclosed technique is exemplified by the configuration of the following extrapyramidal symptom diagnosis device. That is, the present extrapyramidal symptom diagnosis device
Acquiring image data in chronological order from moving images of a person to be diagnosed;
Obtaining a plurality of feature points of the subject from the image data, and obtaining position information of each feature point in time series;
Obtaining a feature amount of each feature point based on a change in position information of each feature point over time obtained in time series;
When the feature amount of each feature point is input, a trained diagnostic model that has been subjected to machine learning processing using teacher data so as to calculate the estimated degree of extrapyramidal symptoms is added to the subject calculating the degree of the extrapyramidal symptom by inputting the feature amount obtained from the moving image photographed;
outputting the calculated degree of extrapyramidal symptoms;
A control unit for executing
前記錐体外路症状診断装置は、前記特徴量が、時間経過に伴う前記位置情報の変化量について求めた、平均値、中央値、標準偏差、分散、最小値、最大値、歪度、尖度、総和、
二乗和、平均値を跨いだ回数、及び平均パワースペクトルのうち、少なくとも一つであってもよい。
In the extrapyramidal symptom diagnosis device, the feature value is the mean value, median value, standard deviation, variance, minimum value, maximum value, skewness, and kurtosis obtained for the amount of change in the positional information over time. , the sum,
At least one of the sum of squares, the number of crossing over the average value, and the average power spectrum may be used.
前記錐体外路症状診断装置は、各特徴点における前記位置情報の時間経過に伴う変化が、前記対象者の顔の基準位置を基準とする相対的な位置の変化であってもよい。 In the extrapyramidal symptom diagnostic apparatus, the change with time of the position information at each feature point may be a change in position relative to a reference position of the face of the subject.
前記錐体外路症状診断装置において、前記顔の基準部位は鼻であり、前記特徴点が、前記対象者の顔の部位であって、唇、及び当該唇の周辺部を含む特定の部位であってもよい。 In the apparatus for diagnosing extrapyramidal symptoms, the reference part of the face is the nose, and the feature point is a part of the subject's face that is a specific part including lips and peripheral parts of the lips. may
前記錐体外路症状診断装置において、前記制御部が、
前記錐体外路症状の程度を算出した際、当該算出結果への影響度が高い前記特徴点を求めることと、
前記影響度が高い前記特徴点を前記画像に重畳して表示することと、
を更に実行してもよい。
In the extrapyramidal symptom diagnosis device, the control unit
When calculating the degree of the extrapyramidal symptom, obtaining the feature point that has a high degree of influence on the calculation result;
displaying the feature points having the high degree of influence superimposed on the image;
may also be performed.
開示の技術の一側面は、次の錐体外路症状診断プログラムによって例示される。すなわち、本錐体外路症状診断プログラムは、
診断の対象者を撮影した動画像を取得することと、
前記動画像から時系列に画像データを取得することと、
前記画像データから前記対象者の特徴点を複数求め、各特徴点の位置情報を時系列に求めることと、
時系列に求めた前記各特徴点の時間経過に伴う位置情報の変化に基づいて、各特徴点の特徴量を求めることと、
各特徴点の前記特徴量が入力された際に、推定される錐体外路症状の程度を算出するように、教師データを用いた機械学習処理が施された学習済み診断モデルに、前記対象者を撮影した前記動画像から求めた前記特徴量を入力することにより、前記錐体外路症状の程度を算出することと、
算出した前記錐体外路症状の程度を出力することと、
を制御部に実行させる。
One aspect of the disclosed technology is exemplified by the following extrapyramidal symptom diagnosis program. That is, this extrapyramidal symptom diagnostic program is
Acquiring a moving image of a person to be diagnosed;
obtaining image data in time series from the moving image;
Obtaining a plurality of feature points of the subject from the image data, and obtaining position information of each feature point in time series;
Obtaining a feature amount of each feature point based on a change in position information of each feature point over time obtained in time series;
When the feature amount of each feature point is input, a trained diagnostic model that has been subjected to machine learning processing using teacher data so as to calculate the estimated degree of extrapyramidal symptoms is added to the subject calculating the degree of the extrapyramidal symptom by inputting the feature amount obtained from the moving image photographed;
outputting the calculated degree of extrapyramidal symptoms;
is executed by the control unit.
更に、開示の技術の一側面は、この錐体外路症状診断プログラムをコンピュータが読み取り可能な記録媒体に記録したものによって例示される。コンピュータに、この記録媒体のプログラムを読み込ませて実行させることにより、その機能を提供させることができる。 Furthermore, one aspect of the disclosed technique is exemplified by a computer-readable recording medium recording this extrapyramidal symptom diagnosis program. The function can be provided by causing a computer to read and execute the program of this recording medium.
ここで、コンピュータ等が読み取り可能な記録媒体とは、データやプログラム等の情報を電気的、磁気的、光学的、機械的、または化学的作用によって蓄積し、コンピュータ等から読み取ることができる記録媒体をいう。このような記録媒体のうちコンピュータ等から取り外し可能なものとしては、例えばフレキシブルディスク、光磁気ディスク、CD(Compact Disc)、CD-R/W、DVD(Digital Versatile Disk)、ブルーレイディスク(Blu-ray(登録商標) Disc)、DAT、8mmテープ、フラッシュメモリなどのメモリカード等がある。また、コンピュータ等に固定された記録媒体としてハードディスクやROM(リードオンリーメモリ)等がある。 Here, a computer-readable recording medium is a recording medium that can store information such as data and programs by electrical, magnetic, optical, mechanical, or chemical action and can be read by a computer, etc. Say. Examples of such recording media that can be removed from a computer or the like include flexible discs, magneto-optical discs, CDs (Compact Discs), CD-R/Ws, DVDs (Digital Versatile Discs), Blu-ray discs, (registered trademark) Disc), DAT, 8 mm tape, and memory cards such as flash memory. In addition, there are a hard disk, a ROM (read only memory), and the like as a recording medium fixed to a computer or the like.
本開示の技術によれば、錐体外路症状の診断を適切に行うことができる。 According to the technique of the present disclosure, it is possible to appropriately diagnose extrapyramidal symptoms.
以下、図面を参照して、一実施形態に係る錐体外路症状診断装置について説明する。以下の実施形態の構成は例示であり、本錐体外路症状診断装置は実施形態の構成には限定されない。 Hereinafter, an extrapyramidal symptom diagnosis device according to one embodiment will be described with reference to the drawings. The configuration of the following embodiment is an example, and the present extrapyramidal symptom diagnosis device is not limited to the configuration of the embodiment.
《装置構成》
図1は、本実施形態に係る錐体外路症状診断装置(以下単に診断装置とも称す)10の概略構成図である。診断装置10は、患者20の顔の表情を撮影した画像を診断モデルに入力し、錐体外路症状の診断結果を算出する。この診断モデルは、患者20の顔を所定期間(例えば数十秒)撮影し、撮影画像から顔の特徴点を複数抽出して、各特徴点の変位を時系列に求めたデータと、医師が定めたラベルとを教師データとしてディープラーニング(機械学習)を行ったものである。これにより本実施形態の錐体外路症状診断装置10は、患者20の顔の表情をAIで機械的に診断し、例えば、振戦、ジスキネジア、又はジストニアの症状の有無や、その症状の程度といった錐体外路症状を適切に診断できるようにしている。
"Device configuration"
FIG. 1 is a schematic configuration diagram of an extrapyramidal symptom diagnostic device (hereinafter also simply referred to as a diagnostic device) 10 according to this embodiment. The
《診断装置》
診断装置10は、接続バス11によって相互に接続された制御部12、メモリ13、入出力IF(インターフェース)14、通信IF15、撮影装置16を有するコンピュータである。制御部12は、入力された情報を処理し、処理結果を出力することにより、装置全体の制御等を行う。制御部12は、CPU(Central Processing Unit)や、MPU(Micro-processing unit)とも呼ばれる。制御部12は、単一のプロセッサに限られず、マルチプロセッサ構成であってもよい。また、単一のソケットで接続される単一のチップ内に複数のコアを有したマルチコア構成であってもよい。
《Diagnostic device》
The
メモリ13は、主記憶装置と補助記憶装置とを含む。主記憶装置は、制御部12の作業領域、制御部12で処理される情報を一時的に記憶する記憶領域、通信データのバッファ領域として使用される。主記憶装置は、制御部12がプログラムやデータをキャッシュしたり、作業領域を展開したりするための記憶媒体である。主記憶装置は、例えば、RAM(Random Access Memory)やROM(Read Only Memory)、フラッシュメモリを含む。補助記憶装置は、制御部12により実行されるプログラムや、情報処理に用いられるデータ、動作の設定情報、診断モデルとして用いられるデータなどを記憶する記憶媒体である。補助記憶装置は、例えば、HDD(Hard-disk Drive)やSSD(Solid State Drive)、EPROM(Erasable Programmable ROM)、フラッシュメモリ、USBメモリ、メモリ
カード等である。また、補助記憶装置は、診断対象とする画像(撮影画像)や、診断結果を記憶する。
The
入出力IF14は、診断装置10に接続する機器との間でデータの入出力を行うインターフェースである。入出力IF14は、例えば、CDやDVD等の記憶媒体からデータを読み取るディスクドライブ、操作部、表示装置、撮影装置16等の機器との間でデータの
入出力を行う。操作部は、マウスやキーボード、タッチパネル等、オペレータの操作によって診断装置10に対する情報が入力される入力部である。表示装置は、処理結果などの情報をオペレータに対して表示出力する出力部である。
The input/output IF 14 is an interface for inputting/outputting data with devices connected to the
通信IF15は、通信回線(ネットワーク)を介して他の装置との通信を行うインターフェース(通信モジュール)であり、CCU(Communication Control Unit)とも称す。例えば、通信IF15は、患者20の自宅など診断装置10とは別の場所に配置されたコンピュータや撮影装置から情報を受信する構成、又はこれらへ情報を送信する構成であってもよい。
The communication IF 15 is an interface (communication module) that communicates with other devices via a communication line (network), and is also called a CCU (Communication Control Unit). For example, the communication IF 15 may be configured to receive information from, or transmit information to, a computer or imaging device located at a location other than the
撮影装置16は、患者20の顔を所定期間撮影して動画データを取得し、入出力IF14を介して制御部12へ入力する。撮影装置16は、所謂カメラであるが、動画データを取得できれば、三次元センサやToF(Time of Flight)センサであってもよい。また、撮影装置16は、水平方向に離間した二つのカメラで患者20の顔を撮影することにより三次元情報を得ることが可能なステレオカメラであってもよい。
The
撮影装置16は、例えば、患者20と正対して配置され、患者が居る空間の垂直方向及び水平方向と撮影画像の垂直方向及び水平方向とが一致するように配置されている。このため例えば患者20が顔を垂直方向に対して傾けた場合に、この傾きを画像上から識別できるように設定されている。
The
診断装置10の上記構成要素11~16は、それぞれ複数設けられてもよく、一部の構成要素が省略されてもよい。例えば、診断装置10は、撮影装置16を備えず、外部の撮影装置で撮影した患者20の画像を入出力IF14や通信IF15を介して取得する構成としてもよい。
A plurality of each of the
本実施形態の診断装置10では、制御部12が、アプリケーションプログラムを実行することにより、制御部12が、特徴点決定部111、前処理部112、特徴量算出部113、機械学習部114、診断部115、結果出力部116といった各処理部として機能する。即ち、制御部12は、実行するソフトウェアに応じて各処理部として兼用され得る。但し、上記各処理部の一部又は全部が、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)等の専用LSI(large scale integration)、論理回路、その他のデジタル回路
といったハードウェアで形成されたものであってもよい。また、上記各処理部の少なくとも一部にアナログ回路を含む構成としてもよい。制御部12は、一つのプロセッサが複数の処理部として機能する構成であっても、一つの処理部として機能するプロセッサを複数備える構成であってもよい。
In the
特徴点決定部111は、撮影装置16で撮影撮影された動画像を撮影装置16から取得する、或は他の装置で撮影された動画像を入出力IF14若しくは通信IF15を介して取得し、当該動画像から時系列に画像データを取得する。例えば、1秒間当り複数のフレームを撮影することで動画が構成されている場合、各フレームを撮影順に取得して画像データとする。なお、動画のフレームレートは、特段限定されるものではないが、例えば15fps~120fpsが挙げられ、25fps~90fpsが望ましく、30fps~60fpsが更に望ましい。本実施形態における動画のフレームレートは、30fpsである。なお、取得した動画像のフレームレートが、診断モデルに入力する画像データのレート(1秒間当りの画像の枚数)と異なる場合、フレームを間引いて画像データの数を削減することや、フレームを補間して画像データの数を増加させることにより、調整を行ってもよい。
The feature
また、特徴点決定部111は、各画像データから特徴点を抽出する。図2は、特徴点を抽出する処理の説明図である。図2において符号40が画像データとして取得される画像の一例を示す。特徴点決定部111は、パターンマッチングにより、画像40から人の顔41を識別し、この顔41から、目42、眉43、鼻44、口唇45などのパーツを識別する。そして、特徴点決定部111は、各パーツにおける所定箇所を特徴点として求める。例えば、鼻44であれば、鼻先(鼻の最も前側に位置する箇所)401や、鼻の稜線に位置する箇所402、鼻の輪郭に位置する箇所403、鼻の穴の輪郭に位置する箇所404などを特徴点とすることが挙げられる。また、口唇45であれば、口唇の左右端部405、上唇の輪郭に位置する箇所406、下唇の輪郭に位置する箇所407、口唇の周囲に位置する箇所408などを特徴点とすることが挙げられる。この他、頬、顎、及び顔の輪郭(フェイスライン)に位置する箇所などを特徴点としてもよい。なお、図2では、一部の特徴点にのみ符号を付したが、上記特徴点401~408と同様のドットが特徴点を示している。なお、図2では、一部の特徴点を省略して示しており、本実施形態では、例えば468点の特徴点を定めている。なお、特徴点の位置や数は、一例であり、これに限定されるものではない。
Further, the feature
前処理部112は、各画像データについて、スケーリング、特徴点の位置情報取得、及び欠落した特徴点の補完などの前処理を行う。例えば、画像データに写る顔の大きさが患者毎に異なると、特徴点が変位した場合の変位の大きさを正しく評価できないため、図2に示すように顔の上下方向の長さLHや、左右方向の長さLW、左目の中心と右目の中心との距離LEなど、患者20の顔における所定箇所の長さが規定の大きさとなるようにスケーリングする。
The
また、前処理部112は、各画像データにおいて座標を定め、各特徴点の位置情報を取得する。例えば、顔の基準部位、本理では鼻先401を原点とし、垂直方向をY軸、水平方向をX軸、奥行き方向をZ軸とし、この座標系における各特徴点の座標を位置情報として求める。即ち、顔の各パーツの鼻先(基準部位)401に対する相対的な位置の変化を求める。なお、顔の基準部位は、鼻に限らず、右目と左目との間における中央などであってもよい。
The
なお、撮影装置16が、二次元画像を撮影する装置の場合、画像データから取得される位置情報は、Y軸上の位置と、X軸上の位置となる。しかしながら、撮影装置16側に向いた場合の人の顔は、鼻先が撮影装置16側(手前側)に位置し、目や頬等のパーツは鼻先よりも奥側に位置し、鼻の周辺からフェイスライン側へ向かうに連れて徐々に奥側に位置するような曲面となっている。このため、一般的な顔の曲面(以下、規定曲面とも称す)における三次元座標を規定し、各特徴源のXY座標に基づいて、各特徴点をこの規定曲面上にマッピングし、マッピングした位置のZ座標を当該特徴点のZ座標として推定する。
Note that if the
更に、患者20が左を向いた場合、顔の左側部分が奥側に位置するように、顔の向きによっても各特徴点の奥行き方向の位置が変わるため、前処理部112は、各画像データについて顔の向きを求め、この顔の向きに応じて各特徴点のZ座標を推定する。なお、Z座標の推定方法は、これに限らず、他の推定方法を用いてもよい。 Furthermore, when the patient 20 faces left, the position of each feature point in the depth direction changes depending on the orientation of the face, such that the left side of the face is located on the far side. , and the Z coordinate of each feature point is estimated according to the face orientation. Note that the Z-coordinate estimation method is not limited to this, and other estimation methods may be used.
また、撮影装置16としてステレオカメラを用いた場合、前処理部112は、このステレオカメラで撮影したステレオ画像から、各特徴点の三次元座標を求めてもよい。更に、撮影装置16として三次元スキャナやToFセンサを用いた場合、前処理部112は、この三次元スキャナやToFセンサの測定結果から各特徴点の三次元座標を求めてもよい。
Moreover, when a stereo camera is used as the
なお、患者20が横を向いた場合や、患者20が下を向いた場合など、顔の向きによっ
ては、顔の奥側部分が、正面に配置した撮影装置16において撮影されず、一部の特徴点のデータが欠落することがある。このため、前処理部112は、各画像データにおいて患者20の顔の向きを求め、この向きに応じて、前述の推定方法と同様に画像に写っていない特徴点の位置を規定曲面上の位置から推定し、位置情報を補完する。
Depending on the direction of the face, such as when the patient 20 faces sideways or when the patient 20 faces downward, the back side of the face may not be captured by the
特徴量算出部113は、前処理部112で時系列に求めた各特徴点の時間経過に伴う位置情報の変化に基づいて、各特徴点の特徴量を求める。ここで、特徴量は、例えば、時間経過に伴う位置情報の変化量について求めた、平均値、中央値、標準偏差、分散、最小値、最大値、歪度、尖度、総和、二乗和、平均値を跨いだ回数、及び平均パワースペクトルのうち、少なくとも一つが挙げられる。
The feature
図3は、特徴点の時間的変位を示す図、図4は、特徴点の時間経過に伴う位置の変化を示すグラフである。図3では、口唇45に含まれる特徴点451が、タイミングt1からタイミングt4へ時間が経過するのに伴って、Y軸方向下側へ移動した場合を示している。図4では、横軸に時間をとり、縦軸にY座標の値をとって、実線50が特徴点451の位置の変化を示している。特徴量算出部113は、この時間経過に伴って変化するY座標の値、即ち鼻先(原点)からの距離の変化を所定時間間隔(ウィンドウとも称す)twで区分し、このウィンドウtw毎に得たY座標の値について、平均値、中央値、標準偏差、分散、最小値、最大値、歪度、尖度、総和、二乗和、平均値を跨いだ回数、及びパワースペクトル密度平均といった統計量を算出して特徴量とする。同様に各特徴点のX座標の値及びZ座標の値についても夫々特徴量を算出する。即ち、468個の特徴点における3つの座標値(X,Y,Z座標の値)について、それぞれ上記12個の統計値を求めた場合、各特徴点について16848の特徴量が得られる。
FIG. 3 is a diagram showing temporal displacement of feature points, and FIG. 4 is a graph showing changes in position of feature points over time. FIG. 3 shows a case where a
錐体外路症状には「繰り返し唇をすぼめる」「口をもぐもぐさせる」「口を突き出す」などの外見的特徴がある。この特徴を捉えるため、上記特徴量のうち、特に標準偏差、分散、平均値を跨いだ回数、及び平均パワースペクトルが有効である。なお、平均値を跨いだ回数とは、座標値が時間の経過に伴い、平均より低い値から平均より高い値へ変化した場合、或は平均より高い値から平均より低い値へ変化した場合に、回数を増加させ、全期間中の回数を積算したものである。 Extrapyramidal symptoms are characterized by appearance, such as ``repeated lip pursedness'', ``mouth mumbling'', and ``mouth sticking out''. In order to capture this feature, the standard deviation, the variance, the number of crossing over the average value, and the average power spectrum are particularly effective among the above feature quantities. In addition, the number of times crossing the average value is the number of times the coordinate value changes from a value lower than the average to a value higher than the average, or from a value higher than the average to a value lower than the average with the passage of time. , the number of times is increased, and the number of times during the entire period is integrated.
図5は、パワースペクトルの説明図である。図5におけるグラフ51は、横軸に時間、縦軸に信号の強度をとり、ランダムな信号の時間推移を示している。グラフ52は、この信号のパワースペクトルと呼ばれるものであり、横軸が周波数、縦軸が各周波数成分の強さを示している。ランダムな信号の場合、グラフ52に示すようにパワースペクトルの分布もランダムとなる。
FIG. 5 is an explanatory diagram of a power spectrum. A
これに対し、グラフ53は、ランダムな信号に2つの周期性信号を足し合わせた信号の時間推移を示している。そして、この信号のパワースペクトルをグラフ54に示している。グラフ54に示されるように、周期性を持つ信号の場合、パワースペクトルにおいて、周期性信号の周波数に相当する箇所に鋭いピークが現れる。このようなパワースペクトルにおいて、周波数kを0,1,・・・,K-1とした時、平均パワースペクトル(mse)は、式(1)から求まる。
このように平均パワースペクトルは、特定の周波数成分を多く持つ信号の場合、その周
波数におけるF(k)が非常に大きくなり、また、2乗されることで更に大きな値となる。
この結果、「口をもぐもぐさせる」といった反復運動に起因する特定の周波数成分を含む信号の平均パワースペクトルは、そうでない信号と比べて大きな値になると推定される。このため、平均パワースペクトルを求めることで、変位の周期性を捉えることができる。
In this way, in the average power spectrum, in the case of a signal having many specific frequency components, F(k) at that frequency becomes very large, and when it is squared, it becomes a larger value.
As a result, it is presumed that the average power spectrum of a signal containing a specific frequency component due to repetitive motion such as "mouth-mugging" will be larger than that of a signal that does not. Therefore, by obtaining the average power spectrum, the periodicity of the displacement can be captured.
機械学習部114は、学習用の動画について、特徴点決定部111及び前処理部112で求めた各特徴点の特徴量と、教師ラベルとに基づいて機械学習を行い、学習済み診断モデルを生成する。なお、診断モデルは、ディープラーニングによって学習処理が施されたニューラルネットワークを一部に含むもの、或は全てが当該ニューラルネットワークから成るものであってもよい。ここで、教師ラベルは、例えば、医師などが、学習用の動画について錐体外路症状の程度を評価したものである。本実施形態における錐体外路症状の程度は、例えば、振戦、ジスキネジア、及びジストニアといった症状の夫々のレベルを0~4の5段階で評価したものである。なお、レベル0は、症状が認められない状態を示し、レベルの数値が大きい程、症状が顕著に表れている状態を示す。
The
診断部115は、患者20を撮影した動画像について、特徴点決定部111及び前処理部112で求めた各特徴点の特徴量を診断モデルに入力することにより、錐体外路症状の程度を算出する。
The
結果出力部116は、診断部115で算出した錐体外路症状の程度を表示部に表示すること等によって出力する。なお、錐体外路症状の程度の出力は、表示に限らず、印刷や、他の装置への送信、記録媒体への記録であってもよい。
The
また、結果出力部116は、錐体外路症状の程度を算出した際、当該算出結果への影響度が高い特徴点を求めて、これを出力してもよい。図6は、影響度が高い10点の特徴点450を求めて、画像に重畳して表示した例を示す。これにより、顔のどの部位が評価結果に影響したのかを示すことができる。結果出力部116は、例えば、診断モデルの目標変数である錐体外路症状の程度に対し、相関性の高い特徴変数(各特徴量)、例えば、目標変数との相関係数が所定以上の特徴量の値をデータテーブルや関数等から求めて基準値とする。そして、結果出力部116は、特徴点決定部111で決定した各特徴点における各特徴量を夫々の基準値と比較し、基準値に達する特徴量が多いほど影響度が高いものとし、影響度が高い順にランキングして所定数の特徴点を求める。具体的には、ジスキネジアのレベルが2の場合に採り得る特徴量の値や、ジスキネジアのレベルが3の場合に採り得る特徴量の値などのように、症状とレベル毎に基準値を定義したデータテーブルや関数等を定義し、診断結果に応じた基準値を設定しておく。なお、本実施形態では、標準偏差、平均値を跨いだ回数、及び平均パワースペクトル等、12の特徴量を用いているため、それぞれについて基準値を設定。
Further, when calculating the degree of extrapyramidal symptoms, the
なお、特徴量が「基準値に達する特徴量」のほか、「基準値に近い特徴量」を求めても良い。特徴量が「基準値に近い」とは、例えば、特徴量が基準値から所定範囲内にある場合である。そして、結果出力部116は、各特徴点について、複数の特徴量のうち、基準値と近いものをカウントし、影響度とする。これに限らず、結果出力部116は、特徴量と比較する範囲を複数設定することで、特徴量と基準値の近さを複数段階で判定してもよい。例えば、基準値を中心とした所定範囲を第一範囲、第一範囲よりも広い第二範囲、第二範囲よりも広い第三範囲などのように、基準値を中心とした複数の範囲を定め、特徴量がどの範囲に含まれるかによって特徴点と基準値の近さを判定する。この場合、結果出力部116は、例えば、特徴量が第一範囲に含まれる場合に最も高い重み係数を付与し、特徴量が第一範囲を超えて第二範囲に含まれる場合に二番目に高い重み係数を付与し、特徴量が第二範囲を超えて第三範囲に含まれる場合に三番目に高い重み係数を付与するといったように、特徴量が含まれる範囲に応じて重み係数を付与する。そして、結果出力部11
6は、各特徴点において、複数の特徴量の重み係数を積算し、影響度として求めてもよい。この場合、各範囲の大きさや重み係数の値は、比較する特徴量毎に適宜定めることができる。例えば、標準偏差、分散、平均値を跨いだ回数、又は平均パワースペクトルについては、他の特徴量の場合より、近さを判定する範囲が広く設定されてもよく、また、付加する重み係数の値が大きく設定されてもよい。なお、錐体外路症状の程度に対して、相関性の高い特徴量の値を求める手法は、例えば、SHAP(Lundberg, Scott M., and Su-In Lee. "A unified approach to interpreting model predictions." Advances in Neural Information Processing Systems. 2017. https://arxiv.org/abs/1705.07874)といった技術を用いることができる。また、影響度を求める手法は、上記に限らず、他の手法を用いて算出してもよい。
In addition to the "feature amount reaching the reference value", the "feature amount close to the reference value" may be obtained. For example, when the feature amount is "close to the reference value", the feature amount is within a predetermined range from the reference value. Then, for each feature point, the
6 may be obtained as an influence degree by accumulating weight coefficients of a plurality of feature amounts at each feature point. In this case, the size of each range and the value of the weighting factor can be appropriately determined for each feature quantity to be compared. For example, for the standard deviation, variance, number of times across the average value, or average power spectrum, the range for determining closeness may be set wider than in the case of other feature quantities, and the weighting factor to be added may be set to A large value may be set. In addition, for the degree of extrapyramidal symptoms, methods for obtaining highly correlated feature values include, for example, SHAP (Lundberg, Scott M., and Su-In Lee. "A unified approach to interpreting model predictions. " Advances in Neural Information Processing Systems. 2017. https://arxiv.org/abs/1705.07874) can be used. Further, the method for obtaining the degree of influence is not limited to the above method, and other methods may be used for calculation.
《機械学習処理》
図7は、診断装置10の制御部12が、プログラムにしたがって機械学習を行う処理を示す図である。制御部12は、機械学習の開始が指示されると、図7の処理を実行する。
《Machine learning processing》
FIG. 7 is a diagram showing a process in which the
ステップS10にて、制御部12は、学習用データを補助記憶装置や入出力IF14に接続した記憶媒体から取得する。なお、学習用データは、例えば機械学習のために予め患者20を撮影した動画像と、当該患者20について医師等が錐体外路症状の程度を評価した教師ラベルとを含むものである。
In step S<b>10 , the
ステップS20にて、制御部12は、ステップS10で取得した動画像から特徴点を抽出する。なお、錐体外路症状は、目元や口元の周期的な動きとして現れる傾向があるため、患者(対象者)の顔の部位であって、目、当該目の周辺部、唇、及び当該唇の周辺部を含む特定の部位を特徴点として含むことが望ましい。
At step S20, the
ステップS30にて、制御部12は、ステップS20で求めた特徴点について、スケーリング、特徴点の位置情報取得、及び欠落した特徴点の補完などの前処理を行う。
In step S30, the
ステップS40にて、制御部12は、ステップS30で求めた特徴点の位置情報を取得し、この各特徴点の時間経過に伴う位置情報の変化に基づいて、各特徴点の特徴量を求める。本実施形態では、各特徴点に係る位置情報の変化量について、平均値、中央値、標準偏差、分散、最小値、最大値、歪度、尖度、総和、二乗和、平均値を跨いだ回数、及び平均パワースペクトルといった12の特徴量を求める。
In step S40, the
ステップS50にて、制御部12は、ステップS40で求めた特徴量と、ステップS10で取得した教師ラベルとに基づいて、機械学習を行い、診断モデルを生成する。
In step S50, the
ステップS60にて、制御部12は、全ての学習データについて学習が完了したか否かを判定し、否定判定であればステップS10へ戻り、肯定判定であれば図7の処理を終了する。
In step S60, the
《錐体外路症状の診断処理》
図8は、診断装置10の制御部12が、錐体外路症状診断プログラムに従って実行する処理を示す図である。制御部12は、診断の開始が指示されると、図8の処理を実行する。
<<Diagnostic processing for extrapyramidal symptoms>>
FIG. 8 is a diagram showing processing executed by the
ステップS110にて、制御部12は、患者20を撮影した動画像を撮影装置16や、補助記憶装置、或は入出力IF14に接続した記憶媒体から取得する。
In step S<b>110 , the
ステップS120にて、制御部12は、ステップS110で取得した動画像から特徴点
を抽出する。ここで抽出する特徴点は、図7に示す機械学習処理のステップS20で求めるものと同じである。
At step S120, the
ステップS130にて、制御部12は、ステップS120で求めた特徴点について、スケーリング、特徴点の位置情報取得、及び欠落した特徴点の補完などの前処理を行う。
In step S130, the
ステップS140にて、制御部12は、ステップS130で求めた特徴点の位置情報を取得し、この各特徴点の時間経過に伴う位置情報の変化に基づいて、各特徴点の特徴量を求める。ここで算出する特徴量は、図7に示す機械学習処理のステップS40で求めるものと同じ、平均値、中央値、標準偏差、分散、最小値、最大値、歪度、尖度、総和、二乗和、平均値を跨いだ回数、及び平均パワースペクトルといった12種類の特徴量である。
In step S140, the
ステップS150にて、制御部12は、ステップS140で求めた特徴量を診断モデルに入力し、患者20の錐体外路症状の程度を算出する。
In step S<b>150 , the
ステップS160にて、制御部12は、ステップS150で算出した錐体外路症状の程度を診断結果として出力する。また、制御部12は、当該診断結果への影響度が高い特徴点を求め、これらを画像に重畳して図6に示すように表示する。
In step S160, the
このように本実施形態の診断装置10は、患者20を撮影した動画像から、特徴点を抽出し、この特徴点の時間経過に伴う位置の変化に基づいて特徴量を求め、この特徴量に基づきAIで錐体外路症状の程度を算出する。これにより、診断装置10は、一定の基準で機械的に診断を行うので、長期にわたる症状進行具合や、治療の成果などを適切に評価できる。
As described above, the
また、本実施形態の診断装置10は、診断結果への影響度が高い特徴点を画像に重畳して表示するので、錐体外路症状がどこで発生しているか、例えば目の周りなのか、口の周りなのか、頬なのか、それが、右側なのか、左側なのかなどを患者20や医師に提示することができる。また、どの部位の動きによって、当該診断結果となったのかが提示されるので、医師や患者20が的確に診断結果を把握することができ、診断装置10の信頼度を向上させることができる。
In addition, since the
《その他》
以上の実施形態は、一例であり明細書及び図面に例示した構成に限定されるものではない。例えば、前述の診断装置10は、機械学習を行う機能と診断を行う機能を備えたが、機械学習を行う装置と診断を行う装置とが別体に構成されてもよい。また、診断装置10は、ネットワークを介して動画像を取得し、この動画像に基づいて診断した結果を返信するサーバであってもよい。
"others"
The above embodiment is an example and is not limited to the configurations illustrated in the specification and drawings. For example, although the
10: 錐体外路症状診断装置(診断装置)
11: 接続バス
111: 特徴点決定部
112: 前処理部
113: 特徴量算出部
114: 機械学習部
115: 診断部
116: 結果出力部
12: 制御部
12: 上記
13: メモリ
16: 撮影装置
20: 患者
40: 画像
401: 鼻先
401~408,450,451: 特徴点
10: extrapyramidal symptom diagnostic device (diagnostic device)
11: Connection bus 111: Feature point determination unit 112: Preprocessing unit 113: Feature amount calculation unit 114: Machine learning unit 115: Diagnosis unit 116: Result output unit 12: Control unit 12: Above 13: Memory 16: Imaging device 20 : Patient 40: Image 401: Nose 401-408, 450, 451: Feature points
特徴点決定部111は、撮影装置16で撮影された動画像を撮影装置16から取得する、或は他の装置で撮影された動画像を入出力IF14若しくは通信IF15を介して取得し、当該動画像から時系列に画像データを取得する。例えば、1秒間当り複数のフレームを撮影することで動画が構成されている場合、各フレームを撮影順に取得して画像データとする。なお、動画のフレームレートは、特段限定されるものではないが、例えば15fps~120fpsが挙げられ、25fps~90fpsが望ましく、30fps~60fpsが更に望ましい。本実施形態における動画のフレームレートは、30fpsである。なお、取得した動画像のフレームレートが、診断モデルに入力する画像データのレート(1秒間当りの画像の枚数)と異なる場合、フレームを間引いて画像データの数を削減することや、フレームを補間して画像データの数を増加させることにより、調整を行ってもよい。
The feature
また、前処理部112は、各画像データにおいて座標を定め、各特徴点の位置情報を取得する。例えば、顔の基準部位、本例では鼻先401を原点とし、垂直方向をY軸、水平方向をX軸、奥行き方向をZ軸とし、この座標系における各特徴点の座標を位置情報として求める。即ち、顔の各パーツの鼻先(基準部位)401に対する相対的な位置の変化を求める。なお、顔の基準部位は、鼻に限らず、右目と左目との間における中央などであってもよい。
The
Claims (6)
前記画像データから前記対象者の特徴点を複数求め、各特徴点の位置情報を時系列に求めることと、
時系列に求めた前記各特徴点の時間経過に伴う位置情報の変化に基づいて、各特徴点の特徴量を求めることと、
各特徴点の前記特徴量が入力された際に、推定される錐体外路症状の程度を算出するように、教師データを用いた機械学習処理が施された学習済み診断モデルに、前記対象者を撮影した前記動画像から求めた前記特徴量を入力することにより、前記錐体外路症状の程度を算出することと、
算出した前記錐体外路症状の程度を出力することと、
を実行する制御部を備える錐体外路症状診断装置。 Acquiring image data in chronological order from moving images of a person to be diagnosed;
Obtaining a plurality of feature points of the subject from the image data, and obtaining position information of each feature point in time series;
Obtaining a feature amount of each feature point based on a change in position information of each feature point over time obtained in time series;
When the feature amount of each feature point is input, a trained diagnostic model that has been subjected to machine learning processing using teacher data so as to calculate the estimated degree of extrapyramidal symptoms is added to the subject calculating the degree of the extrapyramidal symptom by inputting the feature amount obtained from the moving image photographed;
outputting the calculated degree of extrapyramidal symptoms;
An extrapyramidal symptom diagnostic device comprising a control unit for executing
前記錐体外路症状の程度を算出した際、当該算出結果への影響度が高い前記特徴点を求めることと、
前記影響度が高い前記特徴点を前記対象者の画像上に重畳して表示することと、
を更に実行する請求項1~4の何れか1項に記載の錐体外路症状診断装置。 The control unit
When calculating the degree of the extrapyramidal symptom, obtaining the feature point that has a high degree of influence on the calculation result;
superimposing and displaying the feature points having the high degree of influence on the image of the subject;
The extrapyramidal symptom diagnosis device according to any one of claims 1 to 4, further comprising:
前記画像データから前記対象者の特徴点を複数求め、各特徴点の位置情報を時系列に求めることと、
時系列に求めた前記各特徴点の時間経過に伴う位置情報の変化に基づいて、各特徴点の特徴量を求めることと、
各特徴点の前記特徴量が入力された際に、推定される錐体外路症状の程度を算出するように、教師データを用いた機械学習処理が施された学習済み診断モデルに、前記対象者を撮影した前記動画像から求めた前記特徴量を入力することにより、前記錐体外路症状の程度を算出することと、
算出した前記錐体外路症状の程度を出力することと、
を制御部に実行させるための錐体外路症状診断プログラム。 Acquiring image data in chronological order from moving images of a person to be diagnosed;
Obtaining a plurality of feature points of the subject from the image data, and obtaining position information of each feature point in time series;
Obtaining a feature amount of each feature point based on a change in position information of each feature point over time obtained in time series;
When the feature amount of each feature point is input, a trained diagnostic model that has been subjected to machine learning processing using teacher data so as to calculate the estimated degree of extrapyramidal symptoms is added to the subject calculating the degree of the extrapyramidal symptom by inputting the feature amount obtained from the moving image photographed;
outputting the calculated degree of extrapyramidal symptoms;
extrapyramidal symptom diagnosis program for causing the control unit to execute
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021182784A JP7223103B1 (en) | 2021-11-09 | 2021-11-09 | Extrapyramidal Symptom Diagnosis Device and Extrapyramidal Symptom Diagnosis Program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021182784A JP7223103B1 (en) | 2021-11-09 | 2021-11-09 | Extrapyramidal Symptom Diagnosis Device and Extrapyramidal Symptom Diagnosis Program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7223103B1 JP7223103B1 (en) | 2023-02-15 |
JP2023070542A true JP2023070542A (en) | 2023-05-19 |
Family
ID=85221703
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021182784A Active JP7223103B1 (en) | 2021-11-09 | 2021-11-09 | Extrapyramidal Symptom Diagnosis Device and Extrapyramidal Symptom Diagnosis Program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7223103B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018185717A (en) * | 2017-04-27 | 2018-11-22 | コニカミノルタ株式会社 | Health management system and health management method |
WO2021100815A1 (en) * | 2019-11-22 | 2021-05-27 | 社会福祉法人聖隷福祉事業団 | Movement data collection method, movement data analysis system, movement diagnosis assistance system, and analysis program |
-
2021
- 2021-11-09 JP JP2021182784A patent/JP7223103B1/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018185717A (en) * | 2017-04-27 | 2018-11-22 | コニカミノルタ株式会社 | Health management system and health management method |
WO2021100815A1 (en) * | 2019-11-22 | 2021-05-27 | 社会福祉法人聖隷福祉事業団 | Movement data collection method, movement data analysis system, movement diagnosis assistance system, and analysis program |
Also Published As
Publication number | Publication date |
---|---|
JP7223103B1 (en) | 2023-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2018250385B2 (en) | Motor task analysis system and method | |
CN110084259B (en) | Facial paralysis grading comprehensive evaluation system combining facial texture and optical flow characteristics | |
KR20190028422A (en) | Systems and methods for automatic detection, localization, and semantic segmentation of anatomical objects | |
US9687189B2 (en) | Automatic visual remote assessment of movement symptoms in people with parkinson's disease for MDS-UPDRS finger tapping task | |
JP6833708B2 (en) | How to handle asynchronous signals | |
Birla et al. | PATRON: Exploring respiratory signal derived from non-contact face videos for face anti-spoofing | |
Ahmedt-Aristizabal et al. | Vision-based mouth motion analysis in epilepsy: A 3d perspective | |
US11779260B2 (en) | Cognitive function evaluation method, cognitive function evaluation device, and non-transitory computer-readable recording medium in which cognitive function evaluation program is recorded | |
Jaroensri et al. | A video-based method for automatically rating ataxia | |
Maia et al. | Epileptic seizure classification using the NeuroMov database | |
CN111448589B (en) | Device, system and method for detecting body movement of a patient | |
CN113197558B (en) | Heart rate and respiratory rate detection method and system and computer storage medium | |
CN117690583A (en) | Internet of things-based rehabilitation and nursing interactive management system and method | |
Ahmedt-Aristizabal et al. | Motion signatures for the analysis of seizure evolution in epilepsy | |
JP7223103B1 (en) | Extrapyramidal Symptom Diagnosis Device and Extrapyramidal Symptom Diagnosis Program | |
JP7087969B2 (en) | Pretreatment device, pretreatment method and pretreatment program | |
US20240215865A1 (en) | Determining the quality of setting up a headset for cranial accelerometry | |
JP3686418B2 (en) | Measuring device and method | |
KR20190125707A (en) | Method for estimating emotion based on psychological activity and biosignal of user and system therefor | |
Vedernikov et al. | Analyzing Participants' Engagement during Online Meetings Using Unsupervised Remote Photoplethysmography with Behavioral Features | |
Charoenpong et al. | A new method to detect nystagmus for vertigo diagnosis system by eye movement velocity | |
KR102074977B1 (en) | Electronic devices and methods thereof | |
Yu et al. | An enhancement algorithm for head characteristics of caged chickens detection based on cyclic consistent migration neural network | |
JP2020135076A (en) | Face direction detector, face direction detection method, and program | |
Mishra et al. | XAI-based gait analysis of patients walking with Knee-Ankle-Foot orthosis using video cameras |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220906 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221107 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230117 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230203 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7223103 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |