JPWO2020154698A5 - - Google Patents

Download PDF

Info

Publication number
JPWO2020154698A5
JPWO2020154698A5 JP2021542432A JP2021542432A JPWO2020154698A5 JP WO2020154698 A5 JPWO2020154698 A5 JP WO2020154698A5 JP 2021542432 A JP2021542432 A JP 2021542432A JP 2021542432 A JP2021542432 A JP 2021542432A JP WO2020154698 A5 JPWO2020154698 A5 JP WO2020154698A5
Authority
JP
Japan
Prior art keywords
item
membrane
tympanic membrane
classification
parameters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021542432A
Other languages
Japanese (ja)
Other versions
JP7297904B2 (en
JP2022518267A (en
Publication date
Application filed filed Critical
Priority claimed from PCT/US2020/015101 external-priority patent/WO2020154698A1/en
Publication of JP2022518267A publication Critical patent/JP2022518267A/en
Publication of JPWO2020154698A5 publication Critical patent/JPWO2020154698A5/ja
Priority to JP2023097662A priority Critical patent/JP2023123581A/en
Application granted granted Critical
Publication of JP7297904B2 publication Critical patent/JP7297904B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

いくつかの実施形態において、方法は、第2の1つ以上の分類されたデータセットに基づいて、データベースを更新することと、第2の1つ以上の分類されたデータセットに基づいて、分類器モデルを更新することとをさらに含む。いくつかの実施形態において、方法は、分類器モデルを使用し、任意の側面または実施形態の鼓膜を分類する方法によって未分類データセットの分類を提供することをさらに含む。
本発明は、例えば、以下を提供する。
(項目1)
鼓膜を分類する方法であって、前記方法は、
取り調べシステムから、前記鼓膜に関連する1つ以上のデータセットを受信することと、
前記1つ以上のデータセットからパラメータの組を決定することであって、前記パラメータの組のうちの少なくとも1つのパラメータは、前記鼓膜の動的特性または静的位置に関連している、ことと、
前記パラメータの組から導出された分類器モデルに基づいて、前記鼓膜の分類を出力することと
を含み、
前記分類は、前記鼓膜の状態、条件、または可動性メトリックのうちの1つ以上を備えている、方法。
(項目2)
前記取り調べシステムは、撮像システムを備え、前記1つ以上のデータセットは、前記鼓膜の1つ以上の画像を備えている、項目1に記載の方法。
(項目3)
前記分類器モデルは、機械学習アルゴリズムを備えている、項目1に記載の方法。
(項目4)
前記機械学習アルゴリズムは、線形回帰、ロジスティック回帰、分類および回帰木アルゴリズム、サポートベクターマシン(SVM)、ナイーブベイズ、K近傍法、ランダムフォレストアルゴリズム、XGBoostおよびLightGBM等のブースティングアルゴリズム、ニューラルネットワーク、畳み込みニューラルネットワーク、およびリカレントニューラルネットワークのうちの1つ以上を備えている、項目3に記載の方法。
(項目5)
前記機械学習アルゴリズムは、教師付き学習アルゴリズム、教師なし学習アルゴリズム、または半教師付き学習アルゴリズムである、項目3に記載の方法。
(項目6)
前記鼓膜の1つ以上の画像は、1つ以上の超音波画像を備えている、項目2に記載の方法。
(項目7)
前記1つ以上の超音波画像は、空気圧超音波鼓膜鏡からの画像を備えている、項目6に記載の方法。
(項目8)
前記1つ以上の超音波画像は、空気圧励起に応答して測定される、項目6に記載の方法。
(項目9)
前記鼓膜の1つ以上の画像は、1つ以上の光コヒーレンストモグラフィ画像を備えている、項目2に記載の方法。
(項目10)
前記画像は、光学画像を備えている、項目2に記載の方法。
(項目11)
前記膜の動的特性または静的位置に関連する前記少なくとも1つのパラメータは、空気圧励起に応答したものである、項目2に記載の方法。
(項目12)
前記空気圧励起は、ガスの吹き付けを備えている、項目11に記載の方法。
(項目13)
前記空気圧励起は、10Hzより大きい周波数を有する、項目11に記載の方法。
(項目14)
前記鼓膜の前記動的特性は、
膜移動または膜可動性の指示と、
前記鼓膜の最小または最大変位と、
外れ値変位と、
最小変位と最大変位との間の差異または比率と、
変位の傾きまたは空気圧励起の圧力に対する最小変位と最大変位との間の差異または比率の傾きと、
加えられた圧力に対する測定された圧力の応答と、
空気圧励起に応答した前記鼓膜の視覚的移動と、
特異値分解、主成分分析、およびK平均クラスタリングから発生させられた1つ以上の統計成分と、
超音波パルスエコー振幅または超音波エコー位相またはその微分またはその移動平均と
のうちの1つ以上を備えている、項目1に記載の方法。
(項目15)
前記鼓膜の前記動的特性は、空気圧励起の圧力に対して正規化される、項目14に記載の方法。
(項目16)
前記方法は、前記鼓膜の可動性の順位読み出し、カテゴリ読み出し、または連続した数値出力のうちの1つ以上を発生させることをさらに含む、項目1に記載の方法。
(項目17)
順位読み出しは、膜可動性の程度に関連した数値スケールを備えている、項目16に記載の方法。
(項目18)
前記数値スケールは、0~4+の分類を備えている、項目17に記載の方法。
(項目19)
カテゴリ読み出しは、高可動、中可動、半可動、または非可動のうちの少なくとも1つとしての膜可動性の程度の指示を備えている、項目16に記載の方法。
(項目20)
カテゴリ読み出しは、バイナリ分類を備えている、項目16に記載の方法。
(項目21)
連続した数値出力は、測定膜変位、膜移動の速度、または膜回復の速度のうちの1つ以上を備えている、項目16に記載の方法。
(項目22)
前記鼓膜の状態または条件は、急性中耳炎、滲出液を伴う急性中耳炎、中耳滲出液、慢性中耳炎、慢性化膿性中耳炎、細菌感染、ウイルス感染、滲出液なし、および未知の分類のうちの1つ以上を備えている、項目1に記載の方法。
(項目23)
前記1つ以上のデータセットは、mモード超音波データセットを備えている、項目1に記載の方法。
(項目24)
前記1つ以上のデータセットは、赤外線画像を備えている、項目1に記載の方法。
(項目25)
前記1つ以上のデータセットは、空気圧データセットを備えている、項目1に記載の方法。
(項目26)
前記1つ以上のデータセットは、空気圧励起に応答して撮影された1つ以上の光学画像を備えている、項目1に記載の方法。
(項目27)
前記静的位置は、膨張した膜または後退した膜を備えている、項目1に記載の方法。
(項目28)
鼓膜を分類するためのシステムであって、前記システムは、メモリを備えているコンピューティングシステムを備え、前記メモリは、前記鼓膜を分類するための命令を備え、前記コンピューティングシステムは、少なくとも、
取り調べシステムから、前記鼓膜に関連する1つ以上のデータセットを受信することと、
前記1つ以上のデータセットからパラメータの組を決定することであって、前記パラメータの組のうちの少なくとも1つのパラメータは、前記鼓膜の動的特性または静的位置に関連している、ことと、
前記パラメータの組から導出された分類器モデルに基づいて、前記鼓膜の分類を出力することと
を行うために、前記命令を実行するように構成され、
前記分類は、前記鼓膜の状態、条件、または可動性メトリックを備えている、システム。
(項目29)
前記取り調べシステムは、撮像システムを備え、前記1つ以上のデータセットは、前記鼓膜の1つ以上の画像を備えている、項目28に記載のシステム。
(項目30)
前記システムは、空気圧超音波鼓膜鏡をさらに備えている、項目28に記載のシステム。
(項目31)
前記分類器モデルは、機械学習アルゴリズムを備えている、項目28に記載のシステム。
(項目32)
前記機械学習アルゴリズムは、線形回帰、ロジスティック回帰、分類および回帰木アルゴリズム、サポートベクターマシン(SVM)、ナイーブベイズ、K近傍法、ランダムフォレストアルゴリズム、XGBoostおよびLightGBM等のブースティングアルゴリズム、ニューラルネットワーク、畳み込みニューラルネットワーク、およびリカレントニューラルネットワークのうちの1つ以上を備えている、項目31に記載のシステム。
(項目33)
前記機械学習アルゴリズムは、教師付き学習アルゴリズム、教師なし学習アルゴリズム、または半教師付き学習アルゴリズムである、項目31に記載のシステム。
(項目34)
前記鼓膜の1つ以上の画像は、1つ以上の超音波画像を備えている、項目29に記載のシステム。
(項目35)
前記1つ以上の超音波画像は、空気圧超音波鼓膜鏡からの画像を備えている、項目34に記載のシステム。
(項目36)
前記1つ以上の超音波画像は、空気圧励起に応答して測定される、項目34に記載のシステム。
(項目37)
前記鼓膜の1つ以上の画像は、1つ以上の光コヒーレンストモグラフィ画像を備えている、項目29に記載のシステム。
(項目38)
前記画像は、光学画像を備えている、項目29に記載のシステム。
(項目39)
前記膜の動的特性または静的位置に関連する前記少なくとも1つのパラメータは、空気圧励起に応答したものである、項目29に記載のシステム。
(項目40)
前記空気圧励起は、ガスの吹き付けを備えている、項目39に記載のシステム。
(項目41)
前記空気圧励起は、10Hzより大きい周波数を備えている、項目39に記載のシステム。
(項目42)
前記鼓膜の前記動的特性は、
膜移動または膜可動性の指示と、
前記鼓膜の最小または最大変位と、
外れ値変位と、
最小変位と最大変位との間の差異または比率と、
変位の傾きまたは空気圧励起の圧力に対する最小変位と最大変位との間の差異または比率の傾きと、
加えられた圧力に対する測定された圧力の応答と、
空気圧励起に応答した前記鼓膜の視覚的移動と、
特異値分解、主成分分析、およびK平均クラスタリングから発生させられた1つ以上の統計成分と、
超音波パルスエコー振幅または超音波エコー位相またはその微分またはその移動平均と
のうちの1つ以上を備えている、項目28に記載のシステム。
(項目43)
前記鼓膜の前記動的特性は、空気圧励起の圧力に対して正規化されている、項目42に記載のシステム。
(項目44)
前記コンピューティングシステムは、前記鼓膜の可動性の順位読み出し、カテゴリ読み出し、または連続した数値出力のうちの1つ以上を発生させるために、前記命令を実行するようにさらに構成されている、項目28に記載のシステム。
(項目45)
順位読み出しは、膜可動性の程度に関連した数値スケールを備えている、項目44に記載のシステム。
(項目46)
前記数値スケールは、0~4+の分類を備えている、項目45に記載のシステム。
(項目47)
カテゴリ読み出しは、高可動、中可動、半可動、または非可動のうちの少なくとも1つとしての膜可動性の程度の指示を備えている、項目44に記載のシステム。
(項目48)
カテゴリ読み出しは、バイナリ分類を備えている、項目44に記載のシステム。
(項目49)
連続した数値出力は、測定膜変位、膜移動の速度、または膜回復の速度のうちの1つ以上を備えている、項目44に記載のシステム。
(項目50)
前記鼓膜の状態または条件は、急性中耳炎、滲出液を伴う急性中耳炎、中耳滲出液、慢性中耳炎、慢性化膿性中耳炎、細菌感染、ウイルス感染、滲出液なし、および未知の分類のうちの1つ以上を備えている、項目28に記載のシステム。
(項目51)
前記1つ以上のデータセットは、mモード超音波データセットを備えている、項目28に記載のシステム。
(項目52)
前記1つ以上のデータセットは、赤外線画像を備えている、項目28に記載のシステム。
(項目53)
前記1つ以上のデータセットは、空気圧データセットを備えている、項目28に記載のシステム。
(項目54)
前記1つ以上のデータセットは、空気圧励起に応答して撮影された1つ以上の光学画像を備えている、項目28に記載のシステム。
(項目55)
前記静的位置は、膨張した膜または後退した膜を備えている、項目28に記載のシステム。
(項目56)
機械実行可能コードを備えている非一過性コンピュータ読み取り可能な媒体であって、前記コードは、コンピューティングシステムによって実行されると、膜を分類する方法を実装し、前記方法は、
取り調べシステムから、前記鼓膜に関連する1つ以上のデータセットを受信することと、
前記1つ以上のデータセットからパラメータの組を決定することであって、前記パラメータの組のうちの少なくとも1つのパラメータは、前記鼓膜の動的特性または静的位置に関連している、ことと、
前記パラメータの組から導出された分類器モデルに基づいて、前記鼓膜の分類を出力することと
を含み、
前記分類は、前記鼓膜の状態、条件、または可動性メトリックを備えている、非一過性コンピュータ読み取り可能な媒体。
(項目57)
前記取り調べシステムは、撮像システムを備え、前記1つ以上のデータセットは、前記鼓膜の1つ以上の画像を備えている、項目56に記載の非一過性コンピュータ読み取り可能な記憶媒体。
(項目58)
前記方法は、項目2-27のいずれか1項に記載の方法をさらに含む、項目56に記載の非一過性コンピュータ読み取り可能な記憶媒体。
(項目59)
コンピュータ実装分類器を訓練する方法であって、前記方法は、
1つ以上の鼓膜に関連する1つ以上のデータセットに基づくパラメータの組と、前記1つ以上の鼓膜に関連する1つ以上の分類されたデータセットとを受信することであって、前記分類は、前記鼓膜の状態、条件、または可動性メトリックを備え、前記パラメータの組は、前記1つ以上の鼓膜の動的特性または静的位置に関連する少なくとも1つのパラメータを備えている、ことと、
データベース内に前記パラメータの組と前記1つ以上の分類されたデータセットとを記憶することと、
前記パラメータの組と前記1つ以上の分類されたデータセットとに基づいて、分類器モデルを構築することであって、前記分類器モデルは、前記パラメータの組から導出され、前記分類器モデルは、前記1つ以上の分類されたデータセットのうちのデータセットに基づいて、分類を出力する、ことと、
前記分類器モデルを使用し、未分類データセットの分類を提供することと
を含む、方法。
(項目60)
前記方法は、第2の1つ以上の分類されたデータセットに基づいて、前記データベースを更新することと、
前記第2の1つ以上の分類されたデータセットに基づいて、前記分類器モデルを更新することと
をさらに含む、項目59に記載の方法。
(項目61)
前記方法は、前記分類器モデルを使用し、項目1-27のいずれか1項に記載の鼓膜を分類する方法によって未分類データセットの分類を提供することをさらに含む、項目59または60に記載の方法。
(項目62)
コンピュータ実装分類器を訓練するためのシステムであって、前記システムは、メモリを備えているコンピューティングシステムを備え、前記メモリは、前記データセットを訓練するための命令を備え、前記コンピューティングシステムは、少なくとも、
1つ以上の鼓膜に関連する1つ以上のデータセットに基づくパラメータの組と、前記1つ以上の鼓膜に関連する1つ以上の分類されたデータセットとを受信し、前記分類は、前記鼓膜の状態、条件、または可動性メトリックを備え、前記パラメータの組は、前記1つ以上の鼓膜の動的特性または静的位置に関連する少なくとも1つのパラメータを備えている、ことと、
データベース内に前記パラメータの組と前記1つ以上の分類されたデータセットとを記憶することと、
前記パラメータの組と前記1つ以上の分類されたデータセットとに基づいて、分類器モデルを構築することであって、前記分類器モデルは、前記パラメータの組から導出され、前記分類器モデルは、前記1つ以上の分類されたデータセットのうちのデータセットに基づいて、分類を出力する、ことと、
前記分類器モデルを使用し、未分類データセットの分類を提供することと
を行うために、前記命令を実行するように構成されている、システム。
(項目63)
前記システムは、少なくとも、第2の1つ以上の分類されたデータセットに基づいて、前記データベースを更新し、前記第2の1つ以上の分類されたデータセットに基づいて、前記分類器モデルを更新するために、前記命令を実行するように構成されている、項目62に記載のシステム。
(項目64)
前記システムは、項目28-55のいずれか1項に記載の鼓膜を分類するためのシステムをさらに備えている、項目62または63に記載のシステム。
(項目65)
機械実行可能コードを備えている非一過性コンピュータ読み取り可能な媒体であって、前記コードは、コンピューティングシステムによって実行されると、コンピュータ実装分類器を訓練する方法を実装し、前記方法は、
1つ以上の鼓膜に関連する1つ以上のデータセットに基づくパラメータの組と、前記1つ以上の鼓膜に関連する1つ以上の分類されたデータセットとを受信することであって、前記分類は、前記鼓膜の状態、条件、または可動性メトリックを備え、前記パラメータの組は、前記1つ以上の鼓膜の動的特性または静的位置に関連する少なくとも1つのパラメータを備えている、ことと、
データベース内に前記パラメータの組と前記1つ以上の分類されたデータセットとを記憶することと、
前記パラメータの組と前記1つ以上の分類されたデータセットとに基づいて、分類器モデルを構築することであって、前記分類器モデルは、前記パラメータの組から導出され、前記分類器モデルは、分類を出力する、ことと、
前記分類器モデルを使用し、未分類データセットの分類を提供することと
を含む、非一過性コンピュータ読み取り可能な媒体。
(項目66)
前記方法は、第2の1つ以上の分類されたデータセットに基づいて、前記データベースを更新することと、前記第2の1つ以上の分類されたデータセットに基づいて、前記分類器モデルを更新することとをさらに含む、項目65に記載の非一過性コンピュータ読み取り可能な媒体。
(項目67)
前記方法は、前記分類器モデルを使用し、項目1-28のいずれか1項に記載の鼓膜を分類する方法によって未分類データセットの分類を提供することをさらに含む、項目65または66に記載の非一過性コンピュータ読み取り可能な媒体。
In some embodiments, the method includes updating a database based on the second one or more classified data sets, and performing classification based on the second one or more classified data sets. and updating the vessel model. In some embodiments, the method further comprises using the classifier model to provide a classification of the unclassified dataset by the method of classifying the tympanic membrane of any aspect or embodiment.
The present invention provides, for example, the following.
(Item 1)
A method of classifying a tympanic membrane, said method comprising:
receiving one or more data sets related to the eardrum from an interrogation system;
determining a set of parameters from the one or more data sets, wherein at least one parameter in the set of parameters is related to dynamic properties or static position of the tympanic membrane; ,
outputting a classification of the eardrum based on a classifier model derived from the set of parameters;
including
The method, wherein the classification comprises one or more of the tympanic membrane status, condition, or mobility metric.
(Item 2)
2. The method of item 1, wherein the interrogation system comprises an imaging system and the one or more datasets comprise one or more images of the tympanic membrane.
(Item 3)
The method of item 1, wherein the classifier model comprises a machine learning algorithm.
(Item 4)
The machine learning algorithms include linear regression, logistic regression, classification and regression tree algorithms, support vector machines (SVM), Naive Bayes, K nearest neighbors, random forest algorithms, boosting algorithms such as XGBoost and LightGBM, neural networks, convolutional neural 4. The method of item 3, comprising one or more of a network and a recurrent neural network.
(Item 5)
4. The method of item 3, wherein the machine learning algorithm is a supervised learning algorithm, an unsupervised learning algorithm, or a semi-supervised learning algorithm.
(Item 6)
3. The method of item 2, wherein the one or more images of the eardrum comprise one or more ultrasound images.
(Item 7)
7. The method of item 6, wherein the one or more ultrasound images comprise images from a pneumatic ultrasound tympanoscope.
(Item 8)
7. The method of item 6, wherein the one or more ultrasound images are measured in response to pneumatic excitation.
(Item 9)
3. The method of item 2, wherein the one or more images of the eardrum comprise one or more optical coherence tomography images.
(Item 10)
3. The method of item 2, wherein the image comprises an optical image.
(Item 11)
3. The method of item 2, wherein the at least one parameter related to dynamic properties or static position of the membrane is in response to pneumatic excitation.
(Item 12)
12. The method of item 11, wherein the pneumatic excitation comprises blowing gas.
(Item 13)
12. The method of item 11, wherein the pneumatic excitation has a frequency greater than 10Hz.
(Item 14)
The dynamic properties of the eardrum include:
an indication of membrane translocation or membrane mobility;
minimum or maximum displacement of the tympanic membrane;
outlier displacement;
the difference or ratio between the minimum and maximum displacement and
the slope of the displacement or the slope of the difference or ratio between the minimum and maximum displacement with respect to the pressure of the pneumatic excitation;
the measured pressure response to the applied pressure; and
visual movement of the tympanic membrane in response to pneumatic excitation;
one or more statistical components generated from singular value decomposition, principal component analysis, and K-means clustering;
ultrasonic pulse-echo amplitude or ultrasonic echo phase or its derivative or its moving average
The method of item 1, comprising one or more of
(Item 15)
15. The method of item 14, wherein the dynamic properties of the tympanic membrane are normalized to the pressure of pneumatic excitation.
(Item 16)
2. The method of item 1, wherein the method further comprises generating one or more of a rank readout, a categorical readout, or a sequential numerical output of the tympanic membrane mobility.
(Item 17)
17. The method of item 16, wherein the rank readout comprises a numerical scale related to the degree of membrane mobility.
(Item 18)
18. The method of item 17, wherein the numerical scale comprises a classification from 0 to 4+.
(Item 19)
17. The method of item 16, wherein the category readout comprises an indication of the degree of membrane mobility as at least one of highly mobile, moderately mobile, semi-mobile, or non-mobile.
(Item 20)
17. The method of item 16, wherein the category reading comprises binary classification.
(Item 21)
17. The method of item 16, wherein the continuous numerical output comprises one or more of measured membrane displacement, rate of membrane movement, or rate of membrane recovery.
(Item 22)
The tympanic membrane condition or condition is one of acute otitis media, acute otitis media with effusion, middle ear effusion, chronic otitis media, chronic suppurative otitis media, bacterial infection, viral infection, no effusion, and unknown classification. A method according to item 1, comprising:
(Item 23)
The method of item 1, wherein the one or more datasets comprise m-mode ultrasound datasets.
(Item 24)
2. The method of item 1, wherein the one or more data sets comprise infrared images.
(Item 25)
The method of item 1, wherein the one or more data sets comprise pneumatic data sets.
(Item 26)
2. The method of item 1, wherein the one or more data sets comprise one or more optical images taken in response to pneumatic excitation.
(Item 27)
The method of item 1, wherein the static position comprises an inflated membrane or a retracted membrane.
(Item 28)
A system for classifying a tympanic membrane, said system comprising a computing system comprising a memory, said memory comprising instructions for classifying said tympanic membrane, said computing system comprising at least:
receiving one or more data sets related to the eardrum from an interrogation system;
determining a set of parameters from the one or more data sets, wherein at least one parameter in the set of parameters is related to dynamic properties or static position of the tympanic membrane; ,
outputting a classification of the eardrum based on a classifier model derived from the set of parameters;
configured to execute said instructions to perform
The system, wherein the classification comprises a state, condition, or mobility metric of the eardrum.
(Item 29)
29. The system of item 28, wherein the interrogation system comprises an imaging system and the one or more datasets comprise one or more images of the tympanic membrane.
(Item 30)
29. The system of item 28, wherein the system further comprises a pneumatic ultrasound tympanoscope.
(Item 31)
29. The system of item 28, wherein the classifier model comprises a machine learning algorithm.
(Item 32)
The machine learning algorithms include linear regression, logistic regression, classification and regression tree algorithms, support vector machines (SVM), Naive Bayes, K nearest neighbors, random forest algorithms, boosting algorithms such as XGBoost and LightGBM, neural networks, convolutional neural 32. The system of item 31, comprising one or more of a network and a recurrent neural network.
(Item 33)
32. The system of item 31, wherein the machine learning algorithm is a supervised learning algorithm, an unsupervised learning algorithm, or a semi-supervised learning algorithm.
(Item 34)
30. The system of item 29, wherein the one or more images of the eardrum comprise one or more ultrasound images.
(Item 35)
35. The system of item 34, wherein the one or more ultrasound images comprise images from a pneumatic ultrasound tympanoscope.
(Item 36)
35. The system of item 34, wherein the one or more ultrasound images are measured in response to pneumatic excitation.
(Item 37)
30. The system of item 29, wherein the one or more images of the eardrum comprise one or more optical coherence tomography images.
(Item 38)
30. The system of item 29, wherein the image comprises an optical image.
(Item 39)
30. The system of item 29, wherein the at least one parameter related to dynamic properties or static position of the membrane is in response to pneumatic excitation.
(Item 40)
40. The system of item 39, wherein the pneumatic excitation comprises blowing gas.
(Item 41)
40. The system of item 39, wherein the pneumatic excitation comprises a frequency greater than 10Hz.
(Item 42)
The dynamic properties of the eardrum include:
an indication of membrane translocation or membrane mobility;
minimum or maximum displacement of the tympanic membrane;
outlier displacement;
the difference or ratio between the minimum and maximum displacement and
the slope of the displacement or the slope of the difference or ratio between the minimum and maximum displacement with respect to the pressure of the pneumatic excitation;
the measured pressure response to the applied pressure; and
visual movement of the tympanic membrane in response to pneumatic excitation;
one or more statistical components generated from singular value decomposition, principal component analysis, and K-means clustering;
ultrasonic pulse-echo amplitude or ultrasonic echo phase or its derivative or its moving average
29. The system of item 28, comprising one or more of:
(Item 43)
43. The system of item 42, wherein the dynamic properties of the tympanic membrane are normalized to pressure of pneumatic excitation.
(Item 44)
Item 28, wherein the computing system is further configured to execute the instructions to generate one or more of a rank readout of the tympanic membrane mobility, a categorical readout, or a sequential numerical output. The system described in .
(Item 45)
45. The system of item 44, wherein the rank readout comprises a numerical scale related to the degree of membrane mobility.
(Item 46)
46. The system of item 45, wherein the numerical scale comprises a classification of 0 to 4+.
(Item 47)
45. The system of item 44, wherein the category readout comprises an indication of the degree of membrane mobility as at least one of highly mobile, moderately mobile, semi-mobile, or non-mobile.
(Item 48)
45. The system of item 44, wherein the category readout comprises binary classification.
(Item 49)
45. The system of item 44, wherein the continuous numerical output comprises one or more of measured membrane displacement, rate of membrane movement, or rate of membrane recovery.
(Item 50)
The tympanic membrane condition or condition is one of acute otitis media, acute otitis media with effusion, middle ear effusion, chronic otitis media, chronic suppurative otitis media, bacterial infection, viral infection, no effusion, and unknown classification. 29. A system according to item 28, comprising:
(Item 51)
29. The system of item 28, wherein the one or more datasets comprise m-mode ultrasound datasets.
(Item 52)
29. The system of item 28, wherein the one or more data sets comprise infrared images.
(Item 53)
29. The system of item 28, wherein the one or more data sets comprise pneumatic data sets.
(Item 54)
29. The system of item 28, wherein the one or more data sets comprise one or more optical images taken in response to pneumatic excitation.
(Item 55)
29. The system of item 28, wherein the static position comprises an inflated membrane or a retracted membrane.
(Item 56)
A non-transitory computer-readable medium comprising machine-executable code that, when executed by a computing system, implements a method of classifying membranes, the method comprising:
receiving one or more data sets related to the eardrum from an interrogation system;
determining a set of parameters from the one or more data sets, wherein at least one parameter in the set of parameters is related to dynamic properties or static position of the tympanic membrane; ,
outputting a classification of the eardrum based on a classifier model derived from the set of parameters;
including
A non-transitory computer-readable medium, wherein the classification comprises a state, condition, or mobility metric of the eardrum.
(Item 57)
57. The non-transitory computer-readable storage medium of item 56, wherein the interrogation system comprises an imaging system and the one or more datasets comprise one or more images of the tympanic membrane.
(Item 58)
57. The non-transitory computer-readable storage medium of item 56, wherein said method further comprises the method of any one of items 2-27.
(Item 59)
A method of training a computer-implemented classifier, the method comprising:
receiving a set of parameters based on one or more datasets associated with one or more tympanic membranes and one or more classified datasets associated with the one or more tympanic membranes, wherein comprises a state, condition, or mobility metric of the tympanic membrane, and the set of parameters comprises at least one parameter related to dynamic properties or static positions of the one or more tympanic membranes. ,
storing the set of parameters and the one or more categorized data sets in a database;
building a classifier model based on the set of parameters and the one or more classified data sets, the classifier model being derived from the set of parameters, the classifier model comprising: , outputting a classification based on a data set of the one or more classified data sets;
using the classifier model to provide a classification of an unclassified dataset;
A method, including
(Item 60)
The method updates the database based on a second one or more classified data sets;
updating the classifier model based on the second one or more classified data sets;
60. The method of item 59, further comprising:
(Item 61)
61. The method of item 59 or 60, wherein the method further comprises using the classifier model to provide a classification of the unclassified data set by the method of classifying tympanic membranes of any one of items 1-27. the method of.
(Item 62)
A system for training a computer-implemented classifier, said system comprising a computing system comprising a memory, said memory comprising instructions for training said dataset, said computing system comprising: ,at least,
receiving a set of parameters based on one or more datasets associated with one or more tympanic membranes and one or more classified datasets associated with said one or more tympanic membranes; a state, condition, or mobility metric of, said set of parameters comprising at least one parameter related to dynamic properties or static positions of said one or more tympanic membranes;
storing the set of parameters and the one or more categorized data sets in a database;
building a classifier model based on the set of parameters and the one or more classified data sets, the classifier model being derived from the set of parameters, the classifier model comprising: , outputting a classification based on a data set of the one or more classified data sets;
using the classifier model to provide a classification of an unclassified dataset;
A system configured to execute the instructions to perform
(Item 63)
The system updates the database based at least on the second one or more classified data sets, and updates the classifier model based on the second one or more classified data sets. 63. The system of item 62, configured to execute the instructions to update.
(Item 64)
64. System according to item 62 or 63, said system further comprising a system for classifying a tympanic membrane according to any one of items 28-55.
(Item 65)
A non-transitory computer-readable medium comprising machine-executable code, said code, when executed by a computing system, implements a method of training a computer-implemented classifier, said method comprising:
receiving a set of parameters based on one or more datasets associated with one or more tympanic membranes and one or more classified datasets associated with the one or more tympanic membranes, wherein comprises a state, condition, or mobility metric of the tympanic membrane, and the set of parameters comprises at least one parameter related to dynamic properties or static positions of the one or more tympanic membranes. ,
storing the set of parameters and the one or more categorized data sets in a database;
building a classifier model based on the set of parameters and the one or more classified data sets, the classifier model being derived from the set of parameters, the classifier model comprising: , which outputs the classification, and
using the classifier model to provide a classification of an unclassified dataset;
A non-transitory computer-readable medium comprising:
(Item 66)
The method includes updating the database based on a second one or more classified data sets, and updating the classifier model based on the second one or more classified data sets. 66. The non-transitory computer-readable medium of item 65, further comprising updating.
(Item 67)
67. The method of paragraph 65 or 66, wherein the method further comprises using the classifier model to provide a classification of the unclassified dataset by the method of classifying eardrums of any one of paragraphs 1-28. non-transitory computer-readable medium.

Claims (21)

鼓膜を分類する方法であって、前記方法は、
取り調べシステムから、前記鼓膜に関連する1つ以上のデータセットを受信することと、
前記1つ以上のデータセットからパラメータの組を決定することであって、前記パラメータの組のうちの少なくとも1つのパラメータは、前記鼓膜の動的特性または静的位置に関連している、ことと、
前記パラメータの組から導出された分類器モデルに基づいて、前記鼓膜の分類を出力することであって、前記分類は、前記鼓膜の状態、条件、または可動性メトリックのうちの1つ以上を備えている、ことと、
鼓膜の可動性の順位読み出し、カテゴリ読み出し、または連続した数値出力のうちの1つ以上を発生させることと
を含む、方法。
A method of classifying a tympanic membrane, said method comprising:
receiving one or more data sets related to the eardrum from an interrogation system;
determining a set of parameters from the one or more data sets, wherein at least one parameter in the set of parameters is related to dynamic properties or static position of the tympanic membrane; ,
outputting a classification of the tympanic membrane based on a classifier model derived from the set of parameters , the classification comprising one or more of a state, condition, or mobility metric of the tympanic membrane. that there is
generating one or more of a rank readout of tympanic membrane mobility, a categorical readout, or a sequential numerical output;
A method , including
前記取り調べシステムは、撮像システムを備え、前記1つ以上のデータセットは、前記鼓膜の1つ以上の画像を備えている、請求項1に記載の方法。 2. The method of claim 1, wherein the interrogation system comprises an imaging system and the one or more datasets comprise one or more images of the tympanic membrane. 前記分類器モデルは、機械学習アルゴリズムを備えている、請求項1に記載の方法。 2. The method of claim 1, wherein the classifier model comprises a machine learning algorithm. 前記機械学習アルゴリズムは、線形回帰、ロジスティック回帰、分類および回帰木アルゴリズム、サポートベクターマシン(SVM)、ナイーブベイズ、K近傍法、ランダムフォレストアルゴリズム、XGBoostおよびLightGBM等のブースティングアルゴリズム、ニューラルネットワーク、畳み込みニューラルネットワーク、およびリカレントニューラルネットワークのうちの1つ以上を備えている、請求項3に記載の方法。 The machine learning algorithms include linear regression, logistic regression, classification and regression tree algorithms, support vector machines (SVM), Naive Bayes, K nearest neighbors, random forest algorithms, boosting algorithms such as XGBoost and LightGBM, neural networks, convolutional neural 4. The method of claim 3, comprising one or more of a network, and a recurrent neural network. 前記機械学習アルゴリズムは、教師付き学習アルゴリズム、教師なし学習アルゴリズム、または半教師付き学習アルゴリズムである、請求項3に記載の方法。 4. The method of claim 3, wherein the machine learning algorithm is a supervised learning algorithm, an unsupervised learning algorithm, or a semi-supervised learning algorithm. 前記鼓膜の1つ以上の画像は、1つ以上の超音波画像を備えている、請求項2に記載の方法。 3. The method of claim 2, wherein the one or more images of the tympanic membrane comprise one or more ultrasound images. 前記1つ以上の超音波画像は、空気圧超音波鼓膜鏡からの画像を備えている、または、前記1つ以上の超音波画像は、空気圧励起に応答して測定される、請求項6に記載の方法。 7. The one or more ultrasound images of claim 6, wherein the one or more ultrasound images comprise images from a pneumatic ultrasound tympanoscope, or the one or more ultrasound images are measured in response to pneumatic excitation. the method of. 前記鼓膜の1つ以上の画像は、1つ以上の光コヒーレンストモグラフィ画像または1つ以上の光学画像を備えている、請求項2に記載の方法。 3. The method of claim 2, wherein the one or more images of the tympanic membrane comprise one or more optical coherence tomography images or one or more optical images . 前記膜の動的特性または静的位置に関連する前記少なくとも1つのパラメータは、空気圧励起に応答したものである、請求項2に記載の方法。 3. The method of claim 2, wherein the at least one parameter related to dynamic properties or static position of the membrane is in response to pneumatic excitation. 前記空気圧励起は、ガスの吹き付けを備えている、請求項に記載の方法。 10. The method of claim 9 , wherein the pneumatic excitation comprises gas blowing. 前記空気圧励起は、10Hzより大きい周波数を有する、請求項に記載の方法。 10. The method of claim 9 , wherein said pneumatic excitation has a frequency greater than 10Hz. 前記鼓膜の前記動的特性は、
膜移動または膜可動性の指示と、
前記鼓膜の最小または最大変位と、
外れ値変位と、
最小変位と最大変位との間の差異または比率と、
変位の傾きまたは空気圧励起の圧力に対する最小変位と最大変位との間の差異または比率の傾きと、
加えられた圧力に対する測定された圧力の応答と、
空気圧励起に応答した前記鼓膜の視覚的移動と、
特異値分解、主成分分析、およびK平均クラスタリングから発生させられた1つ以上の統計成分と、
超音波パルスエコー振幅または超音波エコー位相またはその微分またはその移動平均と
のうちの1つ以上を備えている、請求項1に記載の方法。
The dynamic properties of the eardrum include:
an indication of membrane translocation or membrane mobility;
minimum or maximum displacement of the tympanic membrane;
outlier displacement;
the difference or ratio between the minimum and maximum displacement and
the slope of the displacement or the slope of the difference or ratio between the minimum and maximum displacement with respect to the pressure of the pneumatic excitation;
the measured pressure response to the applied pressure; and
visual movement of the tympanic membrane in response to pneumatic excitation;
one or more statistical components generated from singular value decomposition, principal component analysis, and K-means clustering;
2. The method of claim 1, comprising one or more of: an ultrasound pulse-echo amplitude or an ultrasound echo phase or a derivative thereof or a moving average thereof.
前記鼓膜の前記動的特性は、空気圧励起の圧力に対して正規化される、請求項12に記載の方法。 13. The method of claim 12 , wherein the dynamic properties of the tympanic membrane are normalized to the pressure of pneumatic excitation. 順位読み出しは、膜可動性の程度に関連した数値スケールを備えている、請求項に記載の方法。 2. The method of claim 1 , wherein the rank readout comprises a numerical scale related to degree of membrane mobility. カテゴリ読み出しは、高可動、中可動、半可動、または非可動のうちの少なくとも1つとしての膜可動性の程度の指示を備えている、または、カテゴリ読み出しは、バイナリ分類を備えている、請求項に記載の方法。 The categorical readout comprises an indication of the degree of membrane mobility as at least one of highly mobile, moderately mobile, semi-mobile, or non-mobile; or the categorical readout comprises a binary classification. Item 1. The method according to item 1 . 連続した数値出力は、測定膜変位、膜移動の速度、または膜回復の速度のうちの1つ以上を備えている、請求項に記載の方法。 2. The method of claim 1 , wherein the continuous numerical output comprises one or more of measured membrane displacement, rate of membrane movement, or rate of membrane recovery. 前記鼓膜の状態または条件は、急性中耳炎、滲出液を伴う急性中耳炎、中耳滲出液、慢性中耳炎、慢性化膿性中耳炎、細菌感染、ウイルス感染、滲出液なし、および未知の分類のうちの1つ以上を備えている、請求項1に記載の方法。 The tympanic membrane condition or condition is one of acute otitis media, acute otitis media with effusion, middle ear effusion, chronic otitis media, chronic suppurative otitis media, bacterial infection, viral infection, no effusion, and unknown classification. 2. The method of claim 1, comprising: 前記1つ以上のデータセットは、mモード超音波データセット、赤外線画像、空気圧データセット、または、空気圧励起に応答して撮影された1つ以上の光学画像を備えている、請求項1に記載の方法。 3. The one or more data sets of claim 1, wherein the one or more data sets comprise an m-mode ultrasound data set , an infrared image, a pneumatic data set, or one or more optical images taken in response to pneumatic excitation. the method of. 前記静的位置は、膨張した膜または後退した膜を備えている、請求項1に記載の方法。 3. The method of claim 1, wherein the static position comprises an inflated membrane or a retracted membrane. 鼓膜を分類するためのシステムであって、前記システムは、メモリを備えているコンピューティングシステムを備え、前記メモリは、前記鼓膜を分類するための命令を備え、前記コンピューティングシステムは
取り調べシステムから、前記鼓膜に関連する1つ以上のデータセットを受信することと、
前記1つ以上のデータセットからパラメータの組を決定することであって、前記パラメータの組のうちの少なくとも1つのパラメータは、前記鼓膜の動的特性または静的位置に関連している、ことと、
前記パラメータの組から導出された分類器モデルに基づいて、前記鼓膜の分類を出力することであって、前記分類は、前記鼓膜の状態、条件、または可動性メトリックを備えている、ことと、
鼓膜の可動性の順位読み出し、カテゴリ読み出し、または連続した数値出力のうちの1つ以上を発生させることと
を少なくとも行うために、前記命令を実行するように構成される、システム。
A system for classifying a tympanic membrane, said system comprising a computing system comprising a memory, said memory comprising instructions for classifying said tympanic membrane, said computing system comprising :
receiving one or more data sets related to the eardrum from an interrogation system;
determining a set of parameters from the one or more data sets, wherein at least one parameter in the set of parameters is related to dynamic properties or static position of the tympanic membrane; ,
outputting a classification of the eardrum based on a classifier model derived from the set of parameters , the classification comprising a state, condition, or mobility metric of the eardrum ;
generating one or more of a rank readout of tympanic membrane mobility, a categorical readout, or a sequential numerical output;
A system configured to execute said instructions to at least perform
機械実行可能コードを備えている非一過性コンピュータ読み取り可能な媒体であって、前記コードは、コンピューティングシステムによって実行されると、膜を分類する方法を実装し、前記方法は、
取り調べシステムから、前記鼓膜に関連する1つ以上のデータセットを受信することと、
前記1つ以上のデータセットからパラメータの組を決定することであって、前記パラメータの組のうちの少なくとも1つのパラメータは、前記鼓膜の動的特性または静的位置に関連している、ことと、
前記パラメータの組から導出された分類器モデルに基づいて、前記鼓膜の分類を出力することとであって、前記分類は、前記鼓膜の状態、条件、または可動性メトリックを備えている、ことと、
鼓膜の可動性の順位読み出し、カテゴリ読み出し、または連続した数値出力のうちの1つ以上を発生させることと
を含む、非一過性コンピュータ読み取り可能な媒体。
A non-transitory computer-readable medium comprising machine-executable code that, when executed by a computing system, implements a method of classifying membranes, the method comprising:
receiving one or more data sets related to the eardrum from an interrogation system;
determining a set of parameters from the one or more data sets, wherein at least one parameter in the set of parameters is related to dynamic properties or static position of the tympanic membrane; ,
outputting a classification of the eardrum based on a classifier model derived from the set of parameters , the classification comprising a state, condition, or mobility metric of the eardrum . ,
generating one or more of a rank readout of tympanic membrane mobility, a categorical readout, or a sequential numerical output;
A non-transitory computer-readable medium comprising :
JP2021542432A 2019-01-25 2020-01-24 Methods and systems for classifying tympanic membranes and non-transitory computer readable media Active JP7297904B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023097662A JP2023123581A (en) 2019-01-25 2023-06-14 Method and system for classifying tympanic membrane, and non-transitory computer-readable medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962796762P 2019-01-25 2019-01-25
US62/796,762 2019-01-25
PCT/US2020/015101 WO2020154698A1 (en) 2019-01-25 2020-01-24 Machine learning for otitis media diagnosis

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023097662A Division JP2023123581A (en) 2019-01-25 2023-06-14 Method and system for classifying tympanic membrane, and non-transitory computer-readable medium

Publications (3)

Publication Number Publication Date
JP2022518267A JP2022518267A (en) 2022-03-14
JPWO2020154698A5 true JPWO2020154698A5 (en) 2022-11-30
JP7297904B2 JP7297904B2 (en) 2023-06-26

Family

ID=71735819

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021542432A Active JP7297904B2 (en) 2019-01-25 2020-01-24 Methods and systems for classifying tympanic membranes and non-transitory computer readable media
JP2023097662A Pending JP2023123581A (en) 2019-01-25 2023-06-14 Method and system for classifying tympanic membrane, and non-transitory computer-readable medium

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023097662A Pending JP2023123581A (en) 2019-01-25 2023-06-14 Method and system for classifying tympanic membrane, and non-transitory computer-readable medium

Country Status (8)

Country Link
US (2) US11361434B2 (en)
EP (1) EP3914140A4 (en)
JP (2) JP7297904B2 (en)
KR (2) KR20240043807A (en)
CN (1) CN113632178A (en)
AU (1) AU2020213126A1 (en)
CA (1) CA3127484A1 (en)
WO (1) WO2020154698A1 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3127484A1 (en) * 2019-01-25 2020-07-30 Otonexus Medical Technologies, Inc. Machine learning for otitis media diagnosis
US11501101B1 (en) * 2019-12-16 2022-11-15 NTT DATA Services, LLC Systems and methods for securing machine learning models
US11928509B2 (en) * 2021-01-07 2024-03-12 Micron Technology, Inc. Memory system workload allocation
CN114764986A (en) * 2021-01-15 2022-07-19 苏州仁甬得物联科技有限公司 Bionic simulation system for elastic vessel
IL310148A (en) * 2021-07-23 2024-03-01 Photonicare Inc System for multimodal approach to computer assisted diagnosis of otitis media and methods of use
KR20230030799A (en) * 2021-08-26 2023-03-07 재단법인 아산사회복지재단 A tympanic membrane image processing device and method for generating a normal tympanic membrane image by using a machine learning model on an otitis media tympanic membrane image
WO2024014702A1 (en) * 2022-07-13 2024-01-18 재단법인 아산사회복지재단 Otitis media diagnosis method and device
CN115670520B (en) * 2023-01-06 2023-05-16 深圳微创踪影医疗装备有限公司 Intravascular ultrasound imaging method, intravascular ultrasound imaging device, intravascular ultrasound imaging computer equipment and intravascular ultrasound imaging storage medium

Family Cites Families (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0487110B1 (en) 1990-11-22 1999-10-06 Kabushiki Kaisha Toshiba Computer-aided diagnosis system for medical use
US5331550A (en) 1991-03-05 1994-07-19 E. I. Du Pont De Nemours And Company Application of neural networks as an aid in medical diagnosis and general anomaly detection
CA2210518C (en) * 1995-01-26 1999-11-23 Mdi Instruments, Inc. A device and process for generating and measuring the shape of an acoustic reflectance curve of an ear
US6090044A (en) * 1997-12-10 2000-07-18 Bishop; Jeffrey B. System for diagnosing medical conditions using a neural network
WO2000010451A1 (en) 1998-08-19 2000-03-02 Cedars-Sinai Medical Center System and method for spectral topography of mammalian matter using white light illumination
WO2001026026A2 (en) 1999-10-04 2001-04-12 University Of Florida Local diagnostic and remote learning neural networks for medical diagnosis
DE10041725B4 (en) 2000-08-25 2004-04-29 Phonak Ag Device for electromechanical stimulation and testing of the hearing
US7058441B2 (en) 2000-11-16 2006-06-06 Chameleon Medical Innovation, Ltd. Optical measuring system for diagnosing ear conditions
JP2003038476A (en) 2001-08-03 2003-02-12 Konica Corp Computer-aided diagnostic system
US20040068167A1 (en) 2002-09-13 2004-04-08 Jiang Hsieh Computer aided processing of medical images
US7283653B2 (en) 2002-11-26 2007-10-16 Siemens Aktiengesellschaft Method and system for supporting the evaluation of a picture of an eye
JP4617259B2 (en) 2002-12-06 2011-01-19 エレクトロソニックス・メディカル・インコーポレイテッド Ultrasonic detection of ear disorders
US7606402B2 (en) 2003-06-09 2009-10-20 Ge Medical Systems Global Technology, Llc Methods and systems for physiologic structure and event marking
SE526735C2 (en) 2003-06-13 2005-11-01 Atos Medical Ab Device for measuring physical properties of the eardrum
WO2005050156A2 (en) 2003-11-18 2005-06-02 Chameleon Medical Innovation Ltd. Measurement system and method for use in determining the patient's condition
US20060235725A1 (en) 2005-04-15 2006-10-19 Martin Kleen Method for utilization of computer-assisted diagnosis tools
US7771356B2 (en) 2005-11-14 2010-08-10 Spentech, Inc. Ultrasound tympanoscope
US8157730B2 (en) 2006-12-19 2012-04-17 Valencell, Inc. Physiological and environmental monitoring systems and methods
JP4264125B2 (en) 2007-01-24 2009-05-13 パナソニック株式会社 Biological information measuring apparatus and control method thereof
WO2012058641A2 (en) 2010-10-29 2012-05-03 The Regents Of The University Of California Cellscope apparatus and methods for imaging
US8115934B2 (en) 2008-01-18 2012-02-14 The Board Of Trustees Of The University Of Illinois Device and method for imaging the ear using optical coherence tomography
WO2009157825A1 (en) 2008-06-24 2009-12-30 Atos Medical Ab A method and device for diagnosing ear conditions
JP4810562B2 (en) 2008-10-17 2011-11-09 キヤノン株式会社 Image processing apparatus and image processing method
KR20100130765A (en) * 2009-06-04 2010-12-14 을지대학교 산학협력단 Ultrasonic prove for diagnosing otitis media with effusion
JP2012235796A (en) 2009-09-17 2012-12-06 Sharp Corp Diagnosis processing device, system, method and program, and recording medium readable by computer and classification processing device
US20110099133A1 (en) * 2009-10-28 2011-04-28 Industrial Technology Research Institute Systems and methods for capturing and managing collective social intelligence information
WO2012082721A2 (en) 2010-12-13 2012-06-21 The Board Of Trustees Of The University Of Illinois Method and apparatus for evaluating dynamic middle ear muscle activity
US20120185275A1 (en) 2011-01-15 2012-07-19 Masoud Loghmani System and method of automated data analysis for implementing health records personal assistant with automated correlation of medical services to insurance and tax benefits for improved personal health cost management
KR101286054B1 (en) * 2011-11-02 2013-07-23 연세대학교 산학협력단 Probe for diagnosing otitis media using terahertz electronmagnetic wave, system and method for diagnosis otitis media using the same
US8996098B2 (en) 2012-03-19 2015-03-31 Donald Spector System and method for diagnosing and treating disease
WO2013149038A1 (en) 2012-03-28 2013-10-03 University Of Houston System Methods and software for screening and diagnosing skin lesions and plant diseases
WO2013160780A1 (en) 2012-04-23 2013-10-31 I.R.Med Ltd. Short-wave infrared imaging and spectroscopy technique for inflammation classification and tumor and inflammation differentiation in human tissues inside the body
US9636007B2 (en) 2012-08-03 2017-05-02 Carnegie Mellon University Method and apparatus for aiding in the diagnosis of otitis media by classifying tympanic membrane images
US9798918B2 (en) 2012-10-05 2017-10-24 Cireca Theranostics, Llc Method and system for analyzing biological specimens by spectral imaging
EP2925121B1 (en) 2012-12-02 2020-03-11 Agricam AB System and method for predicting the health outcome of a subject
US11058286B2 (en) * 2013-02-04 2021-07-13 Helen Of Troy Limited Ear inspection device and method of determining a condition of a subject's ear
AU2014211763B2 (en) * 2013-02-04 2019-07-25 Helen Of Troy Limited Method for identifying objects in a subject's ear
US9867528B1 (en) 2013-08-26 2018-01-16 The Board Of Trustees Of The University Of Illinois Quantitative pneumatic otoscopy using coherent light ranging techniques
WO2015035229A2 (en) 2013-09-05 2015-03-12 Cellscope, Inc. Apparatuses and methods for mobile imaging and analysis
WO2015112932A1 (en) 2014-01-25 2015-07-30 Handzel Amir Aharon Automated histological diagnosis of bacterial infection using image analysis
US10660604B2 (en) * 2015-07-13 2020-05-26 Otonexus Medical Technologies, Inc. Apparatus and method for characterization of acute otitis media
US9750450B2 (en) 2015-09-18 2017-09-05 Htc Corporation Method, electronic apparatus, and computer readable medium of constructing classifier for skin-infection detection
KR101623431B1 (en) 2015-08-06 2016-05-23 주식회사 루닛 Pathological diagnosis classifying apparatus for medical image and pathological diagnosis system using the same
US10874333B2 (en) 2015-09-15 2020-12-29 Massachusetts Institute Of Technology Systems and methods for diagnosis of middle ear conditions and detection of analytes in the tympanic membrane
US20170132367A1 (en) 2015-11-10 2017-05-11 International Business Machines Corporation Multifarious medical consultation options optimizer
US9536054B1 (en) 2016-01-07 2017-01-03 ClearView Diagnostics Inc. Method and means of CAD system personalization to provide a confidence level indicator for CAD system recommendations
CN105996995B (en) * 2016-05-03 2018-09-07 华南师范大学 A kind of tympanitis diagnostic system and instrument based on spectral technique
TWI582717B (en) * 2016-05-05 2017-05-11 Univ Nat Central System and method for an otitis media database constructing and an image analyzing
US10675001B2 (en) 2016-06-04 2020-06-09 Otonexus Medical Technologies, Inc. Apparatus and method for characterization of a ductile membrane, surface, and sub-surface properties
US10568515B2 (en) 2016-06-21 2020-02-25 Otonexus Medical Technologies, Inc. Optical coherence tomography device for otitis media
US10357161B1 (en) 2017-05-31 2019-07-23 Otonexus Medical Technologies, Inc. Infrared otoscope for characterization of effusion
US9589374B1 (en) 2016-08-01 2017-03-07 12 Sigma Technologies Computer-aided diagnosis system for medical images using deep convolutional neural networks
EP3507743B1 (en) 2016-09-02 2023-11-22 Ohio State Innovation Foundation System and method of otoscopy image analysis to diagnose ear pathology
KR101944536B1 (en) 2016-12-11 2019-02-01 주식회사 딥바이오 System and method for medical diagnosis using neural network
WO2018140014A1 (en) 2017-01-25 2018-08-02 Athelas, Inc. Classifying biological samples using automated image analysis
US20180211380A1 (en) 2017-01-25 2018-07-26 Athelas Inc. Classifying biological samples using automated image analysis
US10275644B2 (en) 2017-03-08 2019-04-30 Ricoh Company, Ltd Automatic classification of eardrum shape
WO2018198253A1 (en) 2017-04-26 2018-11-01 オリンパス株式会社 Image processing device, image capture system, image processing method, and image processing program
US11445942B2 (en) 2018-06-01 2022-09-20 Otonexus Medical Technologies, Inc. Acoustic otoscope
WO2020028726A1 (en) * 2018-08-01 2020-02-06 Idx Technologies, Inc. Autonomous diagnosis of ear diseases from biomarker data
EP3860425A4 (en) * 2018-10-03 2022-06-22 OtoNexus Medical Technologies, Inc. Methods and devices for membrane characterization with ultrasound and optical illumination
EP4310800A3 (en) * 2018-12-20 2024-03-20 Optos PLC Detection of pathologies in ocular images
CA3127484A1 (en) * 2019-01-25 2020-07-30 Otonexus Medical Technologies, Inc. Machine learning for otitis media diagnosis
AU2020264452A1 (en) * 2019-04-30 2021-11-25 Otonexus Medical Technologies, Inc. Systems and methods for simulating a tympanic membrane

Similar Documents

Publication Publication Date Title
US11049011B2 (en) Neural network classifier
Stulp et al. Many regression algorithms, one unified model: A review
Zhang et al. A novel AdaBoost framework with robust threshold and structural optimization
Kag et al. Rnns incrementally evolving on an equilibrium manifold: A panacea for vanishing and exploding gradients?
JPWO2020154698A5 (en)
Ngan et al. Ellipsoidal decision regions for motif-based patterned fabric defect detection
Rudner et al. Rethinking function-space variational inference in Bayesian neural networks
Maass Deep learning for trivial inverse problems
Bishwas et al. Big data classification with quantum multiclass SVM and quantum one-against-all approach
Liu et al. A modified gradient learning algorithm with smoothing L1/2 regularization for Takagi–Sugeno fuzzy models
Money et al. Random feature approximation for online nonlinear graph topology identification
Begum Advanced modeling based on machine learning for evaluation of drug nanoparticle preparation via green technology: Theoretical assessment of solubility variations
Floris et al. Composite layers for deep anomaly detection on 3D point clouds
Xiu et al. Multiple graph regularized graph transduction via greedy gradient max-cut
KR20210026623A (en) System and method for training artificial intelligence model
Wang et al. Optimal learning for sequential decision making for expensive cost functions with stochastic binary feedbacks
Smirnov et al. Mean-field limits of trained weights in deep learning: A dynamical systems perspective
Wang et al. A structured prediction approach for conditional meta-learning
CN114492165A (en) Parameter optimization method and system based on genetic breeding method
Gillis et al. Grouped sparse projection
Jang et al. Principal weighted least square support vector machine: An online dimension-reduction tool for binary classification
Yang et al. On a theory of nonparametric pairwise similarity for clustering: Connecting clustering to classification
Bampis et al. Robust matrix factorization for collaborative filtering in recommender systems
Eide et al. Sample weighting as an explanation for mode collapse in generative adversarial networks
Baruque et al. WeVoS scale invariant map