JPWO2020154698A5 - - Google Patents
Download PDFInfo
- Publication number
- JPWO2020154698A5 JPWO2020154698A5 JP2021542432A JP2021542432A JPWO2020154698A5 JP WO2020154698 A5 JPWO2020154698 A5 JP WO2020154698A5 JP 2021542432 A JP2021542432 A JP 2021542432A JP 2021542432 A JP2021542432 A JP 2021542432A JP WO2020154698 A5 JPWO2020154698 A5 JP WO2020154698A5
- Authority
- JP
- Japan
- Prior art keywords
- item
- membrane
- tympanic membrane
- classification
- parameters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Description
いくつかの実施形態において、方法は、第2の1つ以上の分類されたデータセットに基づいて、データベースを更新することと、第2の1つ以上の分類されたデータセットに基づいて、分類器モデルを更新することとをさらに含む。いくつかの実施形態において、方法は、分類器モデルを使用し、任意の側面または実施形態の鼓膜を分類する方法によって未分類データセットの分類を提供することをさらに含む。
本発明は、例えば、以下を提供する。
(項目1)
鼓膜を分類する方法であって、前記方法は、
取り調べシステムから、前記鼓膜に関連する1つ以上のデータセットを受信することと、
前記1つ以上のデータセットからパラメータの組を決定することであって、前記パラメータの組のうちの少なくとも1つのパラメータは、前記鼓膜の動的特性または静的位置に関連している、ことと、
前記パラメータの組から導出された分類器モデルに基づいて、前記鼓膜の分類を出力することと
を含み、
前記分類は、前記鼓膜の状態、条件、または可動性メトリックのうちの1つ以上を備えている、方法。
(項目2)
前記取り調べシステムは、撮像システムを備え、前記1つ以上のデータセットは、前記鼓膜の1つ以上の画像を備えている、項目1に記載の方法。
(項目3)
前記分類器モデルは、機械学習アルゴリズムを備えている、項目1に記載の方法。
(項目4)
前記機械学習アルゴリズムは、線形回帰、ロジスティック回帰、分類および回帰木アルゴリズム、サポートベクターマシン(SVM)、ナイーブベイズ、K近傍法、ランダムフォレストアルゴリズム、XGBoostおよびLightGBM等のブースティングアルゴリズム、ニューラルネットワーク、畳み込みニューラルネットワーク、およびリカレントニューラルネットワークのうちの1つ以上を備えている、項目3に記載の方法。
(項目5)
前記機械学習アルゴリズムは、教師付き学習アルゴリズム、教師なし学習アルゴリズム、または半教師付き学習アルゴリズムである、項目3に記載の方法。
(項目6)
前記鼓膜の1つ以上の画像は、1つ以上の超音波画像を備えている、項目2に記載の方法。
(項目7)
前記1つ以上の超音波画像は、空気圧超音波鼓膜鏡からの画像を備えている、項目6に記載の方法。
(項目8)
前記1つ以上の超音波画像は、空気圧励起に応答して測定される、項目6に記載の方法。
(項目9)
前記鼓膜の1つ以上の画像は、1つ以上の光コヒーレンストモグラフィ画像を備えている、項目2に記載の方法。
(項目10)
前記画像は、光学画像を備えている、項目2に記載の方法。
(項目11)
前記膜の動的特性または静的位置に関連する前記少なくとも1つのパラメータは、空気圧励起に応答したものである、項目2に記載の方法。
(項目12)
前記空気圧励起は、ガスの吹き付けを備えている、項目11に記載の方法。
(項目13)
前記空気圧励起は、10Hzより大きい周波数を有する、項目11に記載の方法。
(項目14)
前記鼓膜の前記動的特性は、
膜移動または膜可動性の指示と、
前記鼓膜の最小または最大変位と、
外れ値変位と、
最小変位と最大変位との間の差異または比率と、
変位の傾きまたは空気圧励起の圧力に対する最小変位と最大変位との間の差異または比率の傾きと、
加えられた圧力に対する測定された圧力の応答と、
空気圧励起に応答した前記鼓膜の視覚的移動と、
特異値分解、主成分分析、およびK平均クラスタリングから発生させられた1つ以上の統計成分と、
超音波パルスエコー振幅または超音波エコー位相またはその微分またはその移動平均と
のうちの1つ以上を備えている、項目1に記載の方法。
(項目15)
前記鼓膜の前記動的特性は、空気圧励起の圧力に対して正規化される、項目14に記載の方法。
(項目16)
前記方法は、前記鼓膜の可動性の順位読み出し、カテゴリ読み出し、または連続した数値出力のうちの1つ以上を発生させることをさらに含む、項目1に記載の方法。
(項目17)
順位読み出しは、膜可動性の程度に関連した数値スケールを備えている、項目16に記載の方法。
(項目18)
前記数値スケールは、0~4+の分類を備えている、項目17に記載の方法。
(項目19)
カテゴリ読み出しは、高可動、中可動、半可動、または非可動のうちの少なくとも1つとしての膜可動性の程度の指示を備えている、項目16に記載の方法。
(項目20)
カテゴリ読み出しは、バイナリ分類を備えている、項目16に記載の方法。
(項目21)
連続した数値出力は、測定膜変位、膜移動の速度、または膜回復の速度のうちの1つ以上を備えている、項目16に記載の方法。
(項目22)
前記鼓膜の状態または条件は、急性中耳炎、滲出液を伴う急性中耳炎、中耳滲出液、慢性中耳炎、慢性化膿性中耳炎、細菌感染、ウイルス感染、滲出液なし、および未知の分類のうちの1つ以上を備えている、項目1に記載の方法。
(項目23)
前記1つ以上のデータセットは、mモード超音波データセットを備えている、項目1に記載の方法。
(項目24)
前記1つ以上のデータセットは、赤外線画像を備えている、項目1に記載の方法。
(項目25)
前記1つ以上のデータセットは、空気圧データセットを備えている、項目1に記載の方法。
(項目26)
前記1つ以上のデータセットは、空気圧励起に応答して撮影された1つ以上の光学画像を備えている、項目1に記載の方法。
(項目27)
前記静的位置は、膨張した膜または後退した膜を備えている、項目1に記載の方法。
(項目28)
鼓膜を分類するためのシステムであって、前記システムは、メモリを備えているコンピューティングシステムを備え、前記メモリは、前記鼓膜を分類するための命令を備え、前記コンピューティングシステムは、少なくとも、
取り調べシステムから、前記鼓膜に関連する1つ以上のデータセットを受信することと、
前記1つ以上のデータセットからパラメータの組を決定することであって、前記パラメータの組のうちの少なくとも1つのパラメータは、前記鼓膜の動的特性または静的位置に関連している、ことと、
前記パラメータの組から導出された分類器モデルに基づいて、前記鼓膜の分類を出力することと
を行うために、前記命令を実行するように構成され、
前記分類は、前記鼓膜の状態、条件、または可動性メトリックを備えている、システム。
(項目29)
前記取り調べシステムは、撮像システムを備え、前記1つ以上のデータセットは、前記鼓膜の1つ以上の画像を備えている、項目28に記載のシステム。
(項目30)
前記システムは、空気圧超音波鼓膜鏡をさらに備えている、項目28に記載のシステム。
(項目31)
前記分類器モデルは、機械学習アルゴリズムを備えている、項目28に記載のシステム。
(項目32)
前記機械学習アルゴリズムは、線形回帰、ロジスティック回帰、分類および回帰木アルゴリズム、サポートベクターマシン(SVM)、ナイーブベイズ、K近傍法、ランダムフォレストアルゴリズム、XGBoostおよびLightGBM等のブースティングアルゴリズム、ニューラルネットワーク、畳み込みニューラルネットワーク、およびリカレントニューラルネットワークのうちの1つ以上を備えている、項目31に記載のシステム。
(項目33)
前記機械学習アルゴリズムは、教師付き学習アルゴリズム、教師なし学習アルゴリズム、または半教師付き学習アルゴリズムである、項目31に記載のシステム。
(項目34)
前記鼓膜の1つ以上の画像は、1つ以上の超音波画像を備えている、項目29に記載のシステム。
(項目35)
前記1つ以上の超音波画像は、空気圧超音波鼓膜鏡からの画像を備えている、項目34に記載のシステム。
(項目36)
前記1つ以上の超音波画像は、空気圧励起に応答して測定される、項目34に記載のシステム。
(項目37)
前記鼓膜の1つ以上の画像は、1つ以上の光コヒーレンストモグラフィ画像を備えている、項目29に記載のシステム。
(項目38)
前記画像は、光学画像を備えている、項目29に記載のシステム。
(項目39)
前記膜の動的特性または静的位置に関連する前記少なくとも1つのパラメータは、空気圧励起に応答したものである、項目29に記載のシステム。
(項目40)
前記空気圧励起は、ガスの吹き付けを備えている、項目39に記載のシステム。
(項目41)
前記空気圧励起は、10Hzより大きい周波数を備えている、項目39に記載のシステム。
(項目42)
前記鼓膜の前記動的特性は、
膜移動または膜可動性の指示と、
前記鼓膜の最小または最大変位と、
外れ値変位と、
最小変位と最大変位との間の差異または比率と、
変位の傾きまたは空気圧励起の圧力に対する最小変位と最大変位との間の差異または比率の傾きと、
加えられた圧力に対する測定された圧力の応答と、
空気圧励起に応答した前記鼓膜の視覚的移動と、
特異値分解、主成分分析、およびK平均クラスタリングから発生させられた1つ以上の統計成分と、
超音波パルスエコー振幅または超音波エコー位相またはその微分またはその移動平均と
のうちの1つ以上を備えている、項目28に記載のシステム。
(項目43)
前記鼓膜の前記動的特性は、空気圧励起の圧力に対して正規化されている、項目42に記載のシステム。
(項目44)
前記コンピューティングシステムは、前記鼓膜の可動性の順位読み出し、カテゴリ読み出し、または連続した数値出力のうちの1つ以上を発生させるために、前記命令を実行するようにさらに構成されている、項目28に記載のシステム。
(項目45)
順位読み出しは、膜可動性の程度に関連した数値スケールを備えている、項目44に記載のシステム。
(項目46)
前記数値スケールは、0~4+の分類を備えている、項目45に記載のシステム。
(項目47)
カテゴリ読み出しは、高可動、中可動、半可動、または非可動のうちの少なくとも1つとしての膜可動性の程度の指示を備えている、項目44に記載のシステム。
(項目48)
カテゴリ読み出しは、バイナリ分類を備えている、項目44に記載のシステム。
(項目49)
連続した数値出力は、測定膜変位、膜移動の速度、または膜回復の速度のうちの1つ以上を備えている、項目44に記載のシステム。
(項目50)
前記鼓膜の状態または条件は、急性中耳炎、滲出液を伴う急性中耳炎、中耳滲出液、慢性中耳炎、慢性化膿性中耳炎、細菌感染、ウイルス感染、滲出液なし、および未知の分類のうちの1つ以上を備えている、項目28に記載のシステム。
(項目51)
前記1つ以上のデータセットは、mモード超音波データセットを備えている、項目28に記載のシステム。
(項目52)
前記1つ以上のデータセットは、赤外線画像を備えている、項目28に記載のシステム。
(項目53)
前記1つ以上のデータセットは、空気圧データセットを備えている、項目28に記載のシステム。
(項目54)
前記1つ以上のデータセットは、空気圧励起に応答して撮影された1つ以上の光学画像を備えている、項目28に記載のシステム。
(項目55)
前記静的位置は、膨張した膜または後退した膜を備えている、項目28に記載のシステム。
(項目56)
機械実行可能コードを備えている非一過性コンピュータ読み取り可能な媒体であって、前記コードは、コンピューティングシステムによって実行されると、膜を分類する方法を実装し、前記方法は、
取り調べシステムから、前記鼓膜に関連する1つ以上のデータセットを受信することと、
前記1つ以上のデータセットからパラメータの組を決定することであって、前記パラメータの組のうちの少なくとも1つのパラメータは、前記鼓膜の動的特性または静的位置に関連している、ことと、
前記パラメータの組から導出された分類器モデルに基づいて、前記鼓膜の分類を出力することと
を含み、
前記分類は、前記鼓膜の状態、条件、または可動性メトリックを備えている、非一過性コンピュータ読み取り可能な媒体。
(項目57)
前記取り調べシステムは、撮像システムを備え、前記1つ以上のデータセットは、前記鼓膜の1つ以上の画像を備えている、項目56に記載の非一過性コンピュータ読み取り可能な記憶媒体。
(項目58)
前記方法は、項目2-27のいずれか1項に記載の方法をさらに含む、項目56に記載の非一過性コンピュータ読み取り可能な記憶媒体。
(項目59)
コンピュータ実装分類器を訓練する方法であって、前記方法は、
1つ以上の鼓膜に関連する1つ以上のデータセットに基づくパラメータの組と、前記1つ以上の鼓膜に関連する1つ以上の分類されたデータセットとを受信することであって、前記分類は、前記鼓膜の状態、条件、または可動性メトリックを備え、前記パラメータの組は、前記1つ以上の鼓膜の動的特性または静的位置に関連する少なくとも1つのパラメータを備えている、ことと、
データベース内に前記パラメータの組と前記1つ以上の分類されたデータセットとを記憶することと、
前記パラメータの組と前記1つ以上の分類されたデータセットとに基づいて、分類器モデルを構築することであって、前記分類器モデルは、前記パラメータの組から導出され、前記分類器モデルは、前記1つ以上の分類されたデータセットのうちのデータセットに基づいて、分類を出力する、ことと、
前記分類器モデルを使用し、未分類データセットの分類を提供することと
を含む、方法。
(項目60)
前記方法は、第2の1つ以上の分類されたデータセットに基づいて、前記データベースを更新することと、
前記第2の1つ以上の分類されたデータセットに基づいて、前記分類器モデルを更新することと
をさらに含む、項目59に記載の方法。
(項目61)
前記方法は、前記分類器モデルを使用し、項目1-27のいずれか1項に記載の鼓膜を分類する方法によって未分類データセットの分類を提供することをさらに含む、項目59または60に記載の方法。
(項目62)
コンピュータ実装分類器を訓練するためのシステムであって、前記システムは、メモリを備えているコンピューティングシステムを備え、前記メモリは、前記データセットを訓練するための命令を備え、前記コンピューティングシステムは、少なくとも、
1つ以上の鼓膜に関連する1つ以上のデータセットに基づくパラメータの組と、前記1つ以上の鼓膜に関連する1つ以上の分類されたデータセットとを受信し、前記分類は、前記鼓膜の状態、条件、または可動性メトリックを備え、前記パラメータの組は、前記1つ以上の鼓膜の動的特性または静的位置に関連する少なくとも1つのパラメータを備えている、ことと、
データベース内に前記パラメータの組と前記1つ以上の分類されたデータセットとを記憶することと、
前記パラメータの組と前記1つ以上の分類されたデータセットとに基づいて、分類器モデルを構築することであって、前記分類器モデルは、前記パラメータの組から導出され、前記分類器モデルは、前記1つ以上の分類されたデータセットのうちのデータセットに基づいて、分類を出力する、ことと、
前記分類器モデルを使用し、未分類データセットの分類を提供することと
を行うために、前記命令を実行するように構成されている、システム。
(項目63)
前記システムは、少なくとも、第2の1つ以上の分類されたデータセットに基づいて、前記データベースを更新し、前記第2の1つ以上の分類されたデータセットに基づいて、前記分類器モデルを更新するために、前記命令を実行するように構成されている、項目62に記載のシステム。
(項目64)
前記システムは、項目28-55のいずれか1項に記載の鼓膜を分類するためのシステムをさらに備えている、項目62または63に記載のシステム。
(項目65)
機械実行可能コードを備えている非一過性コンピュータ読み取り可能な媒体であって、前記コードは、コンピューティングシステムによって実行されると、コンピュータ実装分類器を訓練する方法を実装し、前記方法は、
1つ以上の鼓膜に関連する1つ以上のデータセットに基づくパラメータの組と、前記1つ以上の鼓膜に関連する1つ以上の分類されたデータセットとを受信することであって、前記分類は、前記鼓膜の状態、条件、または可動性メトリックを備え、前記パラメータの組は、前記1つ以上の鼓膜の動的特性または静的位置に関連する少なくとも1つのパラメータを備えている、ことと、
データベース内に前記パラメータの組と前記1つ以上の分類されたデータセットとを記憶することと、
前記パラメータの組と前記1つ以上の分類されたデータセットとに基づいて、分類器モデルを構築することであって、前記分類器モデルは、前記パラメータの組から導出され、前記分類器モデルは、分類を出力する、ことと、
前記分類器モデルを使用し、未分類データセットの分類を提供することと
を含む、非一過性コンピュータ読み取り可能な媒体。
(項目66)
前記方法は、第2の1つ以上の分類されたデータセットに基づいて、前記データベースを更新することと、前記第2の1つ以上の分類されたデータセットに基づいて、前記分類器モデルを更新することとをさらに含む、項目65に記載の非一過性コンピュータ読み取り可能な媒体。
(項目67)
前記方法は、前記分類器モデルを使用し、項目1-28のいずれか1項に記載の鼓膜を分類する方法によって未分類データセットの分類を提供することをさらに含む、項目65または66に記載の非一過性コンピュータ読み取り可能な媒体。
In some embodiments, the method includes updating a database based on the second one or more classified data sets, and performing classification based on the second one or more classified data sets. and updating the vessel model. In some embodiments, the method further comprises using the classifier model to provide a classification of the unclassified dataset by the method of classifying the tympanic membrane of any aspect or embodiment.
The present invention provides, for example, the following.
(Item 1)
A method of classifying a tympanic membrane, said method comprising:
receiving one or more data sets related to the eardrum from an interrogation system;
determining a set of parameters from the one or more data sets, wherein at least one parameter in the set of parameters is related to dynamic properties or static position of the tympanic membrane; ,
outputting a classification of the eardrum based on a classifier model derived from the set of parameters;
including
The method, wherein the classification comprises one or more of the tympanic membrane status, condition, or mobility metric.
(Item 2)
2. The method of item 1, wherein the interrogation system comprises an imaging system and the one or more datasets comprise one or more images of the tympanic membrane.
(Item 3)
The method of item 1, wherein the classifier model comprises a machine learning algorithm.
(Item 4)
The machine learning algorithms include linear regression, logistic regression, classification and regression tree algorithms, support vector machines (SVM), Naive Bayes, K nearest neighbors, random forest algorithms, boosting algorithms such as XGBoost and LightGBM, neural networks, convolutional neural 4. The method of item 3, comprising one or more of a network and a recurrent neural network.
(Item 5)
4. The method of item 3, wherein the machine learning algorithm is a supervised learning algorithm, an unsupervised learning algorithm, or a semi-supervised learning algorithm.
(Item 6)
3. The method of item 2, wherein the one or more images of the eardrum comprise one or more ultrasound images.
(Item 7)
7. The method of item 6, wherein the one or more ultrasound images comprise images from a pneumatic ultrasound tympanoscope.
(Item 8)
7. The method of item 6, wherein the one or more ultrasound images are measured in response to pneumatic excitation.
(Item 9)
3. The method of item 2, wherein the one or more images of the eardrum comprise one or more optical coherence tomography images.
(Item 10)
3. The method of item 2, wherein the image comprises an optical image.
(Item 11)
3. The method of item 2, wherein the at least one parameter related to dynamic properties or static position of the membrane is in response to pneumatic excitation.
(Item 12)
12. The method of item 11, wherein the pneumatic excitation comprises blowing gas.
(Item 13)
12. The method of item 11, wherein the pneumatic excitation has a frequency greater than 10Hz.
(Item 14)
The dynamic properties of the eardrum include:
an indication of membrane translocation or membrane mobility;
minimum or maximum displacement of the tympanic membrane;
outlier displacement;
the difference or ratio between the minimum and maximum displacement and
the slope of the displacement or the slope of the difference or ratio between the minimum and maximum displacement with respect to the pressure of the pneumatic excitation;
the measured pressure response to the applied pressure; and
visual movement of the tympanic membrane in response to pneumatic excitation;
one or more statistical components generated from singular value decomposition, principal component analysis, and K-means clustering;
ultrasonic pulse-echo amplitude or ultrasonic echo phase or its derivative or its moving average
The method of item 1, comprising one or more of
(Item 15)
15. The method of item 14, wherein the dynamic properties of the tympanic membrane are normalized to the pressure of pneumatic excitation.
(Item 16)
2. The method of item 1, wherein the method further comprises generating one or more of a rank readout, a categorical readout, or a sequential numerical output of the tympanic membrane mobility.
(Item 17)
17. The method of item 16, wherein the rank readout comprises a numerical scale related to the degree of membrane mobility.
(Item 18)
18. The method of item 17, wherein the numerical scale comprises a classification from 0 to 4+.
(Item 19)
17. The method of item 16, wherein the category readout comprises an indication of the degree of membrane mobility as at least one of highly mobile, moderately mobile, semi-mobile, or non-mobile.
(Item 20)
17. The method of item 16, wherein the category reading comprises binary classification.
(Item 21)
17. The method of item 16, wherein the continuous numerical output comprises one or more of measured membrane displacement, rate of membrane movement, or rate of membrane recovery.
(Item 22)
The tympanic membrane condition or condition is one of acute otitis media, acute otitis media with effusion, middle ear effusion, chronic otitis media, chronic suppurative otitis media, bacterial infection, viral infection, no effusion, and unknown classification. A method according to item 1, comprising:
(Item 23)
The method of item 1, wherein the one or more datasets comprise m-mode ultrasound datasets.
(Item 24)
2. The method of item 1, wherein the one or more data sets comprise infrared images.
(Item 25)
The method of item 1, wherein the one or more data sets comprise pneumatic data sets.
(Item 26)
2. The method of item 1, wherein the one or more data sets comprise one or more optical images taken in response to pneumatic excitation.
(Item 27)
The method of item 1, wherein the static position comprises an inflated membrane or a retracted membrane.
(Item 28)
A system for classifying a tympanic membrane, said system comprising a computing system comprising a memory, said memory comprising instructions for classifying said tympanic membrane, said computing system comprising at least:
receiving one or more data sets related to the eardrum from an interrogation system;
determining a set of parameters from the one or more data sets, wherein at least one parameter in the set of parameters is related to dynamic properties or static position of the tympanic membrane; ,
outputting a classification of the eardrum based on a classifier model derived from the set of parameters;
configured to execute said instructions to perform
The system, wherein the classification comprises a state, condition, or mobility metric of the eardrum.
(Item 29)
29. The system of item 28, wherein the interrogation system comprises an imaging system and the one or more datasets comprise one or more images of the tympanic membrane.
(Item 30)
29. The system of item 28, wherein the system further comprises a pneumatic ultrasound tympanoscope.
(Item 31)
29. The system of item 28, wherein the classifier model comprises a machine learning algorithm.
(Item 32)
The machine learning algorithms include linear regression, logistic regression, classification and regression tree algorithms, support vector machines (SVM), Naive Bayes, K nearest neighbors, random forest algorithms, boosting algorithms such as XGBoost and LightGBM, neural networks, convolutional neural 32. The system of item 31, comprising one or more of a network and a recurrent neural network.
(Item 33)
32. The system of item 31, wherein the machine learning algorithm is a supervised learning algorithm, an unsupervised learning algorithm, or a semi-supervised learning algorithm.
(Item 34)
30. The system of item 29, wherein the one or more images of the eardrum comprise one or more ultrasound images.
(Item 35)
35. The system of item 34, wherein the one or more ultrasound images comprise images from a pneumatic ultrasound tympanoscope.
(Item 36)
35. The system of item 34, wherein the one or more ultrasound images are measured in response to pneumatic excitation.
(Item 37)
30. The system of item 29, wherein the one or more images of the eardrum comprise one or more optical coherence tomography images.
(Item 38)
30. The system of item 29, wherein the image comprises an optical image.
(Item 39)
30. The system of item 29, wherein the at least one parameter related to dynamic properties or static position of the membrane is in response to pneumatic excitation.
(Item 40)
40. The system of item 39, wherein the pneumatic excitation comprises blowing gas.
(Item 41)
40. The system of item 39, wherein the pneumatic excitation comprises a frequency greater than 10Hz.
(Item 42)
The dynamic properties of the eardrum include:
an indication of membrane translocation or membrane mobility;
minimum or maximum displacement of the tympanic membrane;
outlier displacement;
the difference or ratio between the minimum and maximum displacement and
the slope of the displacement or the slope of the difference or ratio between the minimum and maximum displacement with respect to the pressure of the pneumatic excitation;
the measured pressure response to the applied pressure; and
visual movement of the tympanic membrane in response to pneumatic excitation;
one or more statistical components generated from singular value decomposition, principal component analysis, and K-means clustering;
ultrasonic pulse-echo amplitude or ultrasonic echo phase or its derivative or its moving average
29. The system of item 28, comprising one or more of:
(Item 43)
43. The system of item 42, wherein the dynamic properties of the tympanic membrane are normalized to pressure of pneumatic excitation.
(Item 44)
Item 28, wherein the computing system is further configured to execute the instructions to generate one or more of a rank readout of the tympanic membrane mobility, a categorical readout, or a sequential numerical output. The system described in .
(Item 45)
45. The system of item 44, wherein the rank readout comprises a numerical scale related to the degree of membrane mobility.
(Item 46)
46. The system of item 45, wherein the numerical scale comprises a classification of 0 to 4+.
(Item 47)
45. The system of item 44, wherein the category readout comprises an indication of the degree of membrane mobility as at least one of highly mobile, moderately mobile, semi-mobile, or non-mobile.
(Item 48)
45. The system of item 44, wherein the category readout comprises binary classification.
(Item 49)
45. The system of item 44, wherein the continuous numerical output comprises one or more of measured membrane displacement, rate of membrane movement, or rate of membrane recovery.
(Item 50)
The tympanic membrane condition or condition is one of acute otitis media, acute otitis media with effusion, middle ear effusion, chronic otitis media, chronic suppurative otitis media, bacterial infection, viral infection, no effusion, and unknown classification. 29. A system according to item 28, comprising:
(Item 51)
29. The system of item 28, wherein the one or more datasets comprise m-mode ultrasound datasets.
(Item 52)
29. The system of item 28, wherein the one or more data sets comprise infrared images.
(Item 53)
29. The system of item 28, wherein the one or more data sets comprise pneumatic data sets.
(Item 54)
29. The system of item 28, wherein the one or more data sets comprise one or more optical images taken in response to pneumatic excitation.
(Item 55)
29. The system of item 28, wherein the static position comprises an inflated membrane or a retracted membrane.
(Item 56)
A non-transitory computer-readable medium comprising machine-executable code that, when executed by a computing system, implements a method of classifying membranes, the method comprising:
receiving one or more data sets related to the eardrum from an interrogation system;
determining a set of parameters from the one or more data sets, wherein at least one parameter in the set of parameters is related to dynamic properties or static position of the tympanic membrane; ,
outputting a classification of the eardrum based on a classifier model derived from the set of parameters;
including
A non-transitory computer-readable medium, wherein the classification comprises a state, condition, or mobility metric of the eardrum.
(Item 57)
57. The non-transitory computer-readable storage medium of item 56, wherein the interrogation system comprises an imaging system and the one or more datasets comprise one or more images of the tympanic membrane.
(Item 58)
57. The non-transitory computer-readable storage medium of item 56, wherein said method further comprises the method of any one of items 2-27.
(Item 59)
A method of training a computer-implemented classifier, the method comprising:
receiving a set of parameters based on one or more datasets associated with one or more tympanic membranes and one or more classified datasets associated with the one or more tympanic membranes, wherein comprises a state, condition, or mobility metric of the tympanic membrane, and the set of parameters comprises at least one parameter related to dynamic properties or static positions of the one or more tympanic membranes. ,
storing the set of parameters and the one or more categorized data sets in a database;
building a classifier model based on the set of parameters and the one or more classified data sets, the classifier model being derived from the set of parameters, the classifier model comprising: , outputting a classification based on a data set of the one or more classified data sets;
using the classifier model to provide a classification of an unclassified dataset;
A method, including
(Item 60)
The method updates the database based on a second one or more classified data sets;
updating the classifier model based on the second one or more classified data sets;
60. The method of item 59, further comprising:
(Item 61)
61. The method of item 59 or 60, wherein the method further comprises using the classifier model to provide a classification of the unclassified data set by the method of classifying tympanic membranes of any one of items 1-27. the method of.
(Item 62)
A system for training a computer-implemented classifier, said system comprising a computing system comprising a memory, said memory comprising instructions for training said dataset, said computing system comprising: ,at least,
receiving a set of parameters based on one or more datasets associated with one or more tympanic membranes and one or more classified datasets associated with said one or more tympanic membranes; a state, condition, or mobility metric of, said set of parameters comprising at least one parameter related to dynamic properties or static positions of said one or more tympanic membranes;
storing the set of parameters and the one or more categorized data sets in a database;
building a classifier model based on the set of parameters and the one or more classified data sets, the classifier model being derived from the set of parameters, the classifier model comprising: , outputting a classification based on a data set of the one or more classified data sets;
using the classifier model to provide a classification of an unclassified dataset;
A system configured to execute the instructions to perform
(Item 63)
The system updates the database based at least on the second one or more classified data sets, and updates the classifier model based on the second one or more classified data sets. 63. The system of item 62, configured to execute the instructions to update.
(Item 64)
64. System according to item 62 or 63, said system further comprising a system for classifying a tympanic membrane according to any one of items 28-55.
(Item 65)
A non-transitory computer-readable medium comprising machine-executable code, said code, when executed by a computing system, implements a method of training a computer-implemented classifier, said method comprising:
receiving a set of parameters based on one or more datasets associated with one or more tympanic membranes and one or more classified datasets associated with the one or more tympanic membranes, wherein comprises a state, condition, or mobility metric of the tympanic membrane, and the set of parameters comprises at least one parameter related to dynamic properties or static positions of the one or more tympanic membranes. ,
storing the set of parameters and the one or more categorized data sets in a database;
building a classifier model based on the set of parameters and the one or more classified data sets, the classifier model being derived from the set of parameters, the classifier model comprising: , which outputs the classification, and
using the classifier model to provide a classification of an unclassified dataset;
A non-transitory computer-readable medium comprising:
(Item 66)
The method includes updating the database based on a second one or more classified data sets, and updating the classifier model based on the second one or more classified data sets. 66. The non-transitory computer-readable medium of item 65, further comprising updating.
(Item 67)
67. The method of paragraph 65 or 66, wherein the method further comprises using the classifier model to provide a classification of the unclassified dataset by the method of classifying eardrums of any one of paragraphs 1-28. non-transitory computer-readable medium.
Claims (21)
取り調べシステムから、前記鼓膜に関連する1つ以上のデータセットを受信することと、
前記1つ以上のデータセットからパラメータの組を決定することであって、前記パラメータの組のうちの少なくとも1つのパラメータは、前記鼓膜の動的特性または静的位置に関連している、ことと、
前記パラメータの組から導出された分類器モデルに基づいて、前記鼓膜の分類を出力することであって、前記分類は、前記鼓膜の状態、条件、または可動性メトリックのうちの1つ以上を備えている、ことと、
鼓膜の可動性の順位読み出し、カテゴリ読み出し、または連続した数値出力のうちの1つ以上を発生させることと
を含む、方法。 A method of classifying a tympanic membrane, said method comprising:
receiving one or more data sets related to the eardrum from an interrogation system;
determining a set of parameters from the one or more data sets, wherein at least one parameter in the set of parameters is related to dynamic properties or static position of the tympanic membrane; ,
outputting a classification of the tympanic membrane based on a classifier model derived from the set of parameters , the classification comprising one or more of a state, condition, or mobility metric of the tympanic membrane. that there is
generating one or more of a rank readout of tympanic membrane mobility, a categorical readout, or a sequential numerical output;
A method , including
膜移動または膜可動性の指示と、
前記鼓膜の最小または最大変位と、
外れ値変位と、
最小変位と最大変位との間の差異または比率と、
変位の傾きまたは空気圧励起の圧力に対する最小変位と最大変位との間の差異または比率の傾きと、
加えられた圧力に対する測定された圧力の応答と、
空気圧励起に応答した前記鼓膜の視覚的移動と、
特異値分解、主成分分析、およびK平均クラスタリングから発生させられた1つ以上の統計成分と、
超音波パルスエコー振幅または超音波エコー位相またはその微分またはその移動平均と
のうちの1つ以上を備えている、請求項1に記載の方法。 The dynamic properties of the eardrum include:
an indication of membrane translocation or membrane mobility;
minimum or maximum displacement of the tympanic membrane;
outlier displacement;
the difference or ratio between the minimum and maximum displacement and
the slope of the displacement or the slope of the difference or ratio between the minimum and maximum displacement with respect to the pressure of the pneumatic excitation;
the measured pressure response to the applied pressure; and
visual movement of the tympanic membrane in response to pneumatic excitation;
one or more statistical components generated from singular value decomposition, principal component analysis, and K-means clustering;
2. The method of claim 1, comprising one or more of: an ultrasound pulse-echo amplitude or an ultrasound echo phase or a derivative thereof or a moving average thereof.
取り調べシステムから、前記鼓膜に関連する1つ以上のデータセットを受信することと、
前記1つ以上のデータセットからパラメータの組を決定することであって、前記パラメータの組のうちの少なくとも1つのパラメータは、前記鼓膜の動的特性または静的位置に関連している、ことと、
前記パラメータの組から導出された分類器モデルに基づいて、前記鼓膜の分類を出力することであって、前記分類は、前記鼓膜の状態、条件、または可動性メトリックを備えている、ことと、
鼓膜の可動性の順位読み出し、カテゴリ読み出し、または連続した数値出力のうちの1つ以上を発生させることと
を少なくとも行うために、前記命令を実行するように構成される、システム。 A system for classifying a tympanic membrane, said system comprising a computing system comprising a memory, said memory comprising instructions for classifying said tympanic membrane, said computing system comprising :
receiving one or more data sets related to the eardrum from an interrogation system;
determining a set of parameters from the one or more data sets, wherein at least one parameter in the set of parameters is related to dynamic properties or static position of the tympanic membrane; ,
outputting a classification of the eardrum based on a classifier model derived from the set of parameters , the classification comprising a state, condition, or mobility metric of the eardrum ;
generating one or more of a rank readout of tympanic membrane mobility, a categorical readout, or a sequential numerical output;
A system configured to execute said instructions to at least perform
取り調べシステムから、前記鼓膜に関連する1つ以上のデータセットを受信することと、
前記1つ以上のデータセットからパラメータの組を決定することであって、前記パラメータの組のうちの少なくとも1つのパラメータは、前記鼓膜の動的特性または静的位置に関連している、ことと、
前記パラメータの組から導出された分類器モデルに基づいて、前記鼓膜の分類を出力することとであって、前記分類は、前記鼓膜の状態、条件、または可動性メトリックを備えている、ことと、
鼓膜の可動性の順位読み出し、カテゴリ読み出し、または連続した数値出力のうちの1つ以上を発生させることと
を含む、非一過性コンピュータ読み取り可能な媒体。
A non-transitory computer-readable medium comprising machine-executable code that, when executed by a computing system, implements a method of classifying membranes, the method comprising:
receiving one or more data sets related to the eardrum from an interrogation system;
determining a set of parameters from the one or more data sets, wherein at least one parameter in the set of parameters is related to dynamic properties or static position of the tympanic membrane; ,
outputting a classification of the eardrum based on a classifier model derived from the set of parameters , the classification comprising a state, condition, or mobility metric of the eardrum . ,
generating one or more of a rank readout of tympanic membrane mobility, a categorical readout, or a sequential numerical output;
A non-transitory computer-readable medium comprising :
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023097662A JP2023123581A (en) | 2019-01-25 | 2023-06-14 | Method and system for classifying tympanic membrane, and non-transitory computer-readable medium |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962796762P | 2019-01-25 | 2019-01-25 | |
US62/796,762 | 2019-01-25 | ||
PCT/US2020/015101 WO2020154698A1 (en) | 2019-01-25 | 2020-01-24 | Machine learning for otitis media diagnosis |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023097662A Division JP2023123581A (en) | 2019-01-25 | 2023-06-14 | Method and system for classifying tympanic membrane, and non-transitory computer-readable medium |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2022518267A JP2022518267A (en) | 2022-03-14 |
JPWO2020154698A5 true JPWO2020154698A5 (en) | 2022-11-30 |
JP7297904B2 JP7297904B2 (en) | 2023-06-26 |
Family
ID=71735819
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021542432A Active JP7297904B2 (en) | 2019-01-25 | 2020-01-24 | Methods and systems for classifying tympanic membranes and non-transitory computer readable media |
JP2023097662A Pending JP2023123581A (en) | 2019-01-25 | 2023-06-14 | Method and system for classifying tympanic membrane, and non-transitory computer-readable medium |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023097662A Pending JP2023123581A (en) | 2019-01-25 | 2023-06-14 | Method and system for classifying tympanic membrane, and non-transitory computer-readable medium |
Country Status (8)
Country | Link |
---|---|
US (2) | US11361434B2 (en) |
EP (1) | EP3914140A4 (en) |
JP (2) | JP7297904B2 (en) |
KR (2) | KR20240043807A (en) |
CN (1) | CN113632178A (en) |
AU (1) | AU2020213126A1 (en) |
CA (1) | CA3127484A1 (en) |
WO (1) | WO2020154698A1 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA3127484A1 (en) * | 2019-01-25 | 2020-07-30 | Otonexus Medical Technologies, Inc. | Machine learning for otitis media diagnosis |
US11501101B1 (en) * | 2019-12-16 | 2022-11-15 | NTT DATA Services, LLC | Systems and methods for securing machine learning models |
US11928509B2 (en) * | 2021-01-07 | 2024-03-12 | Micron Technology, Inc. | Memory system workload allocation |
CN114764986A (en) * | 2021-01-15 | 2022-07-19 | 苏州仁甬得物联科技有限公司 | Bionic simulation system for elastic vessel |
IL310148A (en) * | 2021-07-23 | 2024-03-01 | Photonicare Inc | System for multimodal approach to computer assisted diagnosis of otitis media and methods of use |
KR20230030799A (en) * | 2021-08-26 | 2023-03-07 | 재단법인 아산사회복지재단 | A tympanic membrane image processing device and method for generating a normal tympanic membrane image by using a machine learning model on an otitis media tympanic membrane image |
WO2024014702A1 (en) * | 2022-07-13 | 2024-01-18 | 재단법인 아산사회복지재단 | Otitis media diagnosis method and device |
CN115670520B (en) * | 2023-01-06 | 2023-05-16 | 深圳微创踪影医疗装备有限公司 | Intravascular ultrasound imaging method, intravascular ultrasound imaging device, intravascular ultrasound imaging computer equipment and intravascular ultrasound imaging storage medium |
Family Cites Families (64)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0487110B1 (en) | 1990-11-22 | 1999-10-06 | Kabushiki Kaisha Toshiba | Computer-aided diagnosis system for medical use |
US5331550A (en) | 1991-03-05 | 1994-07-19 | E. I. Du Pont De Nemours And Company | Application of neural networks as an aid in medical diagnosis and general anomaly detection |
CA2210518C (en) * | 1995-01-26 | 1999-11-23 | Mdi Instruments, Inc. | A device and process for generating and measuring the shape of an acoustic reflectance curve of an ear |
US6090044A (en) * | 1997-12-10 | 2000-07-18 | Bishop; Jeffrey B. | System for diagnosing medical conditions using a neural network |
WO2000010451A1 (en) | 1998-08-19 | 2000-03-02 | Cedars-Sinai Medical Center | System and method for spectral topography of mammalian matter using white light illumination |
WO2001026026A2 (en) | 1999-10-04 | 2001-04-12 | University Of Florida | Local diagnostic and remote learning neural networks for medical diagnosis |
DE10041725B4 (en) | 2000-08-25 | 2004-04-29 | Phonak Ag | Device for electromechanical stimulation and testing of the hearing |
US7058441B2 (en) | 2000-11-16 | 2006-06-06 | Chameleon Medical Innovation, Ltd. | Optical measuring system for diagnosing ear conditions |
JP2003038476A (en) | 2001-08-03 | 2003-02-12 | Konica Corp | Computer-aided diagnostic system |
US20040068167A1 (en) | 2002-09-13 | 2004-04-08 | Jiang Hsieh | Computer aided processing of medical images |
US7283653B2 (en) | 2002-11-26 | 2007-10-16 | Siemens Aktiengesellschaft | Method and system for supporting the evaluation of a picture of an eye |
JP4617259B2 (en) | 2002-12-06 | 2011-01-19 | エレクトロソニックス・メディカル・インコーポレイテッド | Ultrasonic detection of ear disorders |
US7606402B2 (en) | 2003-06-09 | 2009-10-20 | Ge Medical Systems Global Technology, Llc | Methods and systems for physiologic structure and event marking |
SE526735C2 (en) | 2003-06-13 | 2005-11-01 | Atos Medical Ab | Device for measuring physical properties of the eardrum |
WO2005050156A2 (en) | 2003-11-18 | 2005-06-02 | Chameleon Medical Innovation Ltd. | Measurement system and method for use in determining the patient's condition |
US20060235725A1 (en) | 2005-04-15 | 2006-10-19 | Martin Kleen | Method for utilization of computer-assisted diagnosis tools |
US7771356B2 (en) | 2005-11-14 | 2010-08-10 | Spentech, Inc. | Ultrasound tympanoscope |
US8157730B2 (en) | 2006-12-19 | 2012-04-17 | Valencell, Inc. | Physiological and environmental monitoring systems and methods |
JP4264125B2 (en) | 2007-01-24 | 2009-05-13 | パナソニック株式会社 | Biological information measuring apparatus and control method thereof |
WO2012058641A2 (en) | 2010-10-29 | 2012-05-03 | The Regents Of The University Of California | Cellscope apparatus and methods for imaging |
US8115934B2 (en) | 2008-01-18 | 2012-02-14 | The Board Of Trustees Of The University Of Illinois | Device and method for imaging the ear using optical coherence tomography |
WO2009157825A1 (en) | 2008-06-24 | 2009-12-30 | Atos Medical Ab | A method and device for diagnosing ear conditions |
JP4810562B2 (en) | 2008-10-17 | 2011-11-09 | キヤノン株式会社 | Image processing apparatus and image processing method |
KR20100130765A (en) * | 2009-06-04 | 2010-12-14 | 을지대학교 산학협력단 | Ultrasonic prove for diagnosing otitis media with effusion |
JP2012235796A (en) | 2009-09-17 | 2012-12-06 | Sharp Corp | Diagnosis processing device, system, method and program, and recording medium readable by computer and classification processing device |
US20110099133A1 (en) * | 2009-10-28 | 2011-04-28 | Industrial Technology Research Institute | Systems and methods for capturing and managing collective social intelligence information |
WO2012082721A2 (en) | 2010-12-13 | 2012-06-21 | The Board Of Trustees Of The University Of Illinois | Method and apparatus for evaluating dynamic middle ear muscle activity |
US20120185275A1 (en) | 2011-01-15 | 2012-07-19 | Masoud Loghmani | System and method of automated data analysis for implementing health records personal assistant with automated correlation of medical services to insurance and tax benefits for improved personal health cost management |
KR101286054B1 (en) * | 2011-11-02 | 2013-07-23 | 연세대학교 산학협력단 | Probe for diagnosing otitis media using terahertz electronmagnetic wave, system and method for diagnosis otitis media using the same |
US8996098B2 (en) | 2012-03-19 | 2015-03-31 | Donald Spector | System and method for diagnosing and treating disease |
WO2013149038A1 (en) | 2012-03-28 | 2013-10-03 | University Of Houston System | Methods and software for screening and diagnosing skin lesions and plant diseases |
WO2013160780A1 (en) | 2012-04-23 | 2013-10-31 | I.R.Med Ltd. | Short-wave infrared imaging and spectroscopy technique for inflammation classification and tumor and inflammation differentiation in human tissues inside the body |
US9636007B2 (en) | 2012-08-03 | 2017-05-02 | Carnegie Mellon University | Method and apparatus for aiding in the diagnosis of otitis media by classifying tympanic membrane images |
US9798918B2 (en) | 2012-10-05 | 2017-10-24 | Cireca Theranostics, Llc | Method and system for analyzing biological specimens by spectral imaging |
EP2925121B1 (en) | 2012-12-02 | 2020-03-11 | Agricam AB | System and method for predicting the health outcome of a subject |
US11058286B2 (en) * | 2013-02-04 | 2021-07-13 | Helen Of Troy Limited | Ear inspection device and method of determining a condition of a subject's ear |
AU2014211763B2 (en) * | 2013-02-04 | 2019-07-25 | Helen Of Troy Limited | Method for identifying objects in a subject's ear |
US9867528B1 (en) | 2013-08-26 | 2018-01-16 | The Board Of Trustees Of The University Of Illinois | Quantitative pneumatic otoscopy using coherent light ranging techniques |
WO2015035229A2 (en) | 2013-09-05 | 2015-03-12 | Cellscope, Inc. | Apparatuses and methods for mobile imaging and analysis |
WO2015112932A1 (en) | 2014-01-25 | 2015-07-30 | Handzel Amir Aharon | Automated histological diagnosis of bacterial infection using image analysis |
US10660604B2 (en) * | 2015-07-13 | 2020-05-26 | Otonexus Medical Technologies, Inc. | Apparatus and method for characterization of acute otitis media |
US9750450B2 (en) | 2015-09-18 | 2017-09-05 | Htc Corporation | Method, electronic apparatus, and computer readable medium of constructing classifier for skin-infection detection |
KR101623431B1 (en) | 2015-08-06 | 2016-05-23 | 주식회사 루닛 | Pathological diagnosis classifying apparatus for medical image and pathological diagnosis system using the same |
US10874333B2 (en) | 2015-09-15 | 2020-12-29 | Massachusetts Institute Of Technology | Systems and methods for diagnosis of middle ear conditions and detection of analytes in the tympanic membrane |
US20170132367A1 (en) | 2015-11-10 | 2017-05-11 | International Business Machines Corporation | Multifarious medical consultation options optimizer |
US9536054B1 (en) | 2016-01-07 | 2017-01-03 | ClearView Diagnostics Inc. | Method and means of CAD system personalization to provide a confidence level indicator for CAD system recommendations |
CN105996995B (en) * | 2016-05-03 | 2018-09-07 | 华南师范大学 | A kind of tympanitis diagnostic system and instrument based on spectral technique |
TWI582717B (en) * | 2016-05-05 | 2017-05-11 | Univ Nat Central | System and method for an otitis media database constructing and an image analyzing |
US10675001B2 (en) | 2016-06-04 | 2020-06-09 | Otonexus Medical Technologies, Inc. | Apparatus and method for characterization of a ductile membrane, surface, and sub-surface properties |
US10568515B2 (en) | 2016-06-21 | 2020-02-25 | Otonexus Medical Technologies, Inc. | Optical coherence tomography device for otitis media |
US10357161B1 (en) | 2017-05-31 | 2019-07-23 | Otonexus Medical Technologies, Inc. | Infrared otoscope for characterization of effusion |
US9589374B1 (en) | 2016-08-01 | 2017-03-07 | 12 Sigma Technologies | Computer-aided diagnosis system for medical images using deep convolutional neural networks |
EP3507743B1 (en) | 2016-09-02 | 2023-11-22 | Ohio State Innovation Foundation | System and method of otoscopy image analysis to diagnose ear pathology |
KR101944536B1 (en) | 2016-12-11 | 2019-02-01 | 주식회사 딥바이오 | System and method for medical diagnosis using neural network |
WO2018140014A1 (en) | 2017-01-25 | 2018-08-02 | Athelas, Inc. | Classifying biological samples using automated image analysis |
US20180211380A1 (en) | 2017-01-25 | 2018-07-26 | Athelas Inc. | Classifying biological samples using automated image analysis |
US10275644B2 (en) | 2017-03-08 | 2019-04-30 | Ricoh Company, Ltd | Automatic classification of eardrum shape |
WO2018198253A1 (en) | 2017-04-26 | 2018-11-01 | オリンパス株式会社 | Image processing device, image capture system, image processing method, and image processing program |
US11445942B2 (en) | 2018-06-01 | 2022-09-20 | Otonexus Medical Technologies, Inc. | Acoustic otoscope |
WO2020028726A1 (en) * | 2018-08-01 | 2020-02-06 | Idx Technologies, Inc. | Autonomous diagnosis of ear diseases from biomarker data |
EP3860425A4 (en) * | 2018-10-03 | 2022-06-22 | OtoNexus Medical Technologies, Inc. | Methods and devices for membrane characterization with ultrasound and optical illumination |
EP4310800A3 (en) * | 2018-12-20 | 2024-03-20 | Optos PLC | Detection of pathologies in ocular images |
CA3127484A1 (en) * | 2019-01-25 | 2020-07-30 | Otonexus Medical Technologies, Inc. | Machine learning for otitis media diagnosis |
AU2020264452A1 (en) * | 2019-04-30 | 2021-11-25 | Otonexus Medical Technologies, Inc. | Systems and methods for simulating a tympanic membrane |
-
2020
- 2020-01-24 CA CA3127484A patent/CA3127484A1/en active Pending
- 2020-01-24 KR KR1020247009024A patent/KR20240043807A/en not_active Application Discontinuation
- 2020-01-24 US US16/752,220 patent/US11361434B2/en active Active
- 2020-01-24 CN CN202080024219.9A patent/CN113632178A/en active Pending
- 2020-01-24 KR KR1020217026907A patent/KR102650078B1/en active IP Right Grant
- 2020-01-24 WO PCT/US2020/015101 patent/WO2020154698A1/en unknown
- 2020-01-24 JP JP2021542432A patent/JP7297904B2/en active Active
- 2020-01-24 AU AU2020213126A patent/AU2020213126A1/en active Pending
- 2020-01-24 EP EP20745599.9A patent/EP3914140A4/en active Pending
-
2022
- 2022-05-06 US US17/738,656 patent/US20220261994A1/en active Pending
-
2023
- 2023-06-14 JP JP2023097662A patent/JP2023123581A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11049011B2 (en) | Neural network classifier | |
Stulp et al. | Many regression algorithms, one unified model: A review | |
Zhang et al. | A novel AdaBoost framework with robust threshold and structural optimization | |
Kag et al. | Rnns incrementally evolving on an equilibrium manifold: A panacea for vanishing and exploding gradients? | |
JPWO2020154698A5 (en) | ||
Ngan et al. | Ellipsoidal decision regions for motif-based patterned fabric defect detection | |
Rudner et al. | Rethinking function-space variational inference in Bayesian neural networks | |
Maass | Deep learning for trivial inverse problems | |
Bishwas et al. | Big data classification with quantum multiclass SVM and quantum one-against-all approach | |
Liu et al. | A modified gradient learning algorithm with smoothing L1/2 regularization for Takagi–Sugeno fuzzy models | |
Money et al. | Random feature approximation for online nonlinear graph topology identification | |
Begum | Advanced modeling based on machine learning for evaluation of drug nanoparticle preparation via green technology: Theoretical assessment of solubility variations | |
Floris et al. | Composite layers for deep anomaly detection on 3D point clouds | |
Xiu et al. | Multiple graph regularized graph transduction via greedy gradient max-cut | |
KR20210026623A (en) | System and method for training artificial intelligence model | |
Wang et al. | Optimal learning for sequential decision making for expensive cost functions with stochastic binary feedbacks | |
Smirnov et al. | Mean-field limits of trained weights in deep learning: A dynamical systems perspective | |
Wang et al. | A structured prediction approach for conditional meta-learning | |
CN114492165A (en) | Parameter optimization method and system based on genetic breeding method | |
Gillis et al. | Grouped sparse projection | |
Jang et al. | Principal weighted least square support vector machine: An online dimension-reduction tool for binary classification | |
Yang et al. | On a theory of nonparametric pairwise similarity for clustering: Connecting clustering to classification | |
Bampis et al. | Robust matrix factorization for collaborative filtering in recommender systems | |
Eide et al. | Sample weighting as an explanation for mode collapse in generative adversarial networks | |
Baruque et al. | WeVoS scale invariant map |