JPWO2021142138A5 - - Google Patents

Download PDF

Info

Publication number
JPWO2021142138A5
JPWO2021142138A5 JP2022541961A JP2022541961A JPWO2021142138A5 JP WO2021142138 A5 JPWO2021142138 A5 JP WO2021142138A5 JP 2022541961 A JP2022541961 A JP 2022541961A JP 2022541961 A JP2022541961 A JP 2022541961A JP WO2021142138 A5 JPWO2021142138 A5 JP WO2021142138A5
Authority
JP
Japan
Prior art keywords
target tissue
tissue region
images
determining
deformation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022541961A
Other languages
Japanese (ja)
Other versions
JP2023509772A (en
Publication date
Application filed filed Critical
Priority claimed from PCT/US2021/012524 external-priority patent/WO2021142138A1/en
Publication of JP2023509772A publication Critical patent/JP2023509772A/en
Publication of JPWO2021142138A5 publication Critical patent/JPWO2021142138A5/ja
Pending legal-status Critical Current

Links

Description

本開示の付加的側面および利点は、本開示の例証的実施形態のみが示され、説明される、以下の詳細な説明から当業者に容易に明白な状態となるであろう。認識されるであろうように、本開示は、他の異なる実施形態が可能であり、そのいくつかの詳細は、全て本開示から逸脱することなく、種々の明白な点において修正が可能である。故に、図面および説明は、制限的ではなく、本質的に例証的と見なされるべきである。
本発明は、例えば、以下を提供する。
(項目1)
標的組織領域上に印加される推定力を決定するためのコンピュータ実装方法であって、前記方法は、
(a)前記標的組織領域の画像のセットを取得することと、
(b)少なくとも前記画像のセットに基づいて、前記標的組織領域の灌流性質、空間測定値のセット、または両方を決定することと、
(c)少なくとも前記空間測定値のセットに基づいて、前記標的組織領域の変形を決定することと、
(d)少なくとも、前記標的組織領域の変形、前記標的組織領域の灌流性質、または両方に基づいて、前記標的組織領域の粘弾性性質を決定することと、
(e)少なくとも前記標的組織領域の粘弾性性質に基づいて、前記標的組織領域上に印加される前記推定力を決定することと
を含む、方法。
(項目2)
前記画像のセットは、レーザスペックル画像、RGB画像、RGB深度画像、またはそれらの任意の組み合わせを含む、前記項目のいずれかに記載の方法。
(項目3)
前記レーザスペックル画像は、主観的レーザスペックル画像、客観的レーザスペックル画像、近接場レーザスペックル画像、またはそれらの任意の組み合わせである、前記項目のいずれかに記載の方法。
(項目4)
前記画像のセットは、前記標的組織領域に2つまたはそれを上回る異なる波長の光を放出する間に取得される、前記項目のいずれかに記載の方法。
(項目5)
前記画像のセットは、前記標的組織領域に約10~約1,000個の異なる波長の光を放出する間に取得される、前記項目のいずれかに記載の方法。
(項目6)
前記標的組織領域の画像のセットおよび前記標的組織領域の空間測定値のセットは、前記標的組織領域が前記変形を受けるにつれて、リアルタイムで同時に取得される、前記項目のいずれかに記載の方法。
(項目7)
前記標的組織領域の画像のセットは、試験管内で取得される、前記項目のいずれかに記載の方法。
(項目8)
前記標的組織領域の画像のセットは、生体内で取得される、前記項目のいずれかに記載の方法。
(項目9)
前記標的組織領域の画像のセットのうちの少なくとも1つは、前記標的組織領域が所定の力による既知の変形を受ける間に取得される、前記項目のいずれかに記載の方法。
(項目10)
前記標的組織領域は、軟質組織領域である、前記項目のいずれかに記載の方法。
(項目11)
前記標的組織領域の機械的性質、粘弾性性質、または両方を決定することが、機械学習アルゴリズムによって実施される、前記項目のいずれかに記載の方法。
(項目12)
前記粘弾性性質は、粘着性性質、弾性性質、流体力学性質、またはそれらの任意の組み合わせを含む、前記項目のいずれかに記載の方法。
(項目13)
深度センサから深度測定値を取得することをさらに含み、前記標的組織領域の変形はさらに、前記深度測定値に基づく、前記項目のいずれかに記載の方法。
(項目14)
前記空間測定値は、1次元、2次元、または3次元である、前記項目のいずれかに記載の方法。
(項目15)
前記深度センサは、立体カメラ、ビデオカメラ、飛行時間センサ、またはそれらの任意の組み合わせを含む、前記項目のいずれかに記載の方法。
(項目16)
前記標的組織領域の変形は、1次元変形、2次元変形、3次元変形、またはそれらの任意の組み合わせを含む、前記項目のいずれかに記載の方法。
(項目17)
前記標的組織領域に印加される前記推定力を決定することが、機械学習アルゴリズムによって実施される、前記項目のいずれかに記載の方法。
(項目18)
前記力は、人間オペレータによって印加され、前記方法はさらに、前記標的組織領域上に印加される前記決定された推定力に基づいて、前記オペレータにフィードバックを提供することを含む、前記項目のいずれかに記載の方法。
(項目19)
前記フィードバックは、視覚フィードバック、聴覚フィードバック、触覚フィードバック、またはそれらの任意の組み合わせを含む、前記項目のいずれかに記載の方法。
(項目20)
前記視覚フィードバックは、前記推定力に対応する色分けされた視覚フィードバック、表示された値、マップ、またはそれらの任意の組み合わせを含む、前記項目のいずれかに記載の方法。
(項目21)
前記推定力と前記フィードバックとの間の関係は、線形、非線形、または指数関数的である、前記項目のいずれかに記載の方法。
(項目22)
前記力は、自律型デバイスまたは半自律型デバイスによって印加され、前記方法はさらに、前記変形された組織によって印加された前記力に基づいて、前記自律型デバイスまたは半自律型デバイスに制御フィードバックを提供することを含む、前記項目のいずれかに記載の方法。
(項目23)
前記自律型デバイスまたは半自律型デバイスは、前記制御フィードバックに基づいてその治療を改変する、前記項目のいずれかに記載の方法。
(項目24)
少なくとも、(i)前記画像のセット、(ii)前記空間測定値、(iii)前記標的組織領域の粘弾性性質、(iv)前記標的組織領域の変形、またはそれらの任意の組み合わせに基づいて、前記標的組織内の流体流率を決定することをさらに含む、前記項目のいずれかに記載の方法。
(項目25)
前記流体は、血液、汗、精液、唾液、膿、尿、空気、粘液、母乳、胆汁、ホルモン、またはそれらの任意の組み合わせである、前記項目のいずれかに記載の方法。
(項目26)
前記標的組織内の前記流体流率は、機械学習アルゴリズムによって決定される、前記項目のいずれかに記載の方法。
(項目27)
前記流体流率は、機械学習アルゴリズムによって決定される、前記項目のいずれかに記載の方法。
(項目28)
少なくとも、(i)前記画像のセット、(ii)前記空間測定値、(iii)前記標的組織領域の粘弾性性質、(iv)前記標的組織領域の変形、またはそれらの任意の組み合わせに基づいて、前記標的組織の識別を決定することをさらに含む、前記項目のいずれかに記載の方法。
(項目29)
前記標的組織の識別は、機械学習アルゴリズムによって決定される、前記項目のいずれかに記載の方法。
(項目30)
前記標的組織の識別は、前記標的組織が癌性、良性、悪性、または健康であることの識別である、前記項目のいずれかに記載の方法。
(項目31)
コンピュータ実装システムであって、前記コンピュータ実装システムは、デジタル処理デバイスを備え、前記デジタル処理デバイスは、少なくとも1つのプロセッサと、実行可能命令を実施するように構成されるオペレーティングシステムと、メモリと、標的組織領域上に印加された推定力を決定するためのアプリケーションを生成するために、デジタル処理デバイスによって実行可能な命令を含むコンピュータプログラムとを備え、前記アプリケーションは、
(a)前記標的組織領域の画像のセットを取得するモジュールと、
(b)少なくとも前記画像のセットに基づいて、前記標的組織領域の灌流性質、空間測定値のセット、または両方を決定するモジュールと、
(c)少なくとも前記空間測定値のセットに基づいて、前記標的組織領域の変形を決定するモジュールと、
(d)少なくとも、前記標的組織領域の変形、前記標的組織領域の灌流性質、または両方に基づいて、前記標的組織領域の粘弾性性質を決定するモジュールと、
(e)少なくとも前記標的組織領域の粘弾性性質に基づいて、前記標的組織領域上に印加される前記推定力を決定するモジュールと
を備える、コンピュータ実装システム。
(項目32)
前記画像のセットは、レーザスペックル画像、RGB画像、RGB深度画像、またはそれらの任意の組み合わせを含む、前記項目のいずれかに記載のシステム。
(項目33)
前記レーザスペックル画像は、主観的レーザスペックル画像、客観的レーザスペックル画像、近接場レーザスペックル画像、またはそれらの任意の組み合わせである、前記項目のいずれかに記載のシステム。
(項目34)
前記画像のセットは、前記標的組織領域に2つまたはそれを上回る異なる波長の光を放出する間に取得される、前記項目のいずれかに記載のシステム。
(項目35)
前記画像のセットは、前記標的組織領域に約10~約1,000個の異なる波長の光を放出する間に取得される、前記項目のいずれかに記載のシステム。
(項目36)
前記標的組織領域の画像のセットおよび前記標的組織領域の空間測定値のセットは、前記標的組織領域が前記変形を受けるにつれて、リアルタイムで同時に取得される、前記項目のいずれかに記載のシステム。
(項目37)
前記標的組織領域の画像のセットは、試験管内で取得される、前記項目のいずれかに記載のシステム。
(項目38)
前記標的組織領域の画像のセットは、生体内で取得される、前記項目のいずれかに記載のシステム。
(項目39)
前記標的組織領域の画像のセットのうちの少なくとも1つは、前記標的組織領域が所定の力による既知の変形を受ける間に取得される、前記項目のいずれかに記載のシステム。
(項目40)
前記標的組織領域は、軟質組織領域である、前記項目のいずれかに記載のシステム。
(項目41)
前記標的組織領域の機械的性質、粘弾性性質、または両方を決定することが、機械学習アルゴリズムによって実施される、前記項目のいずれかに記載のシステム。
(項目42)
前記粘弾性性質は、粘着性性質、弾性性質、流体力学性質、またはそれらの任意の組み合わせを含む、前記項目のいずれかに記載のシステム。
(項目43)
前記アプリケーションはさらに、深度センサから深度測定値を取得するモジュールを備え、前記標的組織領域の変形はさらに、前記深度測定値に基づく、前記項目のいずれかに記載のシステム。
(項目44)
前記空間測定値は、1次元、2次元、または3次元である、前記項目のいずれかに記載のシステム。
(項目45)
前記深度センサは、立体カメラ、ビデオカメラ、飛行時間センサ、またはそれらの任意の組み合わせを含む、前記項目のいずれかに記載のシステム。
(項目46)
前記標的組織領域の変形は、1次元変形、2次元変形、3次元変形、またはそれらの任意の組み合わせを含む、前記項目のいずれかに記載のシステム。
(項目47)
前記標的組織領域に印加される前記推定力を決定することが、機械学習アルゴリズムによって実施される、前記項目のいずれかに記載のシステム。
(項目48)
前記力は、人間オペレータによって印加され、前記アプリケーションはさらに、前記標的組織領域上に印加される前記決定された推定力に基づいて、前記オペレータにフィードバックを提供するモジュールを備える、前記項目のいずれかに記載のシステム。
(項目49)
前記フィードバックは、視覚フィードバック、聴覚フィードバック、触覚フィードバック、またはそれらの任意の組み合わせを含む、前記項目のいずれかに記載のシステム。
(項目50)
前記視覚フィードバックは、前記推定力に対応する色分けされた視覚フィードバック、表示された値、マップ、またはそれらの任意の組み合わせを含む、前記項目のいずれかに記載のシステム。
(項目51)
前記推定力と前記フィードバックとの間の関係は、線形、非線形、または指数関数的である、前記項目のいずれかに記載のシステム。
(項目52)
前記力は、自律型デバイスまたは半自律型デバイスによって印加され、前記アプリケーションはさらに、前記変形された組織によって印加された前記力に基づいて、前記自律型デバイスまたは半自律型デバイスに制御フィードバックを提供するモジュールを備える、前記項目のいずれかに記載のシステム。
(項目53)
前記自律型デバイスまたは半自律型デバイスは、前記制御フィードバックに基づいてその治療を改変する、前記項目のいずれかに記載のシステム。
(項目54)
前記アプリケーションはさらに、少なくとも、(i)前記画像のセット、(ii)前記空間測定値、(iii)前記標的組織領域の粘弾性性質、(iv)前記標的組織領域の変形、またはそれらの任意の組み合わせに基づいて、前記標的組織内の流体流率を決定するモジュールを備える、前記項目のいずれかに記載のシステム。
(項目55)
前記流体は、血液、汗、精液、唾液、膿、尿、空気、粘液、母乳、胆汁、ホルモン、またはそれらの任意の組み合わせである、前記項目のいずれかに記載のシステム。
(項目56)
前記標的組織内の前記流体流率は、機械学習アルゴリズムによって決定される、前記項目のいずれかに記載のシステム。
(項目57)
前記流体流率は、機械学習アルゴリズムによって決定される、前記項目のいずれかに記載のシステム。
(項目58)
前記アプリケーションはさらに、少なくとも、(i)前記画像のセット、(ii)前記空間測定値、(iii)前記標的組織領域の粘弾性性質、(iv)前記標的組織領域の変形、またはそれらの任意の組み合わせに基づいて、前記標的組織の識別を決定するモジュールを備える、前記項目のいずれかに記載のシステム。
(項目59)
前記標的組織の識別は、機械学習アルゴリズムによって決定される、前記項目のいずれかに記載のシステム。
(項目60)
前記標的組織の識別は、前記標的組織が癌性、良性、悪性、または健康であることの識別である、前記項目のいずれかに記載のシステム。
(項目61)
標的組織領域上に印加された推定力を決定するためのアプリケーションを生成するために、プロセッサによって実行可能な命令を含むコンピュータプログラムを用いてエンコードされる非一過性コンピュータ可読記憶媒体であって、前記アプリケーションは、
(a)前記標的組織領域の画像のセットを取得するモジュールと、
(b)少なくとも前記画像のセットに基づいて、前記標的組織領域の灌流性質、空間測定値のセット、または両方を決定するモジュールと、
(c)少なくとも前記空間測定値のセットに基づいて、前記標的組織領域の変形を決定するモジュールと、
(d)少なくとも、前記標的組織領域の変形、前記標的組織領域の灌流性質、または両方に基づいて、前記標的組織領域の粘弾性性質を決定するモジュールと、
(e)少なくとも前記標的組織領域の粘弾性性質に基づいて、前記標的組織領域上に印加される前記推定力を決定するモジュールと
を備える、非一過性コンピュータ可読記憶媒体。
(項目62)
前記画像のセットは、レーザスペックル画像、RGB画像、RGB深度画像、またはそれらの任意の組み合わせを含む、前記項目のいずれかに記載の媒体。
(項目63)
前記レーザスペックル画像は、主観的レーザスペックル画像、客観的レーザスペックル画像、近接場レーザスペックル画像、またはそれらの任意の組み合わせである、前記項目のいずれかに記載の媒体。
(項目64)
前記画像のセットは、前記標的組織領域に2つまたはそれを上回る異なる波長の光を放出する間に取得される、前記項目のいずれかに記載の媒体。
(項目65)
前記画像のセットは、前記標的組織領域に約10~約1,000個の異なる波長の光を放出する間に取得される、前記項目のいずれかに記載の媒体。
(項目66)
前記標的組織領域の画像のセットおよび前記標的組織領域の空間測定値のセットは、前記標的組織領域が前記変形を受けるにつれて、リアルタイムで同時に取得される、前記項目のいずれかに記載の媒体。
(項目67)
前記標的組織領域の画像のセットは、試験管内で取得される、前記項目のいずれかに記載の媒体。
(項目68)
前記標的組織領域の画像のセットは、生体内で取得される、前記項目のいずれかに記載の媒体。
(項目69)
前記標的組織領域の画像のセットのうちの少なくとも1つは、前記標的組織領域が所定の力による既知の変形を受ける間に取得される、前記項目のいずれかに記載の媒体。
(項目70)
前記標的組織領域は、軟質組織領域である、前記項目のいずれかに記載の媒体。
(項目71)
前記標的組織領域の機械的性質、粘弾性性質、または両方を決定することが、機械学習アルゴリズムによって実施される、前記項目のいずれかに記載の媒体。
(項目72)
前記粘弾性性質は、粘着性性質、弾性性質、流体力学性質、またはそれらの任意の組み合わせを含む、前記項目のいずれかに記載の媒体。
(項目73)
前記アプリケーションはさらに、深度センサから深度測定値を取得するモジュールを備え、前記標的組織領域の変形はさらに、前記深度測定値に基づく、前記項目のいずれかに記載の媒体。
(項目74)
前記空間測定値は、1次元、2次元、または3次元である、前記項目のいずれかに記載の媒体。
(項目75)
前記深度センサは、立体カメラ、ビデオカメラ、飛行時間センサ、またはそれらの任意の組み合わせを含む、前記項目のいずれかに記載の媒体。
(項目76)
前記標的組織領域の変形は、1次元変形、2次元変形、3次元変形、またはそれらの任意の組み合わせを含む、前記項目のいずれかに記載の媒体。
(項目77)
前記標的組織領域に印加される前記推定力を決定することが、機械学習アルゴリズムによって実施される、前記項目のいずれかに記載の媒体。
(項目78)
前記力は、人間オペレータによって印加され、前記アプリケーションはさらに、前記標的組織領域上に印加される前記決定された推定力に基づいて、前記オペレータにフィードバックを提供するモジュールを備える、前記項目のいずれかに記載の媒体。
(項目79)
前記フィードバックは、視覚フィードバック、聴覚フィードバック、触覚フィードバック、またはそれらの任意の組み合わせを含む、前記項目のいずれかに記載の媒体。
(項目80)
前記視覚フィードバックは、前記推定力に対応する色分けされた視覚フィードバック、表示された値、マップ、またはそれらの任意の組み合わせを含む、前記項目のいずれかに記載の媒体。
(項目81)
前記推定力と前記フィードバックとの間の関係は、線形、非線形、または指数関数的である、前記項目のいずれかに記載の媒体。
(項目82)
前記力は、自律型デバイスまたは半自律型デバイスによって印加され、前記アプリケーションはさらに、前記変形された組織によって印加された前記力に基づいて、前記自律型デバイスまたは半自律型デバイスに制御フィードバックを提供するモジュールを備える、前記項目のいずれかに記載の媒体。
(項目83)
前記自律型デバイスまたは半自律型デバイスは、前記制御フィードバックに基づいてその治療を改変する、前記項目のいずれかに記載の媒体。
(項目84)
前記アプリケーションはさらに、少なくとも、(i)前記画像のセット、(ii)前記空間測定値、(iii)前記標的組織領域の粘弾性性質、(iv)前記標的組織領域の変形、またはそれらの任意の組み合わせに基づいて、前記標的組織内の流体流率を決定するモジュールを備える、前記項目のいずれかに記載の媒体。
(項目85)
前記流体は、血液、汗、精液、唾液、膿、尿、空気、粘液、母乳、胆汁、ホルモン、またはそれらの任意の組み合わせである、前記項目のいずれかに記載の媒体。
(項目86)
前記標的組織内の前記流体流率は、機械学習アルゴリズムによって決定される、前記項目のいずれかに記載の媒体。
(項目87)
前記流体流率は、機械学習アルゴリズムによって決定される、前記項目のいずれかに記載の媒体。
(項目88)
前記アプリケーションはさらに、少なくとも、(i)前記画像のセット、(ii)前記空間測定値、(iii)前記標的組織領域の粘弾性性質、(iv)前記標的組織領域の変形、またはそれらの任意の組み合わせに基づいて、前記標的組織の識別を決定するモジュールを備える、前記項目のいずれかに記載の媒体。
(項目89)
前記標的組織の識別は、機械学習アルゴリズムによって決定される、前記項目のいずれかに記載の媒体。
(項目90)
前記標的組織の識別は、前記標的組織が癌性、良性、悪性、または健康であることの識別である、前記項目のいずれかに記載の方法。
(項目91)
標的組織領域の弾性性質を決定するようにニューラルネットワークを訓練するためのコンピュータ実装方法であって、前記方法は、
(a)画像のセットの複数のセットを含む第1の訓練セットを発生させることであって、画像の各セットは、静置状態の前記標的組織領域の第1のスペックル画像と、既知の力によって変形されている前記標的組織領域の第2のスペックル画像とを含む、ことと、
(b)第1の段階において、前記第1の訓練セットを使用して前記ニューラルネットワークを訓練することと、
(c)前記第1の訓練セットと、前記訓練の第1の段階の後にその弾性性質値が不正確に決定された前記画像のセットのセットとを含む第2の訓練セットを発生させることと、
(d)第2の段階において、前記第2の訓練セットを使用して前記ニューラルネットワークを訓練することと
を含む、コンピュータ実装方法。
(項目92)
前記画像のセットは、主観的な画像のセット、客観的な画像のセット、近接場の画像のセット、またはそれらの任意の組み合わせを含む、前記項目のいずれかに記載の方法。
(項目93)
前記画像のセットは、前記標的組織領域に少なくとも10個の異なる波長の光を放出する間に取得される、前記項目のいずれかに記載の方法。
(項目94)
前記画像のセットは、前記標的組織領域に約10~約1,000個の異なる波長の光を放出する間に取得される、前記項目のいずれかに記載の方法。
(項目95)
前記粘弾性性質は、粘着性性質、弾性性質、流体力学性質、またはそれらの任意の組み合わせを含む、前記項目のいずれかに記載の方法。
(項目96)
前記空間測定値は、1次元、2次元、または3次元である、前記項目のいずれかに記載の方法。
(項目97)
組織変形を追跡する方法であって、
(a)スカラーオプティカルフロー読取値を取得することであって、前記スカラーオプティカルフロー読取値は、1つまたはそれを上回るレーザスペックル信号に対応する、ことと、
(b)前記スカラーオプティカルフロー読取値を使用し、組織領域に関するピクセル毎の運動規模推定値を決定することと、
(c)時間および空間にわたる前記ピクセル毎の運動規模推定値を積分し、前記組織領域の変形を追跡することであって、前記1つまたはそれを上回るレーザスペックル信号は、前記組織領域の変形と関連付けられる、ことと
を含む、方法。
(項目98)
(i)前記ピクセル毎の運動推定値と(ii)前記組織領域の深度またはRGB-Dデータを組み合わせ、ピクセル毎の変位マップを発生させることをさらに含む、項目97に記載の方法。
(項目99)
前記ピクセル毎の運動規模推定値は、無方向運動推定値を含む、項目97に記載の方法。
(参照による組み込み)
Additional aspects and advantages of the present disclosure will become readily apparent to those skilled in the art from the following detailed description, in which only illustrative embodiments of the present disclosure are shown and described. As will be appreciated, this disclosure is capable of other different embodiments and its several details may be modified in various obvious respects, all without departing from this disclosure. . Accordingly, the drawings and description are to be regarded as illustrative in nature rather than restrictive.
The present invention provides, for example, the following.
(Item 1)
A computer-implemented method for determining an estimated force to be applied on a target tissue region, the method comprising:
(a) obtaining a set of images of the target tissue region;
(b) determining perfusion properties, a set of spatial measurements, or both of the target tissue region based on at least the set of images;
(c) determining a deformation of the target tissue region based at least on the set of spatial measurements;
(d) determining viscoelastic properties of the target tissue region based at least on deformation of the target tissue region, perfusion properties of the target tissue region, or both;
(e) determining the estimated force to be applied on the target tissue region based at least on viscoelastic properties of the target tissue region;
including methods.
(Item 2)
A method according to any of the preceding items, wherein the set of images includes laser speckle images, RGB images, RGB depth images, or any combination thereof.
(Item 3)
The method of any of the preceding items, wherein the laser speckle image is a subjective laser speckle image, an objective laser speckle image, a near-field laser speckle image, or any combination thereof.
(Item 4)
A method according to any of the preceding items, wherein the set of images is acquired while emitting two or more different wavelengths of light at the target tissue region.
(Item 5)
A method according to any of the preceding items, wherein the set of images is acquired while emitting from about 10 to about 1,000 different wavelengths of light at the target tissue region.
(Item 6)
A method according to any of the preceding items, wherein the set of images of the target tissue region and the set of spatial measurements of the target tissue region are acquired simultaneously in real time as the target tissue region undergoes the deformation.
(Item 7)
A method according to any of the preceding items, wherein the set of images of the target tissue region are acquired in vitro.
(Item 8)
A method according to any of the preceding items, wherein the set of images of the target tissue region are acquired in vivo.
(Item 9)
A method according to any of the preceding items, wherein at least one of the set of images of the target tissue region is acquired while the target tissue region is subjected to a known deformation by a predetermined force.
(Item 10)
A method according to any of the preceding items, wherein the target tissue region is a soft tissue region.
(Item 11)
A method according to any of the preceding items, wherein determining mechanical properties, viscoelastic properties, or both of the target tissue region is performed by a machine learning algorithm.
(Item 12)
A method according to any of the preceding items, wherein the viscoelastic properties include adhesive properties, elastic properties, hydrodynamic properties, or any combination thereof.
(Item 13)
12. A method according to any of the preceding items, further comprising obtaining depth measurements from a depth sensor, and wherein the deformation of the target tissue region is further based on the depth measurements.
(Item 14)
A method according to any of the preceding items, wherein the spatial measurements are one-dimensional, two-dimensional, or three-dimensional.
(Item 15)
A method according to any of the preceding items, wherein the depth sensor comprises a stereoscopic camera, a video camera, a time-of-flight sensor, or any combination thereof.
(Item 16)
A method according to any of the preceding items, wherein deforming the target tissue region includes one-dimensional deformation, two-dimensional deformation, three-dimensional deformation, or any combination thereof.
(Item 17)
A method according to any of the preceding items, wherein determining the estimated force applied to the target tissue region is performed by a machine learning algorithm.
(Item 18)
Any of the preceding items, wherein the force is applied by a human operator, and the method further comprises providing feedback to the operator based on the determined estimated force applied on the target tissue area. The method described in.
(Item 19)
A method according to any of the preceding items, wherein the feedback includes visual feedback, auditory feedback, haptic feedback, or any combination thereof.
(Item 20)
A method according to any of the preceding items, wherein the visual feedback includes color-coded visual feedback corresponding to the estimated force, a displayed value, a map, or any combination thereof.
(Item 21)
A method according to any of the preceding items, wherein the relationship between the estimating force and the feedback is linear, nonlinear, or exponential.
(Item 22)
The force is applied by an autonomous or semi-autonomous device, and the method further provides control feedback to the autonomous or semi-autonomous device based on the force applied by the deformed tissue. A method according to any of the preceding items, comprising:
(Item 23)
A method according to any of the preceding items, wherein the autonomous or semi-autonomous device modifies its treatment based on the control feedback.
(Item 24)
at least based on (i) said set of images, (ii) said spatial measurements, (iii) viscoelastic properties of said target tissue region, (iv) deformation of said target tissue region, or any combination thereof; A method according to any of the preceding items, further comprising determining a fluid flow rate within the target tissue.
(Item 25)
A method according to any of the preceding items, wherein the fluid is blood, sweat, semen, saliva, pus, urine, air, mucus, breast milk, bile, hormones, or any combination thereof.
(Item 26)
A method according to any of the preceding items, wherein the fluid flow rate within the target tissue is determined by a machine learning algorithm.
(Item 27)
A method according to any of the preceding items, wherein the fluid flow rate is determined by a machine learning algorithm.
(Item 28)
at least based on (i) said set of images, (ii) said spatial measurements, (iii) viscoelastic properties of said target tissue region, (iv) deformation of said target tissue region, or any combination thereof; A method according to any of the preceding items, further comprising determining an identity of the target tissue.
(Item 29)
A method according to any of the preceding items, wherein the identification of the target tissue is determined by a machine learning algorithm.
(Item 30)
The method of any of the preceding items, wherein identifying the target tissue is identifying the target tissue as cancerous, benign, malignant, or healthy.
(Item 31)
A computer-implemented system, the computer-implemented system comprising a digital processing device, the digital processing device comprising at least one processor, an operating system configured to execute executable instructions, a memory, and a target computer. a computer program comprising instructions executable by a digital processing device to generate an application for determining an estimated force applied on a tissue region, the application comprising:
(a) a module for acquiring a set of images of the target tissue region;
(b) a module for determining perfusion properties, a set of spatial measurements, or both of the target tissue region based at least on the set of images;
(c) a module for determining a deformation of the target tissue region based at least on the set of spatial measurements;
(d) a module for determining viscoelastic properties of the target tissue region based at least on deformation of the target tissue region, perfusion properties of the target tissue region, or both;
(e) a module for determining the estimated force to be applied on the target tissue region based at least on viscoelastic properties of the target tissue region;
A computer-implemented system comprising:
(Item 32)
A system according to any of the preceding items, wherein the set of images includes laser speckle images, RGB images, RGB depth images, or any combination thereof.
(Item 33)
The system of any of the preceding items, wherein the laser speckle image is a subjective laser speckle image, an objective laser speckle image, a near-field laser speckle image, or any combination thereof.
(Item 34)
The system of any of the preceding items, wherein the set of images is acquired while emitting two or more different wavelengths of light at the target tissue area.
(Item 35)
The system of any of the preceding items, wherein the set of images is acquired while emitting from about 10 to about 1,000 different wavelengths of light at the target tissue region.
(Item 36)
A system according to any of the preceding items, wherein the set of images of the target tissue region and the set of spatial measurements of the target tissue region are acquired simultaneously in real time as the target tissue region undergoes the deformation.
(Item 37)
A system according to any of the preceding items, wherein the set of images of the target tissue region are acquired in vitro.
(Item 38)
A system according to any of the preceding items, wherein the set of images of the target tissue region are acquired in vivo.
(Item 39)
A system according to any of the preceding items, wherein at least one of the set of images of the target tissue region is acquired while the target tissue region is subjected to a known deformation by a predetermined force.
(Item 40)
A system according to any of the preceding items, wherein the target tissue region is a soft tissue region.
(Item 41)
The system of any of the preceding items, wherein determining mechanical properties, viscoelastic properties, or both of the target tissue region is performed by a machine learning algorithm.
(Item 42)
A system according to any of the preceding items, wherein the viscoelastic properties include cohesive properties, elastic properties, hydrodynamic properties, or any combination thereof.
(Item 43)
A system according to any of the preceding items, wherein the application further comprises a module for obtaining depth measurements from a depth sensor, and wherein the deformation of the target tissue region is further based on the depth measurements.
(Item 44)
A system according to any of the preceding items, wherein the spatial measurements are one-dimensional, two-dimensional, or three-dimensional.
(Item 45)
A system according to any of the preceding items, wherein the depth sensor includes a stereoscopic camera, a video camera, a time-of-flight sensor, or any combination thereof.
(Item 46)
The system of any of the preceding items, wherein the deformation of the target tissue region includes one-dimensional deformation, two-dimensional deformation, three-dimensional deformation, or any combination thereof.
(Item 47)
A system according to any of the preceding items, wherein determining the estimated force applied to the target tissue region is performed by a machine learning algorithm.
(Item 48)
Any of the preceding items, wherein the force is applied by a human operator, and the application further comprises a module for providing feedback to the operator based on the determined estimated force applied on the target tissue area. system described in.
(Item 49)
A system according to any of the preceding items, wherein the feedback includes visual feedback, auditory feedback, haptic feedback, or any combination thereof.
(Item 50)
A system according to any of the preceding items, wherein the visual feedback includes color-coded visual feedback corresponding to the estimated force, a displayed value, a map, or any combination thereof.
(Item 51)
A system according to any of the preceding items, wherein the relationship between the estimated force and the feedback is linear, nonlinear, or exponential.
(Item 52)
The force is applied by an autonomous or semi-autonomous device, and the application further provides control feedback to the autonomous or semi-autonomous device based on the force applied by the deformed tissue. A system according to any of the preceding items, comprising a module for.
(Item 53)
A system according to any of the preceding items, wherein the autonomous or semi-autonomous device modifies its treatment based on the control feedback.
(Item 54)
The application further includes at least: (i) the set of images, (ii) the spatial measurements, (iii) viscoelastic properties of the target tissue region, (iv) deformation of the target tissue region, or any of the foregoing. A system according to any of the preceding items, comprising a module that determines a fluid flow rate within the target tissue based on the combination.
(Item 55)
The system of any of the preceding items, wherein the fluid is blood, sweat, semen, saliva, pus, urine, air, mucus, breast milk, bile, hormones, or any combination thereof.
(Item 56)
A system according to any of the preceding items, wherein the fluid flow rate within the target tissue is determined by a machine learning algorithm.
(Item 57)
A system according to any of the preceding items, wherein the fluid flow rate is determined by a machine learning algorithm.
(Item 58)
The application further includes at least: (i) the set of images, (ii) the spatial measurements, (iii) viscoelastic properties of the target tissue region, (iv) deformation of the target tissue region, or any of the foregoing. A system according to any of the preceding items, comprising a module that determines the identity of the target tissue based on the combination.
(Item 59)
A system according to any of the preceding items, wherein the identification of the target tissue is determined by a machine learning algorithm.
(Item 60)
The system according to any of the preceding items, wherein the identification of the target tissue is an identification of the target tissue as cancerous, benign, malignant, or healthy.
(Item 61)
A non-transitory computer-readable storage medium encoded with a computer program containing instructions executable by a processor to generate an application for determining an estimated force applied on a target tissue region, comprising: The application is
(a) a module for acquiring a set of images of the target tissue region;
(b) a module for determining perfusion properties, a set of spatial measurements, or both of the target tissue region based at least on the set of images;
(c) a module for determining a deformation of the target tissue region based at least on the set of spatial measurements;
(d) a module for determining viscoelastic properties of the target tissue region based at least on deformation of the target tissue region, perfusion properties of the target tissue region, or both;
(e) a module for determining the estimated force to be applied on the target tissue region based at least on viscoelastic properties of the target tissue region;
A non-transitory computer-readable storage medium comprising:
(Item 62)
The medium of any preceding item, wherein the set of images includes a laser speckle image, an RGB image, an RGB depth image, or any combination thereof.
(Item 63)
The medium of any of the preceding items, wherein the laser speckle image is a subjective laser speckle image, an objective laser speckle image, a near-field laser speckle image, or any combination thereof.
(Item 64)
The medium of any of the preceding items, wherein the set of images is acquired while emitting two or more different wavelengths of light at the target tissue area.
(Item 65)
The medium of any of the preceding items, wherein the set of images is acquired while emitting from about 10 to about 1,000 different wavelengths of light at the target tissue region.
(Item 66)
The medium of any of the preceding items, wherein the set of images of the target tissue region and the set of spatial measurements of the target tissue region are acquired simultaneously in real time as the target tissue region undergoes the deformation.
(Item 67)
The medium of any of the preceding items, wherein the set of images of the target tissue region are acquired in vitro.
(Item 68)
The medium of any of the preceding items, wherein the set of images of the target tissue region is acquired in vivo.
(Item 69)
The medium of any of the preceding items, wherein at least one of the set of images of the target tissue region is acquired while the target tissue region is subjected to a known deformation by a predetermined force.
(Item 70)
The medium of any of the preceding items, wherein the target tissue region is a soft tissue region.
(Item 71)
The medium of any of the preceding items, wherein determining mechanical properties, viscoelastic properties, or both of the target tissue region is performed by a machine learning algorithm.
(Item 72)
A medium according to any of the preceding items, wherein the viscoelastic properties include adhesive properties, elastic properties, hydrodynamic properties, or any combination thereof.
(Item 73)
The medium of any preceding item, the application further comprising a module for obtaining depth measurements from a depth sensor, and wherein the deformation of the target tissue region is further based on the depth measurements.
(Item 74)
The medium according to any of the preceding items, wherein the spatial measurements are one-dimensional, two-dimensional, or three-dimensional.
(Item 75)
A medium according to any of the preceding items, wherein the depth sensor includes a stereoscopic camera, a video camera, a time-of-flight sensor, or any combination thereof.
(Item 76)
The medium of any of the preceding items, wherein the deformation of the target tissue region includes one-dimensional deformation, two-dimensional deformation, three-dimensional deformation, or any combination thereof.
(Item 77)
The medium of any of the preceding items, wherein determining the estimated force to be applied to the target tissue region is performed by a machine learning algorithm.
(Item 78)
Any of the preceding items, wherein the force is applied by a human operator, and the application further comprises a module for providing feedback to the operator based on the determined estimated force applied on the target tissue area. Media described in.
(Item 79)
A medium according to any of the preceding items, wherein the feedback includes visual feedback, auditory feedback, haptic feedback, or any combination thereof.
(Item 80)
The medium of any preceding item, wherein the visual feedback includes color-coded visual feedback corresponding to the estimated force, a displayed value, a map, or any combination thereof.
(Item 81)
The medium of any of the preceding items, wherein the relationship between the estimating force and the feedback is linear, nonlinear, or exponential.
(Item 82)
The force is applied by an autonomous or semi-autonomous device, and the application further provides control feedback to the autonomous or semi-autonomous device based on the force applied by the deformed tissue. A medium according to any of the preceding items, comprising a module for.
(Item 83)
100. The medium of any of the preceding items, wherein the autonomous or semi-autonomous device modifies its treatment based on the control feedback.
(Item 84)
The application further includes at least: (i) the set of images, (ii) the spatial measurements, (iii) viscoelastic properties of the target tissue region, (iv) deformation of the target tissue region, or any of the foregoing. A medium according to any of the preceding items, comprising a module that determines a fluid flow rate in the target tissue based on the combination.
(Item 85)
A medium according to any of the preceding items, wherein the fluid is blood, sweat, semen, saliva, pus, urine, air, mucus, breast milk, bile, hormones, or any combination thereof.
(Item 86)
The medium of any of the preceding items, wherein the fluid flow rate within the target tissue is determined by a machine learning algorithm.
(Item 87)
A medium according to any of the preceding items, wherein the fluid flow rate is determined by a machine learning algorithm.
(Item 88)
The application further includes at least: (i) the set of images, (ii) the spatial measurements, (iii) viscoelastic properties of the target tissue region, (iv) deformation of the target tissue region, or any of the foregoing. A medium according to any of the preceding items, comprising a module that determines the identity of the target tissue based on the combination.
(Item 89)
The medium of any of the preceding items, wherein the identification of the target tissue is determined by a machine learning algorithm.
(Item 90)
The method of any of the preceding items, wherein identifying the target tissue is identifying the target tissue as cancerous, benign, malignant, or healthy.
(Item 91)
A computer-implemented method for training a neural network to determine elastic properties of a target tissue region, the method comprising:
(a) generating a first training set comprising a plurality of sets of images, each set of images comprising a first speckle image of the target tissue region at rest; a second speckle image of the target tissue region being deformed by a force;
(b) in a first step, training the neural network using the first training set;
(c) generating a second training set comprising said first training set and said set of images whose elasticity property values were inaccurately determined after said first stage of training; ,
(d) in a second step, training the neural network using the second training set;
computer-implemented methods, including;
(Item 92)
A method according to any of the preceding items, wherein the set of images comprises a set of subjective images, a set of objective images, a set of near-field images, or any combination thereof.
(Item 93)
A method according to any of the preceding items, wherein the set of images is acquired while emitting at least 10 different wavelengths of light at the target tissue region.
(Item 94)
A method according to any of the preceding items, wherein the set of images is acquired while emitting from about 10 to about 1,000 different wavelengths of light at the target tissue region.
(Item 95)
A method according to any of the preceding items, wherein the viscoelastic properties include adhesive properties, elastic properties, hydrodynamic properties, or any combination thereof.
(Item 96)
A method according to any of the preceding items, wherein the spatial measurements are one-dimensional, two-dimensional, or three-dimensional.
(Item 97)
A method for tracking tissue deformation, the method comprising:
(a) obtaining a scalar optical flow reading, the scalar optical flow reading corresponding to one or more laser speckle signals;
(b) using the scalar optical flow readings to determine a pixel-by-pixel motion magnitude estimate for the tissue region;
(c) integrating the pixel-by-pixel motion magnitude estimates over time and space to track deformation of the tissue region, wherein the one or more laser speckle signals are configured to detect deformation of the tissue region; associated with
including methods.
(Item 98)
98. The method of item 97, further comprising combining (i) the pixel-by-pixel motion estimate and (ii) depth or RGB-D data of the tissue region to generate a pixel-by-pixel displacement map.
(Item 99)
98. The method of item 97, wherein the pixel-by-pixel motion magnitude estimates include non-directional motion estimates.
(Inclusion by reference)

Claims (31)

標的組織領域上に印加される推定力を決定するためのコンピュータ実装方法であって、前記方法は、
(a)前記標的組織領域の画像のセットを取得することと、
(b)記画像のセットに少なくとも基づいて、前記標的組織領域の灌流性質、空間測定値のセット、または両方を決定することと、
(c)記空間測定値のセットに少なくとも基づいて、前記標的組織領域の変形を決定することと、
(d)記標的組織領域の変形、前記標的組織領域の灌流性質、または両方に少なくとも基づいて、前記標的組織領域の粘弾性性質を決定することと、
(e)記標的組織領域の粘弾性性質に少なくとも基づいて、前記標的組織領域上に印加される前記推定力を決定することと
を含む、方法。
A computer-implemented method for determining an estimated force to be applied on a target tissue region, the method comprising:
(a) obtaining a set of images of the target tissue region;
(b) determining perfusion properties, a set of spatial measurements, or both of the target tissue region based at least on the set of images;
(c) determining a deformation of the target tissue region based at least on the set of spatial measurements;
(d) determining viscoelastic properties of the target tissue region based at least on deformation of the target tissue region, perfusion properties of the target tissue region, or both;
(e) determining the estimated force to be applied on the target tissue region based at least on viscoelastic properties of the target tissue region.
前記画像のセットは、レーザスペックル画像、RGB画像、RGB深度画像、またはそれらの任意の組み合わせを含む、請求項1に記載の方法。 2. The method of claim 1 , wherein the set of images includes laser speckle images, RGB images, RGB depth images, or any combination thereof. 前記レーザスペックル画像は、主観的レーザスペックル画像、客観的レーザスペックル画像、近接場レーザスペックル画像、またはそれらの任意の組み合わせである、請求項2に記載の方法。 3. The method of claim 2 , wherein the laser speckle image is a subjective laser speckle image, an objective laser speckle image, a near-field laser speckle image, or any combination thereof. 前記画像のセットは、前記標的組織領域に2つまたはそれを上回る異なる波長の光を放出する間に取得される請求項1~3のいずれか1項に記載の方法。 A method according to any one of claims 1 to 3 , wherein the set of images is acquired while emitting two or more different wavelengths of light onto the target tissue area. 前記画像のセットは、前記標的組織領域に約10~約1,000個の異なる波長の光を放出する間に取得される請求項1~4のいずれか1項に記載の方法。 5. The method of any one of claims 1-4 , wherein the set of images is acquired while emitting from about 10 to about 1,000 different wavelengths of light at the target tissue region. 前記標的組織領域の画像のセットおよび前記標的組織領域の空間測定値のセットは、前記標的組織領域が前記変形を受けるにつれて、リアルタイムで同時に取得される請求項1~5のいずれか1項に記載の方法。 6. A set of images of the target tissue region and a set of spatial measurements of the target tissue region are acquired simultaneously in real time as the target tissue region undergoes the deformation. Method described. 前記標的組織領域の画像のセットは、試験管内で取得される請求項1~6のいずれか1項に記載の方法。 A method according to any one of claims 1 to 6 , wherein the set of images of the target tissue region is acquired in vitro. 前記標的組織領域の画像のセットは、生体内で取得される請求項1~7のいずれか1項に記載の方法。 8. A method according to any preceding claim, wherein the set of images of the target tissue region are acquired in vivo. 前記標的組織領域の画像のセットのうちの少なくとも1つは、前記標的組織領域が所定の力による既知の変形を受ける間に取得される請求項1~8のいずれか1項に記載の方法。 A method according to any preceding claim , wherein at least one of the set of images of the target tissue region is acquired while the target tissue region is subjected to a known deformation by a predetermined force. . 前記標的組織領域は、軟質組織領域である請求項1~9のいずれか1項に記載の方法。 A method according to any preceding claim , wherein the target tissue area is a soft tissue area. 前記標的組織領域の機械的性質、粘弾性性質、または両方を決定することが、機械学習アルゴリズムによって実施される請求項1~10のいずれか1項に記載の方法。 11. The method of any one of claims 1 to 10 , wherein determining mechanical properties, viscoelastic properties, or both of the target tissue region is performed by a machine learning algorithm. 前記粘弾性性質は、粘着性性質、弾性性質、流体力学性質、またはそれらの任意の組み合わせを含む請求項1~11のいずれか1項に記載の方法。 12. A method according to any preceding claim , wherein the viscoelastic properties include cohesive properties, elastic properties, hydrodynamic properties, or any combination thereof. 深度センサから深度測定値を取得することをさらに含み、前記標的組織領域の変形は前記深度測定値にさらに基づく請求項1~12のいずれか1項に記載の方法。 13. The method of any one of claims 1-12 , further comprising obtaining depth measurements from a depth sensor , and wherein the deformation of the target tissue region is further based on the depth measurements. 前記空間測定値は、1次元、2次元、または3次元である請求項1~13のいずれか1項に記載の方法。 A method according to any preceding claim , wherein the spatial measurements are one-dimensional, two-dimensional or three- dimensional. 前記深度センサは、立体カメラ、ビデオカメラ、飛行時間センサ、またはそれらの任意の組み合わせを含む請求項1~14のいずれか1項に記載の方法。 A method according to any preceding claim , wherein the depth sensor comprises a stereoscopic camera, a video camera, a time- of -flight sensor, or any combination thereof. 前記標的組織領域の変形は、1次元変形、2次元変形、3次元変形、またはそれらの任意の組み合わせを含む請求項1~15のいずれか1項に記載の方法。 16. The method of any one of claims 1-15 , wherein deforming the target tissue region comprises one-dimensional deformation, two-dimensional deformation, three-dimensional deformation, or any combination thereof. 前記標的組織領域に印加される前記推定力を決定することが、機械学習アルゴリズムによって実施される請求項1~16のいずれか1項に記載の方法。 17. A method according to any preceding claim, wherein determining the estimated force to be applied to the target tissue region is performed by a machine learning algorithm. 前記力は、人間オペレータによって印加され、前記方法は前記標的組織領域上に印加される前記決定された推定力に基づいて、前記オペレータにフィードバックを提供することをさらに含む請求項1~17のいずれか1項に記載の方法。 18. The force is applied by a human operator , and the method further comprises providing feedback to the operator based on the determined estimated force applied on the target tissue area . The method according to any one of the above. 前記フィードバックは、視覚フィードバック、聴覚フィードバック、触覚フィードバック、またはそれらの任意の組み合わせを含む請求項18に記載の方法。 19. The method of claim 18 , wherein the feedback includes visual feedback, auditory feedback, haptic feedback, or any combination thereof. 前記視覚フィードバックは、前記推定力に対応する色分けされた視覚フィードバック、表示された値、マップ、またはそれらの任意の組み合わせを含む請求項19に記載の方法。 20. The method of claim 19 , wherein the visual feedback includes color-coded visual feedback corresponding to the estimated force, a displayed value, a map, or any combination thereof. 前記推定力と前記フィードバックとの間の関係は、線形、非線形、または指数関数的である請求項18~20のいずれか1項に記載の方法。 A method according to any one of claims 18 to 20 , wherein the relationship between the estimated force and the feedback is linear, non-linear or exponential. 前記力は、自律型デバイスまたは半自律型デバイスによって印加され、前記方法は前記変形された組織によって印加された前記力に基づいて、前記自律型デバイスまたは半自律型デバイスに制御フィードバックを提供することをさらに含む請求項1~21のいずれか1項に記載の方法。 The force is applied by an autonomous or semi-autonomous device , and the method provides control feedback to the autonomous or semi-autonomous device based on the force applied by the deformed tissue. 22. The method according to any one of claims 1 to 21 , further comprising: i)前記画像のセット、(ii)前記空間測定値、(iii)前記標的組織領域の粘弾性性質、(iv)前記標的組織領域の変形、またはそれらの任意の組み合わせに少なくとも基づいて、前記標的組織内の流体流率を決定することをさらに含む請求項1~22のいずれか1項に記載の方法。 the set of images, ( ii) the spatial measurements, (iii) the viscoelastic properties of the target tissue region, (iv) the deformation of the target tissue region, or any combination thereof; 23. The method of any one of claims 1-22 , further comprising determining fluid flow rate within the target tissue. 前記流体は、血液、汗、精液、唾液、膿、尿、空気、粘液、母乳、胆汁、ホルモン、またはそれらの任意の組み合わせである請求項1~23のいずれか1項に記載の方法。 24. A method according to any preceding claim , wherein the fluid is blood, sweat, semen, saliva, pus, urine, air, mucus, breast milk, bile, hormones, or any combination thereof. 前記標的組織内の前記流体流率は、機械学習アルゴリズムによって決定される請求項1~24のいずれか1項に記載の方法。 25. A method according to any preceding claim , wherein the fluid flow rate within the target tissue is determined by a machine learning algorithm. 前記流体流率は、機械学習アルゴリズムによって決定される請求項1~25のいずれか1項に記載の方法。 26. A method according to any preceding claim , wherein the fluid flow rate is determined by a machine learning algorithm. i)前記画像のセット、(ii)前記空間測定値、(iii)前記標的組織領域の粘弾性性質、(iv)前記標的組織領域の変形、またはそれらの任意の組み合わせに少なくとも基づいて、前記標的組織の識別を決定することをさらに含む請求項1~26のいずれか1項に記載の方法。 the set of images, ( ii) the spatial measurements, (iii) the viscoelastic properties of the target tissue region, (iv) the deformation of the target tissue region, or any combination thereof; 27. The method of any one of claims 1-26 , further comprising determining the identity of the target tissue. 前記標的組織の識別は、機械学習アルゴリズムによって決定される請求項27に記載の方法。 28. The method of claim 27 , wherein the target tissue identification is determined by a machine learning algorithm. 前記標的組織の識別は、前記標的組織が癌性、良性、悪性、または健康であることの識別である請求項27または請求項28に記載の方法。 29. The method of claim 27 or claim 28 , wherein the identification of the target tissue is an identification of the target tissue as cancerous, benign, malignant, or healthy. コンピュータ実装システムであって、前記コンピュータ実装システムは、デジタル処理デバイスを備え、前記デジタル処理デバイスは、少なくとも1つのプロセッサと、実行可能命令を実施するように構成されるオペレーティングシステムと、メモリと、標的組織領域上に印加された推定力を決定するためのアプリケーションを生成するために、デジタル処理デバイスによって実行可能な命令を含むコンピュータプログラムとを備え、前記アプリケーションは、
(a)前記標的組織領域の画像のセットを取得するモジュールと、
(b)記画像のセットに少なくとも基づいて、前記標的組織領域の灌流性質、空間測定値のセット、または両方を決定するモジュールと、
(c)記空間測定値のセットに少なくとも基づいて、前記標的組織領域の変形を決定するモジュールと、
(d)記標的組織領域の変形、前記標的組織領域の灌流性質、または両方に少なくとも基づいて、前記標的組織領域の粘弾性性質を決定するモジュールと、
(e)記標的組織領域の粘弾性性質に少なくとも基づいて、前記標的組織領域上に印加される前記推定力を決定するモジュールと
を備える、コンピュータ実装システム。
A computer-implemented system, the computer-implemented system comprising a digital processing device, the digital processing device comprising at least one processor, an operating system configured to execute executable instructions, a memory, and a target computer. a computer program comprising instructions executable by a digital processing device to generate an application for determining an estimated force applied on a tissue region, the application comprising:
(a) a module for acquiring a set of images of the target tissue region;
(b) a module for determining perfusion properties, a set of spatial measurements, or both of the target tissue region based at least on the set of images;
(c) a module for determining a deformation of the target tissue region based at least on the set of spatial measurements;
(d) a module for determining viscoelastic properties of the target tissue region based at least on deformation of the target tissue region, perfusion properties of the target tissue region, or both;
(e) a module for determining the estimated force to be applied on the target tissue region based at least on viscoelastic properties of the target tissue region.
標的組織領域上に印加された推定力を決定するためのアプリケーションを生成するために、プロセッサによって実行可能な命令を含むコンピュータプログラムを用いてエンコードされる非一過性コンピュータ可読記憶媒体であって、前記アプリケーションは、
(a)前記標的組織領域の画像のセットを取得するモジュールと、
(b)記画像のセットに少なくとも基づいて、前記標的組織領域の灌流性質、空間測定値のセット、または両方を決定するモジュールと、
(c)記空間測定値のセットに少なくとも基づいて、前記標的組織領域の変形を決定するモジュールと、
(d)記標的組織領域の変形、前記標的組織領域の灌流性質、または両方に少なくとも基づいて、前記標的組織領域の粘弾性性質を決定するモジュールと、
(e)記標的組織領域の粘弾性性質に少なくとも基づいて、前記標的組織領域上に印加される前記推定力を決定するモジュールと
を備える、非一過性コンピュータ可読記憶媒体。
A non-transitory computer-readable storage medium encoded with a computer program containing instructions executable by a processor to generate an application for determining an estimated force applied on a target tissue region, comprising: The application is
(a) a module for acquiring a set of images of the target tissue region;
(b) a module for determining perfusion properties, a set of spatial measurements, or both of the target tissue region based at least on the set of images;
(c) a module for determining a deformation of the target tissue region based at least on the set of spatial measurements;
(d) a module for determining viscoelastic properties of the target tissue region based at least on deformation of the target tissue region, perfusion properties of the target tissue region, or both;
(e) a module for determining the estimated force to be applied on the target tissue region based at least on viscoelastic properties of the target tissue region.
JP2022541961A 2020-01-08 2021-01-07 Estimation of laser speckle force feedback Pending JP2023509772A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202062958501P 2020-01-08 2020-01-08
US62/958,501 2020-01-08
PCT/US2021/012524 WO2021142138A1 (en) 2020-01-08 2021-01-07 Laser speckle force feedback estimation

Publications (2)

Publication Number Publication Date
JP2023509772A JP2023509772A (en) 2023-03-09
JPWO2021142138A5 true JPWO2021142138A5 (en) 2024-01-09

Family

ID=76788882

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022541961A Pending JP2023509772A (en) 2020-01-08 2021-01-07 Estimation of laser speckle force feedback

Country Status (8)

Country Link
US (1) US20220409065A1 (en)
EP (1) EP4087474A4 (en)
JP (1) JP2023509772A (en)
KR (1) KR20220125804A (en)
CN (1) CN115243610A (en)
CA (1) CA3164149A1 (en)
IL (1) IL294553A (en)
WO (1) WO2021142138A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023049401A1 (en) * 2021-09-24 2023-03-30 Activ Surgical, Inc. Systems and methods for perfusion quantification
WO2024030827A2 (en) * 2022-08-02 2024-02-08 The Regents Of The University Of California Systems and methods of non-contact force sensing

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009140660A2 (en) * 2008-05-16 2009-11-19 Drexel University System and method for evaluating tissue
CN104382650B (en) * 2008-05-28 2017-04-12 泰克尼恩研究和发展基金有限公司 Ultrasound guided robot for flexible needle steering
WO2011153268A2 (en) * 2010-06-01 2011-12-08 The Trustees Of Columbia University In The City Of New York Devices, methods, and systems for measuring elastic properties of biological tissues
US8668647B2 (en) * 2010-10-15 2014-03-11 The University Of British Columbia Bandpass sampling for elastography
US9138148B2 (en) * 2011-04-13 2015-09-22 St. Jude Medical, Inc. High speed elastographic property mapping of lumens utilizing micropalpation delivered from an OCT-equipped catheter tip
GB201415649D0 (en) * 2014-09-04 2014-10-22 Univ Heriot Watt A membrane sensor for dynamic instrumented palpatation of soft materials
WO2017039774A2 (en) * 2015-06-11 2017-03-09 University Of Florida Research Foundation, Incorporated Monodisperse, ir-absorbing nanoparticles and related methods and devices
TWI568408B (en) * 2015-12-23 2017-02-01 財團法人工業技術研究院 Intraocular pressure detecting device and detecting method thereof
WO2017139774A1 (en) * 2016-02-12 2017-08-17 The General Hospital Corporation Laser speckle micro-rheology in characterization of biomechanical properties of tissues
CN108613979B (en) * 2018-03-12 2020-08-11 华中科技大学鄂州工业技术研究院 Laser speckle image processing device and method for viscoelasticity quantitative detection
CN115379791A (en) * 2020-02-14 2022-11-22 艾科缇弗外科公司 System and method for processing laser speckle signals

Similar Documents

Publication Publication Date Title
US11551361B2 (en) Method and system of computer-aided detection using multiple images from different views of a region of interest to improve detection accuracy
CN109589170B (en) Left atrial appendage closure guidance in medical imaging
JP7184489B2 (en) Systems and methods for generating 3D images based on fluorescent illumination
JP2019534727A5 (en)
JP2017525497A5 (en)
US20160310107A1 (en) Method and System for Automatic Estimation of Shear Modulus and Viscosity from Shear Wave Imaging
JP7071240B2 (en) Inspection support equipment, methods and programs
CN115379791A (en) System and method for processing laser speckle signals
JP7023196B2 (en) Inspection support equipment, methods and programs
JP7198950B2 (en) Optical coherence tomography for robotic neurosurgery
JP2022549669A (en) System and method for analyzing medical images based on spatio-temporal data
JPWO2018110558A1 (en) Image processing apparatus, image processing method, and program
CN108369268B (en) System and method for medical device tracking
US11972560B2 (en) Machine learning device, image diagnosis support device, machine learning method and image diagnosis support method
JP6934734B2 (en) Image processing device, control method and program of image processing device
JPWO2021142138A5 (en)
EP3314572B1 (en) Edge detection on images with correlated noise
US11406264B2 (en) Non-invasive measurement of intraocular pressure
KR20240128966A (en) Method for determining the location of a target area, electronic equipment and media
US20220160260A1 (en) System and method for measuring biomedical signal
Chatterjee et al. Human-Centered and AI-driven Generation of 6-DoF Extended Reality
JPWO2020138136A1 (en) Image processing equipment, image processing methods and programs
CA3032978A1 (en) Saliency mapping of imagery during artificially intelligent image classification
US20220084206A1 (en) Information processing apparatus, information processing method, and non-transitory storage medium
Zhou et al. Real-time surface deformation recovery from stereo videos