JP2009039515A - Image processing system, image processing method and program - Google Patents
Image processing system, image processing method and program Download PDFInfo
- Publication number
- JP2009039515A JP2009039515A JP2008167820A JP2008167820A JP2009039515A JP 2009039515 A JP2009039515 A JP 2009039515A JP 2008167820 A JP2008167820 A JP 2008167820A JP 2008167820 A JP2008167820 A JP 2008167820A JP 2009039515 A JP2009039515 A JP 2009039515A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- depth
- specific wavelength
- light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 67
- 238000003672 processing method Methods 0.000 title claims description 4
- 239000000126 substance Substances 0.000 claims abstract description 45
- 238000003384 imaging method Methods 0.000 claims description 35
- 238000012937 correction Methods 0.000 claims description 21
- 238000003702 image correction Methods 0.000 claims description 19
- 230000008859 change Effects 0.000 claims description 15
- 230000005284 excitation Effects 0.000 claims description 10
- 239000000463 material Substances 0.000 claims description 9
- 230000003287 optical effect Effects 0.000 claims description 9
- 230000001678 irradiating effect Effects 0.000 claims description 8
- MOFVSTNWEDAEEK-UHFFFAOYSA-M indocyanine green Chemical compound [Na+].[O-]S(=O)(=O)CCCCN1C2=CC=C3C=CC=CC3=C2C(C)(C)C1=CC=CC=CC=CC1=[N+](CCCCS([O-])(=O)=O)C2=CC=C(C=CC=C3)C3=C2C1(C)C MOFVSTNWEDAEEK-UHFFFAOYSA-M 0.000 abstract description 41
- 229960004657 indocyanine green Drugs 0.000 abstract description 41
- 210000004204 blood vessel Anatomy 0.000 description 299
- 238000000034 method Methods 0.000 description 20
- 238000002347 injection Methods 0.000 description 7
- 239000007924 injection Substances 0.000 description 7
- 238000001444 catalytic combustion detection Methods 0.000 description 6
- 230000035515 penetration Effects 0.000 description 6
- 230000003595 spectral effect Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000031700 light absorption Effects 0.000 description 3
- 238000000149 argon plasma sintering Methods 0.000 description 2
- 230000008081 blood perfusion Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000010521 absorption reaction Methods 0.000 description 1
- 210000004883 areola Anatomy 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000010253 intravenous injection Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Endoscopes (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
本発明は、画像処理システム、画像処理方法およびプログラムに関する。本発明は、特に、生体内部に存在する血管等、表面観察では視認が困難な物質内部に存在するオブジェクトの画像を鮮明に表示できる画像処理システム、画像処理方法およびプログラムに関する。 The present invention relates to an image processing system, an image processing method, and a program. In particular, the present invention relates to an image processing system, an image processing method, and a program that can clearly display an image of an object existing inside a substance that is difficult to view by surface observation, such as a blood vessel existing inside a living body.
たとえば非特許文献1に記載のように、生体にインドシアニングリーン(ICG)を投与するとともに波長780nmの赤外線レーザー光を照射して、生体内部の血液灌流をビデオ撮影する技術が知られている。また、内視鏡における像のボケの解消について、たとえば特許文献1に記載の内視鏡では、予め定められた所定範囲についての画像信号に対して、対物光学系の点ひろがり関数を用いて像回復処理を施す。これにより、撮像部への入射光量を大きく確保する一方、対物光学系の焦点深度不足による像のボケを解消できるとされている。
生体内部の血管等物質内部に存在するオブジェクトを、オブジェクトからの反射光あるいはICG等蛍光物質からの発光を用いて観察する場合、オブジェクトの像がボケる問題がある。すなわち、反射光または発光が物質内を通過する間に散乱され、オブジェクトの輪郭が不明瞭になってしまう。医師が内視鏡を用いて診断あるいは施術する場合、血管等オブジェクトの位置を正確に認識することが望ましいから、オブジェクトの輪郭におけるボケを補正して、鮮明な画像を表示することが望まれる。また、物質内部のオブジェクトを撮像して表示する場合、オブジェクトの深さについての情報が同時に表示されることが好ましい。 When an object existing inside a substance such as a blood vessel inside a living body is observed using reflected light from the object or light emission from a fluorescent substance such as ICG, there is a problem that the image of the object is blurred. That is, the reflected light or light emission is scattered while passing through the substance, and the outline of the object becomes unclear. When a doctor performs diagnosis or treatment using an endoscope, it is desirable to accurately recognize the position of an object such as a blood vessel. Therefore, it is desirable to correct a blur in the contour of the object and display a clear image. In addition, when imaging and displaying an object inside a substance, it is preferable that information about the depth of the object is displayed at the same time.
上記課題を解決するために、本発明の第1の形態においては、と、物質の内部に存在するオブジェクトからの光であって特定波長領域に属する光の画像である特定波長画像を取得する特定波長画像取得部と、特定波長領域が異なる複数の特定波長画像から、オブジェクトの物質表面からの深さを算出する深さ算出部と、深さ算出部が算出したオブジェクトの深さに応じたオブジェクトの画像を生成するオブジェクト画像補正部と、を備える画像処理システムを提供する。 In order to solve the above-described problem, in the first aspect of the present invention, a specific wavelength image that is an image of light from an object existing in a substance and belonging to a specific wavelength region is acquired. A wavelength image acquisition unit, a depth calculation unit that calculates the depth of the object from the material surface from a plurality of specific wavelength images with different specific wavelength regions, and an object corresponding to the object depth calculated by the depth calculation unit An image processing system including an object image correction unit that generates an image of
物質の内部に存在するオブジェクトからの光の画像であるオブジェクト画像を取得するオブジェクト画像取得部をさらに備え、オブジェクト画像生成部は、深さ算出部が算出したオブジェクトの深さに応じてオブジェクト画像を補正するオブジェクト画像補正部を有してよい。 The image processing apparatus further includes an object image acquisition unit that acquires an object image that is an image of light from an object existing inside the substance, and the object image generation unit converts the object image according to the depth of the object calculated by the depth calculation unit. You may have the object image correction part to correct | amend.
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.
図1は、本実施形態の画像処理システム10の一例をICG注入部700および検体800とともに示す。画像処理システム10は、内視鏡100、画像処理部200、表示部300、撮像制御部400、発光部500および発光制御部600を備える。なお、図1において、A部は、内視鏡100の先端部102を拡大して示す。
FIG. 1 shows an example of an
ICG注入部700は、ルミネッセンス物質であるインドシアニングリーン(ICG)を検体800に注入する。なお、本実施形態においてルミネッセンス物質としてICGを例示するが、ルミネッセンス物質として、ICG以外の蛍光物質を用いてもよい。ICGは、たとえば波長750nmの赤外線に励起されて、810nmを中心とするブロードなスペクトルの蛍光を発する。検体800が生体である場合、ICGは、静脈注射によって生体の血管内に注入できる。ICGからの蛍光を撮像することにより、生体内の血管を造影できる。
The ICG injection unit 700 injects indocyanine green (ICG), which is a luminescent substance, into the
ICG注入部700は、画像処理システム10に組み込まれてもよい。生体内のICG濃度を管理して、生体内でのICG濃度が一定に維持されるようICG注入部700を制御できる。
The ICG injection unit 700 may be incorporated in the
検体800は、たとえば人体等の生体であってよく、画像処理システム10が処理する画像の撮像対象となる。検体800の内部には血管等オブジェクトが存在する。本実施形態の画像処理システム10は、検体800の表面(器官等の内表面を含む)より深部に存在するオブジェクトの撮像画像におけるボケを補正する。
The
内視鏡100は、撮像部110、ライトガイド120および鉗子口130を有する。内視鏡100の先端部102には、撮像部110の一部としての対物レンズ112を有する。また先端部102には、ライトガイド120の一部としてのIRライトガイド122、Rライトガイド124、Gライトガイド126およびBライトガイド128を有する。また先端部102には、ノズル140を有する。鉗子口130には鉗子135が挿入される。
The
撮像部110は、ルミネッセンス物質が発する光および照射光がオブジェクトで反射する反射光の画像を撮像する。撮像部110は、たとえばCCD等の2次元撮像デバイスと光学系とを含んでよく、光学系には対物レンズ112を含む。ルミネッセンス物質が発する光が赤外線である場合、撮像部110は、赤外線画像を撮像できる。オブジェクトへの照射光がRGBの各成分を含むたとえば白色光である場合、撮像部110は、R成分、G成分およびB成分の各成分光画像を撮像できる。
The
撮像部110による赤外線、R成分、G成分およびB成分の各成分光は、たとえば入射光を分光フィルタにより分光して、フィルタリング後の光を1つのCCDにより撮像できる。この場合光軸上に配置する分光フィルタを切り替えて各成分光画像を撮像できる。あるいは、入射光をハーフミラー等により分割して、分割した光軸ごとに分光フィルタを配置できる。光軸ごとに複数のCCDを配置すれば、各成分光画像を同時に撮像できる。あるいは、1つのCCDの画素ごとに、赤外線、R成分、G成分およびB成分の各分光フィルタを配置すれば、1つのCCDで各成分光を同時に撮像できる。
The component light of the infrared ray, R component, G component, and B component by the
ライトガイド120は、たとえば光ファイバで構成できる。ライトガイド120は、発光部500で発生した光を内視鏡100の先端部102にガイドする。ライトガイド120は、IRライトガイド122、Rライトガイド124、Gライトガイド126およびBライトガイド128を含むことができる。IRライトガイド122は、赤外線をガイドして、Rライトガイド124は、R成分光をガイドする。Gライトガイド126は、G成分光をガイドして、Bライトガイド128は、B成分光をガイドする。
The
ライトガイド120は、赤外線、R成分、G成分およびB成分の成分光ごとにIRライトガイド122、Rライトガイド124、Gライトガイド126およびBライトガイド128を備えるので各成分光を別々に照射できる。各成分光を別々に照射する場合、撮像部110には分光フィルタを備えなくてよく、各成分光を照射するタイミングに合わせて撮像することによりCCDも1つでよい。もとより、撮像部110に各成分光を分光して撮像する機能を備える場合には、成分光ごとに時分割で照射しなくてもよく、ライトガイド120を1つのライトガイドに統合してもよい。
The
鉗子口130は、鉗子135を先端部102にガイドする。図1において鉗子135の先端形状の図示は省略している。各種の先端形状を備える鉗子135を適用できる。ノズル140は、水あるいは空気を送出できる。
The
画像処理部200は、撮像部110から取得した画像データを処理する。表示部300は、画像処理部200が処理した画像データを表示する。撮像制御部400は、撮像部110による撮像を制御する。
The
発光部500は、内視鏡100の先端部102から照射される光を発生する。発光部500で発生する光は、ルミネッセンス物質を励起する励起光である赤外線、検体800の内部のオブジェクトに照射する照射光を含む。照射光には、たとえばR成分、G成分およびB成分の成分光を含む。
The
発光制御部600は、撮像制御部400からの制御を受けて、発光部500を制御する。たとえば撮像部110が、赤外線、R成分、G成分およびB成分の各成分光を時分割で撮像する場合に、各成分光の照射のタイミングと撮像のタイミングとを同期させるよう制御できる。
The light
図2は、画像処理部200の構成例を示す。画像処理部200には、オブジェクト画像取得部210、特定波長画像取得部212、表面画像取得部214、オブジェクト領域特定部216、深さ算出部218、オブジェクト画像生成部230、補正テーブル222、補間画像生成部224および表示制御部226を有する。
FIG. 2 shows a configuration example of the
オブジェクト画像取得部210は、物質である検体800の内部に存在する血管等オブジェクトからの光の画像であるオブジェクト画像を取得する。オブジェクトからの光として、オブジェクト内に存在するルミネッセンス物質が発する蛍光、あるいはオブジェクトに照射された光の反射光を例示できる。なお、オブジェクト画像取得部210は、後述するように、オブジェクトからの光がオブジェクトから物質の表面までの間で散乱した散乱光による画像であるオブジェクト画像を取得してよい。
The object
オブジェクトからの光としてルミネッセンス物質が発する蛍光を利用する場合、オブジェクト画像取得部210が取得するオブジェクト画像には、物質の表面からルミネッセンス物質を励起する励起光が進入できる深さまでの範囲に存在するオブジェクトが含まれる。すなわち、内視鏡100の先端部102から照射されるルミネッセンス物質の励起光は、たとえば750nmの波長を有するから、検体800の比較的深部(たとえば1cm程度)にまで到達する。よって、オブジェクト画像取得部210が取得するオブジェクト画像には、検体800の比較的深部に存在する血管画像を含む。もとより、励起光の到達できる深さの範囲に存在するルミネッセンス物質は、当該励起光によって励起されるから、オブジェクト画像取得部210が取得するオブジェクト画像には、励起光が到達できる深さの範囲に存在する血管画像を含む。なお、血管が深い位置に存在するほど、血管からの蛍光が検体800で散乱されるから、深い位置の血管画像ほどボケを多く含むことになる。
When using fluorescence emitted from a luminescent substance as light from an object, the object image acquired by the object
オブジェクトからの光としてオブジェクトからの反射光を利用する場合、オブジェクト画像取得部210が取得するオブジェクト画像には、オブジェクトへの照射光が進入して反射する深さの範囲に存在するオブジェクトが含まれる。物質への照射光の進入深さは照射光の波長に依存するから、赤色光は青色光より物質内部に深く進入でき、緑色光はそれらの中間深さまで進入できる。赤外線は赤色光より物質内部に深く進入できる。よって、物質表面から照射する光の波長範囲を反映した進入深さまでの範囲に存在するオブジェクトがオブジェクト画像に含まれることになる。
When the reflected light from the object is used as the light from the object, the object image acquired by the object
特定波長画像取得部212は、血管等オブジェクトからの光であって特定波長領域に属する光の画像である特定波長画像を取得する。特定波長領域は、任意の波長領域であってよく、たとえば可視光のR成分を中心とする赤色領域、G成分を中心とする緑色領域、B成分を中心とする青色領域を例示できる。また、ICGからの蛍光が属する波長領域を複数に分割した波長領域であってよく、たとえばICGからの蛍光における波長領域のうち、長波長領域、中波長領域、短波長領域を例示できる。
The specific wavelength
これら特定波長領域を利用した特定波長画像は、波長が相違すれば検体800への光の進入深さが相違する性質を利用して、あるいは、波長が相違すれば検体800内での光の吸収率が相違する性質を利用して、血管等オブジェクトの深さ検出に利用できる。すなわち、青色領域の特定波長画像により識別できる血管は、当該青色領域に属する波長の光が反射する深さ領域に存在すると判断できる。同様に、緑色領域の特定波長画像により識別できる血管は、当該緑色領域に属する波長の光が反射する深さ領域に存在すると判断でき、赤色領域の特定波長画像により識別できる血管は、当該赤色領域に属する波長の光が反射する深さ領域に存在すると判断できる。なお、青色光が反射する深さは赤色光が反射する深さより浅く、緑色光が反射する深さはこれらの中間に位置する。
The specific wavelength images using these specific wavelength regions use the property that the light penetration depth into the
また、血管内のICGが発した蛍光のうち、長波長領域に属する光の吸収は、短波長領域に属する光の吸収より小さいから、長波長領域、中波長領域あるいは短波長領域の特定波長画像に含まれる血管画像の明るさの比から当該血管の深さを推定できる。たとえば長波長領域の特定波長画像に係る血管画像の明るさに対して、短波長領域の特定波長画像に係る血管画像が暗ければ、当該血管は深い位置に存在すると推定できる。逆に長波長領域の特定波長画像に係る血管画像の明るさに対して、短波長領域の特定波長画像に係る血管画像が明るければ、短波長領域の光を吸収するであろう光の行路が長くなく、当該血管は浅い位置に存在すると推定できる。 Further, among the fluorescence emitted by ICG in the blood vessel, the absorption of light belonging to the long wavelength region is smaller than the absorption of light belonging to the short wavelength region, so that the specific wavelength image of the long wavelength region, medium wavelength region or short wavelength region The depth of the blood vessel can be estimated from the brightness ratio of the blood vessel image included in the blood vessel. For example, if the blood vessel image related to the specific wavelength image in the short wavelength region is darker than the brightness of the blood vessel image related to the specific wavelength image in the long wavelength region, it can be estimated that the blood vessel exists at a deep position. Conversely, if the blood vessel image related to the specific wavelength image in the short wavelength region is brighter than the brightness of the blood vessel image related to the specific wavelength image in the long wavelength region, the path of light that will absorb light in the short wavelength region is It is not long and it can be estimated that the blood vessel exists in a shallow position.
以上のような光の波長による物質への進入深さ(反射光の進入深さ)の相違を利用して血管等オブジェクトの深さを検出する場合、特定波長画像取得部212は、オブジェクトから反射した反射光の画像である反射光画像を、特定波長画像として取得する。特定波長画像取得部212は、オブジェクトに白色光を照射してオブジェクトから反射した反射光のうち、特定波長領域に属する反射光の画像である反射光画像を、特定波長画像として取得してもよい。あるいは特定波長画像取得部212は、オブジェクトに特定波長領域に属する照射光を照射してオブジェクトから反射した反射光の画像である反射光画像を、特定波長画像として取得してもよい。また、物質の深部で発光した蛍光の波長による吸収率の相違を利用して血管等オブジェクトの深さを検出する場合、特定波長画像取得部212は、ルミネッセンス物質が発した光のうち、特定波長領域に属する光の画像である発光画像を、特定波長画像として取得する。
When detecting the depth of an object such as a blood vessel using the difference in the depth of penetration into the substance (the depth of penetration of reflected light) due to the wavelength of light as described above, the specific wavelength
表面画像取得部214は、物質の表面の画像である表面画像を取得する。すなわち表面画像取得部214は、視認すると同等の画像を取得する。オブジェクト領域特定部216は、複数の特定波長画像ごとにオブジェクトの画像領域を特定する。すなわちオブジェクト領域特定部216は、特定波長画像に含まれる血管等のオブジェクトの画像領域を画定して血管画像等を特定する。
The surface
深さ算出部218は、特定波長領域が異なる複数の特定波長画像から、オブジェクトの物質の表面からの深さを算出する。前記した通り、特定波長画像には光の進入深さの情報を含むから、特定波長画像に含まれるオブジェクトの明るさ(輝度)を比較または演算してオブジェクトの深さを計算できる。
The
たとえば深さ算出部218は、オブジェクト領域特定部216が特定した画像領域における輝度に基づいて深さを算出できる。たとえば深さ算出部218は、長波長域の特定波長領域における画像領域の輝度に対する短波長域の特定波長領域における画像領域の輝度の比に基づいて深さを算出できる。たとえば深さ算出部218は、画像領域における最高輝度または平均輝度に基づいて深さを算出できる。たとえば深さ算出部218は、画像領域の端部における輝度の変化率に基づいて深さを算出できる。
For example, the
なお、深さ算出部218は、血管に存在しているICGの量および当該血管の画像の輝度に対応づけて、深さを予め記憶していてよい。深さ算出部218は、ICG注入部700から注入されたICGの量に基づき検体800に存在しているICGの量を算出して、算出したICGの量に応じた値、およびオブジェクト領域特定部216が特定した画像領域における輝度に応じた値に対応づけて予め記憶している深さを、血管の深さとして算出してよい。
The
画像領域の端部における輝度の変化率は、たとえば画像空間における位置(距離)を変数とする輝度の微分係数で表現できる。当該微分係数は画像領域に係るオブジェクトのボケの大きさを数値化した例であり、微分係数が大きいほどボケは小さく、オブジェクトはより浅い位置に存在すると推定できる。 The rate of change in luminance at the edge of the image area can be expressed, for example, by a luminance differential coefficient with the position (distance) in the image space as a variable. The differential coefficient is an example in which the size of the blur of the object related to the image area is digitized, and it can be estimated that the larger the differential coefficient, the smaller the blur and the object exists at a shallower position.
なお、特定波長画像取得部212は、上述したように、オブジェクトからの光であって、特定波長領域に属する光が物質の表面までの間で散乱された散乱光の画像である特定波長画像を取得する。そして、深さ算出部218は、オブジェクト領域特定部216が特定した画像領域における輝度、および物質が光を散乱する散乱特性に基づいて、深さを算出してよい。散乱特性としては、物質の散乱係数を例示することができる。
As described above, the specific wavelength
なお、深さ算出部218は、検体800の部位毎の散乱特性を部位に対応づけて予め記憶している。そして、深さ算出部218は、部位に対応づけて、上述した輝度の比を予め記憶している。そして、深さ算出部218は、特定波長画像として撮像されたオブジェクトが存在する部位に対応づけて予め記憶している散乱特性、および当該部位に対応づけて予め記憶している輝度の比に基づいて、深さを算出してよい。このように、深さ算出部218は、オブジェクト領域特定部が特定した画像領域における輝度、および物質の光学特性に基づいて、深さを算出してよい。
The
オブジェクト画像生成部230は、深さ算出部218が算出したオブジェクトの深さに応じたオブジェクトの画像を生成する。具体的には、オブジェクト画像生成部230は、深さ算出部218が算出したオブジェクトの深さに応じてオブジェクト画像を補正する。すなわち、オブジェクト画像生成部230は、補正値を適用して、オブジェクト画像におけるオブジェクトの広がりを補正する。なお、オブジェクト画像生成部230が補正した補正画像は表示部300に送られ、表示部300において表示される。なお、オブジェクト画像生成部230における具体的な処理については、図3に関連してより詳細に説明する。
The object
補正テーブル222は、オブジェクトの深さに対応付けて、オブジェクトのオブジェクト画像における広がりを補正する補正値を記録する。オブジェクト画像生成部230は、補正テーブル222が記録している補正値を利用してオブジェクト画像を補正できる。
The correction table 222 records a correction value for correcting the spread of the object in the object image in association with the depth of the object. The object
補間画像生成部224は、表面画像の撮像タイミングと補正画像の撮像タイミングとが異なる場合に、時系列に連続した複数の補正画像から、表面画像の撮像タイミングにおける補間画像を生成する。補間方法として、たとえば複数の補正画像における各画素の輝度から、補間画像における当該画素の輝度を内挿により求める方法が例示できる。
When the imaging timing of the surface image and the imaging timing of the correction image are different, the interpolation
表示制御部226は、表面画像および補正画像の表示部300への表示を制御する。また表示制御部226は、補正画像におけるオブジェクトの明るさまたは色を深さに応じて変化させて表示部300に表示できる。あるいは表示制御部226は、表面画像と補正画像とを並べて表示部300に表示できる。あるいは表示制御部226は、補間画像を補正画像として表示部300に表示できる。その他、表示制御部226は、オブジェクトの深さ情報を数値として表示部300に表示してもよい。
The
図3は、オブジェクト画像生成部230の構成例を示す。オブジェクト画像生成部230は、オブジェクト画像補正部220、オブジェクト予測画像生成部232、画像比較部234、位置関係特定部236、および大きさ特定部238を有する。
FIG. 3 shows a configuration example of the object
オブジェクト画像補正部220は、深さ算出部218が算出したオブジェクトの深さに応じてオブジェクト画像を補正する。具体的には、オブジェクト画像補正部220は、深さ算出部218が算出したオブジェクトの深さに応じてオブジェクト画像を補正する。例えば、オブジェクト画像補正部220は、補正値を適用して、オブジェクト画像におけるオブジェクトの広がりを補正する。なお、オブジェクト画像補正部220は、補正テーブル222が記録している補正値を利用してオブジェクト画像を補正できる。オブジェクト画像補正部220が補正した補正画像は、補間画像生成部224および表示制御部226を通じて、表示部300に送られ、表示部300において表示される。
The object
オブジェクト予測画像生成部232は、深さ算出部218が算出した深さにオブジェクトが存在する場合に得られるべきオブジェクトの画像であるオブジェクト予測画像を、オブジェクトが異なる大きさであるそれぞれの場合について、深さ算出部218が算出した深さに基づいて生成する。画像比較部234は、オブジェクト予測画像生成部232が生成した複数のオブジェクト予測画像を、オブジェクト画像とそれぞれ比較する。例えば、画像比較部234は、オブジェクト予測画像生成部232が生成した複数のオブジェクト予測画像を、オブジェクト画像とそれぞれ比較して、複数のオブジェクト予測画像のそれぞれと、オブジェクト画像との間における画像の一致度を算出してよい。
The object predicted
そして、大きさ特定部238は、画像比較部234による比較結果に基づいて、オブジェクト画像として撮像されているオブジェクトの大きさとして、オブジェクト画像とより一致したオブジェクト予測画像が得られた大きさをより優先して特定する。例えば、大きさ特定部238は、画像比較部234による比較結果に基づいて、オブジェクト画像として撮像されているオブジェクトの大きさとして、オブジェクト画像と最も一致したオブジェクト予測画像が得られた大きさをより優先して特定してよい。例えば、大きさ特定部238は、画像比較部234による比較結果に基づいて、オブジェクト画像として撮像されているオブジェクトの大きさとして、オブジェクト画像と予め定められた値より高い一致度で一致したオブジェクト予測画像が得られた大きさをより優先して特定してよい。
Then, based on the comparison result by the
オブジェクト画像補正部220は、オブジェクト画像の大きさを、大きさ特定部238が特定した大きさに応じた大きさに補正してよい。このようにして、オブジェクト画像生成部230は、大きさ特定部238が特定した大きさに応じた大きさのオブジェクトの画像を生成することができる。
The object
なお、深さ算出部218は、複数の特定波長画像から、特定波長画像における異なる複数の位置のそれぞれに撮像されているオブジェクトの深さを、当該複数の位置毎に算出してよい。オブジェクト予測画像生成部232は、複数のオブジェクトが近接して存在する場合に得られるべきオブジェクトの画像であるオブジェクト予測画像を、複数のオブジェクトの位置関係が異なるそれぞれの場合について、深さ算出部218が複数の位置毎に算出した深さに基づいて生成する。そして、画像比較部234は、オブジェクト予測画像生成部232が生成した複数のオブジェクト予測画像を、オブジェクト画像とそれぞれ比較する。例えば、画像比較部234は、オブジェクト予測画像生成部232が生成した複数のオブジェクト予測画像を、オブジェクト画像とそれぞれ比較して、複数のオブジェクト予測画像のそれぞれと、オブジェクト画像との間の画像の一致度を算出してよい。
Note that the
位置関係特定部236は、画像比較部234による比較結果に基づいて、オブジェクト画像として撮像されている複数のオブジェクトが近接して存在する領域における位置関係として、オブジェクト画像とより一致したオブジェクト予測画像が得られた位置関係をより優先して特定する。このように、位置関係特定部236は、深さ算出部218が複数の位置毎に算出した深さに基づいて、オブジェクト画像として撮像されている複数のオブジェクトの位置関係を特定することができる。そして、オブジェクト画像補正部220は、深さ算出部218が複数の位置毎に算出した深さ、および位置関係特定部236が特定した位置関係に応じて、オブジェクト画像を補正する。
Based on the comparison result by the
図4は、検体800の内部で光が反射等する様子を模式的に示す。検体800の内部にはオブジェクトの一例である血管810が存在する。検体800にはルミネッセンス物質であるICGが注入されており、血管810の内部にはICGが存在する。検体800にはICGの励起光である赤外線Iirと、オブジェクトである血管810への照射光である赤色光Ir、緑色光Igおよび青色光Ibとが照射される。
FIG. 4 schematically shows how light is reflected inside the
赤外線Iirは、検体800の比較的深い位置(深さdir)まで進入でき、表面から深さdirの間に存在する血管810内のICGは赤外線Iirによって励起される。よって深さdirより浅い位置に存在する血管810の像は、ICGからの蛍光Rfによってオブジェクト画像として取得される。なお、オブジェクト画像として取得された血管810の像にはボケを伴う。
The infrared ray Iir can enter a relatively deep position (depth dir) of the
赤色光Irは、深さdrまで進入して深さdrの近傍で反射される。よって、赤色光Irの赤色反射光Rrには深さdr近傍の血管810の像情報が含まれる。赤色反射光Rrによる血管810の像は赤色領域の特定波長画像として取得され、赤色領域の特定波長画像には、深さdr近傍の血管810の画像が含まれる。
The red light Ir enters the depth dr and is reflected in the vicinity of the depth dr. Therefore, the red reflected light Rr of the red light Ir includes image information of the
緑色光Igは、深さdgまで進入して深さdgの近傍で反射される。よって、緑色光Igの緑色反射光Rgには深さdg近傍の血管810の像情報が含まれる。緑色反射光Rgによる血管810の像は緑色領域の特定波長画像として取得され、緑色領域の特定波長画像には、深さdg近傍の血管810の画像が含まれる。
The green light Ig enters the depth dg and is reflected in the vicinity of the depth dg. Therefore, the green reflected light Rg of the green light Ig includes image information of the
青色光Ibは、深さdbまで進入して深さdbの近傍で反射される。よって、青色光Ibの青色反射光Rbには深さdb近傍の血管810の像情報が含まれる。青色反射光Rbによる血管810の像は青色領域の特定波長画像として取得され、青色領域の特定波長画像には、深さdb近傍の血管810の画像が含まれる。
The blue light Ib enters to the depth db and is reflected in the vicinity of the depth db. Therefore, the blue reflected light Rb of the blue light Ib includes image information of the
たとえば、赤色反射光Rr、緑色反射光Rg、緑色反射光Rgの各特定波長画像から血管810の深さを特定できる。特定した深さから蛍光Rfによるオブジェクト画像を補正できる。
For example, the depth of the
図5は、表示部300における表示画面310の一例を示す。表示画面310にはオブジェクト画像を補正した補正画像の血管330を、表面画像における血管320に重畳して表示している。表面画像の血管320は検体800の表面観察で視認できる。補正画像の血管330は表面観察では視認できないが、本実施形態の画像処理システム10によって視覚化できる。
FIG. 5 shows an example of the
なお、表面画像の血管320は検体800の表面観察で視認できるので、オブジェクト画像生成部230は、所定の深さより浅い位置を示す深さが深さ算出部218により算出された血管810については補正画像を生成せず、所定の深さ以上の深さが深さ算出部218により算出された血管810については補正画像を生成してよい。そして、表示制御部226は、表面画像の血管320の色と異なる色で、補正画像の血管330を表示してよい。このように、画像処理システム10によると、浅い位置にある血管810と深い位置にある血管810とを、容易に区別して視認することができる画像を提供することができる。
Since the
補正画像の血管330は、本実施形態の画像処理システム10によって補正されるから、血管画像の端部にボケは生じず、鮮明に表示される。なお、補正画像の血管330は、たとえば濃淡を変えて、あるいは色を変えて表面からの深さを表示できる。本実施形態の画像処理システム10を適用すれば、たとえば医師が表示部300の表示画面310を見つつ手術等を実施するとき、表面観察によっては視認できない内部の血管330を鮮明に認識できる場合がある。また、医師は内部の血管330の深さ情報を参照しつつ手術等を実施できる利点が得られる場合がある。
Since the
図6は、交差している血管810の像である血管像の一例を示す。血管部分像610a〜dは、特定波長画像において、交差していない血管部分の像であるとする。また、領域630は、特定波長画像において血管810が交差している領域であるとする。なお、本実施形態における異なる血管810は、連続する血管810を形成する異なる複数の血管部分であってよい。以後の説明では、血管部分像610a〜dを血管部分像610と総称する場合がある。
FIG. 6 shows an example of a blood vessel image that is an image of intersecting
深さ算出部218は、異なる血管810が交差していない領域における血管部分像610a〜dの輝度値に基づいて、上述したようにして血管810の深さを算出することができる。一方、異なる血管810が交差した領域からの光は、異なる血管810のそれぞれからの光が合わさった光になる。このため、領域630内の血管像の輝度値は、異なる血管810のそれぞれからの光の強度の和を示す値となる。このため、深さ算出部218は、領域630内の血管像の輝度値だけから、異なる血管810のそれぞれの深さを正確に算出することができない場合がある。
The
この場合、オブジェクト画像生成部230は、後述する方法で異なる血管810の位置関係を特定して、特定した位置関係に応じた血管の画像を生成する。例えば、オブジェクト画像生成部230は、特定した位置関係に基づいて、特定した位置関係を示す血管の画像を生成したり、オブジェクト画像における交差した血管の像のぼけを補正した補正画像を生成する。なお、図中のsは、血管の走行方向に沿う経路を示しており、図8における説明で使用される。
In this case, the object
図7は、血管の走行状態の一例を示す。図6に示した血管の像として撮像される血管810は、本図の(a)、(b)、および(c)のいずれかの走行状態にあるとみなすことができる。本図では、2つの血管810が、実線および破線で区別して示されている。
FIG. 7 shows an example of a running state of a blood vessel. The
位置関係特定部236は、血管部分像610a〜dのそれぞれとして撮像された血管部分のそれぞれの深さに基づいて、2つの血管810がa)、b)、c)のいずれの走行状態にあるかを特定する。なお、血管部分像610a〜dのそれぞれとして撮像された血管部分のそれぞれの深さは、上述したように深さ算出部218によって得ることができる。また、以後の説明では、血管部分像610a〜dのそれぞれとして撮像された血管部分の深さを、それぞれ血管部分像610a〜dからの深さと略称する。
The positional
例えば、位置関係特定部236は、血管部分像610aからの深さおよび血管部分像610cからの深さが、血管部分像610bからの深さおよび血管部分像610dからの深さのいずれよりも深いか浅い場合に、異なる血管810は本図の(a)が示す位置関係にあると判断することができる。また、位置関係特定部236は、血管部分像610aからの深さおよび血管部分像610bからの深さが、血管部分像610cからの深さおよび血管部分像610dからの深さのいずれよりも深いか浅い場合に、異なる血管810は本図の(b)が示す位置関係にあると判断することができる。他にも、位置関係特定部236は、血管部分像610aからの深さおよび血管部分像610dからの深さが、血管部分像610bからの深さおよび血管部分像610cからの深さのいずれよりも深いか浅い場合に、異なる血管810は本図の(c)が示す位置関係にあると判断することができる。このように、位置関係特定部236は、血管部分像610a〜dのそれぞれからの深さについて分類することにより、異なる血管810の位置関係を特定することができる。
For example, the positional
このように、位置関係特定部236は、血管部分像610a〜dのそれぞれからの深さに基づいて、異なる血管810の位置関係を特定することができる。なお、位置関係特定部236は、複数の位置関係の中から、異なる血管810がそれらの位置関係にあるそれぞれの場合に予測される血管810の曲率に基づいて一の位置関係を選択して、選択した位置関係を血管810の位置関係として特定してもよい。
In this way, the positional
例えば、異なる血管810が本図の(c)が示す位置関係にあるとした場合、本図の(a)または(b)が示す位置関係である場合より曲率が著しく大きくなる。実際には、血管810が本図の(c)が示す走行状態にある可能性は、本図の(a)または(b)が示す走行状態にある可能性より著しく小さい。そこで、位置関係特定部236は、血管810の位置関係として、曲率が予め定められた値より小さくなる位置関係を、曲率が予め定められた値以上になる位置関係より優先して特定してよい。これにより、非現実的な血管810の位置関係が特定される可能性を著しく低減することができる。
For example, if
なお、位置関係特定部236は、上述の深さに基づく位置関係の特定方法と同様の方法で、血管部分像610a〜dのそれぞれとして撮像された血管部分のそれぞれの太さに基づいて、異なる血管810の位置関係を特定してもよい。例えば、大きさ特定部238は、血管部分像610a〜dのそれぞれとして撮像された血管部分のそれぞれの太さを特定する。なお、以後の説明では、血管部分像610a〜dのそれぞれとして撮像された血管部分のそれぞれの太さを、それぞれ血管部分像610a〜dのそれぞれからの太さと略称する。
The positional
大きさ特定部238は、一例として、血管部分像610a〜dのそれぞれからの深さに基づいて、血管部分像610a〜dのそれぞれからの太さを特定することができる。例えば、血管部分像610のそれぞれの太さには、それぞれの血管部分の太さと、血管810からの光の散乱に起因するぼけが寄与していると考えることができる。そこで、大きさ特定部238は、血管部分像610a〜dのそれぞれからの深さに基づいて、光の散乱に起因するぼけの寄与分を算出する。そして、大きさ特定部238は、算出した寄与分、および血管部分像610a〜dのそれぞれの太さに基づいて、血管部分像610a〜dのそれぞれからの太さを特定する。例えば、大きさ特定部238は、血管部分像610aの太さから、算出した寄与分を減算することによって、血管部分像610aからの太さを特定することができる。なお、血管部分の太さは、この発明におけるオブジェクトの大きさの一例であってよい。
As an example, the
そして、位置関係特定部236は、血管部分像610aからの太さおよび血管部分像610cからの太さが、血管部分像610bからの太さおよび血管部分像610dからの太さのいずれよりも太いか細い場合に、異なる血管810は本図の(a)が示す位置関係にあると判断することができる。また、位置関係特定部236は、血管部分像610aからの太さおよび血管部分像610bからの太さが、血管部分像610cからの太さおよび血管部分像610dからの太さのいずれよりも太いか細い場合に、異なる血管810は本図の(b)が示す位置関係にあると判断することができる。他にも、位置関係特定部236は、血管部分像610aからの太さおよび血管部分像610dからの太さが、血管部分像610bからの太さおよび血管部分像610cからの太さのいずれよりも太いか細い場合に、異なる血管810は本図の(c)が示す位置関係にあると判断することができる。このように、位置関係特定部236は、血管部分像610a〜dのそれぞれからの太さについて分類することにより、異なる血管810の位置関係を特定することができる。
Then, the positional
なお、位置関係特定部236は、血管部分像610a〜dのそれぞれからの深さおよび太さについて分類することにより、異なる血管810の位置関係を特定してもよい。このように、位置関係特定部236は、血管部分像610a〜dのそれぞれからの深さおよび太さに基づいて、異なる血管810の位置関係を特定してもよい。
The positional
なお、大きさ特定部238は、上述した方法の他にも、深さ算出部218が算出した深さに血管810が存在すると仮定した場合に得られるべき血管予測像と、血管部分像610a〜dとの比較結果に基づいて、血管部分像610a〜dのそれぞれとして撮像された血管部分の太さを算出してもよい。具体的には、オブジェクト予測画像生成部232は、深さ算出部218が算出した深さに、所与の太さの血管810が存在する場合に得られるべき血管予測像を生成する。
In addition to the above-described method, the
なお、オブジェクト予測画像生成部232は、血管部分像610に細線化処理を施すことによって血管の走行方向を特定して、特定した走行方向で走行する所与の太さの血管810が、深さ算出部218が算出した深さに存在する場合に得られるべき血管予測像を生成してよい。なお、オブジェクト予測画像生成部232は、異なる複数の太さのそれぞれについて血管予測像をそれぞれ生成することにより、複数の血管予測像を生成する。なお、血管予測像は、この発明におけるオブジェクト予測画像の一例であってよい。また、オブジェクト予測画像生成部232は、血管部分像610にスムージング処理および2値化処理を施してから、細線化処理を施してよい。
Note that the object predicted
なお、オブジェクト予測画像生成部232は、深さ算出部218が算出した深さに応じた血管810からの光の拡がり量に基づいて、血管予測像を生成することができる。例えば、オブジェクト予測画像生成部232は、所与の太さの血管部分が存在する場合の血管部分からの光強度の空間分布、および深さ算出部218が算出した深さにある点からの光に対する点拡がり関数に基づいて、血管予測像を生成することができる。
The object predicted
そして、画像比較部234は、オブジェクト予測画像生成部232が生成した複数の血管予測像を、血管部分像610とそれぞれ比較することによって、画像の一致度を算出する。そして、大きさ特定部238は、最も高い一致度が得られた血管予測像を生成する場合に与えられた血管部分の太さを、血管部分像610として撮像された血管部分の太さとして特定する。このようにして、大きさ特定部238は、血管部分像610a〜dのそれぞれからの太さを特定することができる。なお、大きさ特定部238は、予め定められた一致度より高い一致度が得られた血管予測像を生成する場合に与えられた血管部分の太さを一致度に応じて重みづけ平均して得られた値を、血管部分像610として撮像された血管部分の太さとして特定してもよい。
Then, the
なお、画像処理部200は、深さ算出部218が算出した深さおよび大きさ特定部238が算出した太さを、血管部分像の輝度値および血管部分像の太さに対応づけて記憶してよい。そして、深さ算出部218は、新たに得られた血管部分像の輝度値および当該新たに得られた血管部分像の太さに対応づけて記憶している深さを、当該新たに得られた血管部分像として撮像された血管部分の深さとして算出してよい。そして、大きさ特定部238は、新たに得られた血管部分像の輝度値および当該新たに得られた血管部分像の太さに対応づけて記憶している太さを、当該新たに得られた血管部分像として撮像された血管部分の太さとして特定してよい。これにより、血管部分の深さおよび太さを速やかに算出することができ、ひいては血管810のジオメトリを速やかに決定することができる。
The
図8は、血管810の走行方向sに沿った方向の深さ変化の一例を示す。本図において、(a)、(b)、(c)、および(d)は、それぞれ血管部分像610aからの深さ変化、血管部分像610bからの深さ変化、血管部分像610cからの深さ変化、および血管部分像610dからの深さ変化を示す。
FIG. 8 shows an example of a change in depth in the direction along the traveling direction s of the
本図の(a)および(c)は、走行方向sに沿って深さが増大しており、(b)および(d)は、走行方向sに沿って深さが減少している。このような場合、位置関係特定部236は、異なる血管810の位置関係として、図6の(a)が示す位置関係を特定してよい。このように、位置関係特定部236は、類似する深さ変化を示す血管部分像を同じ血管810の像とみなすことによって、血管810の位置関係を特定してよい。このように、位置関係特定部236は、血管810の深さの空間的変化に基づいて、位置関係を特定することができる。なお、深さの空間的変化としては、血管810の走行方向sに沿った方向の深さの微分値を例示することができる。なお、微分値の次数は一次であってよく、多次であってもよい。
The depths of (a) and (c) in this figure increase along the traveling direction s, and the depths of (b) and (d) decrease along the traveling direction s. In such a case, the positional
なお、位置関係特定部236は、本図に関連して説明した深さ変化に替えて、血管810の太さ変化に基づいて位置関係を特定することができる。例えば、位置関係特定部236は、類似する太さ変化を示す血管部分像を同じ血管810の像とみなすことによって、血管810の位置関係を特定してよい。
The positional
図9は、血管810の位置関係の一例を示す。本図は、血管810が図6の(a)の位置関係にある場合に、血管部分像610aおよび血管部分像610cとして撮像された血管部分の中心線を含む断面で切断した切断面を示す。血管810が本図に示した位置関係にある場合、血管部分像610a〜dのそれぞれとして撮像された血管部分の表面900からの深さは、ほぼ同じになる。このため、血管部分像610a〜dの深さに基づいて、交差している領域における血管810の位置関係を特定することができない場合がある。例えば、血管810が交差する位置での位置関係として、本図の例のように血管部分像610aおよび血管部分像610cとして撮像された血管部分の方が他方より深い位置にある場合と、血管部分像610aおよび血管部分像610cとして撮像された血管部分の方が他方より浅い位置にある場合との双方が実際にあり得る。
FIG. 9 shows an example of the positional relationship of the
このような場合においても、位置関係特定部236は、血管810が所与の位置関係にあると仮定した場合に得られるべき血管予測像と、血管810の像との比較結果に基づいて、血管810の位置関係を特定することができる。具体的には、オブジェクト予測画像生成部232は、所与の太さの血管810が所与の位置関係で存在する場合に得られるべき血管予測像を生成する。
Even in such a case, the positional
位置関係としては、一例として図6で示した(a)、(b)、および(c)が示す走行方向に関する複数の位置関係と、交差している領域における血管810の深さに関する複数の位置関係の組み合わせを含む。オブジェクト予測画像生成部232は、血管810の太さが異なるそれぞれの場合において、位置関係が異なるそれぞれの場合の血管予測像をそれぞれ生成することにより、複数の血管予測像を生成する。なお、血管予測像は、この発明におけるオブジェクト予測画像の一例であってよい。
As the positional relationship, as an example, a plurality of positional relationships related to the traveling direction shown in FIGS. 6A and 6B and a plurality of positions related to the depth of the
そして、画像比較部234は、オブジェクト予測画像生成部232が生成した複数の血管予測像を、領域630における血管810の像とそれぞれ比較することによって、画像の一致度を算出する。そして、大きさ特定部238は、最も高い一致度が得られた血管予測像を生成する場合に異なる血管810の太さとして与えられた値を、異なる血管810のそれぞれの太さとして算出する。また、位置関係特定部236は、最も高い一致度が得られた血管予測像を生成する場合に与えられた位置関係を、異なる血管810の位置関係として特定する。このようにして、位置関係特定部236および大きさ特定部238は、交差している血管810の位置関係および太さをより高い精度で特定することができる。
Then, the
なお、上記において、血管810の深さに基づいた位置関係の特定方法、血管810の太さに基づいた位置関係の特定方法、血管810の深さ変化に基づいた位置関係の特定方法、血管810の太さ変化に基づいた位置関係の特定方法、および血管予測像に基づいた位置関係の特定方法について説明した。位置関係特定部236は、それらの位置関係の特定方法の任意の組み合わせに基づき、異なる血管810の位置関係を特定することができる。
Note that, in the above, the positional relationship specifying method based on the depth of the
なお、オブジェクト画像補正部220は、オブジェクト画像において異なる血管810が重なって撮像されている領域の画像を、位置関係特定部236が特定した位置関係に基づき補正してよい。具体的には、オブジェクト画像補正部220は、位置関係特定部236が特定した位置関係に基づき、浅い位置にある血管810の画像を、深い位置にある血管810の画像より強調した補正画像を生成してよい。このように、オブジェクト画像補正部220は、より深い位置にあるオブジェクトの画像より、当該オブジェクトより浅い位置にあるオブジェクトが優先して表示されるべく、オブジェクト画像を補正してよい。
Note that the object
一例として、オブジェクト画像補正部220は、深い位置にある血管810の画像を深さに応じて補正して得られた画像に、浅い位置にある血管810の画像を深さに応じて補正して得られた画像で上書きしてよい。オブジェクト画像においては、血管810が重なって撮像されている領域の画素値は、深い位置にある血管810による画素値への寄与分と浅い位置にある血管810による画素値への寄与分との和に応じた値となっている。オブジェクト画像補正部220が、浅い位置にある血管810の画像を深さに応じて補正して得られた画像で上書きすることにより、血管810が重なって撮像される領域の画素値には、深い位置にある血管810は寄与せず、浅い位置にある血管810だけが寄与することになる。これにより、オブジェクト画像補正部220は、血管810が重なって撮像される領域においても、浅い位置にある血管810の境界および走行状態がより明確な補正画像を生成することができる。
As an example, the object
なお、図6から図9に関連して、2つの血管810の位置関係を特定して、特定した位置関係に応じた2つの血管810の画像を生成する場合を例に挙げて画像処理部200の動作を説明した。同様にして、画像処理部200は、3以上の血管810の位置関係を特定して、特定した位置関係に応じた3以上の血管810の画像を生成することができる。
6 to 9, the
以上説明したように、画像処理システム10によると、交差または重なって撮像された複数の血管810のジオメトリが適切に表現された補正画像を提供することができる。このため、医師などは、補正画像により血管810の走行状態を容易に視認することができる。
As described above, according to the
図10は、本実施形態に係る画像処理システム10のハードウェア構成の一例を示す。本実施形態に係る画像処理システム10は、ホスト・コントローラ1582により相互に接続されるCPU1505、RAM1520、グラフィック・コントローラ1575、および表示装置1580を有するCPU周辺部と、入出力コントローラ1584によりホスト・コントローラ1582に接続される通信インターフェイス1530、ハードディスクドライブ1540、およびCD−ROMドライブ1560を有する入出力部と、入出力コントローラ1584に接続されるROM1510、フレキシブルディスク・ドライブ1550、および入出力チップ1570を有するレガシー入出力部と、を備える。
FIG. 10 shows an example of a hardware configuration of the
ホスト・コントローラ1582は、RAM1520と、高い転送レートでRAM1520をアクセスするCPU1505およびグラフィック・コントローラ1575とを接続する。CPU1505は、ROM1510およびRAM1520に格納されたプログラムに基づいて動作して、各部を制御する。グラフィック・コントローラ1575は、CPU1505等がRAM1520内に設けたフレーム・バッファ上に生成する画像データを取得して、表示装置1580上に表示させる。これに代えて、グラフィック・コントローラ1575は、CPU1505等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。
The
入出力コントローラ1584は、ホスト・コントローラ1582と、比較的高速な入出力装置である通信インターフェイス1530、ハードディスクドライブ1540、CD−ROMドライブ1560を接続する。通信インターフェイス1530は、ネットワークを介して他の装置と通信する。ハードディスクドライブ1540は、画像処理システム10内のCPU1505が使用するプログラムおよびデータを格納する。CD−ROMドライブ1560は、CD−ROM1595からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540に提供する。
The input /
また、入出力コントローラ1584には、ROM1510と、フレキシブルディスク・ドライブ1550、および入出力チップ1570の比較的低速な入出力装置とが接続される。ROM1510は、画像処理システム10が起動時に実行するブート・プログラム、画像処理システム10のハードウェアに依存するプログラム等を格納する。フレキシブルディスク・ドライブ1550は、フレキシブルディスク1590からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540に提供する。入出力チップ1570は、フレキシブルディスク・ドライブ1550、例えばパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を接続する。
The input /
RAM1520を介してハードディスクドライブ1540に提供される通信プログラムは、フレキシブルディスク1590、CD−ROM1595、またはICカード等の記録媒体に格納されて利用者によって提供される。通信プログラムは、記録媒体から読み出され、RAM1520を介して画像処理システム10内のハードディスクドライブ1540にインストールされ、CPU1505において実行される。画像処理システム10にインストールされて実行される通信プログラムは、CPU1505等に働きかけて、画像処理システム10を、図1から図9にかけて説明した画像処理部200等として機能させる。
A communication program provided to the
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.
たとえばICGからの蛍光強度は、ICGの検体800内部における濃度に依存すると考えられる。ICGは検体800で代謝されることによって減少するから、ICG濃度の減少による蛍光強度の補償を実施することが好ましい。当該補償の方法として、ICG投与からの経過時間に応じてICGを追加投与する方法が例示できる。また、ICG濃度の減少を補償するように励起光強度を増加する方法、あるいは蛍光強度に依存する補正値の値を補償する方法が例示できる。
For example, the fluorescence intensity from ICG is considered to depend on the concentration of ICG in the
また、前記した実施形態では、内視鏡100を利用して検体800の内部の画像を補正する例を示した。しかし、本実施形態の画像処理システム10は、検体800内部の観察画像に適用が限定されるわけではない。たとえば検体800の外部から励起光あるいは照射光を照射して、検体800の外部から観察できる表面の深部に存在するオブジェクトの画像を補正する場合に適用してもよい。
In the above-described embodiment, an example in which an image inside the
前記した実施形態では、オブジェクトの内部に含まれるルミネッセンス物質が発する蛍光を利用してオブジェクト画像を取得する例を主に説明した。しかし、オブジェクト画像は、オブジェクトに可視光、赤外線その他の波長範囲の光を照射して、その反射光を撮像することにより取得することもできる。 In the above-described embodiment, the example in which the object image is acquired using the fluorescence emitted from the luminescent substance contained in the object has been mainly described. However, the object image can also be obtained by irradiating the object with visible light, infrared light or other light in the wavelength range and imaging the reflected light.
10 画像処理システム
100 内視鏡
102 先端部
110 撮像部
112 対物レンズ
120 ライトガイド
122 IRライトガイド
124 Rライトガイド
126 Gライトガイド
128 Bライトガイド
130 鉗子口
135 鉗子
140 ノズル
200 画像処理部
210 オブジェクト画像取得部
212 特定波長画像取得部
214 表面画像取得部
216 オブジェクト領域特定部
218 算出部
220 オブジェクト画像補正部
222 補正テーブル
224 補間画像生成部
226 表示制御部
230 オブジェクト画像生成部
232 オブジェクト予測画像生成部
234 画像比較部
236 位置関係特定部
238 大きさ特定部
300 表示部
310 表示画面
320 血管
330 血管
400 撮像制御部
500 発光部
600 発光制御部
610 血管部分像
630 領域
900 表面
700 ICG注入部
800 検体
810 血管
1505 CPU
1510 ROM
1520 RAM
1530 通信インターフェイス
1540 ハードディスクドライブ
1550 フレキシブルディスク・ドライブ
1560 CD−ROMドライブ
1570 入出力チップ
1575 グラフィック・コントローラ
1580 表示装置
1582 ホスト・コントローラ
1584 入出力コントローラ
1590 フレキシブルディスク
1595 CD−ROM
DESCRIPTION OF
1510 ROM
1520 RAM
1530
Claims (25)
前記特定波長領域が異なる複数の前記特定波長画像から、前記オブジェクトの前記物質の表面からの深さを算出する深さ算出部と、
前記深さ算出部が算出した前記オブジェクトの前記深さに応じた前記オブジェクトの画像を生成するオブジェクト画像生成部と、
を備える画像処理システム。 A specific wavelength image acquisition unit that acquires a specific wavelength image that is an image of light that belongs to a specific wavelength region and is light from an object existing inside the substance;
A depth calculator that calculates the depth of the object from the surface of the substance from a plurality of the specific wavelength images having different specific wavelength regions;
An object image generation unit that generates an image of the object according to the depth of the object calculated by the depth calculation unit;
An image processing system comprising:
をさらに備え、
前記オブジェクト画像生成部は、
前記深さ算出部が算出した前記オブジェクトの前記深さに応じて前記オブジェクト画像を補正するオブジェクト画像補正部
を有する
請求項1に記載の画像処理システム。 An object image acquisition unit that acquires an object image that is an image of light from the object;
The object image generation unit
The image processing system according to claim 1, further comprising: an object image correction unit that corrects the object image according to the depth of the object calculated by the depth calculation unit.
請求項1または2に記載の画像処理システム。 The specific wavelength image acquisition unit acquires a reflected light image that is an image of reflected light reflected from the object as the specific wavelength image.
The image processing system according to claim 1 or 2.
請求項3に記載の画像処理システム。 The specific wavelength image acquisition unit acquires, as the specific wavelength image, a reflected light image that is an image of reflected light belonging to the specific wavelength region among reflected light reflected from the object by irradiating the object with white light. To
The image processing system according to claim 3.
請求項3に記載の画像処理システム。 The specific wavelength image acquisition unit acquires a reflected light image, which is an image of reflected light reflected from the object by irradiating the object with irradiation light belonging to the specific wavelength region, as the specific wavelength image.
The image processing system according to claim 3.
請求項1または2に記載の画像処理システム。 The specific wavelength image acquisition unit acquires, as the specific wavelength image, a light emission image that is an image of light belonging to the specific wavelength region among light emitted from a luminescent substance inside the object.
The image processing system according to claim 1 or 2.
前記深さ算出部は、前記オブジェクト領域特定部が特定した前記画像領域における輝度に基づいて前記深さを算出する、
請求項1または2に記載の画像処理システム。 An object region specifying unit that specifies an image region of the object for each of the plurality of specific wavelength images;
The depth calculation unit calculates the depth based on luminance in the image region specified by the object region specification unit.
The image processing system according to claim 1 or 2.
請求項7に記載の画像処理システム。 The depth calculation unit calculates the depth based on a ratio of the luminance of the image region in the specific wavelength region in the short wavelength region to the luminance of the image region in the specific wavelength region in the long wavelength region,
The image processing system according to claim 7.
請求項7に記載の画像処理システム。 The depth calculation unit calculates the depth based on a maximum luminance or an average luminance in the image region;
The image processing system according to claim 7.
請求項7に記載の画像処理システム。 The depth calculation unit calculates the depth based on a change rate of luminance at an end of the image region;
The image processing system according to claim 7.
請求項7に記載の画像処理システム。 The image processing system according to claim 7, wherein the depth calculation unit calculates the depth based on luminance in the image region specified by the object region specification unit and optical characteristics of the substance.
請求項11に記載の画像処理システム。 The image processing system according to claim 11, wherein the object image acquisition unit acquires an object image that is an image of scattered light in which light from the object is scattered from the object to the surface.
請求項12に記載の画像処理システム。 The image processing system according to claim 12, wherein the depth calculation unit calculates the depth based on luminance in the image region specified by the object region specifying unit and scattering characteristics in which the substance scatters light. .
前記オブジェクト画像補正部は、前記補正値を適用して、前記オブジェクト画像における前記オブジェクトの広がりを補正する、
請求項2に記載の画像処理システム。 A correction table that records correction values for correcting the spread of the object in the object image in association with the depth of the object;
The object image correction unit applies the correction value to correct the spread of the object in the object image;
The image processing system according to claim 2.
前記ルミネッセンス物質が発する光および前記照射光が前記オブジェクトで反射する反射光の画像を撮像する撮像部と、
前記オブジェクト画像補正部が補正した補正画像を表示する表示部と、
をさらに備える請求項2に記載の画像処理システム。 A light emitting unit for generating excitation light for exciting a luminescent substance inside the object and irradiation light for irradiating the object;
An imaging unit that captures an image of light emitted from the luminescent material and reflected light reflected by the object with the irradiation light;
A display unit for displaying a corrected image corrected by the object image correction unit;
The image processing system according to claim 2, further comprising:
前記表面画像および前記補正画像の前記表示部への表示を制御する表示制御部と、
をさらに備える請求項15に記載の画像処理システム。 A surface image acquisition unit that acquires a surface image that is an image of the surface of the substance;
A display control unit that controls display of the surface image and the correction image on the display unit;
The image processing system according to claim 15, further comprising:
請求項16に記載の画像処理システム。 The display control unit changes the brightness or color of the object in the corrected image according to the depth and displays the change on the display unit.
The image processing system according to claim 16.
請求項16に記載の画像処理システム。 The display control unit displays the surface image and the correction image side by side on the display unit.
The image processing system according to claim 16.
前記表示制御部は、前記補間画像を前記補正画像として前記表示部に表示する、
請求項16に記載の画像処理システム。 When the imaging timing of the surface image and the imaging timing of the correction image are different, an interpolation image generating unit that generates an interpolation image at the imaging timing of the surface image from the plurality of correction images that are continuous in time series is further provided. ,
The display control unit displays the interpolated image as the corrected image on the display unit.
The image processing system according to claim 16.
前記オブジェクト画像生成部は、
前記深さ算出部が複数の位置毎に算出した前記深さに基づいて、前記オブジェクト画像として撮像されている複数の前記オブジェクトの位置関係を特定する位置関係特定部をさらに有し、
前記オブジェクト画像補正部は、前記深さ算出部が複数の位置毎に算出した前記深さ、および前記位置関係特定部が特定した位置関係に応じて、前記オブジェクト画像を補正する
請求項2に記載の画像処理システム。 The depth calculation unit calculates, for each of the plurality of positions, the depth of the object captured at each of a plurality of different positions in the specific wavelength image from the plurality of the specific wavelength images,
The object image generation unit
A positional relationship specifying unit that specifies the positional relationship of the plurality of objects captured as the object image based on the depth calculated by the depth calculation unit for each of a plurality of positions;
The object image correction unit corrects the object image according to the depth calculated by the depth calculation unit for each of a plurality of positions and the positional relationship specified by the positional relationship specifying unit. Image processing system.
複数の前記オブジェクトが近接して存在する場合に得られるべき前記オブジェクトの画像であるオブジェクト予測画像を、複数の前記オブジェクトの位置関係が異なるそれぞれの場合について、前記深さ算出部が複数の位置毎に算出した前記深さに基づいて生成するオブジェクト予測画像生成部と、
前記オブジェクト予測画像生成部が生成した複数の前記オブジェクト予測画像を、前記オブジェクト画像とそれぞれ比較する画像比較部と、をさらに有し、
前記位置関係特定部は、前記画像比較部による比較結果に基づいて、前記オブジェクト画像として撮像されている複数の前記オブジェクトが近接して存在する領域における位置関係として、前記オブジェクト画像とより一致した前記オブジェクト予測画像が得られた位置関係をより優先して特定する
請求項20に記載の画像処理システム。 The object image generation unit
For each of the cases where the positional relationship of the plurality of objects is different, the depth calculation unit calculates the object prediction image that is an image of the object to be obtained when the plurality of the objects are close to each other. An object predicted image generation unit that generates based on the calculated depth;
An image comparison unit that compares each of the plurality of object prediction images generated by the object prediction image generation unit with the object image;
The positional relationship specifying unit is more closely matched to the object image as a positional relationship in a region where a plurality of the objects captured as the object image are present based on a comparison result by the image comparing unit. The image processing system according to claim 20, wherein the positional relationship from which the object predicted image is obtained is specified with higher priority.
請求項21に記載の画像処理システム。 The image processing system according to claim 21, wherein the object image correction unit corrects the object image so that the object at a shallower position is displayed with higher priority.
前記深さ算出部が算出した前記深さに前記オブジェクトが存在する場合に得られるべき前記オブジェクトの画像であるオブジェクト予測画像を、前記オブジェクトが異なる大きさであるそれぞれの場合について、前記深さ算出部が算出した前記深さに基づいて生成するオブジェクト予測画像生成部と、
前記オブジェクト予測画像生成部が生成した複数の前記オブジェクト予測画像を、前記オブジェクト画像とそれぞれ比較する画像比較部と、
前記画像比較部による比較結果に基づいて、前記オブジェクト画像として撮像されている前記オブジェクトの大きさとして、前記オブジェクト画像とより一致した前記オブジェクト予測画像が得られた大きさをより優先して特定する大きさ特定部と、をさらに有し、
前記オブジェクト画像補正部は、前記オブジェクト画像の大きさを、前記大きさ特定部が特定した大きさに応じた大きさに補正する
請求項2に記載の画像処理システム。 The object image generation unit
An object predicted image, which is an image of the object to be obtained when the object exists at the depth calculated by the depth calculation unit, is calculated for each case where the object has a different size. An object predicted image generation unit that generates based on the depth calculated by the unit;
An image comparison unit that compares the plurality of object prediction images generated by the object prediction image generation unit with the object image;
Based on the comparison result by the image comparison unit, the size of the object image captured as the object image is specified with higher priority as the size of the predicted object image that more closely matches the object image. A size specifying part,
The image processing system according to claim 2, wherein the object image correcting unit corrects the size of the object image to a size according to the size specified by the size specifying unit.
前記特定波長領域が異なる複数の前記特定波長画像から、前記オブジェクトの前記物質の表面からの深さを算出する深さ算出段階と、
前記深さ算出段階において算出した前記オブジェクトの前記深さに応じた前記オブジェクトの画像を生成するオブジェクト画像生成段階と、
を備える画像処理方法。 A specific wavelength image acquisition step of acquiring a specific wavelength image, which is an image of light belonging to a specific wavelength region, which is light from an object existing inside the substance;
A depth calculating step of calculating a depth of the object from the surface of the substance from a plurality of the specific wavelength images having different specific wavelength regions;
An object image generation step of generating an image of the object according to the depth of the object calculated in the depth calculation step;
An image processing method comprising:
物質の内部に存在するオブジェクトからの光であって特定波長領域に属する光の画像である特定波長画像を取得する特定波長画像取得部、
前記特定波長領域が異なる複数の前記特定波長画像から、前記オブジェクトの前記物質の表面からの深さを算出する深さ算出部、
前記深さ算出部が算出した前記オブジェクトの前記深さに応じた前記オブジェクトの画像を生成するオブジェクト画像生成部、
として機能させるプログラム。 A program for an image processing system, wherein the image processing system is
A specific wavelength image acquisition unit that acquires a specific wavelength image that is an image of light that belongs to a specific wavelength region and is light from an object existing inside the substance;
A depth calculation unit for calculating a depth of the object from the surface of the substance from a plurality of the specific wavelength images having different specific wavelength regions;
An object image generation unit configured to generate an image of the object according to the depth of the object calculated by the depth calculation unit;
Program to function as.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008167820A JP5435532B2 (en) | 2007-07-17 | 2008-06-26 | Image processing system |
US12/174,404 US7767980B2 (en) | 2007-07-17 | 2008-07-16 | Image processing system, image processing method and computer readable medium |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007186198 | 2007-07-17 | ||
JP2007186198 | 2007-07-17 | ||
JP2008167820A JP5435532B2 (en) | 2007-07-17 | 2008-06-26 | Image processing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009039515A true JP2009039515A (en) | 2009-02-26 |
JP5435532B2 JP5435532B2 (en) | 2014-03-05 |
Family
ID=40440906
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008167820A Active JP5435532B2 (en) | 2007-07-17 | 2008-06-26 | Image processing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5435532B2 (en) |
Cited By (60)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011062408A (en) * | 2009-09-18 | 2011-03-31 | Fujifilm Corp | Fluorescent image imaging device |
JP2011167349A (en) * | 2010-02-18 | 2011-09-01 | Olympus Medical Systems Corp | Image processor and image processing method |
JP2012213552A (en) * | 2011-04-01 | 2012-11-08 | Fujifilm Corp | Endoscope system, processor device of endoscope system, and image processing method |
JP2013255813A (en) * | 2013-07-17 | 2013-12-26 | Fujifilm Corp | Fluorescence image capturing device |
US9262687B2 (en) | 2012-12-19 | 2016-02-16 | Olympus Corporation | Image processing apparatus and method of operation of image processing appartus |
JP2017184861A (en) * | 2016-04-01 | 2017-10-12 | 富士フイルム株式会社 | Image processing device and operation method of the same, and processor device for endoscope and operation method of the same |
JP2021509831A (en) * | 2017-12-28 | 2021-04-08 | エシコン エルエルシーEthicon LLC | Determining Backscattered Light Characteristics Using Laser Light and Red-Green-Blue Coloring |
CN114469008A (en) * | 2022-03-09 | 2022-05-13 | 浙江大学 | Blood vessel puncture difficulty intelligent grading device based on blood vessel near-infrared imaging |
US11589915B2 (en) | 2018-03-08 | 2023-02-28 | Cilag Gmbh International | In-the-jaw classifier based on a model |
US11589932B2 (en) | 2017-12-28 | 2023-02-28 | Cilag Gmbh International | Usage and technique analysis of surgeon / staff performance against a baseline to optimize device utilization and performance for both current and future procedures |
US11589865B2 (en) | 2018-03-28 | 2023-02-28 | Cilag Gmbh International | Methods for controlling a powered surgical stapler that has separate rotary closure and firing systems |
US11601371B2 (en) | 2017-12-28 | 2023-03-07 | Cilag Gmbh International | Surgical network determination of prioritization of communication, interaction, or processing based on system or device needs |
US11648022B2 (en) | 2017-10-30 | 2023-05-16 | Cilag Gmbh International | Surgical instrument systems comprising battery arrangements |
US11659023B2 (en) | 2017-12-28 | 2023-05-23 | Cilag Gmbh International | Method of hub communication |
US11666331B2 (en) | 2017-12-28 | 2023-06-06 | Cilag Gmbh International | Systems for detecting proximity of surgical end effector to cancerous tissue |
US11672605B2 (en) | 2017-12-28 | 2023-06-13 | Cilag Gmbh International | Sterile field interactive control displays |
US11678881B2 (en) | 2017-12-28 | 2023-06-20 | Cilag Gmbh International | Spatial awareness of surgical hubs in operating rooms |
US11696760B2 (en) | 2017-12-28 | 2023-07-11 | Cilag Gmbh International | Safety systems for smart powered surgical stapling |
US11701185B2 (en) | 2017-12-28 | 2023-07-18 | Cilag Gmbh International | Wireless pairing of a surgical device with another device within a sterile surgical field based on the usage and situational awareness of devices |
US11701139B2 (en) | 2018-03-08 | 2023-07-18 | Cilag Gmbh International | Methods for controlling temperature in ultrasonic device |
US11707293B2 (en) | 2018-03-08 | 2023-07-25 | Cilag Gmbh International | Ultrasonic sealing algorithm with temperature control |
US11737668B2 (en) | 2017-12-28 | 2023-08-29 | Cilag Gmbh International | Communication hub and storage device for storing parameters and status of a surgical device to be shared with cloud based analytics systems |
US11744604B2 (en) | 2017-12-28 | 2023-09-05 | Cilag Gmbh International | Surgical instrument with a hardware-only control circuit |
US11751872B2 (en) | 2019-02-19 | 2023-09-12 | Cilag Gmbh International | Insertable deactivator element for surgical stapler lockouts |
US11751958B2 (en) | 2017-12-28 | 2023-09-12 | Cilag Gmbh International | Surgical hub coordination of control and communication of operating room devices |
US11771487B2 (en) | 2017-12-28 | 2023-10-03 | Cilag Gmbh International | Mechanisms for controlling different electromechanical systems of an electrosurgical instrument |
US11775682B2 (en) | 2017-12-28 | 2023-10-03 | Cilag Gmbh International | Data stripping method to interrogate patient records and create anonymized record |
US11779337B2 (en) | 2017-12-28 | 2023-10-10 | Cilag Gmbh International | Method of using reinforced flexible circuits with multiple sensors to optimize performance of radio frequency devices |
US11786245B2 (en) | 2017-12-28 | 2023-10-17 | Cilag Gmbh International | Surgical systems with prioritized data transmission capabilities |
US11786251B2 (en) | 2017-12-28 | 2023-10-17 | Cilag Gmbh International | Method for adaptive control schemes for surgical network control and interaction |
US11801098B2 (en) | 2017-10-30 | 2023-10-31 | Cilag Gmbh International | Method of hub communication with surgical instrument systems |
US11818052B2 (en) | 2017-12-28 | 2023-11-14 | Cilag Gmbh International | Surgical network determination of prioritization of communication, interaction, or processing based on system or device needs |
US11832899B2 (en) | 2017-12-28 | 2023-12-05 | Cilag Gmbh International | Surgical systems with autonomously adjustable control programs |
US11844579B2 (en) | 2017-12-28 | 2023-12-19 | Cilag Gmbh International | Adjustments based on airborne particle properties |
US11857152B2 (en) | 2017-12-28 | 2024-01-02 | Cilag Gmbh International | Surgical hub spatial awareness to determine devices in operating theater |
US11864728B2 (en) | 2017-12-28 | 2024-01-09 | Cilag Gmbh International | Characterization of tissue irregularities through the use of mono-chromatic light refractivity |
US11871901B2 (en) | 2012-05-20 | 2024-01-16 | Cilag Gmbh International | Method for situational awareness for surgical network or surgical network connected device capable of adjusting function based on a sensed situation or usage |
US11890065B2 (en) | 2017-12-28 | 2024-02-06 | Cilag Gmbh International | Surgical system to limit displacement |
US11896322B2 (en) | 2017-12-28 | 2024-02-13 | Cilag Gmbh International | Sensing the patient position and contact utilizing the mono-polar return pad electrode to provide situational awareness to the hub |
US11896443B2 (en) | 2017-12-28 | 2024-02-13 | Cilag Gmbh International | Control of a surgical system through a surgical barrier |
US11903601B2 (en) | 2017-12-28 | 2024-02-20 | Cilag Gmbh International | Surgical instrument comprising a plurality of drive systems |
US11903587B2 (en) | 2017-12-28 | 2024-02-20 | Cilag Gmbh International | Adjustment to the surgical stapling control based on situational awareness |
US11911045B2 (en) | 2017-10-30 | 2024-02-27 | Cllag GmbH International | Method for operating a powered articulating multi-clip applier |
US11925350B2 (en) | 2019-02-19 | 2024-03-12 | Cilag Gmbh International | Method for providing an authentication lockout in a surgical stapler with a replaceable cartridge |
US11931027B2 (en) | 2018-03-28 | 2024-03-19 | Cilag Gmbh Interntional | Surgical instrument comprising an adaptive control system |
US11937769B2 (en) | 2017-12-28 | 2024-03-26 | Cilag Gmbh International | Method of hub communication, processing, storage and display |
US11969216B2 (en) | 2017-12-28 | 2024-04-30 | Cilag Gmbh International | Surgical network recommendations from real time analysis of procedure variables against a baseline highlighting differences from the optimal solution |
US11969142B2 (en) | 2017-12-28 | 2024-04-30 | Cilag Gmbh International | Method of compressing tissue within a stapling device and simultaneously displaying the location of the tissue within the jaws |
US11998193B2 (en) | 2017-12-28 | 2024-06-04 | Cilag Gmbh International | Method for usage of the shroud as an aspect of sensing or controlling a powered surgical device, and a control algorithm to adjust its default operation |
US12009095B2 (en) | 2017-12-28 | 2024-06-11 | Cilag Gmbh International | Real-time analysis of comprehensive cost of all instrumentation used in surgery utilizing data fluidity to track instruments through stocking and in-house processes |
US12029506B2 (en) | 2017-12-28 | 2024-07-09 | Cilag Gmbh International | Method of cloud based data analytics for use with the hub |
US12035890B2 (en) | 2017-12-28 | 2024-07-16 | Cilag Gmbh International | Method of sensing particulate from smoke evacuated from a patient, adjusting the pump speed based on the sensed information, and communicating the functional parameters of the system to the hub |
US12035983B2 (en) | 2017-10-30 | 2024-07-16 | Cilag Gmbh International | Method for producing a surgical instrument comprising a smart electrical system |
US12042207B2 (en) | 2017-12-28 | 2024-07-23 | Cilag Gmbh International | Estimating state of ultrasonic end effector and control system therefor |
US12048496B2 (en) | 2017-12-28 | 2024-07-30 | Cilag Gmbh International | Adaptive control program updates for surgical hubs |
US12062442B2 (en) | 2017-12-28 | 2024-08-13 | Cilag Gmbh International | Method for operating surgical instrument systems |
US12059169B2 (en) | 2017-12-28 | 2024-08-13 | Cilag Gmbh International | Controlling an ultrasonic surgical instrument according to tissue location |
US12059218B2 (en) | 2017-10-30 | 2024-08-13 | Cilag Gmbh International | Method of hub communication with surgical instrument systems |
US12076010B2 (en) | 2017-12-28 | 2024-09-03 | Cilag Gmbh International | Surgical instrument cartridge sensor assemblies |
US12096985B2 (en) | 2021-03-24 | 2024-09-24 | Cilag Gmbh International | Surgical network recommendations from real time analysis of procedure variables against a baseline highlighting differences from the optimal solution |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1997024066A1 (en) * | 1995-12-27 | 1997-07-10 | Toa Medical Electronics Co., Ltd. | Noninvasive blood examination apparatus |
JPH10165365A (en) * | 1996-12-10 | 1998-06-23 | Fuji Photo Film Co Ltd | Endoscope |
JP2001170009A (en) * | 1999-12-20 | 2001-06-26 | Olympus Optical Co Ltd | Subject observing instrument |
JP2002034893A (en) * | 2000-07-27 | 2002-02-05 | Olympus Optical Co Ltd | Endoscope instrument |
JP2002107291A (en) * | 2000-10-03 | 2002-04-10 | Sysmex Corp | Non-invasive biological measuring device and method |
JP2003290126A (en) * | 2002-03-29 | 2003-10-14 | Olympus Optical Co Ltd | Sentinel lymph node-detecting apparatus and method therefor |
JP2004181096A (en) * | 2002-12-05 | 2004-07-02 | Olympus Corp | Method for processing image |
JP2006138860A (en) * | 1995-08-01 | 2006-06-01 | Medispectra Inc | Optical microprobe and spectral analysis method of material |
JP2006341078A (en) * | 2005-05-12 | 2006-12-21 | Olympus Medical Systems Corp | Biological observation system |
JP2007313169A (en) * | 2006-05-29 | 2007-12-06 | Olympus Corp | Lesion extractor and lesion extraction method |
-
2008
- 2008-06-26 JP JP2008167820A patent/JP5435532B2/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006138860A (en) * | 1995-08-01 | 2006-06-01 | Medispectra Inc | Optical microprobe and spectral analysis method of material |
WO1997024066A1 (en) * | 1995-12-27 | 1997-07-10 | Toa Medical Electronics Co., Ltd. | Noninvasive blood examination apparatus |
JPH10165365A (en) * | 1996-12-10 | 1998-06-23 | Fuji Photo Film Co Ltd | Endoscope |
JP2001170009A (en) * | 1999-12-20 | 2001-06-26 | Olympus Optical Co Ltd | Subject observing instrument |
JP2002034893A (en) * | 2000-07-27 | 2002-02-05 | Olympus Optical Co Ltd | Endoscope instrument |
JP2002107291A (en) * | 2000-10-03 | 2002-04-10 | Sysmex Corp | Non-invasive biological measuring device and method |
JP2003290126A (en) * | 2002-03-29 | 2003-10-14 | Olympus Optical Co Ltd | Sentinel lymph node-detecting apparatus and method therefor |
JP2004181096A (en) * | 2002-12-05 | 2004-07-02 | Olympus Corp | Method for processing image |
JP2006341078A (en) * | 2005-05-12 | 2006-12-21 | Olympus Medical Systems Corp | Biological observation system |
JP2007313169A (en) * | 2006-05-29 | 2007-12-06 | Olympus Corp | Lesion extractor and lesion extraction method |
Cited By (79)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011062408A (en) * | 2009-09-18 | 2011-03-31 | Fujifilm Corp | Fluorescent image imaging device |
JP2011167349A (en) * | 2010-02-18 | 2011-09-01 | Olympus Medical Systems Corp | Image processor and image processing method |
JP2012213552A (en) * | 2011-04-01 | 2012-11-08 | Fujifilm Corp | Endoscope system, processor device of endoscope system, and image processing method |
US11871901B2 (en) | 2012-05-20 | 2024-01-16 | Cilag Gmbh International | Method for situational awareness for surgical network or surgical network connected device capable of adjusting function based on a sensed situation or usage |
US9262687B2 (en) | 2012-12-19 | 2016-02-16 | Olympus Corporation | Image processing apparatus and method of operation of image processing appartus |
JPWO2014097758A1 (en) * | 2012-12-19 | 2017-01-12 | オリンパス株式会社 | Image processing device |
JP2013255813A (en) * | 2013-07-17 | 2013-12-26 | Fujifilm Corp | Fluorescence image capturing device |
JP2017184861A (en) * | 2016-04-01 | 2017-10-12 | 富士フイルム株式会社 | Image processing device and operation method of the same, and processor device for endoscope and operation method of the same |
US10986980B2 (en) | 2016-04-01 | 2021-04-27 | Fujifilm Corporation | Image processing device, method for operating same, endoscope processor device, and method for operating same |
US11911045B2 (en) | 2017-10-30 | 2024-02-27 | Cllag GmbH International | Method for operating a powered articulating multi-clip applier |
US11925373B2 (en) | 2017-10-30 | 2024-03-12 | Cilag Gmbh International | Surgical suturing instrument comprising a non-circular needle |
US12035983B2 (en) | 2017-10-30 | 2024-07-16 | Cilag Gmbh International | Method for producing a surgical instrument comprising a smart electrical system |
US12059218B2 (en) | 2017-10-30 | 2024-08-13 | Cilag Gmbh International | Method of hub communication with surgical instrument systems |
US11819231B2 (en) | 2017-10-30 | 2023-11-21 | Cilag Gmbh International | Adaptive control programs for a surgical system comprising more than one type of cartridge |
US11801098B2 (en) | 2017-10-30 | 2023-10-31 | Cilag Gmbh International | Method of hub communication with surgical instrument systems |
US11648022B2 (en) | 2017-10-30 | 2023-05-16 | Cilag Gmbh International | Surgical instrument systems comprising battery arrangements |
US11793537B2 (en) | 2017-10-30 | 2023-10-24 | Cilag Gmbh International | Surgical instrument comprising an adaptive electrical system |
US11759224B2 (en) | 2017-10-30 | 2023-09-19 | Cilag Gmbh International | Surgical instrument systems comprising handle arrangements |
US11696778B2 (en) | 2017-10-30 | 2023-07-11 | Cilag Gmbh International | Surgical dissectors configured to apply mechanical and electrical energy |
US11678881B2 (en) | 2017-12-28 | 2023-06-20 | Cilag Gmbh International | Spatial awareness of surgical hubs in operating rooms |
US11890065B2 (en) | 2017-12-28 | 2024-02-06 | Cilag Gmbh International | Surgical system to limit displacement |
US11696760B2 (en) | 2017-12-28 | 2023-07-11 | Cilag Gmbh International | Safety systems for smart powered surgical stapling |
US11672605B2 (en) | 2017-12-28 | 2023-06-13 | Cilag Gmbh International | Sterile field interactive control displays |
US11701185B2 (en) | 2017-12-28 | 2023-07-18 | Cilag Gmbh International | Wireless pairing of a surgical device with another device within a sterile surgical field based on the usage and situational awareness of devices |
US12076010B2 (en) | 2017-12-28 | 2024-09-03 | Cilag Gmbh International | Surgical instrument cartridge sensor assemblies |
JP2021509831A (en) * | 2017-12-28 | 2021-04-08 | エシコン エルエルシーEthicon LLC | Determining Backscattered Light Characteristics Using Laser Light and Red-Green-Blue Coloring |
US11712303B2 (en) | 2017-12-28 | 2023-08-01 | Cilag Gmbh International | Surgical instrument comprising a control circuit |
US11737668B2 (en) | 2017-12-28 | 2023-08-29 | Cilag Gmbh International | Communication hub and storage device for storing parameters and status of a surgical device to be shared with cloud based analytics systems |
US11744604B2 (en) | 2017-12-28 | 2023-09-05 | Cilag Gmbh International | Surgical instrument with a hardware-only control circuit |
US12059124B2 (en) | 2017-12-28 | 2024-08-13 | Cilag Gmbh International | Surgical hub spatial awareness to determine devices in operating theater |
US11751958B2 (en) | 2017-12-28 | 2023-09-12 | Cilag Gmbh International | Surgical hub coordination of control and communication of operating room devices |
US11666331B2 (en) | 2017-12-28 | 2023-06-06 | Cilag Gmbh International | Systems for detecting proximity of surgical end effector to cancerous tissue |
US11771487B2 (en) | 2017-12-28 | 2023-10-03 | Cilag Gmbh International | Mechanisms for controlling different electromechanical systems of an electrosurgical instrument |
US11775682B2 (en) | 2017-12-28 | 2023-10-03 | Cilag Gmbh International | Data stripping method to interrogate patient records and create anonymized record |
US11779337B2 (en) | 2017-12-28 | 2023-10-10 | Cilag Gmbh International | Method of using reinforced flexible circuits with multiple sensors to optimize performance of radio frequency devices |
US11786245B2 (en) | 2017-12-28 | 2023-10-17 | Cilag Gmbh International | Surgical systems with prioritized data transmission capabilities |
US11786251B2 (en) | 2017-12-28 | 2023-10-17 | Cilag Gmbh International | Method for adaptive control schemes for surgical network control and interaction |
US11659023B2 (en) | 2017-12-28 | 2023-05-23 | Cilag Gmbh International | Method of hub communication |
JP7234238B2 (en) | 2017-12-28 | 2023-03-07 | エシコン エルエルシー | Characterization of backscattered light using laser light and red-green-blue coloration |
US11818052B2 (en) | 2017-12-28 | 2023-11-14 | Cilag Gmbh International | Surgical network determination of prioritization of communication, interaction, or processing based on system or device needs |
US11601371B2 (en) | 2017-12-28 | 2023-03-07 | Cilag Gmbh International | Surgical network determination of prioritization of communication, interaction, or processing based on system or device needs |
US11832899B2 (en) | 2017-12-28 | 2023-12-05 | Cilag Gmbh International | Surgical systems with autonomously adjustable control programs |
US12059169B2 (en) | 2017-12-28 | 2024-08-13 | Cilag Gmbh International | Controlling an ultrasonic surgical instrument according to tissue location |
US12062442B2 (en) | 2017-12-28 | 2024-08-13 | Cilag Gmbh International | Method for operating surgical instrument systems |
US11844579B2 (en) | 2017-12-28 | 2023-12-19 | Cilag Gmbh International | Adjustments based on airborne particle properties |
US11857152B2 (en) | 2017-12-28 | 2024-01-02 | Cilag Gmbh International | Surgical hub spatial awareness to determine devices in operating theater |
US11864728B2 (en) | 2017-12-28 | 2024-01-09 | Cilag Gmbh International | Characterization of tissue irregularities through the use of mono-chromatic light refractivity |
US11864845B2 (en) | 2017-12-28 | 2024-01-09 | Cilag Gmbh International | Sterile field interactive control displays |
US12053159B2 (en) | 2017-12-28 | 2024-08-06 | Cilag Gmbh International | Method of sensing particulate from smoke evacuated from a patient, adjusting the pump speed based on the sensed information, and communicating the functional parameters of the system to the hub |
US12048496B2 (en) | 2017-12-28 | 2024-07-30 | Cilag Gmbh International | Adaptive control program updates for surgical hubs |
US11896322B2 (en) | 2017-12-28 | 2024-02-13 | Cilag Gmbh International | Sensing the patient position and contact utilizing the mono-polar return pad electrode to provide situational awareness to the hub |
US11896443B2 (en) | 2017-12-28 | 2024-02-13 | Cilag Gmbh International | Control of a surgical system through a surgical barrier |
US11903601B2 (en) | 2017-12-28 | 2024-02-20 | Cilag Gmbh International | Surgical instrument comprising a plurality of drive systems |
US11903587B2 (en) | 2017-12-28 | 2024-02-20 | Cilag Gmbh International | Adjustment to the surgical stapling control based on situational awareness |
US11589932B2 (en) | 2017-12-28 | 2023-02-28 | Cilag Gmbh International | Usage and technique analysis of surgeon / staff performance against a baseline to optimize device utilization and performance for both current and future procedures |
US11918302B2 (en) | 2017-12-28 | 2024-03-05 | Cilag Gmbh International | Sterile field interactive control displays |
US12042207B2 (en) | 2017-12-28 | 2024-07-23 | Cilag Gmbh International | Estimating state of ultrasonic end effector and control system therefor |
US12035890B2 (en) | 2017-12-28 | 2024-07-16 | Cilag Gmbh International | Method of sensing particulate from smoke evacuated from a patient, adjusting the pump speed based on the sensed information, and communicating the functional parameters of the system to the hub |
US12029506B2 (en) | 2017-12-28 | 2024-07-09 | Cilag Gmbh International | Method of cloud based data analytics for use with the hub |
US11937769B2 (en) | 2017-12-28 | 2024-03-26 | Cilag Gmbh International | Method of hub communication, processing, storage and display |
US11969216B2 (en) | 2017-12-28 | 2024-04-30 | Cilag Gmbh International | Surgical network recommendations from real time analysis of procedure variables against a baseline highlighting differences from the optimal solution |
US11969142B2 (en) | 2017-12-28 | 2024-04-30 | Cilag Gmbh International | Method of compressing tissue within a stapling device and simultaneously displaying the location of the tissue within the jaws |
US12009095B2 (en) | 2017-12-28 | 2024-06-11 | Cilag Gmbh International | Real-time analysis of comprehensive cost of all instrumentation used in surgery utilizing data fluidity to track instruments through stocking and in-house processes |
US11998193B2 (en) | 2017-12-28 | 2024-06-04 | Cilag Gmbh International | Method for usage of the shroud as an aspect of sensing or controlling a powered surgical device, and a control algorithm to adjust its default operation |
US11678927B2 (en) | 2018-03-08 | 2023-06-20 | Cilag Gmbh International | Detection of large vessels during parenchymal dissection using a smart blade |
US11707293B2 (en) | 2018-03-08 | 2023-07-25 | Cilag Gmbh International | Ultrasonic sealing algorithm with temperature control |
US11589915B2 (en) | 2018-03-08 | 2023-02-28 | Cilag Gmbh International | In-the-jaw classifier based on a model |
US11701139B2 (en) | 2018-03-08 | 2023-07-18 | Cilag Gmbh International | Methods for controlling temperature in ultrasonic device |
US11986233B2 (en) | 2018-03-08 | 2024-05-21 | Cilag Gmbh International | Adjustment of complex impedance to compensate for lost power in an articulating ultrasonic device |
US11844545B2 (en) | 2018-03-08 | 2023-12-19 | Cilag Gmbh International | Calcified vessel identification |
US11839396B2 (en) | 2018-03-08 | 2023-12-12 | Cilag Gmbh International | Fine dissection mode for tissue classification |
US11931027B2 (en) | 2018-03-28 | 2024-03-19 | Cilag Gmbh Interntional | Surgical instrument comprising an adaptive control system |
US11986185B2 (en) | 2018-03-28 | 2024-05-21 | Cilag Gmbh International | Methods for controlling a surgical stapler |
US11589865B2 (en) | 2018-03-28 | 2023-02-28 | Cilag Gmbh International | Methods for controlling a powered surgical stapler that has separate rotary closure and firing systems |
US12096916B2 (en) | 2018-12-04 | 2024-09-24 | Cilag Gmbh International | Method of sensing particulate from smoke evacuated from a patient, adjusting the pump speed based on the sensed information, and communicating the functional parameters of the system to the hub |
US11751872B2 (en) | 2019-02-19 | 2023-09-12 | Cilag Gmbh International | Insertable deactivator element for surgical stapler lockouts |
US11925350B2 (en) | 2019-02-19 | 2024-03-12 | Cilag Gmbh International | Method for providing an authentication lockout in a surgical stapler with a replaceable cartridge |
US12096985B2 (en) | 2021-03-24 | 2024-09-24 | Cilag Gmbh International | Surgical network recommendations from real time analysis of procedure variables against a baseline highlighting differences from the optimal solution |
CN114469008A (en) * | 2022-03-09 | 2022-05-13 | 浙江大学 | Blood vessel puncture difficulty intelligent grading device based on blood vessel near-infrared imaging |
Also Published As
Publication number | Publication date |
---|---|
JP5435532B2 (en) | 2014-03-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5435532B2 (en) | Image processing system | |
JP5278854B2 (en) | Image processing system and program | |
US7767980B2 (en) | Image processing system, image processing method and computer readable medium | |
JP5257891B2 (en) | Image processing system and program | |
US8633976B2 (en) | Position specifying system, position specifying method, and computer readable medium | |
JP2018514349A (en) | Multispectral laser imaging (MSLI) method and system for imaging and quantification of blood flow and perfusion | |
JP7190597B2 (en) | endoscope system | |
JP2008522761A (en) | Systems and methods for normalized fluorescence or bioluminescence imaging | |
JP2008173290A (en) | Fluorescence observation apparatus and method | |
JP6319449B2 (en) | Imaging device | |
WO2009120228A1 (en) | Image processing systems and methods for surgical applications | |
EP3945986A1 (en) | Near-infrared fluorescence imaging for blood flow and perfusion visualization and related systems and computer program products | |
JP2012050618A (en) | Image acquiring and displaying method, and image capturing and display device | |
US12052526B2 (en) | Imaging system having structural data enhancement for non-visible spectra | |
JP2018128294A (en) | Area of interest tracking device | |
JP6485275B2 (en) | Imaging device | |
AU2012236545B2 (en) | Apparatus and method for identifying one or more amyloid beta plaques in a plurality of discrete OCT retinal layers | |
US20190239749A1 (en) | Imaging apparatus | |
JP5087771B2 (en) | Imaging system, endoscope system, and program | |
JP2018126234A (en) | Time intensity curve measuring apparatus | |
JP6850358B2 (en) | Medical image processing system, endoscopy system, diagnostic support device, and medical business support device | |
JP6721939B2 (en) | Fluorescence image analyzer | |
EP4181758A1 (en) | Image-based determination of a property of a fluorescing substance | |
WO2024039586A1 (en) | Systems and methods for detecting and mitigating extraneous light at a scene |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120911 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120913 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130820 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131018 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131112 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131204 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5435532 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |