JP2024051351A - IMAGE PROCESSING APPARATUS, IMAGE DISPLAY SYSTEM, IMAGE DISPLAY METHOD, AND IMAGE PROCESSING PROGRAM - Google Patents

IMAGE PROCESSING APPARATUS, IMAGE DISPLAY SYSTEM, IMAGE DISPLAY METHOD, AND IMAGE PROCESSING PROGRAM Download PDF

Info

Publication number
JP2024051351A
JP2024051351A JP2022157478A JP2022157478A JP2024051351A JP 2024051351 A JP2024051351 A JP 2024051351A JP 2022157478 A JP2022157478 A JP 2022157478A JP 2022157478 A JP2022157478 A JP 2022157478A JP 2024051351 A JP2024051351 A JP 2024051351A
Authority
JP
Japan
Prior art keywords
cross
sectional
image
image processing
processing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022157478A
Other languages
Japanese (ja)
Inventor
泰一 坂本
俊祐 吉澤
クレモン ジャケ
ステフェン チェン
ヘクトル ピト
エドガル ボシェ
トマ エン
亮介 佐賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Terumo Corp
Rokken Inc
Original Assignee
Terumo Corp
Rokken Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Terumo Corp, Rokken Inc filed Critical Terumo Corp
Priority to JP2022157478A priority Critical patent/JP2024051351A/en
Priority to PCT/JP2023/034779 priority patent/WO2024071054A1/en
Publication of JP2024051351A publication Critical patent/JP2024051351A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters

Abstract

【課題】生体組織を表す3次元画像の生成時における拍動の影響を低減させる。【解決手段】画像処理装置は、生体組織の内腔を移動するセンサの移動方向における位置ごとに、前記センサを用いて互いに異なる時刻に得られた複数の断面画像を取得し、取得した複数の断面画像を解析して、当該複数の断面画像における前記内腔の断面積を算出し、算出した断面積に応じて、当該複数の断面画像の中から1つの断面画像を選択し、前記センサの移動方向における複数の位置について得られた選択画像群から、前記生体組織を表す3次元画像を生成する制御部を備える。【選択図】図3[Problem] To reduce the effect of pulsation when generating a three-dimensional image representing biological tissue. [Solution] An image processing device includes a control unit that acquires a plurality of cross-sectional images obtained at different times using a sensor moving through the lumen of the biological tissue for each position in the movement direction of the sensor, analyzes the acquired plurality of cross-sectional images, calculates a cross-sectional area of the lumen in the plurality of cross-sectional images, selects one cross-sectional image from the plurality of cross-sectional images according to the calculated cross-sectional area, and generates a three-dimensional image representing the biological tissue from a group of selected images acquired for a plurality of positions in the movement direction of the sensor. [Selected Figure] Figure 3

Description

本開示は、画像処理装置、画像表示システム、画像表示方法、及び画像処理プログラムに関する。 The present disclosure relates to an image processing device, an image display system, an image display method, and an image processing program.

特許文献1から特許文献3には、US画像システムを用いて心腔又は血管の3次元画像を生成する技術が記載されている。「US」は、ultrasoundの略語である。 Patent Documents 1 to 3 describe techniques for generating three-dimensional images of cardiac chambers or blood vessels using an US imaging system. "US" is an abbreviation for ultrasound.

米国特許出願公開第2010/0215238号明細書US Patent Application Publication No. 2010/0215238 米国特許第6385332号明細書U.S. Pat. No. 6,385,332 米国特許第6251072号明細書U.S. Pat. No. 6,251,072

心腔内、心臓血管、及び下肢動脈領域などに対してIVUSを用いる画像診断が広く行われている。「IVUS」は、intravascular ultrasoundの略語である。IVUSとはカテーテル長軸に対して垂直平面の2次元画像を提供するデバイス又は方法のことである。 Imaging diagnostics using IVUS is widely used for the cardiac cavity, cardiovascular system, and lower limb arterial region. "IVUS" is an abbreviation for intravascular ultrasound. IVUS is a device or method that provides two-dimensional images in a plane perpendicular to the catheter long axis.

現状として、術者はIVUSの2次元画像を順次観察しながら、頭の中で立体構造を想像して施術を行う必要があり、特に若年層の医師、又は経験の浅い医師にとって障壁がある。そのような障壁を取り除くために、IVUSの2次元画像から心腔又は血管などの生体組織の構造を表現する3次元画像を自動生成し、生成した3次元画像を術者に向けて表示することが考えられる。 Currently, surgeons must perform surgery by imagining the three-dimensional structure in their mind while sequentially observing two-dimensional IVUS images, which poses particular obstacles for younger or inexperienced physicians. In order to remove such obstacles, it is conceivable to automatically generate three-dimensional images that represent the structure of biological tissues such as cardiac chambers or blood vessels from two-dimensional IVUS images, and display the generated three-dimensional images to the surgeon.

心腔又は血管などの生体組織は、心臓の拍動の影響によって、大きさ及び形状が経時的に変化する。3次元画像の生成に用いられるIVUSの2次元画像は、全てが拍動の周期における同じタイミングで取得されるわけではないから、結果として凹凸のある3次元画像が描画されることになってしまう。術者にとって、そのような3次元画像から生体組織の構造を正確に把握することは難しい。 The size and shape of biological tissues such as cardiac chambers and blood vessels change over time due to the influence of cardiac pulsation. The two-dimensional IVUS images used to generate three-dimensional images are not all acquired at the same timing in the pulsation cycle, so the resulting three-dimensional images have irregularities. It is difficult for surgeons to accurately grasp the structure of biological tissues from such three-dimensional images.

本開示の目的は、生体組織を表す3次元画像の生成時における拍動の影響を低減させることである。 The objective of this disclosure is to reduce the effects of pulsation when generating three-dimensional images representing biological tissue.

本開示の幾つかの態様を以下に示す。 Some aspects of this disclosure are described below.

[1]
生体組織の内腔を移動するセンサの移動方向における位置ごとに、前記センサを用いて互いに異なる時刻に得られた複数の断面画像を取得し、取得した複数の断面画像を解析して、当該複数の断面画像における前記内腔の断面積を算出し、算出した断面積に応じて、当該複数の断面画像の中から1つの断面画像を選択し、前記センサの移動方向における複数の位置について得られた選択画像群から、前記生体組織を表す3次元画像を生成する制御部を備える画像処理装置。
[1]
An image processing device comprising: a control unit that acquires multiple cross-sectional images obtained at different times using a sensor for each position in a movement direction of the sensor moving through a cavity of a biological tissue, analyzes the acquired multiple cross-sectional images to calculate a cross-sectional area of the cavity in the multiple cross-sectional images, selects one cross-sectional image from the multiple cross-sectional images according to the calculated cross-sectional area, and generates a three-dimensional image representing the biological tissue from a group of selected images obtained for multiple positions in the movement direction of the sensor.

[2]
前記制御部は、前記センサの移動方向における位置ごとに、取得した複数の断面画像のうち前記内腔の断面積が最大の断面画像を選択する[1]に記載の画像処理装置。
[2]
The image processing device according to claim 1, wherein the control unit selects, for each position in the movement direction of the sensor, from among the multiple acquired cross-sectional images, a cross-sectional image having a maximum cross-sectional area of the lumen.

[3]
前記制御部は、前記センサの移動方向における位置ごとに、取得した複数の断面画像のうち前記内腔の断面積が最小の断面画像を選択する[1]に記載の画像処理装置。
[3]
The image processing device according to claim 1, wherein the control unit selects, for each position in the movement direction of the sensor, from among the multiple acquired cross-sectional images, a cross-sectional image having a smallest cross-sectional area of the lumen.

[4]
前記制御部は、前記センサの移動方向における位置ごとに、取得した複数の断面画像のうち前記内腔の断面積が中央値の断面画像を選択する[1]に記載の画像処理装置。
[4]
The image processing device according to claim 1, wherein the control unit selects, for each position in the movement direction of the sensor, from among the multiple acquired cross-sectional images, a cross-sectional image having a median cross-sectional area of the lumen.

[5]
前記制御部は、前記センサの移動方向における各位置を第1位置、1つ以上の別の位置を第2位置としたとき、前記第1位置について取得した複数の断面画像における前記内腔の断面積を、前記第2位置について得られた選択画像における前記内腔の断面積と比較し、得られた比較結果に応じて、当該複数の断面画像の中から1つの断面画像を選択する[1]に記載の画像処理装置。
[5]
The image processing device according to claim 1, wherein the control unit, when each position in the movement direction of the sensor is defined as a first position and one or more other positions are defined as a second position, compares a cross-sectional area of the inner cavity in a plurality of cross-sectional images acquired for the first position with a cross-sectional area of the inner cavity in a selected image acquired for the second position, and selects one cross-sectional image from the plurality of cross-sectional images depending on the obtained comparison result.

[6]
前記制御部は、前記第1位置について取得した複数の断面画像のうち、前記内腔の断面積と前記第2位置について得られた選択画像における前記内腔の断面積との差が最小の断面画像を選択する[5]に記載の画像処理装置。
[6]
The control unit selects, from among the multiple cross-sectional images acquired for the first position, a cross-sectional image in which a difference between a cross-sectional area of the inner cavity and a cross-sectional area of the inner cavity in a selected image acquired for the second position is the smallest.

[7]
前記第2位置は、前記センサの移動方向における前記第1位置の前後それぞれの少なくとも1つの位置を含む[5]又は[6]に記載の画像処理装置。
[7]
The image processing device according to any one of claims 5 to 6, wherein the second position includes at least one position before and after the first position in a movement direction of the sensor.

[8]
[1]から[7]のいずれか1項に記載の画像処理装置と、
前記3次元画像を表示するディスプレイと
を備える画像表示システム。
[8]
[1] to [7], and an image processing device according to any one of the above.
and a display for displaying the three-dimensional image.

[9]
生体組織の内腔を移動するセンサの移動方向における位置ごとに、前記センサを用いて互いに異なる時刻に得られた複数の断面画像を取得し、
取得した複数の断面画像を解析して、当該複数の断面画像における前記内腔の断面積を算出し、
算出した断面積に応じて、当該複数の断面画像の中から1つの断面画像を選択し、
前記センサの移動方向における複数の位置について得られた選択画像群から、前記生体組織を表す3次元画像を生成し、
生成した3次元画像をディスプレイに表示する画像表示方法。
[9]
acquiring a plurality of cross-sectional images obtained at different times using a sensor for each position in a moving direction of the sensor moving through a lumen of the biological tissue;
Analyzing the acquired cross-sectional images to calculate a cross-sectional area of the lumen in the cross-sectional images;
selecting one cross-sectional image from the plurality of cross-sectional images according to the calculated cross-sectional area;
generating a three-dimensional image representative of the biological tissue from a set of selected images obtained for a plurality of positions in a direction of movement of the sensor;
An image display method for displaying the generated three-dimensional image on a display.

[10]
生体組織の内腔を移動するセンサの移動方向における位置ごとに、前記センサを用いて互いに異なる時刻に得られた複数の断面画像を取得する処理と、
取得した複数の断面画像を解析して、当該複数の断面画像における前記内腔の断面積を算出する処理と、
算出した断面積に応じて、当該複数の断面画像の中から1つの断面画像を選択する処理と、
前記センサの移動方向における複数の位置について得られた選択画像群から、前記生体組織を表す3次元画像を生成する処理と
をコンピュータに実行させる画像処理プログラム。
[10]
A process of acquiring a plurality of cross-sectional images obtained at different times using a sensor moving through a lumen of a biological tissue for each position in a moving direction of the sensor;
A process of analyzing the acquired multiple cross-sectional images and calculating a cross-sectional area of the lumen in the multiple cross-sectional images;
selecting one cross-sectional image from the plurality of cross-sectional images according to the calculated cross-sectional area;
and generating a three-dimensional image representing the biological tissue from a group of selected images obtained for a plurality of positions in the movement direction of the sensor.

本開示によれば、生体組織を表す3次元画像の生成時における拍動の影響を低減させることができる。 According to the present disclosure, it is possible to reduce the effect of pulsation when generating a three-dimensional image representing biological tissue.

本開示の実施形態に係る画像表示システムの斜視図である。FIG. 1 is a perspective view of an image display system according to an embodiment of the present disclosure. 本開示の実施形態に係るプローブ及び駆動ユニットの斜視図である。FIG. 2 is a perspective view of a probe and a drive unit according to an embodiment of the present disclosure. 本開示の実施形態に係る複数の断面画像と、選択画像との例を示す図である。1A and 1B are diagrams illustrating an example of a plurality of cross-sectional images and a selection image according to an embodiment of the present disclosure. 本開示の実施形態に係るセンサを用いて得られた断面画像と、学習済みモデルによる分類後の断面画像との例を示す図である。A figure showing an example of a cross-sectional image obtained using a sensor according to an embodiment of the present disclosure and an example of a cross-sectional image after classification by a trained model. 本開示の実施形態に係る画像処理装置の構成を示すブロック図である。1 is a block diagram showing a configuration of an image processing device according to an embodiment of the present disclosure. 本開示の実施形態に係る画像表示システムの動作を示すフローチャートである。4 is a flowchart showing an operation of the image display system according to the embodiment of the present disclosure. 本開示の実施形態に係る画像表示システムの動作の具体例を示すフローチャートである。10 is a flowchart showing a specific example of the operation of the image display system according to an embodiment of the present disclosure. 本開示の実施形態に係る画像表示システムの動作の変形例を示すフローチャートである。10 is a flowchart showing a modified example of the operation of the image display system according to the embodiment of the present disclosure.

以下、本開示の一実施形態について、図を参照して説明する。 An embodiment of the present disclosure will be described below with reference to the drawings.

各図中、同一又は相当する部分には、同一符号を付している。本実施形態の説明において、同一又は相当する部分については、説明を適宜省略又は簡略化する。 In each figure, the same or corresponding parts are given the same reference numerals. In the description of this embodiment, the description of the same or corresponding parts will be omitted or simplified as appropriate.

図1を参照して、本実施形態に係る画像表示システム10の構成を説明する。 The configuration of the image display system 10 according to this embodiment will be described with reference to FIG.

画像表示システム10は、画像処理装置11、ケーブル12、駆動ユニット13、キーボード14、マウス15、及びディスプレイ16を備える。 The image display system 10 includes an image processing device 11, a cable 12, a drive unit 13, a keyboard 14, a mouse 15, and a display 16.

画像処理装置11は、本実施形態では画像診断に特化した専用のコンピュータであるが、PCなどの汎用のコンピュータでもよい。「PC」は、personal computerの略語である。 In this embodiment, the image processing device 11 is a dedicated computer specialized for image diagnosis, but it may also be a general-purpose computer such as a PC. "PC" is an abbreviation for personal computer.

ケーブル12は、画像処理装置11と駆動ユニット13とを接続するために用いられる。 The cable 12 is used to connect the image processing device 11 and the drive unit 13.

駆動ユニット13は、図2に示すプローブ20に接続して用いられ、プローブ20を駆動する装置である。駆動ユニット13は、MDUとも呼ばれる。「MDU」は、motor drive unitの略語である。プローブ20は、IVUSに適用される。プローブ20は、IVUSカテーテル又は画像診断用カテーテルとも呼ばれる。 The drive unit 13 is connected to the probe 20 shown in FIG. 2 and drives the probe 20. The drive unit 13 is also called an MDU. "MDU" is an abbreviation for motor drive unit. The probe 20 is applied to IVUS. The probe 20 is also called an IVUS catheter or an imaging diagnostic catheter.

キーボード14、マウス15、及びディスプレイ16は、任意のケーブルを介して、又は無線で画像処理装置11と接続される。ディスプレイ16は、例えば、LCD、有機ELディスプレイ、又はHMDである。「LCD」は、liquid crystal displayの略語である。「EL」は、electro luminescentの略語である。「HMD」は、head-mounted displayの略語である。 The keyboard 14, mouse 15, and display 16 are connected to the image processing device 11 via any cable or wirelessly. The display 16 is, for example, an LCD, an organic EL display, or an HMD. "LCD" is an abbreviation for liquid crystal display. "EL" is an abbreviation for electro luminescent. "HMD" is an abbreviation for head-mounted display.

画像表示システム10は、オプションとして、接続端子17及びカートユニット18を更に備える。 The image display system 10 further includes a connection terminal 17 and a cart unit 18 as options.

接続端子17は、画像処理装置11と外部機器とを接続するために用いられる。接続端子17は、例えば、USB端子である。「USB」は、Universal Serial Busの略語である。外部機器は、例えば、磁気ディスクドライブ、光磁気ディスクドライブ、又は光ディスクドライブなどの記録媒体である。 The connection terminal 17 is used to connect the image processing device 11 to an external device. The connection terminal 17 is, for example, a USB terminal. "USB" is an abbreviation for Universal Serial Bus. The external device is, for example, a recording medium such as a magnetic disk drive, a magneto-optical disk drive, or an optical disk drive.

カートユニット18は、移動用のキャスタ付きのカートである。カートユニット18のカート本体には、画像処理装置11、ケーブル12、及び駆動ユニット13が設置される。カートユニット18の最上部のテーブルには、キーボード14、マウス15、及びディスプレイ16が設置される。 The cart unit 18 is a cart with casters for mobility. The image processing device 11, cable 12, and drive unit 13 are installed in the cart body of the cart unit 18. The keyboard 14, mouse 15, and display 16 are installed on the table at the top of the cart unit 18.

図2を参照して、本実施形態に係るプローブ20及び駆動ユニット13の構成を説明する。 The configuration of the probe 20 and drive unit 13 according to this embodiment will be described with reference to FIG. 2.

プローブ20は、駆動シャフト21、ハブ22、シース23、外管24、超音波振動子25、及び中継コネクタ26を備える。 The probe 20 comprises a drive shaft 21, a hub 22, a sheath 23, an outer tube 24, an ultrasonic transducer 25, and a relay connector 26.

駆動シャフト21は、生体の体腔内に挿入されるシース23と、シース23の基端に接続した外管24とを通り、プローブ20の基端に設けられたハブ22の内部まで延びている。駆動シャフト21は、信号を送受信する超音波振動子25を先端に有してシース23及び外管24内に回転可能に設けられる。中継コネクタ26は、シース23及び外管24を接続する。 The drive shaft 21 passes through a sheath 23 inserted into a body cavity of a living body and an outer tube 24 connected to the base end of the sheath 23, and extends to the inside of a hub 22 provided at the base end of the probe 20. The drive shaft 21 has an ultrasonic transducer 25 at its tip that transmits and receives signals, and is rotatably provided within the sheath 23 and outer tube 24. The relay connector 26 connects the sheath 23 and outer tube 24.

ハブ22、駆動シャフト21、及び超音波振動子25は、それぞれが一体的に軸方向に進退移動するように互いに接続される。そのため、例えば、ハブ22が先端側に向けて押される操作がなされると、駆動シャフト21及び超音波振動子25は、矢印で示す方向と反対に、シース23の内部を先端側へ移動する。例えば、ハブ22が基端側に引かれる操作がなされると、駆動シャフト21及び超音波振動子25は、矢印で示す方向に、シース23の内部を基端側へ移動する。 The hub 22, drive shaft 21, and ultrasonic transducer 25 are connected to each other so that they can move forward and backward in the axial direction as a unit. Therefore, for example, when the hub 22 is pushed toward the tip side, the drive shaft 21 and ultrasonic transducer 25 move toward the tip side inside the sheath 23 in the opposite direction to the direction indicated by the arrow. For example, when the hub 22 is pulled toward the base end, the drive shaft 21 and ultrasonic transducer 25 move toward the base end inside the sheath 23 in the direction indicated by the arrow.

駆動ユニット13は、スキャナユニット31、スライドユニット32、及びボトムカバー33を備える。 The drive unit 13 includes a scanner unit 31, a slide unit 32, and a bottom cover 33.

スキャナユニット31は、プルバックユニットとも呼ばれる。スキャナユニット31は、ケーブル12を介して画像処理装置11と接続する。スキャナユニット31は、プローブ20と接続するプローブ接続部34と、駆動シャフト21を回転させる駆動源であるスキャナモータ35とを備える。 The scanner unit 31 is also called a pullback unit. The scanner unit 31 is connected to the image processing device 11 via the cable 12. The scanner unit 31 includes a probe connection section 34 that connects to the probe 20, and a scanner motor 35 that is a drive source that rotates the drive shaft 21.

プローブ接続部34は、プローブ20の基端に設けられたハブ22の差込口36を介して、プローブ20と着脱自在に接続する。ハブ22の内部では、駆動シャフト21の基端が回転自在に支持されており、スキャナモータ35の回転力が駆動シャフト21に伝えられる。また、ケーブル12を介して駆動シャフト21と画像処理装置11との間で信号が送受信される。画像処理装置11では、駆動シャフト21から伝わる信号に基づき、生体管腔の断層画像の生成、及び画像処理が行われる。 The probe connection section 34 is detachably connected to the probe 20 via a socket 36 of the hub 22 provided at the base end of the probe 20. Inside the hub 22, the base end of the drive shaft 21 is rotatably supported, and the rotational force of the scanner motor 35 is transmitted to the drive shaft 21. In addition, signals are transmitted between the drive shaft 21 and the image processing device 11 via the cable 12. In the image processing device 11, a tomographic image of the biological lumen is generated and the image is processed based on the signal transmitted from the drive shaft 21.

スライドユニット32は、スキャナユニット31を進退自在に載せており、スキャナユニット31と機械的かつ電気的に接続している。スライドユニット32は、プローブクランプ部37、スライドモータ38、及びスイッチ群39を備える。 The slide unit 32 carries the scanner unit 31 so that it can move back and forth, and is mechanically and electrically connected to the scanner unit 31. The slide unit 32 includes a probe clamp section 37, a slide motor 38, and a group of switches 39.

プローブクランプ部37は、プローブ接続部34よりも先端側でこれと同軸的に配置して設けられており、プローブ接続部34に接続されるプローブ20を支持する。 The probe clamp section 37 is disposed coaxially with the probe connection section 34 and closer to the tip, and supports the probe 20 that is connected to the probe connection section 34.

スライドモータ38は、軸方向の駆動力を生じさせる駆動源である。スライドモータ38の駆動によってスキャナユニット31が進退動し、それに伴って駆動シャフト21が軸方向に進退動する。スライドモータ38は、例えば、サーボモータである。 The slide motor 38 is a drive source that generates a driving force in the axial direction. The scanner unit 31 moves forward and backward when driven by the slide motor 38, and the drive shaft 21 moves forward and backward in the axial direction accordingly. The slide motor 38 is, for example, a servo motor.

スイッチ群39には、例えば、スキャナユニット31の進退操作の際に押されるフォワードスイッチ及びプルバックスイッチ、並びに画像描写の開始及び終了の際に押されるスキャンスイッチが含まれる。ここでの例に限定されず、必要に応じて種々のスイッチがスイッチ群39に含まれる。 The switch group 39 includes, for example, a forward switch and a pullback switch that are pressed when moving the scanner unit 31 forward and backward, and a scan switch that is pressed when starting and ending image drawing. The switches are not limited to the examples shown here, and various other switches may be included in the switch group 39 as necessary.

フォワードスイッチが押されると、スライドモータ38が正回転し、スキャナユニット31が前進する。一方、プルバックスイッチが押されると、スライドモータ38が逆回転し、スキャナユニット31が後退する。 When the forward switch is pressed, the slide motor 38 rotates forward, and the scanner unit 31 moves forward. On the other hand, when the pullback switch is pressed, the slide motor 38 rotates backward, and the scanner unit 31 moves backward.

スキャンスイッチが押されると画像描写が開始され、スキャナモータ35が駆動するとともに、スライドモータ38が駆動してスキャナユニット31の前進と後退とが繰り返される。術者などのユーザは、事前にプローブ20をスキャナユニット31に接続しておき、画像描写開始とともに駆動シャフト21が回転しつつ軸方向先端側への移動と軸方向基端側への移動とを繰り返すようにする。スキャナモータ35及びスライドモータ38は、スキャンスイッチが再度押されると停止し、画像描写が終了する。 When the scan switch is pressed, image depiction begins, and the scanner motor 35 and slide motor 38 are driven to repeatedly move the scanner unit 31 forward and backward. A user such as an operator connects the probe 20 to the scanner unit 31 in advance, and when image depiction begins, the drive shaft 21 rotates while repeatedly moving axially toward the tip end and toward the base end. When the scan switch is pressed again, the scanner motor 35 and slide motor 38 stop, and image depiction ends.

ボトムカバー33は、スライドユニット32の底面及び底面側の側面全周を覆っており、スライドユニット32の底面に対して近接離間自在である。 The bottom cover 33 covers the bottom surface of the slide unit 32 and the entire side surface on the bottom side, and can be moved toward and away from the bottom surface of the slide unit 32.

図3から図5を参照して、本実施形態の概要を説明する。 An overview of this embodiment will be explained with reference to Figures 3 to 5.

画像処理装置11は、生体組織60の内腔61を移動するセンサ71の移動方向における位置ごとに、センサ71を用いて互いに異なる時刻に得られた複数の断面画像54を取得する。画像処理装置11は、センサ71の移動方向における位置ごとに、取得した複数の断面画像54を解析して、当該複数の断面画像54における内腔61の断面積を算出する。画像処理装置11は、センサ71の移動方向における位置ごとに、算出した断面積に応じて、当該複数の断面画像54の中から1つの断面画像55を選択する。断面画像55を選択する方法として、本実施形態では、複数の断面画像54のうち内腔61の断面積が最大の断面画像54を選択する方法が用いられるが、複数の断面画像54のうち内腔61の断面積が最小又は中央値の断面画像54を選択する方法が用いられてもよい。画像処理装置11は、センサ71の移動方向における複数の位置について得られた選択画像群から、生体組織60を表す3次元画像53を生成する。ディスプレイ16は、画像処理装置11により生成された3次元画像53を表示する。 The image processing device 11 acquires a plurality of cross-sectional images 54 obtained at different times using the sensor 71 for each position in the movement direction of the sensor 71 moving through the lumen 61 of the biological tissue 60. The image processing device 11 analyzes the acquired plurality of cross-sectional images 54 for each position in the movement direction of the sensor 71 and calculates the cross-sectional area of the lumen 61 in the plurality of cross-sectional images 54. The image processing device 11 selects one cross-sectional image 55 from the plurality of cross-sectional images 54 according to the calculated cross-sectional area for each position in the movement direction of the sensor 71. In this embodiment, as a method for selecting the cross-sectional image 55, a method for selecting the cross-sectional image 54 having the largest cross-sectional area of the lumen 61 among the plurality of cross-sectional images 54 is used, but a method for selecting the cross-sectional image 54 having the smallest or median cross-sectional area of the lumen 61 among the plurality of cross-sectional images 54 may also be used. The image processing device 11 generates a three-dimensional image 53 representing the biological tissue 60 from a group of selected images obtained for a plurality of positions in the movement direction of the sensor 71. The display 16 displays the three-dimensional image 53 generated by the image processing device 11.

本実施形態によれば、3次元画像53の生成に用いる2次元画像群を、各2次元画像における内腔61の断面積に応じて選択することで、拍動の周期における同じタイミングで取得された2次元画像群を選択しやすくなる。結果として、3次元画像53の生成時における拍動の影響を低減させることができる。すなわち、3次元画像53として、拍動の影響による凹凸のほとんどない画像を生成することが可能になる。したがって、術者が3次元画像53から生体組織60の構造を正確に把握しやすくなる。 According to this embodiment, by selecting the two-dimensional image group used to generate the three-dimensional image 53 according to the cross-sectional area of the lumen 61 in each two-dimensional image, it becomes easier to select the two-dimensional image group acquired at the same timing in the pulsation cycle. As a result, it is possible to reduce the influence of pulsation when generating the three-dimensional image 53. In other words, it becomes possible to generate a three-dimensional image 53 that is almost free of unevenness caused by the influence of pulsation. Therefore, it becomes easier for the surgeon to accurately grasp the structure of the biological tissue 60 from the three-dimensional image 53.

生体組織60は、例えば、血管、又は心臓などの臓器を含む。生体組織60は、解剖学的に単一の器官又はその一部のみに限らず、複数の器官を跨いで内腔を有する組織も含む。そのような組織の一例として、具体的には、下大静脈の上部から右心房を抜けて上大静脈の下部に至る血管系組織の一部が挙げられる。 The biological tissue 60 includes, for example, blood vessels or organs such as the heart. The biological tissue 60 is not limited to a single anatomical organ or a part thereof, but also includes tissue having a lumen across multiple organs. A specific example of such tissue is a part of the vascular tissue that extends from the upper part of the inferior vena cava through the right atrium to the lower part of the superior vena cava.

本実施形態では、画像処理装置11は、センサ71を用いて得られた断面画像54のデータセットである断層データ51を参照して、生体組織60を表す3次元データ52を生成及び更新する。画像処理装置11は、3次元データ52を3次元画像53としてディスプレイ16に表示させる。すなわち、画像処理装置11は、断層データ51を参照して、3次元画像53をディスプレイ16に表示させる。 In this embodiment, the image processing device 11 generates and updates three-dimensional data 52 representing the biological tissue 60 by referring to the tomographic data 51, which is a data set of the cross-sectional image 54 obtained using the sensor 71. The image processing device 11 displays the three-dimensional data 52 as a three-dimensional image 53 on the display 16. That is, the image processing device 11 displays the three-dimensional image 53 on the display 16 by referring to the tomographic data 51.

画像処理装置11は、3次元画像53において生体組織60の内腔61を露出させる開口を3次元データ52に形成してもよい。画像処理装置11は、開口の位置に応じて、3次元画像53を画面に表示する際の視点を調整してもよい。視点とは、3次元空間に配置される仮想のカメラの位置のことである。 The image processing device 11 may form an opening in the three-dimensional data 52 that exposes the inner cavity 61 of the biological tissue 60 in the three-dimensional image 53. The image processing device 11 may adjust the viewpoint when displaying the three-dimensional image 53 on the screen according to the position of the opening. The viewpoint refers to the position of a virtual camera placed in three-dimensional space.

センサ71は、カテーテル70に備えられている。カテーテル70は、本実施形態ではプローブ20、すなわち、IVUSカテーテルであるが、OFDIカテーテル又はOCTカテーテルでもよい。「OFDI」は、optical frequency domain imagingの略語である。「OCT」は、optical coherence tomographyの略語である。すなわち、センサ71は、本実施形態では超音波振動子25であり、生体組織60の内腔61で超音波を送信して断層データ51を取得するが、生体組織60の内腔61で光を放射して断層データ51を取得してもよい。 The sensor 71 is provided in the catheter 70. In this embodiment, the catheter 70 is the probe 20, i.e., an IVUS catheter, but may be an OFDI catheter or an OCT catheter. "OFDI" is an abbreviation for optical frequency domain imaging. "OCT" is an abbreviation for optical coherence tomography. That is, in this embodiment, the sensor 71 is an ultrasonic transducer 25, which transmits ultrasonic waves in the lumen 61 of the biological tissue 60 to obtain the tomographic data 51, but may also emit light in the lumen 61 of the biological tissue 60 to obtain the tomographic data 51.

図3において、Z方向は、センサ71の移動方向に相当するが、便宜上、Z方向は、生体組織60の内腔61の長手方向に相当するとみなしてもよい。Z方向に直交するX方向、並びにZ方向及びX方向に直交するY方向は、それぞれ生体組織60の内腔61の短手方向に相当するとみなしてもよい。 3, the Z direction corresponds to the movement direction of the sensor 71, but for convenience, the Z direction may be considered to correspond to the longitudinal direction of the inner cavity 61 of the biological tissue 60. The X direction perpendicular to the Z direction, and the Y direction perpendicular to the Z direction and the X direction may each be considered to correspond to the transverse direction of the inner cavity 61 of the biological tissue 60.

本実施形態では、画像処理装置11は、断面画像54としてのIVUSの2次元画像が得られる度に、得られた2次元画像を、センサ71の移動方向における位置に応じたバケットB[i]内に保存する。センサ71の移動方向における位置は、例えば、プルバックユニットのリニアスケーラーの位置によって識別され、各画像に位置情報として付与される。位置情報は、所定の幅の範囲を含むように区画されたものであってもよい。各バケットの容量は、任意に設定されてよいが、例えば、画像4枚分である。画像がバケットB[i]に追加される際にバケットB[i]の容量に空きがなければ、最も古い画像が削除されてよい。画像処理装置11は、バケットB[i]に保存された画像に含まれる、内腔61を表す画素の数を内腔61の断面積として算出する。内腔61を表す画素は、例えば、図4に示すように、学習済みモデル56を用いて識別される。画像処理装置11は、各バケットに保存された画像のうち断面積が最大となる画像を選択する。あるいは、各バケットに保存された画像のうち断面積が最小又は中央値となる画像を選択してもよい。画像処理装置11は、複数のバケットについて選択した画像群を用いて、3次元画像53を描画する。 In this embodiment, each time an IVUS two-dimensional image is obtained as the cross-sectional image 54, the image processing device 11 stores the obtained two-dimensional image in a bucket B[i] corresponding to the position in the moving direction of the sensor 71. The position in the moving direction of the sensor 71 is identified, for example, by the position of the linear scaler of the pullback unit, and is assigned to each image as position information. The position information may be partitioned to include a range of a predetermined width. The capacity of each bucket may be set arbitrarily, for example, for four images. If there is no free space in the capacity of the bucket B[i] when an image is added to the bucket B[i], the oldest image may be deleted. The image processing device 11 calculates the number of pixels representing the lumen 61 contained in the image stored in the bucket B[i] as the cross-sectional area of the lumen 61. The pixels representing the lumen 61 are identified using the trained model 56, for example, as shown in FIG. 4. The image processing device 11 selects an image with the largest cross-sectional area among the images stored in each bucket. Alternatively, an image with the smallest or median cross-sectional area may be selected among the images stored in each bucket. The image processing device 11 uses a group of images selected for multiple buckets to draw a three-dimensional image 53.

本実施形態では、画像処理装置11は、学習済みモデル56を用いて、各断面画像54に含まれる複数の画素を2つ以上のクラスに分類する。これら2つ以上のクラスには、生体組織60を表す画素に対応する生体組織クラス80、内腔61を流れる血液に含まれる血球を表す画素に対応する血球クラス81、及びカテーテル70以外のカテーテル、又はガイドワイヤなどの、内腔61に挿入される医療器具62を表す画素に対応する医療器具クラス82が含まれる。ステントなどの留置物を表す画素に対応する留置物クラスが更に含まれてもよい。石灰又はプラークなどの病変を表す画素に対応する病変クラスが更に含まれてもよい。各クラスは、細分化されてもよい。例えば、医療器具クラス82は、カテーテルクラス、ガイドワイヤクラス、及びその他の医療器具クラスに分かれていてもよい。 In this embodiment, the image processing device 11 classifies a plurality of pixels included in each cross-sectional image 54 into two or more classes using the trained model 56. These two or more classes include a biological tissue class 80 corresponding to pixels representing biological tissue 60, a blood cell class 81 corresponding to pixels representing blood cells contained in blood flowing through the lumen 61, and a medical device class 82 corresponding to pixels representing medical devices 62 inserted into the lumen 61, such as catheters other than the catheter 70 or guidewires. An indwelling object class corresponding to pixels representing indwelling objects such as stents may also be included. A lesion class corresponding to pixels representing lesions such as calcification or plaque may also be included. Each class may be further subdivided. For example, the medical device class 82 may be divided into a catheter class, a guidewire class, and other medical device classes.

学習済みモデル56は、事前に機械学習を行うことによって、サンプルとなる2次元画像から、各クラスに該当する領域を検出できるように調教されている。学習済みモデル56は、断面画像54が入力されると、入力された断面画像54の各画素に生体組織クラス80、血球クラス81、及び医療器具クラス82のいずれかの分類を付与した断面画像57を分類結果として出力する。本実施形態では、血球クラス81に分類された画素が内腔61を表す画素として扱われるが、医療器具クラス82に分類された画素など、生体組織クラス80を除く他のクラスに分類された画素が更に内腔61を表す画素として扱われてもよい。各バケットには、分類前の断面画像54が蓄積されてもよいし、又は分類後の断面画像57が蓄積されてもよい。 The learned model 56 is trained to detect regions corresponding to each class from a sample two-dimensional image by performing machine learning in advance. When a cross-sectional image 54 is input, the learned model 56 outputs a cross-sectional image 57 as a classification result in which each pixel of the input cross-sectional image 54 is assigned a classification of one of a biological tissue class 80, a blood cell class 81, and a medical instrument class 82. In this embodiment, pixels classified into the blood cell class 81 are treated as pixels representing the lumen 61, but pixels classified into other classes other than the biological tissue class 80, such as pixels classified into the medical instrument class 82, may also be treated as pixels representing the lumen 61. In each bucket, the cross-sectional image 54 before classification or the cross-sectional image 57 after classification may be accumulated.

本実施形態では、画像処理装置11は、複数のバケットについて選択した画像群に含まれる、生体組織クラス80に分類した画素群を積層して3次元化することで、3次元画像53を生成する。画像処理装置11は、複数のバケットについて選択した画像群に含まれる、医療器具クラス82に分類した画素群を積層して3次元化することで、医療器具62の3次元画像を更に生成してもよい。あるいは、画像処理装置11は、複数のバケットについて選択した画像群に含まれる、医療器具クラス82に分類した画素群の座標をつなぐ線状の3次元モデルを医療器具62の3次元画像として更に生成してもよい。 In this embodiment, the image processing device 11 generates a three-dimensional image 53 by stacking and three-dimensionalizing a pixel group classified into the biological tissue class 80 included in the image group selected for the multiple buckets. The image processing device 11 may further generate a three-dimensional image of the medical device 62 by stacking and three-dimensionalizing a pixel group classified into the medical device class 82 included in the image group selected for the multiple buckets. Alternatively, the image processing device 11 may further generate a linear three-dimensional model connecting the coordinates of the pixel group classified into the medical device class 82 included in the image group selected for the multiple buckets as a three-dimensional image of the medical device 62.

図5を参照して、画像処理装置11の構成を説明する。 The configuration of the image processing device 11 will be described with reference to Figure 5.

画像処理装置11は、制御部41と、記憶部42と、通信部43と、入力部44と、出力部45とを備える。 The image processing device 11 includes a control unit 41, a memory unit 42, a communication unit 43, an input unit 44, and an output unit 45.

制御部41は、少なくとも1つのプロセッサ、少なくとも1つのプログラマブル回路、少なくとも1つの専用回路、又はこれらの任意の組合せを含む。プロセッサは、CPU若しくはGPUなどの汎用プロセッサ、又は特定の処理に特化した専用プロセッサである。「CPU」は、central processing unitの略語である。「GPU」は、graphics processing unitの略語である。プログラマブル回路は、例えば、FPGAである。「FPGA」は、field-programmable gate arrayの略語である。専用回路は、例えば、ASICである。「ASIC」は、application specific integrated circuitの略語である。制御部41は、画像処理装置11を含む画像表示システム10の各部を制御しながら、画像処理装置11の動作に関わる処理を実行する。 The control unit 41 includes at least one processor, at least one programmable circuit, at least one dedicated circuit, or any combination of these. The processor is a general-purpose processor such as a CPU or GPU, or a dedicated processor specialized for a specific process. "CPU" is an abbreviation for central processing unit. "GPU" is an abbreviation for graphics processing unit. The programmable circuit is, for example, an FPGA. "FPGA" is an abbreviation for field-programmable gate array. The dedicated circuit is, for example, an ASIC. "ASIC" is an abbreviation for application specific integrated circuit. The control unit 41 executes processes related to the operation of the image processing device 11 while controlling each part of the image display system 10 including the image processing device 11.

記憶部42は、少なくとも1つの半導体メモリ、少なくとも1つの磁気メモリ、少なくとも1つの光メモリ、又はこれらの任意の組合せを含む。半導体メモリは、例えば、RAM又はROMである。「RAM」は、random access memoryの略語である。「ROM」は、read only memoryの略語である。RAMは、例えば、SRAM又はDRAMである。「SRAM」は、static random access memoryの略語である。「DRAM」は、dynamic random access memoryの略語である。ROMは、例えば、EEPROMである。「EEPROM」は、electrically erasable programmable read only memoryの略語である。記憶部42は、例えば、主記憶装置、補助記憶装置、又はキャッシュメモリとして機能する。記憶部42には、断層データ51など、画像処理装置11の動作に用いられるデータと、3次元データ52及び3次元画像53など、画像処理装置11の動作によって得られたデータとが記憶される。記憶部42には、図3に示した各バケットに相当する記憶領域が設定される。 The storage unit 42 includes at least one semiconductor memory, at least one magnetic memory, at least one optical memory, or any combination thereof. The semiconductor memory is, for example, a RAM or a ROM. "RAM" is an abbreviation for random access memory. "ROM" is an abbreviation for read only memory. The RAM is, for example, an SRAM or a DRAM. "SRAM" is an abbreviation for static random access memory. "DRAM" is an abbreviation for dynamic random access memory. The ROM is, for example, an EEPROM. "EEPROM" is an abbreviation for electrically erasable programmable read only memory. The storage unit 42 functions as, for example, a main storage device, an auxiliary storage device, or a cache memory. The storage unit 42 stores data used in the operation of the image processing device 11, such as the tomographic data 51, and data obtained by the operation of the image processing device 11, such as the three-dimensional data 52 and the three-dimensional image 53. The storage unit 42 has a storage area corresponding to each bucket shown in FIG. 3 set therein.

通信部43は、少なくとも1つの通信用インタフェースを含む。通信用インタフェースは、例えば、Ethernet(登録商標)などの通信規格に対応した有線LANインタフェース、IEEE802.11などの通信規格に対応した無線LANインタフェース、又はIVUSの信号を受信及びA/D変換する画像診断用インタフェースである。「LAN」は、local area networkの略語である。「IEEE」は、Institute of Electrical and Electronics Engineersの略称である。「A/D」は、analog to digitalの略語である。通信部43は、画像処理装置11の動作に用いられるデータを受信し、また画像処理装置11の動作によって得られるデータを送信する。本実施形態では、通信部43に含まれる画像診断用インタフェースに駆動ユニット13が接続される。 The communication unit 43 includes at least one communication interface. The communication interface is, for example, a wired LAN interface compatible with a communication standard such as Ethernet (registered trademark), a wireless LAN interface compatible with a communication standard such as IEEE802.11, or an image diagnosis interface that receives and A/D converts IVUS signals. "LAN" is an abbreviation for local area network. "IEEE" is an abbreviation for Institute of Electrical and Electronics Engineers. "A/D" is an abbreviation for analog to digital. The communication unit 43 receives data used in the operation of the image processing device 11 and transmits data obtained by the operation of the image processing device 11. In this embodiment, the drive unit 13 is connected to the image diagnosis interface included in the communication unit 43.

入力部44は、少なくとも1つの入力用インタフェースを含む。入力用インタフェースは、例えば、USBインタフェース、HDMI(登録商標)インタフェース、又はBluetooth(登録商標)などの近距離無線通信規格に対応したインタフェースである。「HDMI(登録商標)」は、High-Definition Multimedia Interfaceの略語である。入力部44は、画像処理装置11の動作に用いられるデータを入力する操作などのユーザの操作を受け付ける。本実施形態では、入力部44に含まれるUSBインタフェース、又は近距離無線通信に対応したインタフェースにキーボード14及びマウス15が接続される。タッチスクリーンがディスプレイ16と一体的に設けられている場合、入力部44に含まれるUSBインタフェース又はHDMI(登録商標)インタフェースにディスプレイ16が接続されてもよい。 The input unit 44 includes at least one input interface. The input interface is, for example, a USB interface, an HDMI (registered trademark) interface, or an interface compatible with a short-range wireless communication standard such as Bluetooth (registered trademark). "HDMI (registered trademark)" is an abbreviation for High-Definition Multimedia Interface. The input unit 44 accepts user operations such as an operation to input data used in the operation of the image processing device 11. In this embodiment, the keyboard 14 and the mouse 15 are connected to a USB interface included in the input unit 44 or an interface compatible with short-range wireless communication. When a touch screen is provided integrally with the display 16, the display 16 may be connected to a USB interface or an HDMI (registered trademark) interface included in the input unit 44.

出力部45は、少なくとも1つの出力用インタフェースを含む。出力用インタフェースは、例えば、USBインタフェース、HDMI(登録商標)インタフェース、又はBluetooth(登録商標)などの近距離無線通信規格に対応したインタフェースである。出力部45は、画像処理装置11の動作によって得られるデータを出力する。本実施形態では、出力部45に含まれるUSBインタフェース又はHDMI(登録商標)インタフェースにディスプレイ16が接続される。 The output unit 45 includes at least one output interface. The output interface is, for example, a USB interface, an HDMI (registered trademark) interface, or an interface compatible with a short-range wireless communication standard such as Bluetooth (registered trademark). The output unit 45 outputs data obtained by the operation of the image processing device 11. In this embodiment, the display 16 is connected to the USB interface or the HDMI (registered trademark) interface included in the output unit 45.

画像処理装置11の機能は、本実施形態に係る画像処理プログラムを、制御部41としてのプロセッサで実行することにより実現される。すなわち、画像処理装置11の機能は、ソフトウェアにより実現される。画像処理プログラムは、画像処理装置11の動作をコンピュータに実行させることで、コンピュータを画像処理装置11として機能させる。すなわち、コンピュータは、画像処理プログラムに従って画像処理装置11の動作を実行することにより画像処理装置11として機能する。 The functions of the image processing device 11 are realized by executing the image processing program according to this embodiment in a processor serving as the control unit 41. That is, the functions of the image processing device 11 are realized by software. The image processing program causes a computer to execute the operations of the image processing device 11, thereby causing the computer to function as the image processing device 11. That is, the computer functions as the image processing device 11 by executing the operations of the image processing device 11 in accordance with the image processing program.

プログラムは、非一時的なコンピュータ読取り可能な媒体に記憶しておくことができる。非一時的なコンピュータ読取り可能な媒体は、例えば、フラッシュメモリ、磁気記録装置、光ディスク、光磁気記録媒体、又はROMである。プログラムの流通は、例えば、プログラムを記憶したSDカード、DVD、又はCD-ROMなどの可搬型媒体を販売、譲渡、又は貸与することによって行う。「SD」は、Secure Digitalの略語である。「DVD」は、digital versatile discの略語である。「CD-ROM」は、compact disc read only memoryの略語である。プログラムをサーバのストレージに格納しておき、サーバから他のコンピュータにプログラムを転送することにより、プログラムを流通させてもよい。プログラムをプログラムプロダクトとして提供してもよい。 The program may be stored in a non-transitory computer-readable medium. Examples of the non-transitory computer-readable medium include a flash memory, a magnetic recording device, an optical disk, a magneto-optical recording medium, or a ROM. The program may be distributed, for example, by selling, transferring, or lending a portable medium such as an SD card, DVD, or CD-ROM on which the program is stored. "SD" is an abbreviation for Secure Digital. "DVD" is an abbreviation for digital versatile disc. "CD-ROM" is an abbreviation for compact disc read only memory. The program may be distributed by storing the program in the storage of a server and transferring the program from the server to another computer. The program may be provided as a program product.

コンピュータは、例えば、可搬型媒体に記憶されたプログラム又はサーバから転送されたプログラムを、一旦、主記憶装置に格納する。そして、コンピュータは、主記憶装置に格納されたプログラムをプロセッサで読み取り、読み取ったプログラムに従った処理をプロセッサで実行する。コンピュータは、可搬型媒体から直接プログラムを読み取り、プログラムに従った処理を実行してもよい。コンピュータは、コンピュータにサーバからプログラムが転送される度に、逐次、受け取ったプログラムに従った処理を実行してもよい。サーバからコンピュータへのプログラムの転送は行わず、実行指示及び結果取得のみによって機能を実現する、いわゆるASP型のサービスによって処理を実行してもよい。「ASP」は、application service providerの略語である。プログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるものを含む。例えば、コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータは、「プログラムに準ずるもの」に該当する。 For example, a computer temporarily stores a program stored in a portable medium or a program transferred from a server in a main storage device. The computer then reads the program stored in the main storage device with a processor and executes processing according to the read program with the processor. The computer may read the program directly from the portable medium and execute processing according to the program. The computer may execute processing according to the received program each time a program is transferred from the server to the computer. Processing may be executed by a so-called ASP-type service that does not transfer a program from the server to the computer and achieves functions only by issuing execution instructions and obtaining results. "ASP" is an abbreviation for application service provider. Programs include information used for processing by a computer and equivalent to a program. For example, data that is not a direct command to a computer but has properties that define computer processing falls under " equivalent to a program".

画像処理装置11の一部又は全ての機能が、制御部41としてのプログラマブル回路又は専用回路により実現されてもよい。すなわち、画像処理装置11の一部又は全ての機能が、ハードウェアにより実現されてもよい。 Some or all of the functions of the image processing device 11 may be realized by a programmable circuit or a dedicated circuit as the control unit 41. In other words, some or all of the functions of the image processing device 11 may be realized by hardware.

図6を参照して、本実施形態に係る画像表示システム10の動作を説明する。画像表示システム10の動作は、本実施形態に係る画像表示方法に相当する。 The operation of the image display system 10 according to this embodiment will be described with reference to FIG. 6. The operation of the image display system 10 corresponds to the image display method according to this embodiment.

図6のフローの開始前に、ユーザによって、プローブ20がプライミングされる。その後、プローブ20が駆動ユニット13のプローブ接続部34及びプローブクランプ部37に嵌め込まれ、駆動ユニット13に接続及び固定される。そして、プローブ20が血管又は心臓などの生体組織60内の目的部位まで挿入される。 Before starting the flow in FIG. 6, the user primes the probe 20. After that, the probe 20 is fitted into the probe connection portion 34 and the probe clamp portion 37 of the drive unit 13, and is connected and fixed to the drive unit 13. The probe 20 is then inserted to a target site in the biological tissue 60, such as a blood vessel or the heart.

ステップS101において、スイッチ群39に含まれるスキャンスイッチが押され、更にスイッチ群39に含まれるプルバックスイッチが押されることで、いわゆるプルバック操作が行われる。プローブ20は、生体組織60の内部で、プルバック操作によって軸方向に後退する超音波振動子25により超音波を送信する。超音波振動子25は、生体組織60の内部を移動しながら放射線状に超音波を送信する。超音波振動子25は、送信した超音波の反射波を受信する。プローブ20は、超音波振動子25により受信した反射波の信号を画像処理装置11に入力する。画像処理装置11の制御部41は、入力された信号を処理して生体組織60の断面画像54を順次生成することで、複数の断面画像54を含む断層データ51を取得する。 In step S101, the scan switch included in the switch group 39 is pressed, and then the pullback switch included in the switch group 39 is pressed, thereby performing a so-called pullback operation. The probe 20 transmits ultrasonic waves from the ultrasonic transducer 25, which is moved back in the axial direction by the pullback operation, inside the biological tissue 60. The ultrasonic transducer 25 transmits ultrasonic waves radially while moving inside the biological tissue 60. The ultrasonic transducer 25 receives reflected waves of the transmitted ultrasonic waves. The probe 20 inputs the signal of the reflected waves received by the ultrasonic transducer 25 to the image processing device 11. The control unit 41 of the image processing device 11 processes the input signal to sequentially generate cross-sectional images 54 of the biological tissue 60, thereby acquiring tomographic data 51 including multiple cross-sectional images 54.

具体的には、プローブ20は、生体組織60の内部で超音波振動子25を周方向に回転させながら、かつ軸方向に移動させながら、超音波振動子25により、回転中心から外側に向かう複数方向に超音波を送信する。プローブ20は、生体組織60の内部で複数方向のそれぞれに存在する反射物からの反射波を超音波振動子25により受信する。プローブ20は、受信した反射波の信号を、駆動ユニット13及びケーブル12を介して画像処理装置11に送信する。画像処理装置11の通信部43は、プローブ20から送信された信号を受信する。通信部43は、受信した信号をA/D変換する。通信部43は、A/D変換した信号を制御部41に入力する。制御部41は、入力された信号を処理して、超音波振動子25の超音波の送信方向に存在する反射物からの反射波の強度値分布を算出する。制御部41は、算出した強度値分布に相当する輝度値分布を持つ2次元画像を生体組織60の断面画像54として順次生成することで、断面画像54のデータセットである断層データ51を取得する。制御部41は、取得した断層データ51を記憶部42に記憶させる。 Specifically, the probe 20 transmits ultrasonic waves in multiple directions from the center of rotation to the outside, while rotating the ultrasonic transducer 25 in the circumferential direction and moving it in the axial direction inside the biological tissue 60. The probe 20 receives reflected waves from reflectors present in each of the multiple directions inside the biological tissue 60 using the ultrasonic transducer 25. The probe 20 transmits the received reflected wave signals to the image processing device 11 via the drive unit 13 and the cable 12. The communication unit 43 of the image processing device 11 receives the signal transmitted from the probe 20. The communication unit 43 A/D converts the received signal. The communication unit 43 inputs the A/D converted signal to the control unit 41. The control unit 41 processes the input signal to calculate the intensity value distribution of the reflected wave from the reflector present in the transmission direction of the ultrasonic wave from the ultrasonic transducer 25. The control unit 41 sequentially generates two-dimensional images having a luminance value distribution corresponding to the calculated intensity value distribution as cross-sectional images 54 of the biological tissue 60, thereby acquiring tomographic data 51, which is a data set of the cross-sectional images 54. The control unit 41 stores the acquired tomographic data 51 in the memory unit 42.

本実施形態において、超音波振動子25が受信する反射波の信号は、断層データ51の生データに相当し、画像処理装置11が反射波の信号を処理して生成する断面画像54は、断層データ51の加工データに相当する。 In this embodiment, the reflected wave signal received by the ultrasonic transducer 25 corresponds to the raw data of the tomographic data 51, and the cross-sectional image 54 generated by the image processing device 11 by processing the reflected wave signal corresponds to the processed data of the tomographic data 51.

本実施形態の一変形例として、画像処理装置11の制御部41は、プローブ20から入力された信号をそのまま断層データ51として記憶部42に記憶させてもよい。あるいは、制御部41は、プローブ20から入力された信号を処理して算出した反射波の強度値分布を示すデータを断層データ51として記憶部42に記憶させてもよい。すなわち、断層データ51は、生体組織60の断面画像54のデータセットに限られず、超音波振動子25の各移動位置における生体組織60の断面を何らかの形式で表すデータであればよい。 As a modified example of this embodiment, the control unit 41 of the image processing device 11 may store the signal input from the probe 20 as it is in the storage unit 42 as the tomographic data 51. Alternatively, the control unit 41 may store data indicating the intensity value distribution of the reflected wave calculated by processing the signal input from the probe 20 in the storage unit 42 as the tomographic data 51. In other words, the tomographic data 51 is not limited to a data set of the cross-sectional image 54 of the biological tissue 60, but may be data that represents in some form the cross section of the biological tissue 60 at each moving position of the ultrasonic transducer 25.

本実施形態の一変形例として、周方向に回転しながら複数方向に超音波を送信する超音波振動子25の代わりに、複数の超音波振動子を周方向に並べた所謂アレイ型を用いることで、回転することなく複数方向に超音波を送信するようにしてもよい。 As a variation of this embodiment, instead of the ultrasonic transducer 25 that rotates in a circumferential direction and transmits ultrasonic waves in multiple directions, a so-called array type in which multiple ultrasonic transducers are arranged in a circumferential direction may be used to transmit ultrasonic waves in multiple directions without rotating.

本実施形態の一変形例として、画像処理装置11が生体組織60の断面画像54のデータセットを生成する代わりに、他の装置が同様のデータセットを生成し、画像処理装置11はそのデータセットを当該他の装置から取得してもよい。すなわち、画像処理装置11の制御部41が、IVUSの信号を処理して生体組織60の断面画像54を生成する代わりに、他の装置が、IVUSの信号を処理して生体組織60の断面画像54を生成し、生成した断面画像54を画像処理装置11に入力してもよい。 As a modified example of this embodiment, instead of the image processing device 11 generating a data set of the cross-sectional image 54 of the biological tissue 60, another device may generate a similar data set, and the image processing device 11 may acquire the data set from the other device. That is, instead of the control unit 41 of the image processing device 11 processing an IVUS signal to generate the cross-sectional image 54 of the biological tissue 60, the other device may process an IVUS signal to generate the cross-sectional image 54 of the biological tissue 60, and the generated cross-sectional image 54 may be input to the image processing device 11.

ステップS102において、画像処理装置11の制御部41は、ステップS101で取得した断層データ51に基づいて生体組織60の3次元データ52を生成する。すなわち、制御部41は、センサ71によって取得された断層データ51に基づいて3次元データ52を生成する。ここで、既に生成済みの3次元データ52が存在する場合、全ての3次元データ52を一から生成し直すのではなく、更新された断層データ51が対応する箇所のデータのみを更新することが好ましい。その場合、3次元データ52を生成する際のデータ処理量を削減し、後のステップS103における3次元画像53のリアルタイム性を向上させることができる。 In step S102, the control unit 41 of the image processing device 11 generates three-dimensional data 52 of the biological tissue 60 based on the tomographic data 51 acquired in step S101. That is, the control unit 41 generates the three-dimensional data 52 based on the tomographic data 51 acquired by the sensor 71. Here, if three-dimensional data 52 that has already been generated exists, it is preferable to update only the data corresponding to the updated tomographic data 51, rather than regenerating all of the three-dimensional data 52 from scratch. In that case, the amount of data processing when generating the three-dimensional data 52 can be reduced, and the real-time nature of the three-dimensional image 53 in the subsequent step S103 can be improved.

具体的には、画像処理装置11の制御部41は、記憶部42に記憶された断層データ51に含まれる生体組織60の断面画像54を積層して3次元化することで、生体組織60の3次元データ52を生成する。3次元化の手法としては、サーフェスレンダリング又はボリュームレンダリングなどのレンダリング手法、並びにそれに付随した、環境マッピングを含むテクスチャマッピング、及びバンプマッピングなどの種々の処理のうち任意の手法が用いられる。制御部41は、生成した3次元データ52を記憶部42に記憶させる。 Specifically, the control unit 41 of the image processing device 11 generates three-dimensional data 52 of the biological tissue 60 by stacking and three-dimensionalizing the cross-sectional images 54 of the biological tissue 60 contained in the tomographic data 51 stored in the storage unit 42. As a three-dimensionalization method, any of a rendering method such as surface rendering or volume rendering, and various processes associated therewith, such as texture mapping including environment mapping, and bump mapping, is used. The control unit 41 stores the generated three-dimensional data 52 in the storage unit 42.

画像処理装置11の制御部41は、ステップS101で取得した断層データ51に含まれる断面画像54の画素群を2つ以上のクラスに分類する。これら2つ以上のクラスには、生体組織クラス80と、血球クラス81と、医療器具クラス82とが含まれ、留置物クラス、又は病変クラスが更に含まれてもよい。分類方法としては、任意の方法を用いてよいが、本実施形態では、図4に示したように、学習済みモデル56によって断面画像54の画素群を分類する方法が用いられる。 The control unit 41 of the image processing device 11 classifies the pixel group of the cross-sectional image 54 included in the tomographic data 51 acquired in step S101 into two or more classes. These two or more classes include a biological tissue class 80, a blood cell class 81, and a medical instrument class 82, and may further include an indwelling object class or a lesion class. Any classification method may be used, but in this embodiment, a method of classifying the pixel group of the cross-sectional image 54 using a trained model 56 as shown in FIG. 4 is used.

ステップS103において、画像処理装置11の制御部41は、ステップS102で生成した3次元データ52を3次元画像53としてディスプレイ16に表示させる。この時点では、制御部41は、3次元画像53を表示させる角度を任意の角度に設定してよい。 In step S103, the control unit 41 of the image processing device 11 causes the three-dimensional data 52 generated in step S102 to be displayed on the display 16 as a three-dimensional image 53. At this point, the control unit 41 may set the angle at which the three-dimensional image 53 is displayed to any angle.

具体的には、画像処理装置11の制御部41は、記憶部42に記憶された3次元データ52から3次元画像53を生成する。3次元画像53は、3次元空間において生体組織60を表す組織オブジェクト、及び当該3次元空間において医療器具62を表す医療器具オブジェクトなどの3次元オブジェクト群を含む。すなわち、制御部41は、記憶部42に記憶された生体組織60のデータから生体組織60の3次元オブジェクトを生成し、記憶部42に記憶された医療器具62のデータから医療器具62の3次元オブジェクトを生成する。制御部41は、生成した3次元画像53を、出力部45を介してディスプレイ16に表示させる。 Specifically, the control unit 41 of the image processing device 11 generates a three-dimensional image 53 from the three-dimensional data 52 stored in the storage unit 42. The three-dimensional image 53 includes a group of three-dimensional objects, such as a tissue object representing the biological tissue 60 in three-dimensional space and a medical instrument object representing the medical instrument 62 in the three-dimensional space. That is, the control unit 41 generates a three-dimensional object of the biological tissue 60 from the data of the biological tissue 60 stored in the storage unit 42, and generates a three-dimensional object of the medical instrument 62 from the data of the medical instrument 62 stored in the storage unit 42. The control unit 41 causes the generated three-dimensional image 53 to be displayed on the display 16 via the output unit 45.

ステップS104において、ユーザの変更操作として、3次元画像53を表示させる角度を設定する操作があれば、ステップS105の処理が実行される。ユーザの変更操作がなければ、ステップS106の処理が実行される。 In step S104, if the user performs a change operation to set the angle at which the three-dimensional image 53 is displayed, the process proceeds to step S105. If the user does not perform a change operation, the process proceeds to step S106.

ステップS105において、画像処理装置11の制御部41は、3次元画像53を表示させる角度を設定する操作を、入力部44を介して受け付ける。制御部41は、3次元画像53を表示させる角度を、設定された角度に調整する。そして、ステップS103において、制御部41は、ステップS105で設定された角度で3次元画像53をディスプレイ16に表示させる。 In step S105, the control unit 41 of the image processing device 11 accepts an operation to set the angle at which the three-dimensional image 53 is to be displayed via the input unit 44. The control unit 41 adjusts the angle at which the three-dimensional image 53 is to be displayed to the set angle. Then, in step S103, the control unit 41 causes the display 16 to display the three-dimensional image 53 at the angle set in step S105.

具体的には、画像処理装置11の制御部41は、ディスプレイ16に表示されている3次元画像53をユーザがキーボード14、マウス15、又はディスプレイ16と一体的に設けられたタッチスクリーンを用いて回転させる操作を、入力部44を介して受け付ける。制御部41は、3次元画像53をディスプレイ16に表示させる角度を、ユーザの操作に応じてインタラクティブに調整する。あるいは、制御部41は、3次元画像53を表示させる角度の数値をユーザがキーボード14、マウス15、又はディスプレイ16と一体的に設けられたタッチスクリーンを用いて入力する操作を、入力部44を介して受け付ける。制御部41は、3次元画像53をディスプレイ16に表示させる角度を、入力された数値に合わせて調整する。 Specifically, the control unit 41 of the image processing device 11 receives, via the input unit 44, an operation by the user to rotate the three-dimensional image 53 displayed on the display 16 using the keyboard 14, the mouse 15, or a touch screen provided integrally with the display 16. The control unit 41 interactively adjusts the angle at which the three-dimensional image 53 is displayed on the display 16 in response to the user's operation. Alternatively, the control unit 41 receives, via the input unit 44, an operation by the user to input a numerical value for the angle at which the three-dimensional image 53 is displayed using the keyboard 14, the mouse 15, or a touch screen provided integrally with the display 16. The control unit 41 adjusts the angle at which the three-dimensional image 53 is displayed on the display 16 to match the input numerical value.

ステップS106において、断層データ51の更新があれば、ステップS107及びステップS108の処理が実行される。断層データ51の更新がなければ、ステップS104において、ユーザの変更操作の有無が再度確認される。 If the tomographic data 51 is updated in step S106, the processes of steps S107 and S108 are executed. If the tomographic data 51 is not updated, the presence or absence of a change operation by the user is confirmed again in step S104.

ステップS107において、画像処理装置11の制御部41は、ステップS101の処理と同様に、プローブ20から入力された信号を処理して生体組織60の断面画像54を新たに生成することで、少なくとも1つの新たな断面画像54を含む断層データ51を取得する。 In step S107, the control unit 41 of the image processing device 11 processes the signal input from the probe 20 to generate a new cross-sectional image 54 of the biological tissue 60, similar to the processing in step S101, thereby acquiring tomographic data 51 including at least one new cross-sectional image 54.

ステップS108において、画像処理装置11の制御部41は、ステップS107で取得した断層データ51に基づいて生体組織60の3次元データ52を更新する。すなわち、制御部41は、センサ71によって取得された断層データ51に基づいて3次元データ52を更新する。ステップS108においては、更新された断層データ51が対応する箇所のデータのみを更新することが好ましい。その場合、3次元データ52を生成する際のデータ処理量を削減し、後のステップS103において、3次元画像53のリアルタイム性を向上させることができる。 In step S108, the control unit 41 of the image processing device 11 updates the three-dimensional data 52 of the biological tissue 60 based on the tomographic data 51 acquired in step S107. That is, the control unit 41 updates the three-dimensional data 52 based on the tomographic data 51 acquired by the sensor 71. In step S108, it is preferable to update only the data of the location corresponding to the updated tomographic data 51. In that case, the amount of data processing when generating the three-dimensional data 52 can be reduced, and the real-time performance of the three-dimensional image 53 can be improved in the subsequent step S103.

具体的には、画像処理装置11の制御部41は、センサ71としての超音波振動子25の移動方向における位置ごとに、記憶部42に記憶された断層データ51に含まれる、互いに異なる時刻に得られた複数の断面画像54を解析して、当該複数の断面画像54における内腔61の断面積を算出する。当該複数の断面画像54は、ステップS101で取得された断面画像54、前回までのステップS107で取得された断面画像54、又はこれらの両方を含み得る。ステップS102で既に断面積を算出済みの断面画像54については、算出処理を省略してもよい。制御部41は、超音波振動子25の移動方向における位置ごとに、算出した断面積に応じて、当該複数の断面画像54の中から1つの断面画像55を選択する。より具体的には、制御部41は、超音波振動子25の移動方向における位置ごとに、当該複数の断面画像54のうち内腔61の断面積が最大の断面画像54を断面画像55として選択する。あるいは、制御部41は、超音波振動子25の移動方向における位置ごとに、当該複数の断面画像54のうち内腔61の断面積が最小の断面画像54を断面画像55として選択してもよい。あるいは、制御部41は、超音波振動子25の移動方向における位置ごとに、当該複数の断面画像54のうち内腔61の断面積が中央値の断面画像54を断面画像55として選択してもよい。制御部41は、超音波振動子25の移動方向における複数の位置について得られた選択画像群から、生体組織60の3次元データ52を更新する。より具体的には、制御部41は、超音波振動子25の移動方向における位置ごとに選択した断面画像55を含む選択画像群を積層して3次元化することで、生体組織60の3次元データ52を更新する。3次元化の手法としては、ステップS102と同様の手法が用いられる。制御部41は、更新した3次元データ52を記憶部42に記憶させる。 Specifically, the control unit 41 of the image processing device 11 analyzes the multiple cross-sectional images 54 obtained at different times included in the tomographic data 51 stored in the storage unit 42 for each position in the moving direction of the ultrasonic transducer 25 as the sensor 71, and calculates the cross-sectional area of the lumen 61 in the multiple cross-sectional images 54. The multiple cross-sectional images 54 may include the cross-sectional images 54 obtained in step S101, the cross-sectional images 54 obtained in the previous step S107, or both. The calculation process may be omitted for the cross-sectional images 54 whose cross-sectional area has already been calculated in step S102. The control unit 41 selects one cross-sectional image 55 from the multiple cross-sectional images 54 according to the calculated cross-sectional area for each position in the moving direction of the ultrasonic transducer 25. More specifically, the control unit 41 selects the cross-sectional image 54 with the largest cross-sectional area of the lumen 61 from the multiple cross-sectional images 54 for each position in the moving direction of the ultrasonic transducer 25 as the cross-sectional image 55. Alternatively, the control unit 41 may select, as the cross-sectional image 55, the cross-sectional image 54 having the smallest cross-sectional area of the lumen 61 among the multiple cross-sectional images 54 for each position in the moving direction of the ultrasonic transducer 25. Alternatively, the control unit 41 may select, as the cross-sectional image 55, the cross-sectional image 54 having the median cross-sectional area of the lumen 61 among the multiple cross-sectional images 54 for each position in the moving direction of the ultrasonic transducer 25. The control unit 41 updates the three-dimensional data 52 of the biological tissue 60 from the selected image group obtained for the multiple positions in the moving direction of the ultrasonic transducer 25. More specifically, the control unit 41 updates the three-dimensional data 52 of the biological tissue 60 by stacking the selected image group including the cross-sectional image 55 selected for each position in the moving direction of the ultrasonic transducer 25 to make it three-dimensional. As a method for making it three-dimensional, a method similar to that of step S102 is used. The control unit 41 stores the updated three-dimensional data 52 in the storage unit 42.

最新の断面画像54が取得されたときに断面画像55が選択される動作の具体例を図7に示す。この図に示したステップS201において、画像処理装置11の制御部41は、最新の断面画像54を、最新の断面画像54が得られたときの超音波振動子25の移動方向における位置に対応するバケットB[i]に追加する。図3に示したように、バケットB[i]には、最新の断面画像54が得られたときよりも前に、超音波振動子25が同じ位置にあるときに得られた1つ以上の他の断面画像54が既に格納されている。ステップS202において、制御部41は、バケットB[i]内の、最新の断面画像54を含む複数の断面画像54における内腔61の断面積を算出する。ステップS203において、制御部41は、バケットB[i]内の複数の断面画像54のうち内腔61の断面積が最大の断面画像54を断面画像55として選択する。あるいは、制御部41は、バケットB[i]内の複数の断面画像54のうち内腔61の断面積が最小の断面画像54を断面画像55として選択してもよい。あるいは、制御部41は、バケットB[i]内の複数の断面画像54のうち内腔61の断面積が中央値の断面画像54を断面画像55として選択してもよい。 7 shows a specific example of the operation of selecting the cross-sectional image 55 when the latest cross-sectional image 54 is acquired. In step S201 shown in this figure, the control unit 41 of the image processing device 11 adds the latest cross-sectional image 54 to the bucket B[i] corresponding to the position in the movement direction of the ultrasound transducer 25 when the latest cross-sectional image 54 is obtained. As shown in FIG. 3, the bucket B[i] already stores one or more other cross-sectional images 54 obtained when the ultrasound transducer 25 is in the same position before the latest cross-sectional image 54 is obtained. In step S202, the control unit 41 calculates the cross-sectional area of the lumen 61 in the multiple cross-sectional images 54 in the bucket B[i], including the latest cross-sectional image 54. In step S203, the control unit 41 selects the cross-sectional image 54 with the largest cross-sectional area of the lumen 61 as the cross-sectional image 55 from the multiple cross-sectional images 54 in the bucket B[i]. Alternatively, the control unit 41 may select the cross-sectional image 54 with the smallest cross-sectional area of the lumen 61 as the cross-sectional image 55 from the multiple cross-sectional images 54 in the bucket B[i]. Alternatively, the control unit 41 may select, as the cross-sectional image 55, the cross-sectional image 54 having the median cross-sectional area of the lumen 61 from among the multiple cross-sectional images 54 in the bucket B[i].

画像処理装置11の制御部41は、ステップS102と同様に、最新の断面画像54の画素群を2つ以上のクラスに分類する。そのため、ステップS202において、制御部41は、バケットB[i]内の断面画像54ごとに、血球クラス81に分類された画素の数など、内腔61を表す画素の数を内腔61の断面積として算出する。 The control unit 41 of the image processing device 11 classifies the pixel group of the latest cross-sectional image 54 into two or more classes, similar to step S102. Therefore, in step S202, the control unit 41 calculates the number of pixels representing the lumen 61, such as the number of pixels classified into the blood cell class 81, as the cross-sectional area of the lumen 61, for each cross-sectional image 54 in bucket B[i].

ステップS108の後、再びステップS103において、画像処理装置11の制御部41は、ステップS108で更新した3次元データ52を3次元画像53としてディスプレイ16に表示させる。 After step S108, in step S103 again, the control unit 41 of the image processing device 11 causes the display 16 to display the three-dimensional data 52 updated in step S108 as a three-dimensional image 53.

最新の断面画像54が取得されたときに断面画像55が選択される動作の変形例を図8に示す。この図に示したステップS211及びステップS212の処理については、図7に示したステップS201及びステップS202の処理と同様であるため、説明を省略する。ステップS213において、制御部41は、バケットB[i]内の複数の断面画像54における内腔61の断面積を、図3に示したような前後のバケットB[i-4],・・・,B[i-1]及びB[i+1],・・・,B[i+4]内で選択した断面画像55における内腔61の断面積と比較する。ステップS214において、制御部41は、バケットB[i]内の複数の断面画像54のうち、バケットB[i-4],・・・,B[i-1]及びB[i+1],・・・,B[i+4]内で選択した断面画像55との内腔61の断面積の差が最小の断面画像54を断面画像55として選択する。あるいは、制御部41は、バケットB[i-4],・・・,B[i-1]及びB[i+1],・・・,B[i+4]内で選択した断面画像55に対して、移動方向における位置差に応じた重み付けをした上で、バケットB[i]内の複数の断面画像54のうち、バケットB[i-4],・・・,B[i-1]及びB[i+1],・・・,B[i+4]内で選択した断面画像55との内腔61の断面積の差の合計が最も小さくなる断面画像54を断面画像55として選択してもよい。移動方向における位置差をjとしたとき、1/jを重み付けの係数として用いることが考えられる。図8に示した例では、前後4つずつのバケット内で選択した断面画像55を比較対象としているが、任意の数のバケット内で選択した断面画像55を比較対象としてもよいし、又は前後いずれか片方の1つ以上のバケット内で選択した断面画像55を比較対象としてもよい。 FIG. 8 shows a modified example of the operation of selecting a cross-sectional image 55 when the latest cross-sectional image 54 is acquired. The processing of steps S211 and S212 shown in this figure is the same as the processing of steps S201 and S202 shown in FIG. 7, so the description will be omitted. In step S213, the control unit 41 compares the cross-sectional area of the lumen 61 in the multiple cross-sectional images 54 in the bucket B[i] with the cross-sectional area of the lumen 61 in the cross-sectional images 55 selected in the previous and next buckets B[i-4], ..., B[i-1] and B[i+1], ..., B[i+4] as shown in FIG. 3. In step S214, the control unit 41 selects, as the cross-sectional image 55, the cross-sectional image 54 having the smallest difference in the cross-sectional area of the lumen 61 from the cross-sectional image 55 selected in the buckets B[i-4], ..., B[i-1] and B[i+1], ..., B[i+4] among the multiple cross-sectional images 54 in the bucket B[i]. Alternatively, the control unit 41 may weight the cross-sectional images 55 selected in the buckets B[i-4], ..., B[i-1] and B[i+1], ..., B[i+4] according to the position difference in the moving direction, and then select the cross-sectional image 54 in which the total difference in the cross-sectional area of the lumen 61 between the cross-sectional images 55 selected in the buckets B[i-4], ..., B[i-1] and B[i+1], ..., B[i+4] is the smallest as the cross-sectional image 55 among the multiple cross-sectional images 54 in the bucket B[i]. When the position difference in the moving direction is j, it is possible to use 1/j 2 as a weighting coefficient. In the example shown in FIG. 8, the cross-sectional images 55 selected in four buckets in front and behind are compared, but the cross-sectional images 55 selected in any number of buckets may be compared, or the cross-sectional images 55 selected in one or more buckets on either the front or rear side may be compared.

上述したように、画像処理装置11の制御部41は、センサ71の移動方向における各位置を第1位置、1つ以上の別の位置を第2位置としたとき、第1位置について取得した複数の断面画像54における内腔61の断面積を、第2位置について得られた選択画像における内腔61の断面積と比較してもよい。制御部41は、得られた比較結果に応じて、当該複数の断面画像54の中から1つの断面画像55を選択してもよい。具体的には、制御部41は、第1位置について取得した複数の断面画像54のうち、第2位置について得られた選択画像との内腔61の断面積の差が最小の断面画像54を断面画像55として選択してもよい。第2位置は、センサ71の移動方向における第1位置の前後それぞれの少なくとも1つの位置を含んでよい。 As described above, when each position in the movement direction of the sensor 71 is defined as a first position and one or more other positions are defined as a second position, the control unit 41 of the image processing device 11 may compare the cross-sectional area of the lumen 61 in the multiple cross-sectional images 54 acquired at the first position with the cross-sectional area of the lumen 61 in the selected image acquired at the second position. The control unit 41 may select one cross-sectional image 55 from the multiple cross-sectional images 54 according to the obtained comparison result. Specifically, the control unit 41 may select, as the cross-sectional image 55, the cross-sectional image 54 of the multiple cross-sectional images 54 acquired at the first position that has the smallest difference in the cross-sectional area of the lumen 61 from the selected image acquired at the second position. The second position may include at least one position before and after the first position in the movement direction of the sensor 71.

この変形例によれば、第1位置について取得された複数の断面画像54の中に、非常に大きな領域が血球クラス81に該当する領域として誤検出されてしまうような断面画像54が含まれていても、その断面画像54が選択されるのを避けることができる。同様に、第1位置について取得された複数の断面画像54の中に、非常に小さな領域が血球クラス81に該当する領域として誤検出されてしまうような断面画像54が含まれていても、その断面画像54が選択されるのを避けることができる。そのため、3次元画像53として、よりノイズの少ない画像を生成することが可能になる。したがって、術者が3次元画像53から生体組織60の構造をより正確に把握しやすくなる。 According to this modified example, even if the multiple cross-sectional images 54 acquired for the first position include a cross-sectional image 54 in which a very large area is erroneously detected as a region corresponding to the blood cell class 81, the selection of that cross-sectional image 54 can be avoided. Similarly, even if the multiple cross-sectional images 54 acquired for the first position include a cross-sectional image 54 in which a very small area is erroneously detected as a region corresponding to the blood cell class 81, the selection of that cross-sectional image 54 can be avoided. Therefore, it is possible to generate an image with less noise as the three-dimensional image 53. Therefore, it becomes easier for the surgeon to more accurately grasp the structure of the biological tissue 60 from the three-dimensional image 53.

本開示は上述の実施形態に限定されるものではない。例えば、ブロック図に記載の2つ以上のブロックを統合してもよいし、又は1つのブロックを分割してもよい。フローチャートに記載の2つ以上のステップを記述に従って時系列に実行する代わりに、各ステップを実行する装置の処理能力に応じて、又は必要に応じて、並列的に又は異なる順序で実行してもよい。その他、本開示の趣旨を逸脱しない範囲での変更が可能である。 The present disclosure is not limited to the above-described embodiments. For example, two or more blocks shown in the block diagram may be integrated, or one block may be divided. Two or more steps shown in the flowchart may be executed in parallel or in a different order, instead of being executed in chronological order as described, depending on the processing capabilities of the device executing each step, or as needed. Other modifications are possible without departing from the spirit of the present disclosure.

10 画像表示システム
11 画像処理装置
12 ケーブル
13 駆動ユニット
14 キーボード
15 マウス
16 ディスプレイ
17 接続端子
18 カートユニット
20 プローブ
21 駆動シャフト
22 ハブ
23 シース
24 外管
25 超音波振動子
26 中継コネクタ
31 スキャナユニット
32 スライドユニット
33 ボトムカバー
34 プローブ接続部
35 スキャナモータ
36 差込口
37 プローブクランプ部
38 スライドモータ
39 スイッチ群
41 制御部
42 記憶部
43 通信部
44 入力部
45 出力部
51 断層データ
52 3次元データ
53 3次元画像
54 断面画像
55 断面画像
56 学習済みモデル
57 断面画像
60 生体組織
61 内腔
62 医療器具
70 カテーテル
71 センサ
80 生体組織クラス
81 血球クラス
82 医療器具クラス
LIST OF SYMBOLS 10 Image display system 11 Image processing device 12 Cable 13 Drive unit 14 Keyboard 15 Mouse 16 Display 17 Connection terminal 18 Cart unit 20 Probe 21 Drive shaft 22 Hub 23 Sheath 24 Outer tube 25 Ultrasonic transducer 26 Relay connector 31 Scanner unit 32 Slide unit 33 Bottom cover 34 Probe connection section 35 Scanner motor 36 Socket 37 Probe clamp section 38 Slide motor 39 Switch group 41 Control section 42 Memory section 43 Communication section 44 Input section 45 Output section 51 Tomographic data 52 Three-dimensional data 53 Three-dimensional image 54 Cross-sectional image 55 Cross-sectional image 56 Trained model 57 Cross-sectional image 60 Biological tissue 61 Inner cavity 62 Medical instrument 70 Catheter 71 Sensor 80 Living tissue class 81 Blood cell class 82 Medical instrument class

Claims (10)

生体組織の内腔を移動するセンサの移動方向における位置ごとに、前記センサを用いて互いに異なる時刻に得られた複数の断面画像を取得し、取得した複数の断面画像を解析して、当該複数の断面画像における前記内腔の断面積を算出し、算出した断面積に応じて、当該複数の断面画像の中から1つの断面画像を選択し、前記センサの移動方向における複数の位置について得られた選択画像群から、前記生体組織を表す3次元画像を生成する制御部を備える画像処理装置。 An image processing device including a control unit that acquires multiple cross-sectional images obtained at different times using a sensor for each position in the movement direction of the sensor moving through the cavity of the biological tissue, analyzes the multiple acquired cross-sectional images, calculates the cross-sectional area of the cavity in the multiple cross-sectional images, selects one cross-sectional image from the multiple cross-sectional images according to the calculated cross-sectional area, and generates a three-dimensional image representing the biological tissue from the selected images obtained for multiple positions in the movement direction of the sensor. 前記制御部は、前記センサの移動方向における位置ごとに、取得した複数の断面画像のうち前記内腔の断面積が最大の断面画像を選択する請求項1に記載の画像処理装置。 The image processing device according to claim 1, wherein the control unit selects, for each position in the movement direction of the sensor, from among the multiple acquired cross-sectional images, a cross-sectional image having the largest cross-sectional area of the lumen. 前記制御部は、前記センサの移動方向における位置ごとに、取得した複数の断面画像のうち前記内腔の断面積が最小の断面画像を選択する請求項1に記載の画像処理装置。 The image processing device according to claim 1, wherein the control unit selects, for each position in the movement direction of the sensor, from among the multiple acquired cross-sectional images, a cross-sectional image with the smallest cross-sectional area of the lumen. 前記制御部は、前記センサの移動方向における位置ごとに、取得した複数の断面画像のうち前記内腔の断面積が中央値の断面画像を選択する請求項1に記載の画像処理装置。 The image processing device according to claim 1, wherein the control unit selects, for each position in the movement direction of the sensor, from among the multiple acquired cross-sectional images, a cross-sectional image having a median cross-sectional area of the lumen. 前記制御部は、前記センサの移動方向における各位置を第1位置、1つ以上の別の位置を第2位置としたとき、前記第1位置について取得した複数の断面画像における前記内腔の断面積を、前記第2位置について得られた選択画像における前記内腔の断面積と比較し、得られた比較結果に応じて、当該複数の断面画像の中から1つの断面画像を選択する請求項1に記載の画像処理装置。 The image processing device according to claim 1, wherein the control unit, when each position in the movement direction of the sensor is defined as a first position and one or more other positions are defined as a second position, compares the cross-sectional area of the lumen in a plurality of cross-sectional images acquired for the first position with the cross-sectional area of the lumen in a selected image acquired for the second position, and selects one cross-sectional image from the plurality of cross-sectional images according to the obtained comparison result. 前記制御部は、前記第1位置について取得した複数の断面画像のうち、前記内腔の断面積と前記第2位置について得られた選択画像における前記内腔の断面積との差が最小の断面画像を選択する請求項5に記載の画像処理装置。 The image processing device according to claim 5, wherein the control unit selects, from among the multiple cross-sectional images acquired for the first position, a cross-sectional image in which the difference between the cross-sectional area of the lumen and the cross-sectional area of the lumen in the selected image acquired for the second position is the smallest. 前記第2位置は、前記センサの移動方向における前記第1位置の前後それぞれの少なくとも1つの位置を含む請求項5に記載の画像処理装置。 The image processing device according to claim 5, wherein the second position includes at least one position before and after the first position in the movement direction of the sensor. 請求項1から請求項7のいずれか1項に記載の画像処理装置と、
前記3次元画像を表示するディスプレイと
を備える画像表示システム。
An image processing device according to any one of claims 1 to 7,
and a display for displaying the three-dimensional image.
生体組織の内腔を移動するセンサの移動方向における位置ごとに、前記センサを用いて互いに異なる時刻に得られた複数の断面画像を取得し、
取得した複数の断面画像を解析して、当該複数の断面画像における前記内腔の断面積を算出し、
算出した断面積に応じて、当該複数の断面画像の中から1つの断面画像を選択し、
前記センサの移動方向における複数の位置について得られた選択画像群から、前記生体組織を表す3次元画像を生成し、
生成した3次元画像をディスプレイに表示する画像表示方法。
acquiring a plurality of cross-sectional images obtained at different times using a sensor for each position in a moving direction of the sensor moving through a lumen of the biological tissue;
Analyzing the acquired cross-sectional images to calculate a cross-sectional area of the lumen in the cross-sectional images;
selecting one cross-sectional image from the plurality of cross-sectional images according to the calculated cross-sectional area;
generating a three-dimensional image representative of the biological tissue from a set of selected images obtained for a plurality of positions in a direction of movement of the sensor;
An image display method for displaying the generated three-dimensional image on a display.
生体組織の内腔を移動するセンサの移動方向における位置ごとに、前記センサを用いて互いに異なる時刻に得られた複数の断面画像を取得する処理と、
取得した複数の断面画像を解析して、当該複数の断面画像における前記内腔の断面積を算出する処理と、
算出した断面積に応じて、当該複数の断面画像の中から1つの断面画像を選択する処理と、
前記センサの移動方向における複数の位置について得られた選択画像群から、前記生体組織を表す3次元画像を生成する処理と
をコンピュータに実行させる画像処理プログラム。
A process of acquiring a plurality of cross-sectional images obtained at different times using a sensor moving through a lumen of a biological tissue for each position in a moving direction of the sensor;
A process of analyzing the acquired multiple cross-sectional images and calculating a cross-sectional area of the lumen in the multiple cross-sectional images;
selecting one cross-sectional image from the plurality of cross-sectional images according to the calculated cross-sectional area;
and generating a three-dimensional image representing the biological tissue from a group of selected images obtained for a plurality of positions in the movement direction of the sensor.
JP2022157478A 2022-09-30 2022-09-30 IMAGE PROCESSING APPARATUS, IMAGE DISPLAY SYSTEM, IMAGE DISPLAY METHOD, AND IMAGE PROCESSING PROGRAM Pending JP2024051351A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022157478A JP2024051351A (en) 2022-09-30 2022-09-30 IMAGE PROCESSING APPARATUS, IMAGE DISPLAY SYSTEM, IMAGE DISPLAY METHOD, AND IMAGE PROCESSING PROGRAM
PCT/JP2023/034779 WO2024071054A1 (en) 2022-09-30 2023-09-25 Image processing device, image display system, image display method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022157478A JP2024051351A (en) 2022-09-30 2022-09-30 IMAGE PROCESSING APPARATUS, IMAGE DISPLAY SYSTEM, IMAGE DISPLAY METHOD, AND IMAGE PROCESSING PROGRAM

Publications (1)

Publication Number Publication Date
JP2024051351A true JP2024051351A (en) 2024-04-11

Family

ID=90477905

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022157478A Pending JP2024051351A (en) 2022-09-30 2022-09-30 IMAGE PROCESSING APPARATUS, IMAGE DISPLAY SYSTEM, IMAGE DISPLAY METHOD, AND IMAGE PROCESSING PROGRAM

Country Status (2)

Country Link
JP (1) JP2024051351A (en)
WO (1) WO2024071054A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7778688B2 (en) * 1999-05-18 2010-08-17 MediGuide, Ltd. System and method for delivering a stent to a selected position within a lumen
JP3986866B2 (en) * 2002-03-29 2007-10-03 松下電器産業株式会社 Image processing apparatus and ultrasonic diagnostic apparatus
AU2006201646B2 (en) * 2005-04-26 2011-01-06 Biosense Webster, Inc. Display of catheter tip with beam direction for ultrasound system
EP3419507B1 (en) * 2016-02-26 2021-06-30 Sunnybrook Research Institute Imaging probe with rotatable core
CN113397602B (en) * 2021-05-21 2022-10-14 深圳市赛禾医疗技术有限公司 Intracardiac three-dimensional ultrasonic imaging catheter and system and cardiac three-dimensional model construction method

Also Published As

Publication number Publication date
WO2024071054A1 (en) 2024-04-04

Similar Documents

Publication Publication Date Title
WO2021048834A1 (en) Diagnosis assistance device, diagnosis assistance system, and diagnosis assistance method
WO2024071054A1 (en) Image processing device, image display system, image display method, and image processing program
US20220218309A1 (en) Diagnostic assistance device, diagnostic assistance system, and diagnostic assistance method
WO2022202303A1 (en) Computer program, information processing method, and information processing device
JP2024051695A (en) IMAGE PROCESSING APPARATUS, IMAGE DISPLAY SYSTEM, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING PROGRAM
JP7379473B2 (en) Diagnosis support device and diagnosis support method
WO2023013601A1 (en) Image processing device, image processing system, image processing method, and image processing program
JP2023024072A (en) Image processing device, image processing system, image display method, and image processing program
JP7421548B2 (en) Diagnostic support device and diagnostic support system
WO2021200294A1 (en) Image processing device, image processing system, image display method, and image processing program
WO2022202200A1 (en) Image processing device, image processing system, image display method, and image processing program
US20240016474A1 (en) Image processing device, image processing system, image display method, and image processing program
WO2023176741A1 (en) Image processing device, image processing system, image display method, and image processing program
WO2022085373A1 (en) Image processing device, image processing system, image displaying method, and image processing program
WO2022071251A1 (en) Image processing device, image processing system, image display method, and image processing program
WO2022071250A1 (en) Image processing device, image processing system, image display method, and image processing program
WO2022202302A1 (en) Computer program, information processing method, and information processing device
US20240013387A1 (en) Image processing device, image processing system, image display method, and image processing program
CN114502079B (en) Diagnosis support device, diagnosis support system, and diagnosis support method
US20240013390A1 (en) Image processing device, image processing system, image display method, and image processing program
WO2022209657A1 (en) Computer program, information processing method, and information processing device
WO2021200295A1 (en) Image processing device, image processing system, image display method, and image processing program
WO2022209652A1 (en) Computer program, information processing method, and information processing device
WO2021065746A1 (en) Diagnostic support device, diagnostic support system, and diagnostic support method
WO2023054001A1 (en) Image processing device, image processing system, image display method, and image processing program