JP6510301B2 - MEDICAL SUPPORT SYSTEM, MEDICAL SUPPORT METHOD, IMAGE PROCESSING APPARATUS, AND CONTROL METHOD AND CONTROL PROGRAM THEREOF - Google Patents
MEDICAL SUPPORT SYSTEM, MEDICAL SUPPORT METHOD, IMAGE PROCESSING APPARATUS, AND CONTROL METHOD AND CONTROL PROGRAM THEREOF Download PDFInfo
- Publication number
- JP6510301B2 JP6510301B2 JP2015084771A JP2015084771A JP6510301B2 JP 6510301 B2 JP6510301 B2 JP 6510301B2 JP 2015084771 A JP2015084771 A JP 2015084771A JP 2015084771 A JP2015084771 A JP 2015084771A JP 6510301 B2 JP6510301 B2 JP 6510301B2
- Authority
- JP
- Japan
- Prior art keywords
- dimensional
- model
- data
- feature points
- ultrasound
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 113
- 238000000034 method Methods 0.000 title claims description 39
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 238000002604 ultrasonography Methods 0.000 claims description 146
- 239000000523 sample Substances 0.000 claims description 82
- 230000003287 optical effect Effects 0.000 claims description 59
- 239000003550 marker Substances 0.000 claims description 57
- 210000004204 blood vessel Anatomy 0.000 claims description 54
- 238000000605 extraction Methods 0.000 claims description 49
- 238000001514 detection method Methods 0.000 claims description 47
- 238000009825 accumulation Methods 0.000 claims description 12
- 230000005540 biological transmission Effects 0.000 claims description 12
- 238000003384 imaging method Methods 0.000 claims description 7
- 238000001727 in vivo Methods 0.000 claims description 4
- 230000008878 coupling Effects 0.000 claims 1
- 238000010168 coupling process Methods 0.000 claims 1
- 238000005859 coupling reaction Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 30
- 238000004891 communication Methods 0.000 description 18
- 239000000203 mixture Substances 0.000 description 13
- 230000008569 process Effects 0.000 description 12
- 238000006243 chemical reaction Methods 0.000 description 11
- 239000000284 extract Substances 0.000 description 11
- 210000000056 organ Anatomy 0.000 description 11
- 238000002591 computed tomography Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 7
- 210000004185 liver Anatomy 0.000 description 7
- 239000013598 vector Substances 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 239000000463 material Substances 0.000 description 4
- 238000001356 surgical procedure Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 3
- MHABMANUFPZXEB-UHFFFAOYSA-N O-demethyl-aloesaponarin I Natural products O=C1C2=CC=CC(O)=C2C(=O)C2=C1C=C(O)C(C(O)=O)=C2C MHABMANUFPZXEB-UHFFFAOYSA-N 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 210000002784 stomach Anatomy 0.000 description 2
- 210000001835 viscera Anatomy 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 210000001015 abdomen Anatomy 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000002357 laparoscopic surgery Methods 0.000 description 1
- 238000002350 laparotomy Methods 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 230000001926 lymphatic effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 210000000496 pancreas Anatomy 0.000 description 1
- 238000002603 single-photon emission computed tomography Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Endoscopes (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Image Processing (AREA)
Description
本発明は、患者体内の3次元画像を表示して医療を支援する技術に関する。 The present invention relates to a technology for supporting medical treatment by displaying a three-dimensional image in a patient's body.
上記技術分野において、特許文献1には、超音波画像と断面が一致するCTまたはMRIの断層画像を表示する技術が開示されている。また、特許文献2には、超音波画像の表示位置をCTまたはMRIの断層画像上に表示する技術が開示されている。また、特許文献3には、3次元超音波画像と断面が略一致するCTまたはMRIの3次元画像を表示する技術が開示されている。 In the above technical field, Patent Document 1 discloses a technique for displaying a tomographic image of CT or MRI whose cross section coincides with an ultrasonic image. Further, Patent Document 2 discloses a technique for displaying the display position of an ultrasonic image on a tomographic image of CT or MRI. Further, Patent Document 3 discloses a technique for displaying a three-dimensional image of CT or MRI whose cross section substantially coincides with that of a three-dimensional ultrasonic image.
しかしながら、上記文献に記載の技術は、超音波画像とCTあるいはMRI画像との位置合わせをして同じ断面画像を参照可能に並べて表示するが、患者の生体内部の実時間における部位の状態を認識することが難しかった。 However, although the technique described in the above document aligns the ultrasonic image and the CT or MRI image and displays the same cross-sectional image side by side so as to be referable, it recognizes the state of the part in real time inside the patient's living body It was difficult to do.
本発明の目的は、上述の課題を解決する技術を提供することにある。 An object of the present invention is to provide a technique for solving the above-mentioned problems.
上記目的を達成するため、本発明に係る医療支援システムは、
患者の断層撮影画像群に基づいて、3次元部位モデルのデータを生成する部位モデル生成手段と、
前記3次元部位モデルから、所定の特徴を有する複数の第1特徴点の位置情報を抽出する第1特徴点抽出手段と、
前記患者に対して超音波プローブを用いて取得した超音波データと、前記超音波データを取得した前記超音波プローブの位置および向きデータとを対応付けて蓄積し、前記超音波データと前記位置および向きデータとを用いて、3次元超音波モデルのデータを生成する超音波モデル生成手段と、
前記3次元超音波モデルから、前記所定の特徴を有する複数の第2特徴点の位置情報を抽出する第2特徴点抽出手段と、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように、前記3次元部位モデルを変形する変形手段と、
前記変形手段により変形された前記3次元部位モデルの投影画像を表示する表示手段と、
を備え、
前記変形手段は、
前記3次元部位モデルを、各々が少なくとも1つの前記第1特徴点を含む複数の3次元領域に分割する分割領域生成手段と、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように前記複数の3次元領域のそれぞれを位置調整し、位置調整された前記複数の3次元領域を互いに連結する分割領域連結手段と、
を有し、
前記表示手段は、前記分割領域連結手段が連結した前記複数の3次元領域の投影画像を前記3次元部位モデルの投影画像として表示する。
In order to achieve the above object, the medical support system according to the present invention is
A part model generation unit that generates data of a three-dimensional part model based on a tomographic image group of a patient;
First feature point extraction means for extracting position information of a plurality of first feature points having predetermined features from the three-dimensional part model;
The ultrasound data acquired for the patient using the ultrasound probe and the position and orientation data of the ultrasound probe for which the ultrasound data is acquired are stored in association with each other, and the ultrasound data, the position, and the position Ultrasonic model generation means for generating data of a three-dimensional ultrasonic model using orientation data;
Second feature point extraction means for extracting position information of the plurality of second feature points having the predetermined feature from the three-dimensional ultrasound model;
Deformation means for deforming the three-dimensional part model so that the plurality of first feature points and the plurality of second feature points overlap;
Display means for displaying a projection image of the three-dimensional part model deformed by the deformation means;
Equipped with
The deformation means is
Division area generation means for dividing the three-dimensional part model into a plurality of three-dimensional areas each including at least one of the first feature points;
Each of the plurality of three-dimensional regions is position-adjusted such that the plurality of first feature points and the plurality of second feature points overlap, and a division region connection is made to connect the plurality of position-adjusted plurality of three-dimensional regions. Means,
Have
The display means, that displays a projection image of the divided plurality of three-dimensional area region connecting means is connected as a projection image of the three-dimensional site model.
上記目的を達成するため、本発明に係る医療支援方法は、
患者の断層撮影画像群に基づいて、3次元部位モデルのデータを生成する部位モデル生成ステップと、
前記3次元部位モデルから、所定の特徴を有する複数の第1特徴点の位置情報を抽出する第1特徴点抽出ステップと、
前記患者に対して超音波プローブを用いて取得した超音波データと、前記超音波データを取得した前記超音波プローブの位置および向きデータとを対応付けて蓄積手段に蓄積する蓄積ステップと、
前記超音波データと前記位置および向きデータとを用いて、3次元超音波モデルのデータを生成する超音波モデル生成ステップと、
前記3次元超音波モデルから、前記所定の特徴を有する複数の第2特徴点の位置情報を抽出する第2特徴点抽出ステップと、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように、前記3次元部位モデルを変形する変形ステップと、
前記変形ステップにおいて変形された前記3次元部位モデルの投影画像を表示する表示ステップと、
を含み、
前記変形ステップは、
前記3次元部位モデルを、各々が少なくとも1つの前記第1特徴点を含む複数の3次元領域に分割する分割領域生成ステップと、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように前記複数の3次元領域のそれぞれを位置調整し、位置調整された前記複数の3次元領域を互いに連結する分割領域連結ステップと、
を含み、
前記表示ステップにおいては、前記分割領域連結ステップにおいて連結した前記複数の3次元領域の投影画像を前記3次元部位モデルの投影画像として表示する。
In order to achieve the above object, the medical support method according to the present invention is
A part model generation step of generating data of a three-dimensional part model based on a tomographic image group of a patient;
A first feature point extraction step of extracting position information of a plurality of first feature points having predetermined features from the three-dimensional part model;
An accumulation step of correlating the ultrasound data acquired for the patient using the ultrasound probe with the position and orientation data of the ultrasound probe for which the ultrasound data is acquired, and accumulating the data in an accumulation unit;
An ultrasound model generation step of generating data of a three-dimensional ultrasound model using the ultrasound data and the position and orientation data;
A second feature point extraction step of extracting position information of the plurality of second feature points having the predetermined feature from the three-dimensional ultrasound model;
Deforming the three-dimensional part model so that the plurality of first feature points and the plurality of second feature points overlap;
A display step of displaying a projection image of the three-dimensional part model deformed in the deformation step;
Only including,
The deformation step is
A division area generation step of dividing the three-dimensional part model into a plurality of three-dimensional areas each including at least one of the first feature points;
Each of the plurality of three-dimensional regions is position-adjusted such that the plurality of first feature points and the plurality of second feature points overlap, and a division region connection is made to connect the plurality of position-adjusted plurality of three-dimensional regions. Step and
Including
In the display step, projection images of the plurality of three-dimensional regions connected in the division region connection step are displayed as projection images of the three-dimensional part model .
上記目的を達成するため、本発明に係る画像処理装置は、
患者の断層撮影画像群に基づいて生成された3次元部位モデルのデータを受信する受信手段と、
前記3次元部位モデルから、所定の特徴を有する複数の第1特徴点の位置情報を抽出する第1特徴点抽出手段と、
前記患者に対して超音波プローブを用いて取得した超音波データと、前記超音波データを取得した前記超音波プローブの位置および向きデータとを対応付けて蓄積する蓄積手段と、
前記超音波データと前記位置および向きデータとを用いて、3次元超音波モデルのデータを生成する超音波モデル生成手段と、
前記3次元超音波モデルから、前記所定の特徴を有する複数の第2特徴点の位置情報を抽出する第2特徴点抽出手段と、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように、前記3次元部位モデルを変形する変形手段と、
前記変形手段により変形された前記3次元部位モデルの投影画像を表示手段に送信する送信手段と、
を備え、
前記変形手段は、
前記3次元部位モデルを、各々が少なくとも1つの前記第1特徴点を含む複数の3次元領域に分割する分割領域生成手段と、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように前記複数の3次元領域のそれぞれを位置調整し、位置調整された前記複数の3次元領域を互いに連結する分割領域連結手段と、
を有し、
前記送信手段は、前記分割領域連結手段が連結した前記複数の3次元領域の投影画像を前記3次元部位モデルの投影画像として前記表示手段に送信する。
In order to achieve the above object, an image processing apparatus according to the present invention is
Receiving means for receiving data of a three-dimensional part model generated based on a group of tomographic images of the patient;
First feature point extraction means for extracting position information of a plurality of first feature points having predetermined features from the three-dimensional part model;
Storage means for correlating and storing ultrasound data acquired for the patient using an ultrasound probe and position and orientation data of the ultrasound probe for which the ultrasound data is acquired;
Ultrasonic model generation means for generating data of a three-dimensional ultrasonic model using the ultrasonic data and the position and orientation data;
Second feature point extraction means for extracting position information of the plurality of second feature points having the predetermined feature from the three-dimensional ultrasound model;
Deformation means for deforming the three-dimensional part model so that the plurality of first feature points and the plurality of second feature points overlap;
Transmission means for transmitting the projection image of the three-dimensional part model deformed by the deformation means to display means;
Equipped with
The deformation means is
Division area generation means for dividing the three-dimensional part model into a plurality of three-dimensional areas each including at least one of the first feature points;
Each of the plurality of three-dimensional regions is position-adjusted such that the plurality of first feature points and the plurality of second feature points overlap, and a division region connection is made to connect the plurality of position-adjusted plurality of three-dimensional regions. Means,
Have
It said transmission means that sends the projected image of the division of the plurality of regions connecting means are linked three-dimensional region on the display means as a projection image of the three-dimensional site model.
上記目的を達成するため、本発明に係る画像処理装置の制御方法は、
患者の断層撮影画像群に基づいて生成された3次元部位モデルのデータを受信する受信ステップと、
前記3次元部位モデルから、所定の特徴を有する複数の第1特徴点の位置情報を抽出する第1特徴点抽出ステップと、
前記患者に対して超音波プローブを用いて取得した超音波データと、前記超音波データを取得した前記超音波プローブの位置および向きデータとを対応付けて蓄積手段に蓄積する蓄積ステップと、
前記超音波データと前記位置および向きデータとを用いて、3次元超音波モデルのデータを生成する超音波モデル生成ステップと、
前記3次元超音波モデルから、前記所定の特徴を有する複数の第2特徴点の位置情報を抽出する第2特徴点抽出ステップと、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように、前記3次元部位モデルを変形する変形ステップと、
前記変形ステップにおいて変形された前記3次元部位モデルの投影画像を表示手段に送信する送信ステップと、
を含み、
前記変形ステップは、
前記3次元部位モデルを、各々が少なくとも1つの前記第1特徴点を含む複数の3次元領域に分割する分割領域生成ステップと、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように前記複数の3次元領域のそれぞれを位置調整し、位置調整された前記複数の3次元領域を互いに連結する分割領域連結ステップと、
を含み、
前記送信ステップにおいては、前記分割領域連結ステップにおいて連結した前記複数の3次元領域の投影画像を前記3次元部位モデルの投影画像として前記表示手段に送信する。
In order to achieve the above object, a control method of an image processing apparatus according to the present invention is:
Receiving data of a three-dimensional part model generated based on a group of tomographic images of the patient;
A first feature point extraction step of extracting position information of a plurality of first feature points having predetermined features from the three-dimensional part model;
An accumulation step of correlating the ultrasound data acquired for the patient using the ultrasound probe with the position and orientation data of the ultrasound probe for which the ultrasound data is acquired, and accumulating the data in an accumulation unit;
An ultrasound model generation step of generating data of a three-dimensional ultrasound model using the ultrasound data and the position and orientation data;
A second feature point extraction step of extracting position information of the plurality of second feature points having the predetermined feature from the three-dimensional ultrasound model;
Deforming the three-dimensional part model so that the plurality of first feature points and the plurality of second feature points overlap;
A transmitting step of transmitting a projection image of the three-dimensional part model deformed in the deformation step to display means;
Only including,
The deformation step is
A division area generation step of dividing the three-dimensional part model into a plurality of three-dimensional areas each including at least one of the first feature points;
Each of the plurality of three-dimensional regions is position-adjusted such that the plurality of first feature points and the plurality of second feature points overlap, and a division region connection is made to connect the plurality of position-adjusted plurality of three-dimensional regions. Step and
Including
In the transmission step, projection images of the plurality of three-dimensional regions connected in the division region connection step are transmitted to the display means as a projection image of the three-dimensional part model .
上記目的を達成するため、本発明に係る画像処理装置の制御プログラムは、
患者の断層撮影画像群に基づいて生成された3次元部位モデルのデータを受信する受信ステップと、
前記3次元部位モデルから、所定の特徴を有する複数の第1特徴点の位置情報を抽出する第1特徴点抽出ステップと、
前記患者に対して超音波プローブを用いて取得した超音波データと、前記超音波データを取得した前記超音波プローブの位置および向きデータとを対応付けて蓄積手段に蓄積する蓄積ステップと、
前記超音波データと前記位置および向きデータとを用いて、3次元超音波モデルのデータを生成する超音波モデル生成ステップと、
前記3次元超音波モデルから、前記所定の特徴を有する複数の第2特徴点の位置情報を抽出する第2特徴点抽出ステップと、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように、前記3次元部位モデルを変形する変形ステップと、
前記変形ステップにおいて変形された前記3次元部位モデルの投影画像を表示手段に送信する送信ステップと、
をコンピュータに実行させる画像処理装置の制御プログラムであって、
前記変形ステップにおいては、
前記3次元部位モデルを、各々が少なくとも1つの前記第1特徴点を含む複数の3次元領域に分割する分割領域生成ステップと、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように前記複数の3次元領域のそれぞれを位置調整し、位置調整された前記複数の3次元領域を互いに連結する分割領域連結ステップと、
をコンピュータに実行させ、
前記送信ステップにおいては、前記分割領域連結ステップにおいて連結した前記複数の3次元領域の投影画像を前記3次元部位モデルの投影画像として前記表示手段に送信するようコンピュータに実行させる。
In order to achieve the above object, a control program of an image processing apparatus according to the present invention is:
Receiving data of a three-dimensional part model generated based on a group of tomographic images of the patient;
A first feature point extraction step of extracting position information of a plurality of first feature points having predetermined features from the three-dimensional part model;
An accumulation step of correlating the ultrasound data acquired for the patient using the ultrasound probe with the position and orientation data of the ultrasound probe for which the ultrasound data is acquired, and accumulating the data in an accumulation unit;
An ultrasound model generation step of generating data of a three-dimensional ultrasound model using the ultrasound data and the position and orientation data;
A second feature point extraction step of extracting position information of the plurality of second feature points having the predetermined feature from the three-dimensional ultrasound model;
Deforming the three-dimensional part model so that the plurality of first feature points and the plurality of second feature points overlap;
A transmitting step of transmitting a projection image of the three-dimensional part model deformed in the deformation step to display means;
A control program of an image processing apparatus which causes a computer to execute
In the deformation step,
A division area generation step of dividing the three-dimensional part model into a plurality of three-dimensional areas each including at least one of the first feature points;
Each of the plurality of three-dimensional regions is position-adjusted such that the plurality of first feature points and the plurality of second feature points overlap, and a division region connection is made to connect the plurality of position-adjusted plurality of three-dimensional regions. Step and
On your computer,
In the transmitting step, the computer is made to transmit the projection images of the plurality of three-dimensional regions connected in the division region connecting step to the display means as a projection image of the three-dimensional part model .
本発明によれば、患者の生体内部の実時間における部位の状態を容易に認識することができる。 According to the present invention, it is possible to easily recognize the state of a site in real time inside a patient's living body.
以下に、図面を参照して、本発明の実施の形態について例示的に詳しく説明する。ただし、以下の実施の形態に記載されている構成要素は単なる例示であり、本発明の技術範囲をそれらのみに限定する趣旨のものではない。なお、本明細書で使用する「部位」は、生体内部の全体あるいはその一部を表わし、例えば、下腹部などの広い範囲から肺、肝臓、胃などの内臓器官やその病巣部分、あるいは血管やリンパ線、神経の一部などの狭い範囲までを表現する文言である。 Hereinafter, embodiments of the present invention will be exemplarily described in detail with reference to the drawings. However, the components described in the following embodiments are merely examples, and the scope of the present invention is not limited to them. As used herein, the term "site" refers to the whole or a part of the inside of a living body, for example, from a wide range such as the lower abdomen, visceral organs such as lung, liver, stomach, etc. It is a term that expresses a narrow range such as lymphatic line and a part of nerve.
[第1実施形態]
本発明の第1実施形態としての医療支援システム100について、図1を用いて説明する。医療支援システム100は、患者体内の3次元部位モデルを表示して医療を支援するシステムである。
First Embodiment
A
図1に示すように、医療支援システム100は、部位モデル生成部110と、第1特徴点抽出部120と、超音波モデル生成部130と、第2特徴点抽出部140と、変形部150と、表示部160と、を含む。部位モデル生成部110は、患者101の断層撮影画像群に基づいて、3次元部位モデル111のデータを生成する。第1特徴点抽出部120は、3次元部位モデル111から、所定の特徴を有する複数の第1特徴点の位置情報を抽出する。超音波モデル生成部130は、患者101に対して超音波プローブ103を用いて取得した超音波データ104と、超音波データ104を取得した超音波プローブ103の位置および向きデータとを対応付けて蓄積し、超音波データ104と位置および向きデータとを用いて、3次元超音波モデル131のデータを生成する。第2特徴点抽出部140は、3次元超音波モデル131から、所定の特徴を有する複数の第2特徴点の位置情報を抽出する。変形部150は、複数の第1特徴点と複数の第2特徴点とが重なるように、3次元部位モデル111を変形する。表示部160は、変形部150により変形された3次元部位モデルの投影画像160を表示する。
As shown in FIG. 1, the
なお、変形部150は、3次元部位モデル111を、各々が少なくとも1つの第1特徴点を含む複数の3次元領域に分割する分割領域生成部151と、複数の第1特徴点と複数の第2特徴点とが重なるように複数の3次元領域のそれぞれを位置調整し、位置調整された複数の3次元領域153を互いに連結する分割領域連結部152と、を有し、表示部160は、分割領域連結部152が連結した複数の3次元領域161を3次元部位モデルとして表示する。
Note that the
本実施形態によれば、超音波プローブにより取得した3次元超音波画像に対応して、断層撮影画像群に基づく3次元部位モデルを変換して表示することにより、患者の生体内部の実時間における部位の状態を容易に認識することができる。 According to the present embodiment, the three-dimensional region model based on the tomographic image group is converted and displayed corresponding to the three-dimensional ultrasonic image acquired by the ultrasonic probe in real time inside the patient's living body. The state of the site can be easily recognized.
[第2実施形態]
次に、本発明の第2実施形態に係る医療支援システムについて説明する。本実施形態に係る医療支援システムは、CT画像やMRI画像から生成された3次元部位モデルデータの注目部位に含まれる3次元血管モデルの第1特徴点を抽出して、注目部位を、第1特徴点を含む領域に分割する。また、超音波プローブで取得した超音波画像データの注目部位に含まれる3次元血管モデルの第2特徴点を抽出する。そして、第2特徴点の3次元位置に第1特徴点の3次元位置を合わせるように分割領域を位置調整して連結することにより、3次元部位モデルデータを変換して3次元部位モデルを変形し、変形された3次元部位モデルを患者の生体に重なるように表示する。3次元部位モデルの詳細な変形が、さらに非剛体変形などにより行なわれてもよい。
Second Embodiment
Next, a medical support system according to a second embodiment of the present invention will be described. The medical support system according to the present embodiment extracts the first feature point of the three-dimensional blood vessel model included in the target region of the three-dimensional region model data generated from the CT image or the MRI image, Divide into regions containing feature points. In addition, second feature points of the three-dimensional blood vessel model included in the target area of the ultrasound image data acquired by the ultrasound probe are extracted. Then, the three-dimensional part model data is converted to deform the three-dimensional part model by adjusting and connecting the divided areas so that the three-dimensional position of the first feature point matches the three-dimensional position of the second feature point. And display the deformed three-dimensional site model so as to overlap the patient's body. Detailed deformation of the three-dimensional part model may be further performed by non-rigid deformation or the like.
また、患者の生体に重なるように表示するには、患者の生体に固定された光学マーカを撮像し、光学マーカの位置および向きに基づいた位置、形状および大きさの3次元部位モデルデータを生成する。光学マーカは、光学マーカ付きの磁気センサとして提供される。超音波プローブに固定された磁気センサおよび生体に固定された磁気センサから超音波プローブの正確な位置および向きを検出する。3次元部位モデルは、オプティカルシースルー型のヘッドマウンティンディスプレイ(以下、HMD:Head Mounted Display)に表示される。なお、本実施形態においては、光学マーカや磁気センサを患者の生体に固定した例を示したが、手術中に開腹している場合は、手術対象臓器に直接、光学マーカや磁気センサを固定して、より正確な位置を算出することもできる。 Also, in order to display so as to overlap with the living body of the patient, an optical marker fixed to the living body of the patient is imaged, and three-dimensional site model data of position, shape and size based on the position and orientation of the optical marker is generated Do. The optical marker is provided as a magnetic sensor with an optical marker. The precise position and orientation of the ultrasonic probe are detected from the magnetic sensor fixed to the ultrasonic probe and the magnetic sensor fixed to the living body. The three-dimensional site model is displayed on an optical see-through head mounted display (hereinafter, HMD: Head Mounted Display). In the present embodiment, an example in which the optical marker or the magnetic sensor is fixed to the patient's living body is shown. However, when the laparotomy is performed during the operation, the optical marker or the magnetic sensor is directly fixed to the surgery target organ It is also possible to calculate a more accurate position.
《医療支援システム》
図2A、図2B、図2Cおよび図3を参照して、本実施形態の医療支援システムの構成および動作について説明する。
<< medical support system >>
The configuration and operation of the medical support system of the present embodiment will be described with reference to FIGS. 2A, 2B, 2C, and 3.
(システム概要)
図2Aは、本実施形態に係る医療支援システム200の概要を示す図である。
(System overview)
FIG. 2A is a diagram showing an outline of a
医療支援システム200においては、コンピュータ断層撮影画像の1つであるCT画像210から生成した、例えば、STL(Standard Triangulated Language)形式の3次元モデルデータで表わされた3次元部位モデルや3次元部位モデルから抽出された3次元血管モデルなどから、モデルの特徴を表わす3次元座標上に配置された第1特徴点群240を抽出する。なお、第1特徴点群240は、3次元モデルデータにおいて生体組織の特徴ある位置を表わすものであれば限定されないが、例えば、血管の枝分かれ点における、枝分かれ数や枝分かれベクトル、あるいは全体のパターンが特有の点を第1特徴点としてよい。次に、第1特徴点群240から少なくとも1つ、望ましくは少なくとも3つの隣接した第1特徴点を含む領域への分割処理260を行なう。なお、第1特徴点が領域の分割面や分割点にあるのが、分割領域の連結が容易であり望ましい。
In the
一方、診察室や手術室230において、位置検出用器具(例えば、磁気センサ)を用いて位置判定された超音波プローブ203により実時間に取得した時系列の2次元超音波画像群220から、あるいは、3次元超音波画像から3次元血管モデルを生成し、モデルの特徴を表わす3次元座標上に配置された第2特徴点群250を抽出する。なお、第2特徴点群250も、3次元超音波画像データにおいて生体組織の特徴ある位置を表わすものであれば限定されないが、第1特徴点と同様の、血管の枝分かれ点における、枝分かれ数や枝分かれベクトル、あるいは全体のパターンが特有の点を第2特徴点とするのが望ましい。ここで、超音波プローブ203の位置検出用器具は、診察や手術中に医師などにより遮断される光学マーカよりも、遮断されることのない磁気センサが望ましい。
On the other hand, in the examination room or
そして、医療支援システム200においては、第1特徴点と第2特徴点との3次元マッチングが行なわれ、第1特徴点群240が第2特徴点群250に重なるように、分割領域が位置調整されて連結されることによって、3次元モデルデータの変形が行なわれる。なお、3次元モデルデータの変形は、さらに分割領域や連結後の3次元部位モデルの非剛性変形を含んでもよい。
Then, in the
次に、医療支援システム200においては、実時間に生体201上に固定した位置検出用器具を用いて計測された、生体と3次元画像データに基づく3次元部位モデルとの位置関係に基づき、実時間の超音波画像に対応して変形された3次元部位モデル270を生体内部にあるように調整して3次元表示する。なお、3次元部位モデル270の3次元表示をする表示部は、オプティカルシースルー型HMDが望ましく、医師はHMDの表示画面上の3次元部位モデルの先に実際の生体を目視する。ここで、生体上の位置検出用器具は、生体と3次元部位モデルの表示との位置関係を高い精度で得るための光学マーカ付きの磁気センサが望ましい。
Next, in the
図2Bは、本実施形態に係る第1特徴点群240および第2特徴点群250の抽出処理の概要を示す図である。なお、図2Bにおいては第1特徴点群240の抽出を代表して説明するが、第2特徴点群250の抽出も同様である。
FIG. 2B is a diagram showing an outline of extraction processing of the first
取得した3次元血管画像241に対して、まず、各血管画像の中心線(芯線)242を抽出する。次に、複数の芯線242の分岐点や変曲点などの特徴点243を抽出して、分割処理260に使用する。
First, a center line (core line) 242 of each blood vessel image is extracted from the acquired three-dimensional
(システム構成)
図2Cは、本実施形態に係る医療支援システム200の構成を示すブロック図である。
(System configuration)
FIG. 2C is a block diagram showing the configuration of the
医療支援システム200は、CT装置211と、3次元モデル生成装置212と、画像処理装置280と、診察室や手術室230に配置された診察/手術器具群と、を備える。
The
CT装置211は、患者201のコンピュータ断層撮影画像をあらかじめ取得する。なお、取得された目的の臓器に対して生成した3次元CT画像は、STL形式などの3次元データに変換するのが望ましい。3次元データの範囲に限定はないが、患者201の注目器官単位であることが望ましい。3次元モデル生成装置212は、CT装置211からのコンピュータ断層撮影画像群から、例えば3次元血管モデルを含む3次元部位モデルを生成して、画像処理装置280に渡す。なお、図2Cの画像処理装置280では、CT装置211によるコンピュータ断層撮影画像群に基づく3次元部位モデルの取得としたが、MRI装置であっても他のコンピュータ断層撮影装置に基づく3次元部位モデルであってもよい。また、3次元部位モデルのデータは、患者201の生体内部の生体組織の構成あるいは器官や患部の構成を表わすものであれば、STL形式に限定されない。なお、本実施形態においては、画像処理装置280が、外部の3次元モデル生成装置212で生成された3次元部位モデルのデータを取得する場合を示すが、画像処理装置280が3次元モデル生成装置212の機能を含む構成であってもよい。
The
一方、診察室や手術室230の診察/手術器具群としては、超音波プローブ203と、磁気センサ231と、光学マーカ付き磁気センサ293と、Webカメラ294と、HMD295と、を有する。なお、Webカメラ294とHMD295とは、オプティカルシースルー型HMDとして一体化されている。超音波プローブ203は、実時間の診察中あるいは手術中に、患者201から超音波画像を取得する。磁気センサ231は、超音波プローブ203上に配置されて、超音波プローブ203の位置を検出する。光学マーカ付き磁気センサ293は、患者201に配置されて、磁気センサにより光学マーカの位置を検出し、光学マーカは患者201の生体とWebカメラ294との位置関係を判定するために使用される。Webカメラ294は、光学マーカ付き磁気センサ293の光学マーカを撮像して、患者201の生体とWebカメラ294との位置関係を判定する。なお、患者201の生体とWebカメラ294との位置関係を測定するためにHMDに磁気センサを取り付けてもよい。HMD295は、超音波画像に合致するように変形された3次元データで表わされる3次元モデルを、医師202が目視する患者201の位置に表示する。
On the other hand, as a medical examination / surgical instrument group of the medical examination room and the
画像処理装置280は、3次元データで表わされる3次元部位モデルを、磁気センサ231の検出信号によって位置および向きを判定した超音波プローブ203が取得した超音波画像に合致するように変形する。かかる変形には、3次元部位モデルを血管の分岐点などの特徴点に基づき領域に分割する分割処理と、超音波画像の特徴点に合致するように分割領域を連結する連結処理とが含まれる。次に、画像処理装置280は、光学マーカ付き磁気センサ293の磁気センサの検出信号と光学マーカを撮像したWebカメラ294の画像データによって、患者201の位置および向きと、患者201とHMD295との位置関係とを算出する。なお、Webカメラ294とHMD295との位置関係は一体のHMDとして固定されている。そして、画像処理装置280は、変形した3次元部位モデルが患者201の生体内部の正確な位置にあるように3次元表示データを生成して、HMD295に3次元表示させる。このように生体にセンサを固定するメリットは、生体が動いた時でも正確に3次元位置を推定することができることである。
The
(動作手順)
図3は、本実施形態に係る医療支援システム200の動作手順を示すシーケンス図である。
(Operation procedure)
FIG. 3 is a sequence diagram showing an operation procedure of the
CT装置211は、ステップS301において、患者201のコンピュータ断層撮影画像群を取得する。3次元モデル生成装置212は、ステップS302において、コンピュータ断層撮影画像群から肝臓などの部位あるいはその血管を抜き出して3次元表示する、3次元部位モデルデータを生成して、画像処理装置280に送信する。画像処理装置280は、ステップS303において、3次元モデル生成装置212から3次元部位モデルデータを受信する。画像処理装置280は、ステップS305において、3次元血管モデルのような3次元部位モデルに基づいて第1特徴点群を抽出する。そして、画像処理装置280は、ステップS307において、3次元部位モデルを、少なくとも1つの第1特徴点を含む3次元領域に分割して保持する。
The
ステップS309において、磁気センサ231は超音波プローブ203の位置および向きを取得して画像処理装置280に送信し、超音波プローブ203はその時の超音波信号を取得して画像処理装置280に送信する。画像処理装置280は、ステップS311において、複数の継時的な位置情報と超音波信号とに基づいて超音波の2次元データを蓄積した後に、例えば血管モデルを示す3次元超音波モデルデータを生成する。次に、画像処理装置280は、ステップS313において、血管モデルを示す3次元超音波モデルデータに基づいて第2特徴点群を抽出する。
In step S309, the
さらに、画像処理装置280は、ステップS315において、第1特徴点群が第2特徴点群に合致するように、3次元部位モデルから生成した分割領域を位置変換する。そして、画像処理装置280は、位置変換した分割領域を連結する。なお、分割領域の連結を正確にするためには、第1特徴点を分割領域の面や稜線あるいは頂点などに含むのが望ましい。
Furthermore, in step S315, the
光学マーカ付きの磁気センサ293の磁気センサは、ステップS317において、配置した患者201の生体の位置および向きを取得して、画像処理装置280に送信する。また、Webカメラ294は、ステップS319において、光学マーカ付きの磁気センサ293の光学マーカを撮像して、光学マーカの撮像データを画像処理装置280に送信する。画像処理装置280は、ステップS321において、光学マーカの撮像データから生体と表示部であるHMD295との位置関係(距離と向き)を算出する。
The magnetic sensor of the
なお、光学マーカ付きの磁気センサ293と超音波プローブ203の磁気センサ231とにより、超音波プローブ203の位置をより正確に検出することができる。すなわち、超音波プローブ203に光学マーカを配置することにより正確な位置を検出できるが、光学マーカがカメラの視界から隠れないことが条件となる。本実施形態においては、超音波プローブ203に磁気センサ231を配置して、超音波プローブ203を自由に移動することを可能にした。しかしながら、光学マーカに比較して正確性が低下するので、光学マーカ付きの磁気センサ293を生体201に配置することで、正確さを確保する。したがって、HMD295に磁気センサを取り付けた場合はHMD295と超音波プローブ203との位置関係が検出できるので、カメラによる撮像の必要はない。
The position of the
そして、画像処理装置280は、ステップS323において、分割領域の連結により変形した3次元部位モデルを、患者201の生体内部にあるかのように表示する表示データを生成して、HMD295に送信する。HMD295は、ステップS325において、受信した表示データにより3次元部位モデルを患者201の生体内部にあるかのように表示する。
Then, in step S 323, the
《画像処理装置の機能構成》
図4は、本実施形態に係る画像処理装置280の機能構成を示すブロック図である。
<< Functional Configuration of Image Processing Device >>
FIG. 4 is a block diagram showing a functional configuration of the
画像処理装置280は、3次元部位モデル受信部411と、第1特徴点抽出部412と、分割領域生成部424と、を備える。また、画像処理装置280は、通信制御部413と、磁気信号受信部414と、超音波プローブ位置検出部415と、超音波信号受信部416と、超音波モデルデータ生成部417と、第2特徴点抽出部418と、を備える。さらに、画像処理装置280は、磁気信号受信部419と、患者位置検出部420と、光学マーカ画像受信部421と、HMD位置算出部422と、表示画像生成部423と、表示画像送信部425と、を備える。表示画像生成部423は、分割領域マッチング部431と、分割領域連結部432と、HMD画像生成部433と、を含む。
The
3次元部位モデル受信部411は、外部の3次元モデル生成装置212においてコンピュータ断層撮影画像群から生成した血管モデルなどの3次元部位モデルを受信する。3次元部位モデルの受信は、記憶媒体を介してもよいし、通信制御部413を介してもよい。なお、断層画像からのSTLデータなどの3次元データの生成を画像処理装置280で実行する場合は、画像処理装置280はSTLデータ生成部を有する。第1特徴点抽出部412は、血管モデルなどの3次元部位モデルから第1特徴点を抽出する。分割領域生成部424は、STLデータなどで表わされた3次元部位モデルを、近接する第1特徴点を含む3次元の小領域に分割する。なお、各分割領域には少なくとも1つの第1特徴点が含まれる。分割領域の超音波画像の第2特徴点とのマッチングによる位置変換のためには、各分割領域には少なくとも3つの第1特徴点が含まれるのが望ましい。さらに、分割領域の連結を容易にするために、第1特徴点が各分割領域の面、稜線、頂点にあるよう分割するのが望ましい。
The three-dimensional region
通信制御部413は、診察/手術器具群290に含まれる各器具との情報交換を行なう。なお、診察室や手術室230の診察/手術器具群との通信は有線であっても無線であってもよいが、無線通信であるのが望ましい。磁気信号受信部414は、通信制御部413を介して、超音波プローブ203に配置した磁気センサ231からの磁気検出信号を受信する。超音波プローブ位置検出部415は、磁気センサ231からの磁気検出信号に基づいて、超音波プローブ203の位置および向きを検出する。詳細には、磁気検出信号に基づく磁気センサ231による位置および向きの検出は、磁場発生装置(不図示)と、コントローラ部(不図示)と、磁気センサ231と、を含む位置検出システムにおいて、コントローラ部で向きと座標を算出して送信する構成となっている。なお、磁気センサ231が磁気検出信号から位置および向きを検出するための記憶部を有する場合は、磁気センサ231から位置および向きを示すデータ(例えば、座標とベクトル)を受信してもよい。超音波信号受信部416は、通信制御部413を介して、超音波プローブ203から超音波信号を受信する。なお、超音波信号受信部416は、超音波プローブ203が超音波信号から超音波画像データを生成する機能を有する場合には、超音波画像データを受信してもよい。
The
超音波モデルデータ生成部417は、超音波信号受信部416が受信した超音波信号を、超音波プローブ位置検出部415が検出した超音波プローブ203の位置および向きに対応して、3次元座標の超音波モデルデータを生成する。なお、超音波モデルデータ生成部417は、超音波プローブ203が取得した各断面画像を3次元に接続して3次元超音波モデルデータを生成する。本実施形態では、超音波プローブ203が取得した各断面画像から血管などの構造物を抽出して、それらを3次元に接続して3次元超音波モデルデータを生成する。第2特徴点抽出部418は、超音波モデルデータ生成部417が生成した血管モデルなどの3次元超音波モデルデータから、例えば血管の枝分かれなどの第2特徴点を抽出する。
The ultrasound model
磁気信号受信部419は、通信制御部413を介して、光学マーカ付き磁気センサ293から磁気検出信号を受信する。なお、光学マーカ付き磁気センサ293が磁気検出信号から位置および向きを検出するための記憶部を有する場合は、位置および向きを示すデータ(例えば、座標とベクトル)を受信してもよい。患者位置検出部420は、光学マーカ付き磁気センサ293からの磁気検出信号に基づいて、患者201の位置および向きを検出する。詳細には、磁気検出信号に基づく光学マーカ付き磁気センサ293による位置および向きの検出は、磁場発生装置(不図示)と、コントローラ部(不図示)と、磁気センサ293と、を含む位置検出システムにおいて、コントローラ部で向きと座標を算出して送信する構成となっている。
The magnetic
光学マーカ画像受信部421は、通信制御部413を介して、HMD295に設置されたWebカメラ294が撮像した光学マーカ付き磁気センサ293の光学マーカの撮影画像を受信する。HMD位置算出部422は、光学マーカ画像受信部421が受信した光学マーカの撮影画像に基づいて、HMD295と患者201との位置関係を算出する。なお、前述のように、HMD295に位置判定用の磁気センサを配置すれば、光学マーカの撮影画像に基づくHMD295と患者201との位置関係の算出はなくてもよい。
The optical marker
表示画像生成部423の分割領域マッチング部431は、分割領域生成部424が生成した各分割領域に含まれる第1特徴点と第2特徴点抽出部418が抽出した第2特徴点とをマッチングして、互いの特徴点が合致するように各分割領域を移動および回転する。そして、分割領域連結部432は、各分割領域を第1特徴点により連結して、3次元超音波画像に合致するように変形された、STLデータなどで表わされた3次元部位モデルを生成する。次に、HDM画像生成部433は、患者位置検出部420が検出した患者201の位置に変形した3次元部位モデルが重なるように、HMD位置算出部422で算出したHMD位置に3次元表示するための画像データを生成する。すなわち、計測されたHMD295の位置から観察した時に、患者201の生体に重なる3次元部位モデルがどのように見えるかを計算した3次元画像を生成する。表示画像送信部425は、HMD画像生成部433が生成した患者201の位置に重なる画像データを、通信制御部413を介して、HMD295に表示すべく送信する。
The divided
(分割領域テーブル)
図5は、本実施形態に係る分割領域テーブル500の構成を示す図である。分割領域テーブル500は、コンピュータ断層撮影画像の1つであるCT画像から3次元形式の血管モデルなどの部位モデルデータから抽出した第1特徴点と、第1特徴点を含む分割領域とを保持するテーブルである。なお、分割領域テーブル500の構成は、図5に限定されない。また、図5においては、血管の枝分かれ場所を第1特徴点とする例を示すが、これに限定されず固有の特徴を表わす場所であればよい。
(Divided area table)
FIG. 5 is a diagram showing the configuration of the divided area table 500 according to the present embodiment. The divided region table 500 holds a first feature point extracted from a part model data such as a blood vessel model in a three-dimensional format from a CT image which is one of computed tomography images, and a divided region including the first feature point. It is a table. The configuration of the divided area table 500 is not limited to that shown in FIG. Further, FIG. 5 shows an example in which the branch location of the blood vessel is used as the first feature point, but it is not limited to this and it may be a location representing a unique feature.
分割領域テーブル500は、複数断層のCTデータから生成され、受信したSTL形式などの3次元部位モデルデータ501と、3次元部位モデルデータ501に含まれる3次元血管モデルデータ502と、血管の芯線を抽出した血管芯線503と、を記憶する。なお、本例では、抽象化して普遍的な特徴を考慮するため、血管芯線503に基づき特徴点を抽出するが、特徴点が有する特徴がマッチング可能な程度に不変であれば、血管の太さの比率などを考慮してもよい。なお、受信した3次元部位モデルデータ501が、血管のみを抜き出したSTLファイルであってもよい。
The divided area table 500 is generated from CT data of a plurality of slices, the received three-dimensional
分割領域テーブル500は、本例の第1特徴点データ504として、血管芯線503のパターンから、枝分かれ点を特徴点として、枝分かれIDと、枝分かれ特徴データと、特徴点の3次元位置データと、を記憶する。枝分かれ特徴データとしては、枝分かれ数511、各枝分かれの始点と方向を示す枝分かれベクトル512、全体の枝分かれをパターン化した枝分かれパターン513、その他の例えば血流方向など514、の少なくともいずれかを記憶する。枝分かれ特徴データは、特徴ID515としてあらかじめ類別されていてもよい。第1特徴点データ504は、図5に限定されない。マッチングにおける信頼性を高めるデータを加え、信頼性を低めるデータを除くことができる。
The divided area table 500 uses the pattern of the
分割領域テーブル500は、第1特徴点を含む分割領域を識別する分割領域ID505と、分割領域データ506と、を記憶する。ここで、分割領域データ506としては、第1特徴点以外の血管データや、分割領域の形状データ、重心データなどが含まれる。なお、図5においては、分割領域が、3つの第1特徴点、あるいは、4つの第1特徴点、を含む場合を例に図示しているが、分割領域が含む第1特徴点の数には限定はない。また、隣接する分割領域は、面や稜線、頂点に共通の第1特徴点を有するように生成することで、連結処理が容易となる。
The divided area table 500 stores divided
(超音波画像テーブル)
図6Aは、本実施形態に係る超音波画像テーブル610の構成を示す図である。超音波画像テーブル610は、超音波プローブ291から受信した超音波信号から超音波プローブ291の位置および向きを考慮した3次元の超音波モデルデータを生成するために使用される。
(Ultrasound image table)
FIG. 6A is a diagram showing the configuration of an ultrasound image table 610 according to the present embodiment. The ultrasound image table 610 is used to generate three-dimensional ultrasound model data in consideration of the position and orientation of the ultrasound probe 291 from the ultrasound signal received from the ultrasound probe 291.
超音波画像テーブル610は、超音波画像データID611、患者IDと患部とを含む患者情報612、取得日時(タイムスタンプ)613、に対応つけて、超音波プローブ203の形式に対応した取得パラメータ614と、取得パラメータ614により処理された受信した超音波画像データ615と、を記憶する。
The ultrasound image table 610 corresponds to ultrasound
また、超音波画像テーブル610は、磁気センサ231および磁気センサ293からの磁気センサ相対信号616と、磁気センサ相対信号616から検出した超音波プローブ203の位置および向きを示す超音波プローブの3次元位置データ617と、を記憶する。ここで、磁気センサ231および磁気センサ293からの磁気センサ相対信号616により超音波プローブ203の位置および向きを検出するのは、磁気センサ231による超音波プローブ203の位置情報だけでは、生体が動いた時に3次元位置がずれるためである。そのため、超音波プローブ203の位置および向きは、生体につけた磁気センサ293からの相対的な位置と方向として記録する。
In addition, the ultrasonic image table 610 is a three-dimensional position of the ultrasonic probe indicating the position and the direction of the
そして、超音波画像テーブル610は、超音波プローブ203の位置および向きに対応して受信した超音波画像データ615を3次元座標変換した、3次元の超音波画像データ618を記憶する。さらに、各スキャンに対応する3次元の超音波画像データ618を接続した患者の器官単位あるいは患部単位の3次元超音波モデルデータ619を生成して記憶する。
Then, the ultrasound image table 610 stores three-dimensional
(第2特徴点テーブル)
図6Bは、本実施形態に係る第2特徴点テーブル620の構成を示す図である。第2特徴点テーブル620は、超音波画像データ618から抽出した特徴点を保持するテーブルである。なお、第2特徴点テーブル620の構成は、図6Bに限定されない。また、図6Bにおいては、血管の枝分かれ場所を特徴点とする例を示すが、これに限定されず固有の特徴を表わす場所であればよいが、第1特徴点と共通の特徴であるのが望ましい。
(2nd feature point table)
FIG. 6B is a diagram showing the configuration of the second feature point table 620 according to the present embodiment. The second feature point table 620 is a table that holds feature points extracted from the
第2特徴点テーブル620は、超音波画像テーブル610の超音波画像データID611および超音波画像データ618に対応付けて、血管部位抽出画像データ621を記憶する。なお、血管部位抽出は、超音波画像データ618の2値化および輪郭抽出、そして環状輪郭の選別などにより行なわれる。
The second feature point table 620 stores blood vessel site
また、第2特徴点テーブル620は、血管部位抽出画像データ621を接続することで抽出される血管モデルデータ622と、血管の芯線を抽出した血管芯線623と、を記憶する。なお、本例では、抽象化して普遍的な特徴を考慮するため、血管芯線623により特徴点を抽出するが、特徴点が有する特徴がマッチング可能な程度に不変であれば、血管の太さの比率などを考慮してもよい。
Further, the second feature point table 620 stores blood
そして、第2特徴点テーブル620は、本例の第2特徴点データ624として、血管芯線623のパターンから、枝分かれ点を特徴点として、枝分かれIDと、枝分かれ特徴データと、特徴点の3次元位置データと、を記憶する。枝分かれ特徴データについては、図5と同様であるので、詳細な説明を省略する。
Then, the second feature point table 620 uses the pattern of the
《表示画像生成部》
図7Aは、本実施形態に係る表示画像生成部423の機能構成を示すブロック図である。
<< Display image generation part >>
FIG. 7A is a block diagram showing a functional configuration of the display
表示画像生成部423は、3次元部位モデル取得部701と、分割領域取得部702と、3次元部位モデル配置部703と、分割領域配置部704と、第2特徴点データ取得部705と、分割領域マッチング部431と、を備える。ここで、3次元部位モデル配置部703と、分割領域配置部704とが、分割領域連結部432に相当する。また、表示画像生成部423は、患者位置データ取得部707と、患者位置のモデル生成部708と、HMD位置データ取得部709と、HMD画像生成部433と、を備える。
The display
3次元部位モデル取得部701は、3次元部位モデル受信部411で受信された3次元血管モデルを含む3次元部位モデルを取得する。分割領域取得部702は、分割領域生成部424で生成された分割領域を取得する。3次元部位モデル配置部703は、分割領域の配置に対応付けて3次元部位モデル取得部701が取得した3次元部位モデルデータを位置調整して配置する。分割領域配置部704は、分割領域に含まれる第1特徴点と第2特徴点とのマッチングにより分割領域が3次元超音波画像に合致するように、分割領域を位置調整して配置する。第2特徴点データ取得部705は、第2特徴点抽出部418から抽出された第2特徴点データを取得する。分割領域マッチング部431は、分割領域に含まれる第1特徴点と第2特徴点とをマッチングし、位置調整された分割領域の第1特徴点データが第2特徴点データに合致するように、3次元部位モデル配置部703および分割領域配置部704に対して位置調整による変形をさせる。なお、位置調整による変形としては、分割領域の形状を維持した並行移動や回転移動、あるいは、サイズ変更が含まれる。さらに、分割領域の配置後の特徴点を合致させる形状変化を含んでもよい。
The three-dimensional region
患者位置データ取得部707は、患者位置検出部420から検出された患者位置データを取得する。患者位置のモデル生成部708は、分割領域連結部432において超音波画像に合致されるように位置調整された3次元部位モデルから、患者位置に重なる3次元モデルを生成する。HMD位置データ取得部709は、HMD位置算出部422から算出されたHMD位置データを取得する。HMD画像生成部710は、HMD位置データに対応して、患者位置のモデル生成部708が生成したモデルから、患者の生体に重なって見えるようHMD295に3次元表示するHMD画像を生成して、表示画像送信部425に出力する。
The patient position
(表示画像生成部の処理)
図7Bは、本実施形態に係る分割領域連結部432の処理720を説明する図である。なお、分割領域連結部432の処理720は、図7Bに限定されない。分割領域に含まれる第1特徴点が第2特徴点に合致するように、分割領域を位置調整することによって3次元部位モデルを変形する方式であればいずれの処理も適用可能である。
(Process of display image generation unit)
FIG. 7B is a diagram for explaining the
分割領域連結部432の処理720は、初期の3次元部位モデルから分割された分割領域データと分割領域に含まれる第1特徴点データとの組721から、分割領域の第1特徴点組と第2特徴点とのマッチングにより、サイズ変更や3次元の位置変換や方向変換をして分割領域を結合した3次元部位モデルデータ722への変換を含む。また、分割領域連結部432の処理720は、分割領域を結合した3次元部位モデルデータ722から生体の位置に合わせたサイズ調整データ723への変換を含む。
The
分割領域データと分割領域に含まれる第1特徴点データとの組721から、分割領域を結合した3次元部位モデルデータ722への変換は、第2特徴点データ726との分割領域マッチング724による分割領域の位置調整と連結を繰り返すことによって実現する。例えば、同一の特徴を有する第1特徴点と第2特徴点との最小2乗距離により、3次元超音波モデルに最も近いサイズや向きの分割領域に位置調整するが、他の方式も採用可能である。
The conversion from the
次に、分割領域を結合した3次元部位モデルデータ722から生体の位置に合わせたサイズ調整データ723への変換は、患者位置データ取得部707により取得した生体位置727に重畳させるように、分割領域を結合した3次元部位モデルデータ722のサイズを変更する(725)。
Next, the conversion from the three-dimensional
図7Cは、本実施形態に係る分割領域連結テーブル730の構成および位置合わせ用情報の例740を示す図である。 FIG. 7C is a diagram showing a configuration of the divided area linking table 730 according to this embodiment and an example 740 of alignment information.
分割領域連結テーブル730は、分割領域連結部432において、分割領域を連結して3次元超音波画像に合致した3次元部位モデルを生成するために使用される。
The divided region linking table 730 is used in the divided
分割領域連結テーブル730は、図5の分割領域テーブル500の分割領域ID505と、分割領域データ506と、第1特徴点データ504と、を記憶する。分割領域連結テーブル730は、変更された分割領域のサイズ、方向および位置の現在値731と、現在値731に基づいて変更された第1特徴点データの変更位置732と、を記憶する。そして、分割領域連結テーブル730は、第1特徴点データの変更位置732と一致した第2特徴点データ733と、一致した第2特徴点データ733に基づいて、分割領域の連結位置734を記憶する。
The divided area linking table 730 stores the divided
また、位置合わせ用情報の例740は、位置合わせの対象部位(臓器)において、特に、位置合わせの目標とすべき位置であり、マーカやセンサの配置位置、超音波プローブによる走査位置、を定めるために使用される。
Further, an example of the
位置合わせ用情報の例740は、位置合わせ対象部位741に対応付けて、位置合わせ用目標位置742と、その目標位置が有する条件743と、を記憶する。
The example of the
なお、分割領域の位置調整と連結処理中、あるいは、連結処理後に合致を補う非剛性変形を組み合わせてもよい。その場合、材質パラメータに基づく変換行列により非剛性変形をして最適解を求める方式であっても、単純に同一の特徴を有する第1特徴点と第2特徴点との距離のズレを変形補正する方式であってもよい。なお、材質パラメータとしては、一般的な内臓の非剛性パラメータを用いてもよいが、各患者について、あるいは、患部について、非剛性パラメータを測定して用いるのが望ましい。 Note that non-rigid deformation that compensates for the match may be combined during position adjustment of the divided area and the connection process, or after the connection process. In that case, even in the method of obtaining an optimal solution by non-rigid deformation using a conversion matrix based on material parameters, the difference in the distance between the first feature point and the second feature point having the same feature is corrected. May be used. As the material parameter, a general non-rigid parameter of internal organs may be used, but it is desirable to measure and use the non-rigid parameter for each patient or affected part.
さらに、非剛性材質が含む特徴点を合致させる他の方式が採用されてもよい。例えば、非剛性材質についての変形を学習情報として蓄積しておき、それを利用する方式であってもよい。3次元モデルが肝臓、胃、膵臓など器官単位である場合は、それら器官の多数の変形例を学習しておき、患者特有の変形を少ないパラメータで表現することも可能である。 Furthermore, other methods may be adopted to match the feature points included in the non-rigid material. For example, a method may be used in which deformation of a non-rigid material is stored as learning information and used. When the three-dimensional model is an organ unit such as liver, stomach or pancreas, it is possible to learn many variations of these organs and express patient-specific deformation with less parameters.
また、3次元部位を細かい格子状に特徴点を含む制御点を配置して、その制御点間を非剛体変形する方式でもよい。あるいは、B-Spline関数を利用した非剛体変形(FFD:Free-form deformation)を用いて、空間的に滑らかで不規則な変形(揺らぎ)を高精度に推定して、領域ベースの位置合わせを用いた超解像を行う方式であってもよい。 Alternatively, control points including feature points may be arranged in a fine grid in a three-dimensional region, and non-rigid deformation may be performed between the control points. Alternatively, region-based alignment can be performed by estimating spatially smooth irregular deformation (fluctuation) with high accuracy using non-rigid deformation (FFD: Free-form deformation) using B-Spline function. The method of performing super resolution used may be used.
また、非剛体変形としては、アフィン変換や高次多項式を用いた変換も適用可能である。3次元モデルの合致評価としては、残差2乗和(SSD:Sum of squared difference)のよるものや、正規化相互相関(NCC:Normalized cross correlation)によるもの、相互情報量または正規化相互情報量(MI:Mutual information)によるもの、などが考えられる。 Also, as non-rigid deformation, affine transformation or transformation using a high-order polynomial can be applied. The match evaluation of the three-dimensional model includes residual sum of squared differences (SSD), normalized cross correlation (NCC), mutual information or normalized mutual information (MI: Mutual information) may be considered.
また、MRIやX線CTで得られた解剖学的情報を持つ画像と、PETやSPECTなどの機能的情報を持つ画像とを重ねることも行なわれており、その重ね合わせ技術も非剛体変形に適用可能である。 In addition, it is also practiced to superimpose an image having anatomical information obtained by MRI or X-ray CT with an image having functional information such as PET or SPECT. It is applicable.
(表示データ生成テーブル)
図8は、本実施形態に係る表示データ生成テーブル800の構成を示す図である。表示データ生成テーブル800は、患者201から実時間で取得した超音波画像データに合致する3次元部位モデルを患者201に重なるようにHMD295に表示するために使用するテーブルである。
(Display data generation table)
FIG. 8 is a view showing the configuration of a display data generation table 800 according to the present embodiment. The display data generation table 800 is a table used to display on the HMD 295 a three-dimensional region model that matches ultrasound image data acquired in real time from the
表示データ生成テーブル800は、実時間を示すタイムスタンプ801に対応付けて、超音波プローブ位置情報802と、患者位置情報803と、HMD位置情報804と、を記憶する。超音波プローブ位置情報802は、磁気センサ292の検出データと超音波プローブ291の位置データとを有する。患者位置情報803は、光学マーカ付き磁気センサ293の検出データと患者201の位置データとを有する。HMD位置情報804は、光学マーカ付き磁気センサ293の光学マーカの画像データとHMD位置データとを有する。
The display data generation table 800 stores ultrasonic
そして、表示データ生成テーブル800は、上記位置情報を参照して生成されたHMD表示情報805を記憶する。HMD表示情報805は、上記位置情報を参照して生成された3次元部位モデルデータと、右目用HMD画像データと、左目用HMD画像データと、を含む。
Then, the display data generation table 800 stores the
《画像処理装置のハードウェア構成》
図9は、本実施形態に係る画像処理装置280のハードウェア構成を示すブロック図である。
<< Hardware Configuration of Image Processing Device >>
FIG. 9 is a block diagram showing the hardware configuration of the
図9で、CPU910は演算制御用のプロセッサであり、プログラムを実行することで図4の画像処理装置280の機能構成部を実現する。ROM920は、初期データおよびプログラムなどの固定データおよびプログラムを記憶する。また、通信制御部413は、ネットワークを介して診察室や手術室230の診察/手術器具群や他の装置と通信する。なお、CPU910は1つに限定されず、複数のCPUであっても、あるいは画像処理用のGPUを含んでもよい。また、通信制御部413は、CPU910とは独立したCPUを有して、RAM940の領域に送受信データを書き込みあるいは読み出しするのが望ましい。また、RAM940とストレージ950との間でデータを転送するDMACを設けるのが望ましい(図示なし)。さらに、入出力インタフェース960は、CPU910とは独立したCPUを有して、RAM940の領域に入出力データを書き込みあるいは読み出しするのが望ましい。したがって、CPU910は、RAM940にデータが受信あるいは転送されたことを認識してデータを処理する。また、CPU910は、処理結果をRAM940に準備し、後の送信あるいは転送は通信制御部413やDMAC、あるいは入出力インタフェース960に任せる。
In FIG. 9, a
RAM940は、CPU910が一時記憶のワークエリアとして使用するランダムアクセスメモリである。RAM940には、本実施形態の実現に必要なデータを記憶する領域が確保されている。3次元部位モデルデータ501は、CTデータから生成されて受信された3次元STL形式の3次元血管モデルを含む3次元部位モデルデータである。第1特徴点データ504は、3次元部位モデルデータ501から抽出された第1特徴点のデータである。分割領域データ506は、第1特徴点データ504を含み、3次元部位モデルデータ501から分割された分割領域のデータである。超音波モデルデータ619は、超音波プローブ203で実時間に検出した超音波信号から生成された3次元血管画像を含む3次元画像データである。第2特徴点データ624は、超音波モデルデータ619から抽出された第2特徴点のデータである。分割領域マッチングテーブル730は、図7Cに示した、分割領域マッチング部431が、分割領域が含む第1特徴点と第2特徴点とのマッチングをして分割領域を連結するためのテーブルである。HMD位置データ804は、Webカメラ294が撮像した光学マーカの画像に基づいて算出されたHMD295の位置データである。表示画像データ805は、位置調整して連結した分割領域に基づく3次元部位モデルを患者201に重ねて、HMD295に3次元表示するために生成されたデータである。なお、RAM940の各データは、前出の図5、図6A、図6B、図7C、図8のようにテーブルとして記憶されてもよい。
A
ストレージ950には、データベースや各種のパラメータ、あるいは本実施形態の実現に必要な以下のデータまたはプログラムが記憶されている。特徴点抽出アルゴリズム951は、第1特徴点あるいは第2特徴点を抽出するためのアルゴリズムである。領域分割アルゴリズム952は、第1特徴点を含む小領域に3次元部位モデルを分割するためのアルゴリズムである。分割領域マッチングアルゴリズム953は、第1特徴点を含む分割領域を第2特徴点に合致させるためのアルゴリズムである。
The
ストレージ950には、以下のプログラムが格納される。画像処理プログラム955は、本画像処理装置280の全体を制御するプログラムである。特徴点抽出モジュール956は、特徴点抽出アルゴリズム951に従って第1特徴点あるいは第2特徴点を抽出するモジュールである。領域分割モジュール957は、領域分割アルゴリズム952に従って第1特徴点を含む分割領域を生成するモジュールである。分割領域マッチングモジュール958は、分割領域マッチングアルゴリズム953に従って分割領域が含む第1特徴点を第2特徴点に合致させるように分割領域を位置調整して連結するモジュールである。表示画像生成モジュール959は、変形された3次元部位モデルを表わすSTLデータを患者201の生体内部にあるように、HMD295に3次元表示する表示画像を生成するモジュールである。
The
入出力インタフェース960は、入出力機器との入出力データをインタフェースする。入出力インタフェース960には、必要であれば、表示部961、操作部962、が接続される。なお、診察/手術器具群を有線接続する場合は、診察/手術器具群に含まれる磁気センサ231付きの超音波プローブ203や、光学マーカ付き磁気センサ293、Webカメラ294、HMD295が入出力インタフェース960に接続される。また、入出力インタフェース960には、必要であれば、音声入出力部や、GPS位置判定部が接続されてもよい。
The input /
なお、図9のRAM940やストレージ950には、画像処理装置280が有する汎用の機能や他の実現可能な機能に関連するプログラムやデータは図示されていない。
In the
《画像処理装置の処理手順》
図10は、本実施形態に係る画像処理装置280の処理手順を示すフローチャートである。このフローチャートは、図9のCPU910がRAM940を使用して実行し、図4および図7Aの機能構成部を実現する。
Processing Procedure of Image Processing Device
FIG. 10 is a flowchart showing the processing procedure of the
画像処理装置280は、ステップS1001において、外部の3次元モデル生成装置212から3次元血管モデルを含む3次元部位モデルデータを受信する。なお、画像処理装置280内部でCTデータからSTLデータを生成する場合は、CTデータを受信してSTLデータを生成した後、3次元部位モデルデータを生成する。画像処理装置280は、ステップS1003において、3次元部位モデルデータに基づいて第1特徴点抽出処理を実行する。画像処理装置280は、ステップS1005において、例えばSTL形式で表わされる3次元部位モデルを、第1特徴点を含む小領域への領域分割処理を実行する。
In step S1001, the
画像処理装置280は、ステップS1007において、超音波プローブ203からの超音波画像データおよび磁気センサ231および磁気センサ293からの磁気センサ位置(超音波プローブ位置)を取得する。そして、画像処理装置280は、ステップS1009において、各超音波プローブ203の位置と超音波画像データとを蓄積して、3次元超音波モデルデータを生成する。画像処理装置280は、ステップ1011において、3次元超音波モデルデータに基づいて第2特徴点抽出処理を実行する。
The
画像処理装置280は、ステップS1013において、分割領域に含まれる第1特徴点と第2特徴点とのマッチングを行ない、分割領域の第1特徴点が第2特徴点に合致するか否かを判定する。分割領域の第1特徴点が第2特徴点に合致しない場合、画像処理装置280は、ステップS1015において、分割領域の位置調整を行ない、第1特徴点を調整する。STL形式の分割領域データの場合は、STLデータの変換を行なう。このように、分割領域の第1特徴点と第2特徴点とのマッチングを繰り返す。
In step S1013, the
分割領域の第1特徴点が第2特徴点に合致する場合、画像処理装置280は、ステップS1017において、分割領域を他の分割領域と連結する。そして、画像処理装置280は、ステップS1019において、ステップS1005で分割された小領域の連結が完了したか否かを判定する。分割領域の連結が完了していない場合、画像処理装置280は、ステップS1013に戻って、次の分割領域について分割領域の位置調整と連結処理を継続する。
If the first feature point of the divided area matches the second feature point, the
分割領域の連結が完了すると、3次元超音波モデルに対応する3次元部位モデルが生成されているので、画像処理装置280は、ステップS1021において、患者201に配置した光学マーカ付き磁気センサ293から磁気センサ位置(患者位置)を取得して、患者201の生体内部に、分割処理と連結処理とにより変形した3次元部位モデルを表示するように調整する。次に、画像処理装置280は、ステップS1023において、Webカメラ294から光学マーカ付き磁気センサ293の光学マーカ画像を取得する。そして、画像処理装置280は、光学マーカ画像から患者201とHMD295との位置関係を算出して、分割処理と連結処理とにより変形した3次元部位モデルが患者目視と重なるように、HMD295の表示データを生成して出力する。
Since the three-dimensional part model corresponding to the three-dimensional ultrasonic model is generated when the connection of the divided areas is completed, the
画像処理装置280は、ステップS1025において、患者201の生体内部への3次元部位モデルの表示の終了か否かを判定する。3次元部位モデルの表示の終了でなければ、画像処理装置280は、ステップS1021に戻って、超音波画像に位置合わせした3次元部位モデルの患者201の生体内部への表示を実時間に繰り返す。そして、例えば、肝臓の形が変形した時には、もう一度、超音波を使ったスキャンをして、新たな位置合わせを行う。すなわち、肝臓の形が変わらなければ、超音波によるスキャンなしで肝臓の観察を続ける。
In step S1025, the
(特徴点抽出処理)
図11は、本実施形態に係る特徴点抽出処理(S1003/S1011)の手順を示すフローチャートである。
(Feature point extraction processing)
FIG. 11 is a flowchart showing the procedure of feature point extraction processing (S1003 / S1011) according to the present embodiment.
画像処理装置280は、ステップS1111において、対象とする3次元モデルデータを取得する。第1特徴点抽出処理(S1003)の場合は、対象とする3次元モデルデータは3次元部位モデルデータであり、第2特徴点抽出処理(S1011)の場合は、対象とする3次元モデルデータは超音波モデルデータである。画像処理装置280は、ステップS1113において、取得した3次元モデルデータから血管モデルデータを抽出する。なお、第1特徴点抽出処理(S1003)の場合、あらかじめ血管モデルデータが取得されていれば、ステップS1113は必要ない。
In step S1111, the
画像処理装置280は、ステップS1115において、血管モデルデータに基づいて血管芯線を抽出して、抽象化された血管パターンを生成する。次に、画像処理装置280は、ステップS1117において、血管芯線のパターンに基づき、血管の枝分かれ点を特徴点として抽出する。そして、画像処理装置280は、ステップS1119において、枝分かれ点の特徴データおよびその3次元位置との組を比較可能に格納する。
In step S1115, the
(領域分割処理)
図12は、本実施形態に係る領域分割処理(S1005)の手順を示すフローチャートである。
(Area division processing)
FIG. 12 is a flowchart showing the procedure of area division processing (S1005) according to the present embodiment.
画像処理装置280は、ステップS1201において、本例では、血管芯線において少なくとも3つの枝分かれ点を第1特徴点として含む領域に、3次元部位モデルを分割する。次に、画像処理装置280は、ステップS1203において、各分割領域に識別子(ID)を付与する。そして、画像処理装置280は、ステップS1205において、分割領域IDに対応付けて第1特徴点組を記憶する。
In step S1201, in this example, the
なお、本実施形態においては、オプティカルシースルー型HMDへの変形された3次元部位モデルの表示を示したが、Webカメラ294で撮像した患者の生体画像に、変形された3次元部位モデルを重畳して、ビデオスルー型HMDやモニタ、あるいは、携帯端末などに表示してもよい。
In the present embodiment, the display of the deformed three-dimensional part model on the optical see-through HMD is shown, but the deformed three-dimensional part model is superimposed on the living body image of the patient captured by the
本実施形態によれば、3次元超音波モデルに対応して変形された3次元部位モデルを患者の生体に重ねて表示するので、患者の生体内部の実時間における部位の状態を、生体内部の正確な位置において認識することができる。 According to the present embodiment, since the three-dimensional part model deformed corresponding to the three-dimensional ultrasonic model is superimposed and displayed on the living body of the patient, the state of the part in real time inside the living body of the patient can be It can be recognized at the correct position.
[第3実施形態]
次に、本発明の第3実施形態に係る医療支援システムについて説明する。本実施形態に係る医療支援システムは、上記第2実施形態と比べると、CT画像などから得た3次元部位モデルを超音波画像に対応して変形して、腹腔鏡により観察する内部画像に重畳して表示する点で異なる。その他の構成および動作は、第2実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
Third Embodiment
Next, a medical support system according to a third embodiment of the present invention will be described. As compared with the second embodiment, the medical support system according to the present embodiment deforms a three-dimensional region model obtained from a CT image or the like corresponding to an ultrasonic image and superimposes it on an internal image observed by a laparoscope Differs in that it is displayed. The other configurations and operations are similar to those of the second embodiment, and therefore the same configurations and operations are denoted by the same reference numerals and the detailed description thereof is omitted.
《医療支援システムの構成》
図13Aおよび図13Bを参照して、本実施形態の医療支援システムの構成および動作について説明する。
<< Composition of medical support system >>
The configuration and operation of the medical support system of the present embodiment will be described with reference to FIGS. 13A and 13B.
(システム概要)
図13Aは、本実施形態に係る医療支援システム1300の処理概要を示すブロック図である。なお、図13Aにおいて、図2Aと同様の構成要素には同じ参照番号を付して、説明を省略する。
(System overview)
FIG. 13A is a block diagram showing an outline of processing of the
医療支援システム1300においては、棒状の超音波プローブ1303を体内に挿入し、腹腔鏡1391で観察している部位周囲の超音波画像を取得する。また、手術室1330において実時間に生体内部を観察する腹腔鏡1391に固定した位置検出用器具を用いて、腹腔鏡1391の観察画像と実時間の超音波画像に対応して変形された3次元部位モデルとの位置関係が計測される。そして、計測された位置関係に基づき、3次元部位モデルを調整して、腹腔鏡1391の観察画像に重畳して3次元表示1370をする。図13Aでは、3次元表示1370において、腹腔鏡1391の観察画像である点描の肝臓画像1372に重畳した部位モデルとして血管モデル1371を分かり易く示しているが、実際には腹腔鏡1391では観察できない組織内部の結果が重畳表示される。なお、腹腔鏡1391の観察画像に重畳して3次元部位モデルの3次元表示をする表示部は、携帯端末やモニタ、あるいは、ビデオシースルー型HMDが望ましい。ここで、位置検出用器具は、腹腔鏡1391の先端に固定した磁気センサが使用される。また、観察画像と3次元部位モデルの表示との位置関係を高い精度で得るためには、臓器に光学マーカを固定するのが望ましい。
In the
(システム構成)
図13Bは、本実施形態に係る医療支援システム1300の構成を示すブロック図である。なお、図13Bにおいて、図2Bと同様の構成要素には同じ参照番号を付して、説明を省略する。
(System configuration)
FIG. 13B is a block diagram showing the configuration of a
医療支援システム1300は、CT装置211と、3次元モデル生成装置212と、画像処理装置1380と、診察室や手術室1330の診察/手術器具群と、を備える。
The
診察室や手術室1330の診察/手術器具群は、棒状の超音波プローブ1303と、超音波プローブに固定された磁気センサ1331と、腹腔鏡1391と、腹腔鏡に固定された磁気センサ1392と、モニタ1370と、生体または対象臓器に固定された磁気センサ1393とを有する。磁気センサ1331および磁気センサ1393により、超音波プローブ1303の安定した位置検出ができる。腹腔鏡1391は、実時間の診察中あるいは手術中に、患者201から生体内の画像を取得する。磁気センサ1392は、腹腔鏡1391の先端位置に配置されて、腹腔鏡1391の観察位置を検出する。磁気センサ1392および磁気センサ1393により、腹腔鏡1391の安定した位置検出ができる。
The medical examination / surgical instrument group in the examination room or
画像処理装置1380は、3次元データで表わされる3次元部位モデルを領域分割し、磁気センサ1331の検出信号によって位置および向きを判定した超音波プローブ1303が取得した3次元超音波画像に合致するように連結することにより変形する。そして、画像処理装置1380は、変形した3次元部位モデルを、腹腔鏡1391が取得した観察画像に重畳させた3次元表示データを生成して、モニタ1370に表示させる。また、術者202が操作する腹腔鏡手術の処置具1373が、腹腔鏡1391により観察されて、モニタ1370に表示されている。
The
なお、図13Bには、術者202しか図示されていないが、実際の腹腔鏡手術では、腹腔鏡を操作するスコピストと超音波プローブを操作する術者あるいは助手など複数の人間により操作されることになる。また、腹腔鏡1391が取得した観察画像に合致させた3次元部位モデルを重畳させてビデオシースルー型HMDに表示してもよい。
Although only the
《画像処理装置の機能構成》
図14は、本実施形態に係る画像処理装置1380の機能構成を示すブロック図である。なお、図14において、図4と同様の機能構成部には同じ参照番号を付して、説明を省略する。
<< Functional Configuration of Image Processing Device >>
FIG. 14 is a block diagram showing the functional configuration of the
磁気信号受信部1419は、通信制御部413を介して、腹腔鏡1391に配置した磁気センサ1392からの磁気検出信号を受信する。腹腔鏡位置検出部1420は、磁気センサ1392からの磁気検出信号と磁気センサ1393からの磁気検出信号とに基づいて、腹腔鏡1391の位置および向きを検出する。なお、磁気センサ1392が磁気検出信号から位置および向きを検出するための記憶部を有する場合は、位置および向きを示すデータ(例えば、座標とベクトル)を受信してもよい。腹腔鏡画像受信部1421は、通信制御部413を介して、腹腔鏡1391から観察画像を受信する。なお、腹腔鏡画像受信部1421は、腹腔鏡1391が腹腔鏡画像データを生成する機能を有する場合には、腹腔鏡画像データを、直接、受信してもよい。磁気信号受信部1422は、通信制御部413を介して、生体201または生体内の対象臓器に配置した磁気センサ1393からの磁気検出信号を受信する。
The magnetic
表示画像生成部1423の生成モデル重畳部1433は、STL形式などで表わされる3次元部位モデルを領域分割して特徴点が対応するように連結することによって、実時間の3次元超音波モデルに合致するよう変形された3次元部位モデルを、腹腔鏡1391が取得した観察画像に重畳した画像を生成する。そして、生成モデル重畳部1433は、生成した重畳画像を、表示画像送信部425からモニタ1370や携帯端末、あるいは、ビデオシースルー型HMDに送信して表示させる。
The generation
本実施形態によれば、腹腔鏡により取得した生体内部画像に、3次元超音波画像に対応して変形された3次元部位モデルを重ねて表示するので、患者の生体内部の実時間における部位の状態を、生体内部の画像を伴い正確に認識することができる。 According to the present embodiment, since the three-dimensional part model deformed corresponding to the three-dimensional ultrasonic image is superimposed and displayed on the in-vivo image acquired by the laparoscope, the part in real time inside the patient's in-vivo The state can be accurately recognized with the image inside the living body.
[第4実施形態]
次に、本発明の第4実施形態に係る医療支援システムについて説明する。本実施形態に係る医療支援システムは、上記第2実施形態と比べると、3次元超音波モデルに対応して変形した3次元部位モデルを患者の生体上のシートディスプレイに表示する点で異なる。その他の構成および動作は、第2実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
Fourth Embodiment
Next, a medical support system according to a fourth embodiment of the present invention will be described. The medical support system according to the present embodiment is different from the second embodiment in that a three-dimensional part model deformed corresponding to a three-dimensional ultrasonic model is displayed on a sheet display on a living body of a patient. The other configurations and operations are similar to those of the second embodiment, and therefore the same configurations and operations are denoted by the same reference numerals and the detailed description thereof is omitted.
《医療支援システムの構成》
図15は、本実施形態に係る医療支援システム1500の構成を示すブロック図である。なお、図15において、図2Bまたは図13Bと同様の構成要素は同じ参照番号を付して、説明を省略する。
<< Composition of medical support system >>
FIG. 15 is a block diagram showing the configuration of a
医療支援システム1500は、CT装置211と、3次元モデル生成装置212と、画像処理装置1580と、診察室や手術室1530の診察/手術器具群と、を備える。
The
診察室や手術室1530の診察/手術器具群は、超音波プローブ203と、超音波プローブに固定された磁気センサ231と、光学マーカ付き磁気センサ293と、ビデオカメラ1594と、シートディスプレイ1595と、を有する。ビデオカメラ1594は、シートディスプレイ1595に配置された光学マーカ付き磁気センサ293の光学マーカを撮像する。患者201の表面に配置されたシートディスプレイ1595は、3次元超音波モデルに合致するように変形された3次元データで表わされる3次元モデルを、生体内部の正確な位置に表示する。
The medical examination / surgical instrument group in the medical examination room or
画像処理装置1580は、3次元データで表わされる3次元部位モデルを、超音波プローブ203からの超音波信号と超音波プローブ203の位置情報とを蓄積して得た3次元超音波モデルに合致するように変形する。そして、画像処理装置1580は、変形した3次元部位モデルが患者201の生体内部の正確な位置にあるように3次元表示データを生成して、シートディスプレイ1595に3次元表示させる。
The
なお、本実施形態において、シートディスプレイ1595は患者201の生体表面と同じなので、画像処理装置1580は、患者201およびシートディスプレイ1595の位置および向きを光学マーカの撮像画像から検出すればよく、患者201とシートディスプレイ1595との位置関係を算出する必要はない。
In the present embodiment, since the
《画像処理装置の機能構成》
図16は、本実施形態に係る画像処理装置1580の機能構成を示すブロック図である。なお、図16において、図4または図14と同様の機能構成部には同じ参照番号を付して、説明を省略する。
<< Functional Configuration of Image Processing Device >>
FIG. 16 is a block diagram showing the functional configuration of the
シート位置算出部1622は、光学マーカ画像受信部421が受信した光学マーカの撮影画像に基づいて、シートディスプレイ1595の正確な位置を算出する。
The sheet
表示画像生成部1623のシート画像生成部1633は、患者位置検出部420が検出した患者201の位置に調整したSLTデータによる3次元部位モデルが重なるように、シート位置算出部1622で算出したシートディスプレイ位置に3次元表示する表示画像を生成する。表示画像送信部1625は、シート画像生成部1633が生成した患者201の位置に重なる画像データを、通信制御部413を介して、シートディスプレイ1595に表示すべく送信する。
The sheet
なお、シート画像生成部1633の構成および動作は、3次元部位モデルの表示先がHMD295からシートディスプレイ1595に変わるのみで第2実施形態と同様なので、ここでは詳説を省略する。しかし、本例では、シートディスプレイ1595が非剛体変形するので、シート状非剛体の変形操作が必要であり、既存の技術が利用できる。
The configuration and operation of the sheet
本実施形態によれば、変形された3次元部位モデルを患者の生体上のシートディスプレイに表示するので、視線などを考慮することなく普通に患者の生体内部の実時間における部位の状態を正確な位置において認識することができる。 According to the present embodiment, since the deformed three-dimensional part model is displayed on the sheet display on the patient's living body, the state of the part in the patient's living body in real time is normally corrected without considering the line of sight or the like. It can be recognized in position.
[第5実施形態]
次に、本発明の第5実施形態に係る医療支援システムについて説明する。本実施形態に係る医療支援システムは、上記第3実施形態と比べると、腹腔鏡1391の観察画像に変形した3次元部位モデルを重畳した画像を、ネットワークを介して通信端末に表示させる点で異なる。その他の構成および動作は、第3実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
Fifth Embodiment
Next, a medical support system according to a fifth embodiment of the present invention will be described. The medical support system according to the present embodiment is different from the third embodiment in that an image obtained by superimposing the deformed three-dimensional region model on the observation image of the
《医療支援システムの構成》
図17は、本実施形態に係る医療支援システム1700の構成を示すブロック図である。なお、図17において、図2B、図13B、図15と同様の構成要素には同じ参照番号を付して、説明を省略する。
<< Composition of medical support system >>
FIG. 17 is a block diagram showing the configuration of a
図17において、画像処理装置1780は、図13Bの画像処理装置と同様に腹腔鏡1391の観察画像に重畳して3次元部位モデルを表示する。同時に、画像処理装置1780は、腹腔鏡1391で撮像した観察画像に3次元部位モデルを重畳した画像を生成し、ネットワーク1790を介して、外部の他の医師やユーザに配信する。配信先には、ノートPC1791や、スマートフォンやタブレットなどの携帯端末1792、モニタ179i、サーバ179nなどが接続されてよい。
In FIG. 17, the
本実施形態によれば、診察室や手術室の外部において他の医師や第三者も患者の生体内部の腹腔鏡の観察画像を監視でき、より正確な医療を支援することができる。 According to this embodiment, other doctors and third parties can monitor the observation image of the laparoscope inside the living body of the patient outside the doctor's office or the operating room, and can support more accurate medical care.
[他の実施形態]
上記実施形態においては、本発明の医療支援システムの限られた構成例しか示されていない。図18は、本発明の医療支援システムの種々の構成例1800を示す図である。本発明は図18の例に限定されないが、図18から本発明の適用範囲が明らかである。
[Other embodiments]
In the above embodiment, only a limited configuration example of the medical support system of the present invention is shown. FIG. 18 is a view showing various configuration examples 1800 of the medical support system of the present invention. Although the present invention is not limited to the example of FIG. 18, the scope of application of the present invention is apparent from FIG.
図18の構成例1800には、変形して表示する3次元部位モデル1801と、3次元部位モデル1801の位置合わせに使用される3次元超音波モデル1802と、部位モデル合致方法(位置合わせ方法)1803と、3次元部位モデル1801を重ね合わせる対象1804と、表示部1805と、が示されている。これらは、それぞれ独立して組み合わされて、より好適な位置合わせと重ね合わせが実現される。
In the configuration example 1800 of FIG. 18, a three-
また、実施形態を参照して本発明を説明したが、本発明は上記実施形態に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。また、それぞれの実施形態に含まれる別々の特徴を如何様に組み合わせたシステムまたは装置も、本発明の範疇に含まれる。 Furthermore, although the present invention has been described with reference to the embodiment, the present invention is not limited to the above embodiment. Various modifications that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention. Also included within the scope of the present invention are systems or devices that combine the different features included in each embodiment.
また、本発明は、複数の機器から構成されるシステムに適用されてもよいし、単体の装置に適用されてもよい。さらに、本発明は、実施形態の機能を実現する制御プログラムが、システムあるいは装置に直接あるいは遠隔から供給される場合にも適用可能である。したがって、本発明の機能をコンピュータで実現するために、コンピュータにインストールされるプログラム、あるいはそのプログラムを格納した媒体、そのプログラムをダウンロードさせるWWW(World Wide Web)サーバも、本発明の範疇に含まれる。特に、少なくとも、上述した実施形態に含まれる処理ステップをコンピュータに実行させるプログラムを格納した非一時的コンピュータ可読媒体(non-transitory computer readable medium)は本発明の範疇に含まれる。 Furthermore, the present invention may be applied to a system configured of a plurality of devices or to a single device. Furthermore, the present invention is also applicable to the case where a control program for realizing the functions of the embodiments is supplied to a system or apparatus directly or remotely. Therefore, in order to realize the functions of the present invention on a computer, a program installed on the computer, a medium storing the program, and a WWW (World Wide Web) server for downloading the program are also included in the scope of the present invention. . In particular, a non-transitory computer readable medium storing a program that causes a computer to execute at least the processing steps included in the above-described embodiment is included in the scope of the present invention.
Claims (14)
前記3次元部位モデルから、所定の特徴を有する複数の第1特徴点の位置情報を抽出する第1特徴点抽出手段と、
前記患者に対して超音波プローブを用いて取得した超音波データと、前記超音波データを取得した前記超音波プローブの位置および向きデータとを対応付けて蓄積し、前記超音波データと前記位置および向きデータとを用いて、3次元超音波モデルのデータを生成する超音波モデル生成手段と、
前記3次元超音波モデルから、前記所定の特徴を有する複数の第2特徴点の位置情報を抽出する第2特徴点抽出手段と、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように、前記3次元部位モデルを変形する変形手段と、
前記変形手段により変形された前記3次元部位モデルの投影画像を表示する表示手段と、
を備え、
前記変形手段は、
前記3次元部位モデルを、各々が少なくとも1つの前記第1特徴点を含む複数の3次元領域に分割する分割領域生成手段と、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように前記複数の3次元領域のそれぞれを位置調整し、位置調整された前記複数の3次元領域を互いに連結する分割領域連結手段と、
を有し、
前記表示手段は、前記分割領域連結手段が連結した前記複数の3次元領域の投影画像を前記3次元部位モデルの投影画像として表示する医療支援システム。 A part model generation unit that generates data of a three-dimensional part model based on a tomographic image group of a patient;
First feature point extraction means for extracting position information of a plurality of first feature points having predetermined features from the three-dimensional part model;
The ultrasound data acquired for the patient using the ultrasound probe and the position and orientation data of the ultrasound probe for which the ultrasound data is acquired are stored in association with each other, and the ultrasound data, the position, and the position Ultrasonic model generation means for generating data of a three-dimensional ultrasonic model using orientation data;
Second feature point extraction means for extracting position information of the plurality of second feature points having the predetermined feature from the three-dimensional ultrasound model;
Deformation means for deforming the three-dimensional part model so that the plurality of first feature points and the plurality of second feature points overlap;
Display means for displaying a projection image of the three-dimensional part model deformed by the deformation means;
Equipped with
The deformation means is
Division area generation means for dividing the three-dimensional part model into a plurality of three-dimensional areas each including at least one of the first feature points;
Each of the plurality of three-dimensional regions is position-adjusted such that the plurality of first feature points and the plurality of second feature points overlap, and a division region connection is made to connect the plurality of position-adjusted plurality of three-dimensional regions. Means,
Have
The display means, the medical support system that displays a projection image of the divided plurality of three-dimensional area region connecting means is connected as a projection image of the three-dimensional site model.
前記表示手段は、前記3次元血管モデルを前記3次元部位モデルとして表示する、請求項1に記載の医療支援システム。 The plurality of first feature points are feature points of a three-dimensional blood vessel model included in a focused portion of the three-dimensional portion model, and the plurality of second feature points are positioned at the focused portion of the three-dimensional ultrasound model. It is a feature point of the included three-dimensional blood vessel model,
The medical support system according to claim 1, wherein the display means displays the three-dimensional blood vessel model as the three-dimensional region model.
撮像された前記第1位置検出用器具の位置および向きに基づいて、前記変形手段により変形された前記3次元部位モデルの位置、向きおよび大きさを調整する第1調整手段と、
をさらに備え、
前記表示手段は、前記変形され調整された3次元部位モデルの投影画像を、前記患者の生体または生体画像に重なるように表示する、請求項1または2に記載の医療支援システム。 Imaging means for imaging the living body of the patient and a first position detection instrument for detecting the position and direction of the living body or the position and direction of the living body image;
First adjustment means for adjusting the position, orientation and size of the three-dimensional part model deformed by the deformation means based on the position and orientation of the first position detection instrument imaged;
And further
The medical support system according to claim 1 or 2 , wherein the display means displays the projection image of the deformed and adjusted three-dimensional part model so as to overlap the living body or the living body image of the patient.
前記第2位置検出用器具の位置および向きと前記超音波プローブの位置および向きとに基づいて、前記変形手段により変形された前記3次元部位モデルの位置、向きおよび大きさを調整する第2調整手段と、
をさらに備え、
前記表示手段は、前記変形され調整された3次元部位モデルの投影画像を、前記腹腔鏡が撮像した生体内画像に重なるように表示する、請求項1または2に記載の医療支援システム。 A laparoscope fixed with a second position detection instrument for imaging the inside of the patient's living body;
A second adjustment for adjusting the position, orientation and size of the three-dimensional part model deformed by the deformation means based on the position and orientation of the second position detection instrument and the position and orientation of the ultrasonic probe Means,
And further
The medical support system according to claim 1 or 2 , wherein the display means displays the projection image of the deformed and adjusted three-dimensional region model so as to overlap the in-vivo image captured by the laparoscope.
前記3次元部位モデルから、所定の特徴を有する複数の第1特徴点の位置情報を抽出する第1特徴点抽出ステップと、
前記患者に対して超音波プローブを用いて取得した超音波データと、前記超音波データを取得した前記超音波プローブの位置および向きデータとを対応付けて蓄積手段に蓄積する蓄積ステップと、
前記超音波データと前記位置および向きデータとを用いて、3次元超音波モデルのデータを生成する超音波モデル生成ステップと、
前記3次元超音波モデルから、前記所定の特徴を有する複数の第2特徴点の位置情報を抽出する第2特徴点抽出ステップと、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように、前記3次元部位モデルを変形する変形ステップと、
前記変形ステップにおいて変形された前記3次元部位モデルの投影画像を表示する表示ステップと、
を含み、
前記変形ステップは、
前記3次元部位モデルを、各々が少なくとも1つの前記第1特徴点を含む複数の3次元領域に分割する分割領域生成ステップと、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように前記複数の3次元領域のそれぞれを位置調整し、位置調整された前記複数の3次元領域を互いに連結する分割領域連結ステップと、
を含み、
前記表示ステップにおいては、前記分割領域連結ステップにおいて連結した前記複数の3次元領域の投影画像を前記3次元部位モデルの投影画像として表示する医療支援方法。 A part model generation step of generating data of a three-dimensional part model based on a tomographic image group of a patient;
A first feature point extraction step of extracting position information of a plurality of first feature points having predetermined features from the three-dimensional part model;
An accumulation step of correlating the ultrasound data acquired for the patient using the ultrasound probe with the position and orientation data of the ultrasound probe for which the ultrasound data is acquired, and accumulating the data in an accumulation unit;
An ultrasound model generation step of generating data of a three-dimensional ultrasound model using the ultrasound data and the position and orientation data;
A second feature point extraction step of extracting position information of the plurality of second feature points having the predetermined feature from the three-dimensional ultrasound model;
Deforming the three-dimensional part model so that the plurality of first feature points and the plurality of second feature points overlap;
A display step of displaying a projection image of the three-dimensional part model deformed in the deformation step;
Only including,
The deformation step is
A division area generation step of dividing the three-dimensional part model into a plurality of three-dimensional areas each including at least one of the first feature points;
Each of the plurality of three-dimensional regions is position-adjusted such that the plurality of first feature points and the plurality of second feature points overlap, and a division region connection is made to connect the plurality of position-adjusted plurality of three-dimensional regions. Step and
Including
The medical support method which displays the projection image of said some three-dimensional area | region connected in the said division area connection step in the said display step as a projection image of the said three-dimensional site | part model .
前記3次元部位モデルから、所定の特徴を有する複数の第1特徴点の位置情報を抽出する第1特徴点抽出手段と、
前記患者に対して超音波プローブを用いて取得した超音波データと、前記超音波データを取得した前記超音波プローブの位置および向きデータとを対応付けて蓄積する蓄積手段と、
前記超音波データと前記位置および向きデータとを用いて、3次元超音波モデルのデータを生成する超音波モデル生成手段と、
前記3次元超音波モデルから、前記所定の特徴を有する複数の第2特徴点の位置情報を抽出する第2特徴点抽出手段と、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように、前記3次元部位モデルを変形する変形手段と、
前記変形手段により変形された前記3次元部位モデルの投影画像を表示手段に送信する送信手段と、
を備え、
前記変形手段は、
前記3次元部位モデルを、各々が少なくとも1つの前記第1特徴点を含む複数の3次元領域に分割する分割領域生成手段と、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように前記複数の3次元領域のそれぞれを位置調整し、位置調整された前記複数の3次元領域を互いに連結する分割領域連結手段と、
を有し、
前記送信手段は、前記分割領域連結手段が連結した前記複数の3次元領域の投影画像を前記3次元部位モデルの投影画像として前記表示手段に送信する画像処理装置。 Receiving means for receiving data of a three-dimensional part model generated based on a group of tomographic images of the patient;
First feature point extraction means for extracting position information of a plurality of first feature points having predetermined features from the three-dimensional part model;
Storage means for correlating and storing ultrasound data acquired for the patient using an ultrasound probe and position and orientation data of the ultrasound probe for which the ultrasound data is acquired;
Ultrasonic model generation means for generating data of a three-dimensional ultrasonic model using the ultrasonic data and the position and orientation data;
Second feature point extraction means for extracting position information of the plurality of second feature points having the predetermined feature from the three-dimensional ultrasound model;
Deformation means for deforming the three-dimensional part model so that the plurality of first feature points and the plurality of second feature points overlap;
Transmission means for transmitting the projection image of the three-dimensional part model deformed by the deformation means to display means;
Equipped with
The deformation means is
Division area generation means for dividing the three-dimensional part model into a plurality of three-dimensional areas each including at least one of the first feature points;
Each of the plurality of three-dimensional regions is position-adjusted such that the plurality of first feature points and the plurality of second feature points overlap, and a division region connection is made to connect the plurality of position-adjusted plurality of three-dimensional regions. Means,
Have
The transmission unit, an image processing apparatus that sends a projection image of the divided region of the plurality of three-dimensional area coupling means coupled to said display means as a projection image of the three-dimensional site model.
前記3次元部位モデルから、所定の特徴を有する複数の第1特徴点の位置情報を抽出する第1特徴点抽出ステップと、
前記患者に対して超音波プローブを用いて取得した超音波データと、前記超音波データを取得した前記超音波プローブの位置および向きデータとを対応付けて蓄積手段に蓄積する蓄積ステップと、
前記超音波データと前記位置および向きデータとを用いて、3次元超音波モデルのデータを生成する超音波モデル生成ステップと、
前記3次元超音波モデルから、前記所定の特徴を有する複数の第2特徴点の位置情報を抽出する第2特徴点抽出ステップと、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように、前記3次元部位モデルを変形する変形ステップと、
前記変形ステップにおいて変形された前記3次元部位モデルの投影画像を表示手段に送信する送信ステップと、
を含み、
前記変形ステップは、
前記3次元部位モデルを、各々が少なくとも1つの前記第1特徴点を含む複数の3次元領域に分割する分割領域生成ステップと、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように前記複数の3次元領域のそれぞれを位置調整し、位置調整された前記複数の3次元領域を互いに連結する分割領域連結ステップと、
を含み、
前記送信ステップにおいては、前記分割領域連結ステップにおいて連結した前記複数の3次元領域の投影画像を前記3次元部位モデルの投影画像として前記表示手段に送信する画像処理装置の制御方法。 Receiving data of a three-dimensional part model generated based on a group of tomographic images of the patient;
A first feature point extraction step of extracting position information of a plurality of first feature points having predetermined features from the three-dimensional part model;
An accumulation step of correlating the ultrasound data acquired for the patient using the ultrasound probe with the position and orientation data of the ultrasound probe for which the ultrasound data is acquired, and accumulating the data in an accumulation unit;
An ultrasound model generation step of generating data of a three-dimensional ultrasound model using the ultrasound data and the position and orientation data;
A second feature point extraction step of extracting position information of the plurality of second feature points having the predetermined feature from the three-dimensional ultrasound model;
Deforming the three-dimensional part model so that the plurality of first feature points and the plurality of second feature points overlap;
A transmitting step of transmitting a projection image of the three-dimensional part model deformed in the deformation step to display means;
Only including,
The deformation step is
A division area generation step of dividing the three-dimensional part model into a plurality of three-dimensional areas each including at least one of the first feature points;
Each of the plurality of three-dimensional regions is position-adjusted such that the plurality of first feature points and the plurality of second feature points overlap, and a division region connection is made to connect the plurality of position-adjusted plurality of three-dimensional regions. Step and
Including
The control method of the image processing apparatus, in the transmitting step, transmitting the projection images of the plurality of three-dimensional regions connected in the division region connecting step to the display unit as a projection image of the three-dimensional part model .
前記3次元部位モデルから、所定の特徴を有する複数の第1特徴点の位置情報を抽出する第1特徴点抽出ステップと、
前記患者に対して超音波プローブを用いて取得した超音波データと、前記超音波データを取得した前記超音波プローブの位置および向きデータとを対応付けて蓄積手段に蓄積する蓄積ステップと、
前記超音波データと前記位置および向きデータとを用いて、3次元超音波モデルのデータを生成する超音波モデル生成ステップと、
前記3次元超音波モデルから、前記所定の特徴を有する複数の第2特徴点の位置情報を抽出する第2特徴点抽出ステップと、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように、前記3次元部位モデルを変形する変形ステップと、
前記変形ステップにおいて変形された前記3次元部位モデルの投影画像を表示手段に送信する送信ステップと、
をコンピュータに実行させる画像処理装置の制御プログラムであって、
前記変形ステップにおいては、
前記3次元部位モデルを、各々が少なくとも1つの前記第1特徴点を含む複数の3次元領域に分割する分割領域生成ステップと、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように前記複数の3次元領域のそれぞれを位置調整し、位置調整された前記複数の3次元領域を互いに連結する分割領域連結ステップと、
をコンピュータに実行させ、
前記送信ステップにおいては、前記分割領域連結ステップにおいて連結した前記複数の3次元領域の投影画像を前記3次元部位モデルの投影画像として前記表示手段に送信するようコンピュータに実行させる画像処理装置の制御プログラム。 Receiving data of a three-dimensional part model generated based on a group of tomographic images of the patient;
A first feature point extraction step of extracting position information of a plurality of first feature points having predetermined features from the three-dimensional part model;
An accumulation step of correlating the ultrasound data acquired for the patient using the ultrasound probe with the position and orientation data of the ultrasound probe for which the ultrasound data is acquired, and accumulating the data in an accumulation unit;
An ultrasound model generation step of generating data of a three-dimensional ultrasound model using the ultrasound data and the position and orientation data;
A second feature point extraction step of extracting position information of the plurality of second feature points having the predetermined feature from the three-dimensional ultrasound model;
Deforming the three-dimensional part model so that the plurality of first feature points and the plurality of second feature points overlap;
A transmitting step of transmitting a projection image of the three-dimensional part model deformed in the deformation step to display means;
A control program of an image processing apparatus which causes a computer to execute
In the deformation step,
A division area generation step of dividing the three-dimensional part model into a plurality of three-dimensional areas each including at least one of the first feature points;
Each of the plurality of three-dimensional regions is position-adjusted such that the plurality of first feature points and the plurality of second feature points overlap, and a division region connection is made to connect the plurality of position-adjusted plurality of three-dimensional regions. Step and
On your computer,
In the transmission step, a control program of an image processing apparatus which causes a computer to execute projection images of the plurality of three-dimensional regions connected in the division region connecting step as the projection image of the three-dimensional part model .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015084771A JP6510301B2 (en) | 2015-04-17 | 2015-04-17 | MEDICAL SUPPORT SYSTEM, MEDICAL SUPPORT METHOD, IMAGE PROCESSING APPARATUS, AND CONTROL METHOD AND CONTROL PROGRAM THEREOF |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015084771A JP6510301B2 (en) | 2015-04-17 | 2015-04-17 | MEDICAL SUPPORT SYSTEM, MEDICAL SUPPORT METHOD, IMAGE PROCESSING APPARATUS, AND CONTROL METHOD AND CONTROL PROGRAM THEREOF |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016202351A JP2016202351A (en) | 2016-12-08 |
JP6510301B2 true JP6510301B2 (en) | 2019-05-08 |
Family
ID=57486235
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015084771A Active JP6510301B2 (en) | 2015-04-17 | 2015-04-17 | MEDICAL SUPPORT SYSTEM, MEDICAL SUPPORT METHOD, IMAGE PROCESSING APPARATUS, AND CONTROL METHOD AND CONTROL PROGRAM THEREOF |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6510301B2 (en) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11571180B2 (en) | 2016-12-16 | 2023-02-07 | Koninklijke Philips N.V. | Systems providing images guiding surgery |
CN110892452A (en) * | 2017-05-04 | 2020-03-17 | Mim软件有限公司 | System and method for predictive fusion |
CN110021386B (en) * | 2017-07-27 | 2023-06-23 | 北大医疗信息技术有限公司 | Feature extraction method, feature extraction device, equipment and storage medium |
EP3733047A4 (en) * | 2018-02-09 | 2021-02-17 | Sony Corporation | Surgical system, image processing device, and image processing method |
US10825563B2 (en) * | 2018-05-14 | 2020-11-03 | Novarad Corporation | Aligning image data of a patient with actual views of the patient using an optical code affixed to the patient |
JP7164423B2 (en) * | 2018-12-12 | 2022-11-01 | キヤノンメディカルシステムズ株式会社 | MEDICAL IMAGE PROCESSING APPARATUS, X-RAY CT APPARATUS, AND MEDICAL IMAGE PROCESSING METHOD |
WO2020157984A1 (en) * | 2019-02-01 | 2020-08-06 | TCC Media Lab株式会社 | Composite image generation system and position information correction system |
JP7304508B2 (en) * | 2019-02-19 | 2023-07-07 | 株式会社シンクアウト | Information processing system and information processing program |
WO2023162657A1 (en) * | 2022-02-28 | 2023-08-31 | 富士フイルム株式会社 | Medical assistance device, medical assistance device operation method, and operation program |
JP2023183004A (en) * | 2022-06-15 | 2023-12-27 | 株式会社アールテック | Medical image processing apparatus and medical image processing method |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007136133A (en) * | 2005-11-18 | 2007-06-07 | Toshio Fukuda | System for presenting augmented reality |
US8111892B2 (en) * | 2008-06-04 | 2012-02-07 | Medison Co., Ltd. | Registration of CT image onto ultrasound images |
KR101121286B1 (en) * | 2009-07-31 | 2012-03-23 | 한국과학기술원 | Ultrasound system and method for performing calibration of sensor |
KR102090270B1 (en) * | 2013-04-25 | 2020-03-17 | 삼성메디슨 주식회사 | Method and apparatus for image registration |
JP5410629B1 (en) * | 2013-05-14 | 2014-02-05 | 健司 三木 | Ultrasonic diagnostic system, image processing apparatus, control method thereof, and control program |
-
2015
- 2015-04-17 JP JP2015084771A patent/JP6510301B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016202351A (en) | 2016-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6510301B2 (en) | MEDICAL SUPPORT SYSTEM, MEDICAL SUPPORT METHOD, IMAGE PROCESSING APPARATUS, AND CONTROL METHOD AND CONTROL PROGRAM THEREOF | |
US9480456B2 (en) | Image processing apparatus that simultaneously displays two regions of interest on a body mark, processing method thereof and storage medium | |
CN110769740B (en) | Universal apparatus and method for integrating diagnostic tests into real-time therapy | |
US10881353B2 (en) | Machine-guided imaging techniques | |
KR101572487B1 (en) | System and Method For Non-Invasive Patient-Image Registration | |
JP6463038B2 (en) | Image alignment apparatus, method and program | |
JP6049202B2 (en) | Image processing apparatus, method, and program | |
JP6083103B2 (en) | Image complementation system for image occlusion area, image processing apparatus and program thereof | |
EP3081184A1 (en) | System and method for fused image based navigation with late marker placement | |
JP5504028B2 (en) | Observation support system, method and program | |
JP5569711B2 (en) | Surgery support system | |
JP2008005923A (en) | Medical guide system | |
JP2019514632A (en) | Correction of probe induced deformation in ultrasound fusion imaging system | |
JP6493885B2 (en) | Image alignment apparatus, method of operating image alignment apparatus, and image alignment program | |
EP3328305B1 (en) | Microscope tracking based on video analysis | |
KR20160057024A (en) | Markerless 3D Object Tracking Apparatus and Method therefor | |
CN107260305A (en) | Area of computer aided minimally invasive surgery system | |
JP6476125B2 (en) | Image processing apparatus and surgical microscope system | |
KR101592444B1 (en) | Medical image augmentation device using transparent display and method thereof | |
JP7027029B2 (en) | Ultrasound diagnostic equipment and medical image processing equipment | |
EP4128145B1 (en) | Combining angiographic information with fluoroscopic images | |
WO2024067753A1 (en) | Registration method, registration system, navigation information determination method, and navigation system | |
JP2013048688A (en) | Image processing device, image processing method and program | |
JP2021045341A (en) | Arthroscopic surgery support device, arthroscopic surgery support method, and program | |
CN115176283A (en) | Augmented reality positioning medical views |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180330 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20180330 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20180330 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181212 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190122 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190402 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190404 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6510301 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |