JP6510301B2 - MEDICAL SUPPORT SYSTEM, MEDICAL SUPPORT METHOD, IMAGE PROCESSING APPARATUS, AND CONTROL METHOD AND CONTROL PROGRAM THEREOF - Google Patents

MEDICAL SUPPORT SYSTEM, MEDICAL SUPPORT METHOD, IMAGE PROCESSING APPARATUS, AND CONTROL METHOD AND CONTROL PROGRAM THEREOF Download PDF

Info

Publication number
JP6510301B2
JP6510301B2 JP2015084771A JP2015084771A JP6510301B2 JP 6510301 B2 JP6510301 B2 JP 6510301B2 JP 2015084771 A JP2015084771 A JP 2015084771A JP 2015084771 A JP2015084771 A JP 2015084771A JP 6510301 B2 JP6510301 B2 JP 6510301B2
Authority
JP
Japan
Prior art keywords
dimensional
model
data
feature points
ultrasound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015084771A
Other languages
Japanese (ja)
Other versions
JP2016202351A (en
Inventor
健司 三木
健司 三木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NIPPON FRONTIER MEDICINE LABORATORIES, INC.
Original Assignee
NIPPON FRONTIER MEDICINE LABORATORIES, INC.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NIPPON FRONTIER MEDICINE LABORATORIES, INC. filed Critical NIPPON FRONTIER MEDICINE LABORATORIES, INC.
Priority to JP2015084771A priority Critical patent/JP6510301B2/en
Publication of JP2016202351A publication Critical patent/JP2016202351A/en
Application granted granted Critical
Publication of JP6510301B2 publication Critical patent/JP6510301B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Endoscopes (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Processing (AREA)

Description

本発明は、患者体内の3次元画像を表示して医療を支援する技術に関する。   The present invention relates to a technology for supporting medical treatment by displaying a three-dimensional image in a patient's body.

上記技術分野において、特許文献1には、超音波画像と断面が一致するCTまたはMRIの断層画像を表示する技術が開示されている。また、特許文献2には、超音波画像の表示位置をCTまたはMRIの断層画像上に表示する技術が開示されている。また、特許文献3には、3次元超音波画像と断面が略一致するCTまたはMRIの3次元画像を表示する技術が開示されている。   In the above technical field, Patent Document 1 discloses a technique for displaying a tomographic image of CT or MRI whose cross section coincides with an ultrasonic image. Further, Patent Document 2 discloses a technique for displaying the display position of an ultrasonic image on a tomographic image of CT or MRI. Further, Patent Document 3 discloses a technique for displaying a three-dimensional image of CT or MRI whose cross section substantially coincides with that of a three-dimensional ultrasonic image.

特開2008−188193号公報JP 2008-188193 A 特開2012−223416号公報JP, 2012-223416, A 特開2013−063342号公報JP, 2013-063342, A

しかしながら、上記文献に記載の技術は、超音波画像とCTあるいはMRI画像との位置合わせをして同じ断面画像を参照可能に並べて表示するが、患者の生体内部の実時間における部位の状態を認識することが難しかった。   However, although the technique described in the above document aligns the ultrasonic image and the CT or MRI image and displays the same cross-sectional image side by side so as to be referable, it recognizes the state of the part in real time inside the patient's living body It was difficult to do.

本発明の目的は、上述の課題を解決する技術を提供することにある。   An object of the present invention is to provide a technique for solving the above-mentioned problems.

上記目的を達成するため、本発明に係る医療支援システムは、
患者の断層撮影画像群に基づいて、3次元部位モデルのデータを生成する部位モデル生成手段と、
前記3次元部位モデルから、所定の特徴を有する複数の第1特徴点の位置情報を抽出する第1特徴点抽出手段と、
前記患者に対して超音波プローブを用いて取得した超音波データと、前記超音波データを取得した前記超音波プローブの位置および向きデータとを対応付けて蓄積し、前記超音波データと前記位置および向きデータとを用いて、3次元超音波モデルのデータを生成する超音波モデル生成手段と、
前記3次元超音波モデルから、前記所定の特徴を有する複数の第2特徴点の位置情報を抽出する第2特徴点抽出手段と、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように、前記3次元部位モデルを変形する変形手段と、
前記変形手段により変形された前記3次元部位モデルの投影画像を表示する表示手段と、
を備え
前記変形手段は、
前記3次元部位モデルを、各々が少なくとも1つの前記第1特徴点を含む複数の3次元領域に分割する分割領域生成手段と、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように前記複数の3次元領域のそれぞれを位置調整し、位置調整された前記複数の3次元領域を互いに連結する分割領域連結手段と、
を有し、
前記表示手段は、前記分割領域連結手段が連結した前記複数の3次元領域の投影画像を前記3次元部位モデルの投影画像として表示する。
In order to achieve the above object, the medical support system according to the present invention is
A part model generation unit that generates data of a three-dimensional part model based on a tomographic image group of a patient;
First feature point extraction means for extracting position information of a plurality of first feature points having predetermined features from the three-dimensional part model;
The ultrasound data acquired for the patient using the ultrasound probe and the position and orientation data of the ultrasound probe for which the ultrasound data is acquired are stored in association with each other, and the ultrasound data, the position, and the position Ultrasonic model generation means for generating data of a three-dimensional ultrasonic model using orientation data;
Second feature point extraction means for extracting position information of the plurality of second feature points having the predetermined feature from the three-dimensional ultrasound model;
Deformation means for deforming the three-dimensional part model so that the plurality of first feature points and the plurality of second feature points overlap;
Display means for displaying a projection image of the three-dimensional part model deformed by the deformation means;
Equipped with
The deformation means is
Division area generation means for dividing the three-dimensional part model into a plurality of three-dimensional areas each including at least one of the first feature points;
Each of the plurality of three-dimensional regions is position-adjusted such that the plurality of first feature points and the plurality of second feature points overlap, and a division region connection is made to connect the plurality of position-adjusted plurality of three-dimensional regions. Means,
Have
The display means, that displays a projection image of the divided plurality of three-dimensional area region connecting means is connected as a projection image of the three-dimensional site model.

上記目的を達成するため、本発明に係る医療支援方法は、
患者の断層撮影画像群に基づいて、3次元部位モデルのデータを生成する部位モデル生成ステップと、
前記3次元部位モデルから、所定の特徴を有する複数の第1特徴点の位置情報を抽出する第1特徴点抽出ステップと、
前記患者に対して超音波プローブを用いて取得した超音波データと、前記超音波データを取得した前記超音波プローブの位置および向きデータとを対応付けて蓄積手段に蓄積する蓄積ステップと、
前記超音波データと前記位置および向きデータとを用いて、3次元超音波モデルのデータを生成する超音波モデル生成ステップと、
前記3次元超音波モデルから、前記所定の特徴を有する複数の第2特徴点の位置情報を抽出する第2特徴点抽出ステップと、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように、前記3次元部位モデルを変形する変形ステップと、
前記変形ステップにおいて変形された前記3次元部位モデルの投影画像を表示する表示ステップと、
を含み、
前記変形ステップは、
前記3次元部位モデルを、各々が少なくとも1つの前記第1特徴点を含む複数の3次元領域に分割する分割領域生成ステップと、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように前記複数の3次元領域のそれぞれを位置調整し、位置調整された前記複数の3次元領域を互いに連結する分割領域連結ステップと、
を含み、
前記表示ステップにおいては、前記分割領域連結ステップにおいて連結した前記複数の3次元領域の投影画像を前記3次元部位モデルの投影画像として表示する
In order to achieve the above object, the medical support method according to the present invention is
A part model generation step of generating data of a three-dimensional part model based on a tomographic image group of a patient;
A first feature point extraction step of extracting position information of a plurality of first feature points having predetermined features from the three-dimensional part model;
An accumulation step of correlating the ultrasound data acquired for the patient using the ultrasound probe with the position and orientation data of the ultrasound probe for which the ultrasound data is acquired, and accumulating the data in an accumulation unit;
An ultrasound model generation step of generating data of a three-dimensional ultrasound model using the ultrasound data and the position and orientation data;
A second feature point extraction step of extracting position information of the plurality of second feature points having the predetermined feature from the three-dimensional ultrasound model;
Deforming the three-dimensional part model so that the plurality of first feature points and the plurality of second feature points overlap;
A display step of displaying a projection image of the three-dimensional part model deformed in the deformation step;
Only including,
The deformation step is
A division area generation step of dividing the three-dimensional part model into a plurality of three-dimensional areas each including at least one of the first feature points;
Each of the plurality of three-dimensional regions is position-adjusted such that the plurality of first feature points and the plurality of second feature points overlap, and a division region connection is made to connect the plurality of position-adjusted plurality of three-dimensional regions. Step and
Including
In the display step, projection images of the plurality of three-dimensional regions connected in the division region connection step are displayed as projection images of the three-dimensional part model .

上記目的を達成するため、本発明に係る画像処理装置は、
患者の断層撮影画像群に基づいて生成された3次元部位モデルのデータを受信する受信手段と、
前記3次元部位モデルから、所定の特徴を有する複数の第1特徴点の位置情報を抽出する第1特徴点抽出手段と、
前記患者に対して超音波プローブを用いて取得した超音波データと、前記超音波データを取得した前記超音波プローブの位置および向きデータとを対応付けて蓄積する蓄積手段と、
前記超音波データと前記位置および向きデータとを用いて、3次元超音波モデルのデータを生成する超音波モデル生成手段と、
前記3次元超音波モデルから、前記所定の特徴を有する複数の第2特徴点の位置情報を抽出する第2特徴点抽出手段と、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように、前記3次元部位モデルを変形する変形手段と、
前記変形手段により変形された前記3次元部位モデルの投影画像を表示手段に送信する送信手段と、
を備え
前記変形手段は、
前記3次元部位モデルを、各々が少なくとも1つの前記第1特徴点を含む複数の3次元領域に分割する分割領域生成手段と、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように前記複数の3次元領域のそれぞれを位置調整し、位置調整された前記複数の3次元領域を互いに連結する分割領域連結手段と、
を有し、
前記送信手段は、前記分割領域連結手段が連結した前記複数の3次元領域の投影画像を前記3次元部位モデルの投影画像として前記表示手段に送信する。
In order to achieve the above object, an image processing apparatus according to the present invention is
Receiving means for receiving data of a three-dimensional part model generated based on a group of tomographic images of the patient;
First feature point extraction means for extracting position information of a plurality of first feature points having predetermined features from the three-dimensional part model;
Storage means for correlating and storing ultrasound data acquired for the patient using an ultrasound probe and position and orientation data of the ultrasound probe for which the ultrasound data is acquired;
Ultrasonic model generation means for generating data of a three-dimensional ultrasonic model using the ultrasonic data and the position and orientation data;
Second feature point extraction means for extracting position information of the plurality of second feature points having the predetermined feature from the three-dimensional ultrasound model;
Deformation means for deforming the three-dimensional part model so that the plurality of first feature points and the plurality of second feature points overlap;
Transmission means for transmitting the projection image of the three-dimensional part model deformed by the deformation means to display means;
Equipped with
The deformation means is
Division area generation means for dividing the three-dimensional part model into a plurality of three-dimensional areas each including at least one of the first feature points;
Each of the plurality of three-dimensional regions is position-adjusted such that the plurality of first feature points and the plurality of second feature points overlap, and a division region connection is made to connect the plurality of position-adjusted plurality of three-dimensional regions. Means,
Have
It said transmission means that sends the projected image of the division of the plurality of regions connecting means are linked three-dimensional region on the display means as a projection image of the three-dimensional site model.

上記目的を達成するため、本発明に係る画像処理装置の制御方法は、
患者の断層撮影画像群に基づいて生成された3次元部位モデルのデータを受信する受信ステップと、
前記3次元部位モデルから、所定の特徴を有する複数の第1特徴点の位置情報を抽出する第1特徴点抽出ステップと、
前記患者に対して超音波プローブを用いて取得した超音波データと、前記超音波データを取得した前記超音波プローブの位置および向きデータとを対応付けて蓄積手段に蓄積する蓄積ステップと、
前記超音波データと前記位置および向きデータとを用いて、3次元超音波モデルのデータを生成する超音波モデル生成ステップと、
前記3次元超音波モデルから、前記所定の特徴を有する複数の第2特徴点の位置情報を抽出する第2特徴点抽出ステップと、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように、前記3次元部位モデルを変形する変形ステップと、
前記変形ステップにおいて変形された前記3次元部位モデルの投影画像を表示手段に送信する送信ステップと、
を含み、
前記変形ステップは、
前記3次元部位モデルを、各々が少なくとも1つの前記第1特徴点を含む複数の3次元領域に分割する分割領域生成ステップと、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように前記複数の3次元領域のそれぞれを位置調整し、位置調整された前記複数の3次元領域を互いに連結する分割領域連結ステップと、
を含み、
前記送信ステップにおいては、前記分割領域連結ステップにおいて連結した前記複数の3次元領域の投影画像を前記3次元部位モデルの投影画像として前記表示手段に送信する
In order to achieve the above object, a control method of an image processing apparatus according to the present invention is:
Receiving data of a three-dimensional part model generated based on a group of tomographic images of the patient;
A first feature point extraction step of extracting position information of a plurality of first feature points having predetermined features from the three-dimensional part model;
An accumulation step of correlating the ultrasound data acquired for the patient using the ultrasound probe with the position and orientation data of the ultrasound probe for which the ultrasound data is acquired, and accumulating the data in an accumulation unit;
An ultrasound model generation step of generating data of a three-dimensional ultrasound model using the ultrasound data and the position and orientation data;
A second feature point extraction step of extracting position information of the plurality of second feature points having the predetermined feature from the three-dimensional ultrasound model;
Deforming the three-dimensional part model so that the plurality of first feature points and the plurality of second feature points overlap;
A transmitting step of transmitting a projection image of the three-dimensional part model deformed in the deformation step to display means;
Only including,
The deformation step is
A division area generation step of dividing the three-dimensional part model into a plurality of three-dimensional areas each including at least one of the first feature points;
Each of the plurality of three-dimensional regions is position-adjusted such that the plurality of first feature points and the plurality of second feature points overlap, and a division region connection is made to connect the plurality of position-adjusted plurality of three-dimensional regions. Step and
Including
In the transmission step, projection images of the plurality of three-dimensional regions connected in the division region connection step are transmitted to the display means as a projection image of the three-dimensional part model .

上記目的を達成するため、本発明に係る画像処理装置の制御プログラムは、
患者の断層撮影画像群に基づいて生成された3次元部位モデルのデータを受信する受信ステップと、
前記3次元部位モデルから、所定の特徴を有する複数の第1特徴点の位置情報を抽出する第1特徴点抽出ステップと、
前記患者に対して超音波プローブを用いて取得した超音波データと、前記超音波データを取得した前記超音波プローブの位置および向きデータとを対応付けて蓄積手段に蓄積する蓄積ステップと、
前記超音波データと前記位置および向きデータとを用いて、3次元超音波モデルのデータを生成する超音波モデル生成ステップと、
前記3次元超音波モデルから、前記所定の特徴を有する複数の第2特徴点の位置情報を抽出する第2特徴点抽出ステップと、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように、前記3次元部位モデルを変形する変形ステップと、
前記変形ステップにおいて変形された前記3次元部位モデルの投影画像を表示手段に送信する送信ステップと、
をコンピュータに実行させる画像処理装置の制御プログラムであって、
前記変形ステップにおいては、
前記3次元部位モデルを、各々が少なくとも1つの前記第1特徴点を含む複数の3次元領域に分割する分割領域生成ステップと、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように前記複数の3次元領域のそれぞれを位置調整し、位置調整された前記複数の3次元領域を互いに連結する分割領域連結ステップと、
をコンピュータに実行させ、
前記送信ステップにおいては、前記分割領域連結ステップにおいて連結した前記複数の3次元領域の投影画像を前記3次元部位モデルの投影画像として前記表示手段に送信するようコンピュータに実行させる
In order to achieve the above object, a control program of an image processing apparatus according to the present invention is:
Receiving data of a three-dimensional part model generated based on a group of tomographic images of the patient;
A first feature point extraction step of extracting position information of a plurality of first feature points having predetermined features from the three-dimensional part model;
An accumulation step of correlating the ultrasound data acquired for the patient using the ultrasound probe with the position and orientation data of the ultrasound probe for which the ultrasound data is acquired, and accumulating the data in an accumulation unit;
An ultrasound model generation step of generating data of a three-dimensional ultrasound model using the ultrasound data and the position and orientation data;
A second feature point extraction step of extracting position information of the plurality of second feature points having the predetermined feature from the three-dimensional ultrasound model;
Deforming the three-dimensional part model so that the plurality of first feature points and the plurality of second feature points overlap;
A transmitting step of transmitting a projection image of the three-dimensional part model deformed in the deformation step to display means;
A control program of an image processing apparatus which causes a computer to execute
In the deformation step,
A division area generation step of dividing the three-dimensional part model into a plurality of three-dimensional areas each including at least one of the first feature points;
Each of the plurality of three-dimensional regions is position-adjusted such that the plurality of first feature points and the plurality of second feature points overlap, and a division region connection is made to connect the plurality of position-adjusted plurality of three-dimensional regions. Step and
On your computer,
In the transmitting step, the computer is made to transmit the projection images of the plurality of three-dimensional regions connected in the division region connecting step to the display means as a projection image of the three-dimensional part model .

本発明によれば、患者の生体内部の実時間における部位の状態を容易に認識することができる。   According to the present invention, it is possible to easily recognize the state of a site in real time inside a patient's living body.

本発明の第1実施形態に係る医療支援システムの構成を示すブロック図である。It is a block diagram showing composition of a medical support system concerning a 1st embodiment of the present invention. 本発明の第2実施形態に係る医療支援システムの処理概要を示す図である。It is a figure showing processing outline of a medical support system concerning a 2nd embodiment of the present invention. 本発明の第2実施形態に係る第1特徴点群および第2特徴点群の抽出処理の概要を示す図である。It is a figure which shows the outline | summary of the extraction process of the 1st feature point group which concerns on 2nd Embodiment of this invention, and a 2nd feature point group. 本発明の第2実施形態に係る医療支援システムの構成を示すブロック図である。It is a block diagram showing composition of a medical support system concerning a 2nd embodiment of the present invention. 本発明の第2実施形態に係る医療支援システムの動作手順を示すシーケンス図である。It is a sequence diagram which shows the operation | movement procedure of the medical support system which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る画像処理装置の機能構成を示すブロック図である。It is a block diagram showing functional composition of an image processing device concerning a 2nd embodiment of the present invention. 本発明の第2実施形態に係る分割領域テーブルの構成を示す図である。It is a figure which shows the structure of the division area table which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る超音波画像テーブルの構成を示す図である。It is a figure which shows the structure of the ultrasound image table which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る第2特徴点テーブルの構成を示す図である。It is a figure which shows the structure of the 2nd feature point table which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る表示画像生成部の機能構成を示すブロック図である。It is a block diagram showing functional composition of a display picture generation part concerning a 2nd embodiment of the present invention. 本発明の第2実施形態に係る分割領域連結部の処理を説明する図である。It is a figure explaining the process of the division | segmentation area | region connection part which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る分割領域連結テーブルの構成および位置合わせ用情報の例を示す図である。It is a figure which shows the structure of the division area connection table which concerns on 2nd Embodiment of this invention, and the example of the information for alignment. 本発明の第2実施形態に係る表示データ生成テーブルの構成を示す図である。It is a figure which shows the structure of the display data production | generation table which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る画像処理装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the image processing apparatus which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る画像処理装置の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the image processing apparatus which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る特徴点抽出処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the feature point extraction process which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る領域分割処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the area | region division processing which concerns on 2nd Embodiment of this invention. 本発明の第3実施形態に係る医療支援システムの処理概要を示すブロック図である。It is a block diagram showing processing outline of a medical support system concerning a 3rd embodiment of the present invention. 本発明の第3実施形態に係る医療支援システムの構成を示すブロック図である。It is a block diagram showing the composition of the medical support system concerning a 3rd embodiment of the present invention. 本発明の第3実施形態に係る画像処理装置の機能構成を示すブロック図である。It is a block diagram showing functional composition of an image processing device concerning a 3rd embodiment of the present invention. 本発明の第4実施形態に係る医療支援システムの構成を示すブロック図である。It is a block diagram showing composition of a medical support system concerning a 4th embodiment of the present invention. 本発明の第4実施形態に係る画像処理装置の機能構成を示すブロック図である。It is a block diagram showing functional composition of an image processing device concerning a 4th embodiment of the present invention. 本発明の第5実施形態に係る医療支援システムの構成を示すブロック図である。It is a block diagram showing the composition of the medical support system concerning a 5th embodiment of the present invention. 本発明の医療支援システムの種々の構成例を示す図である。It is a figure showing an example of various composition of a medical support system of the present invention.

以下に、図面を参照して、本発明の実施の形態について例示的に詳しく説明する。ただし、以下の実施の形態に記載されている構成要素は単なる例示であり、本発明の技術範囲をそれらのみに限定する趣旨のものではない。なお、本明細書で使用する「部位」は、生体内部の全体あるいはその一部を表わし、例えば、下腹部などの広い範囲から肺、肝臓、胃などの内臓器官やその病巣部分、あるいは血管やリンパ線、神経の一部などの狭い範囲までを表現する文言である。   Hereinafter, embodiments of the present invention will be exemplarily described in detail with reference to the drawings. However, the components described in the following embodiments are merely examples, and the scope of the present invention is not limited to them. As used herein, the term "site" refers to the whole or a part of the inside of a living body, for example, from a wide range such as the lower abdomen, visceral organs such as lung, liver, stomach, etc. It is a term that expresses a narrow range such as lymphatic line and a part of nerve.

[第1実施形態]
本発明の第1実施形態としての医療支援システム100について、図1を用いて説明する。医療支援システム100は、患者体内の3次元部位モデルを表示して医療を支援するシステムである。
First Embodiment
A medical support system 100 according to a first embodiment of the present invention will be described with reference to FIG. The medical support system 100 is a system that supports medical care by displaying a three-dimensional site model in the patient's body.

図1に示すように、医療支援システム100は、部位モデル生成部110と、第1特徴点抽出部120と、超音波モデル生成部130と、第2特徴点抽出部140と、変形部150と、表示部160と、を含む。部位モデル生成部110は、患者101の断層撮影画像群に基づいて、3次元部位モデル111のデータを生成する。第1特徴点抽出部120は、3次元部位モデル111から、所定の特徴を有する複数の第1特徴点の位置情報を抽出する。超音波モデル生成部130は、患者101に対して超音波プローブ103を用いて取得した超音波データ104と、超音波データ104を取得した超音波プローブ103の位置および向きデータとを対応付けて蓄積し、超音波データ104と位置および向きデータとを用いて、3次元超音波モデル131のデータを生成する。第2特徴点抽出部140は、3次元超音波モデル131から、所定の特徴を有する複数の第2特徴点の位置情報を抽出する。変形部150は、複数の第1特徴点と複数の第2特徴点とが重なるように、3次元部位モデル111を変形する。表示部160は、変形部150により変形された3次元部位モデルの投影画像160を表示する。   As shown in FIG. 1, the medical support system 100 includes a part model generation unit 110, a first feature point extraction unit 120, an ultrasound model generation unit 130, a second feature point extraction unit 140, and a deformation unit 150. , And the display unit 160. The part model generation unit 110 generates data of the three-dimensional part model 111 based on the tomographic image group of the patient 101. The first feature point extraction unit 120 extracts position information of a plurality of first feature points having predetermined features from the three-dimensional part model 111. The ultrasound model generation unit 130 associates and stores the ultrasound data 104 acquired for the patient 101 using the ultrasound probe 103 and the position and orientation data of the ultrasound probe 103 for which the ultrasound data 104 is acquired. Then, using the ultrasound data 104 and the position and orientation data, data of the three-dimensional ultrasound model 131 is generated. The second feature point extraction unit 140 extracts position information of a plurality of second feature points having predetermined features from the three-dimensional ultrasound model 131. The deformation unit 150 deforms the three-dimensional part model 111 so that the plurality of first feature points and the plurality of second feature points overlap. The display unit 160 displays the projection image 160 of the three-dimensional part model deformed by the deformation unit 150.

なお、変形部150は、3次元部位モデル111を、各々が少なくとも1つの第1特徴点を含む複数の3次元領域に分割する分割領域生成部151と、複数の第1特徴点と複数の第2特徴点とが重なるように複数の3次元領域のそれぞれを位置調整し、位置調整された複数の3次元領域153を互いに連結する分割領域連結部152と、を有し、表示部160は、分割領域連結部152が連結した複数の3次元領域161を3次元部位モデルとして表示する。   Note that the deformation unit 150 divides the three-dimensional region model 111 into a plurality of three-dimensional regions each including at least one first feature point, a plurality of first feature points, and a plurality of first feature points. The display unit 160 has a divided area connection unit 152 which adjusts the positions of the plurality of three-dimensional areas so that the two feature points overlap and connects the plurality of position-adjusted three-dimensional areas 153 with one another. A plurality of three-dimensional areas 161 connected by the divided area connection unit 152 are displayed as a three-dimensional part model.

本実施形態によれば、超音波プローブにより取得した3次元超音波画像に対応して、断層撮影画像群に基づく3次元部位モデルを変換して表示することにより、患者の生体内部の実時間における部位の状態を容易に認識することができる。   According to the present embodiment, the three-dimensional region model based on the tomographic image group is converted and displayed corresponding to the three-dimensional ultrasonic image acquired by the ultrasonic probe in real time inside the patient's living body. The state of the site can be easily recognized.

[第2実施形態]
次に、本発明の第2実施形態に係る医療支援システムについて説明する。本実施形態に係る医療支援システムは、CT画像やMRI画像から生成された3次元部位モデルデータの注目部位に含まれる3次元血管モデルの第1特徴点を抽出して、注目部位を、第1特徴点を含む領域に分割する。また、超音波プローブで取得した超音波画像データの注目部位に含まれる3次元血管モデルの第2特徴点を抽出する。そして、第2特徴点の3次元位置に第1特徴点の3次元位置を合わせるように分割領域を位置調整して連結することにより、3次元部位モデルデータを変換して3次元部位モデルを変形し、変形された3次元部位モデルを患者の生体に重なるように表示する。3次元部位モデルの詳細な変形が、さらに非剛体変形などにより行なわれてもよい。
Second Embodiment
Next, a medical support system according to a second embodiment of the present invention will be described. The medical support system according to the present embodiment extracts the first feature point of the three-dimensional blood vessel model included in the target region of the three-dimensional region model data generated from the CT image or the MRI image, Divide into regions containing feature points. In addition, second feature points of the three-dimensional blood vessel model included in the target area of the ultrasound image data acquired by the ultrasound probe are extracted. Then, the three-dimensional part model data is converted to deform the three-dimensional part model by adjusting and connecting the divided areas so that the three-dimensional position of the first feature point matches the three-dimensional position of the second feature point. And display the deformed three-dimensional site model so as to overlap the patient's body. Detailed deformation of the three-dimensional part model may be further performed by non-rigid deformation or the like.

また、患者の生体に重なるように表示するには、患者の生体に固定された光学マーカを撮像し、光学マーカの位置および向きに基づいた位置、形状および大きさの3次元部位モデルデータを生成する。光学マーカは、光学マーカ付きの磁気センサとして提供される。超音波プローブに固定された磁気センサおよび生体に固定された磁気センサから超音波プローブの正確な位置および向きを検出する。3次元部位モデルは、オプティカルシースルー型のヘッドマウンティンディスプレイ(以下、HMD:Head Mounted Display)に表示される。なお、本実施形態においては、光学マーカや磁気センサを患者の生体に固定した例を示したが、手術中に開腹している場合は、手術対象臓器に直接、光学マーカや磁気センサを固定して、より正確な位置を算出することもできる。   Also, in order to display so as to overlap with the living body of the patient, an optical marker fixed to the living body of the patient is imaged, and three-dimensional site model data of position, shape and size based on the position and orientation of the optical marker is generated Do. The optical marker is provided as a magnetic sensor with an optical marker. The precise position and orientation of the ultrasonic probe are detected from the magnetic sensor fixed to the ultrasonic probe and the magnetic sensor fixed to the living body. The three-dimensional site model is displayed on an optical see-through head mounted display (hereinafter, HMD: Head Mounted Display). In the present embodiment, an example in which the optical marker or the magnetic sensor is fixed to the patient's living body is shown. However, when the laparotomy is performed during the operation, the optical marker or the magnetic sensor is directly fixed to the surgery target organ It is also possible to calculate a more accurate position.

《医療支援システム》
図2A、図2B、図2Cおよび図3を参照して、本実施形態の医療支援システムの構成および動作について説明する。
<< medical support system >>
The configuration and operation of the medical support system of the present embodiment will be described with reference to FIGS. 2A, 2B, 2C, and 3.

(システム概要)
図2Aは、本実施形態に係る医療支援システム200の概要を示す図である。
(System overview)
FIG. 2A is a diagram showing an outline of a medical support system 200 according to the present embodiment.

医療支援システム200においては、コンピュータ断層撮影画像の1つであるCT画像210から生成した、例えば、STL(Standard Triangulated Language)形式の3次元モデルデータで表わされた3次元部位モデルや3次元部位モデルから抽出された3次元血管モデルなどから、モデルの特徴を表わす3次元座標上に配置された第1特徴点群240を抽出する。なお、第1特徴点群240は、3次元モデルデータにおいて生体組織の特徴ある位置を表わすものであれば限定されないが、例えば、血管の枝分かれ点における、枝分かれ数や枝分かれベクトル、あるいは全体のパターンが特有の点を第1特徴点としてよい。次に、第1特徴点群240から少なくとも1つ、望ましくは少なくとも3つの隣接した第1特徴点を含む領域への分割処理260を行なう。なお、第1特徴点が領域の分割面や分割点にあるのが、分割領域の連結が容易であり望ましい。   In the medical support system 200, for example, a three-dimensional part model or a three-dimensional part represented by three-dimensional model data of STL (Standard Triangulated Language) format generated from a CT image 210 which is one of computed tomography images. From a three-dimensional blood vessel model or the like extracted from the model, a first feature point group 240 arranged on three-dimensional coordinates representing the features of the model is extracted. The first feature point group 240 is not limited as long as it represents the characteristic position of the living tissue in the three-dimensional model data. For example, the number of branches, the branch vector, or the entire pattern at the branch point of the blood vessel A unique point may be taken as the first feature point. Next, division processing 260 is performed from the first feature point group 240 into a region including at least one, preferably at least three adjacent first feature points. It is preferable that the first feature points be located at the division plane or division point of the area because the division areas are easily connected.

一方、診察室や手術室230において、位置検出用器具(例えば、磁気センサ)を用いて位置判定された超音波プローブ203により実時間に取得した時系列の2次元超音波画像群220から、あるいは、3次元超音波画像から3次元血管モデルを生成し、モデルの特徴を表わす3次元座標上に配置された第2特徴点群250を抽出する。なお、第2特徴点群250も、3次元超音波画像データにおいて生体組織の特徴ある位置を表わすものであれば限定されないが、第1特徴点と同様の、血管の枝分かれ点における、枝分かれ数や枝分かれベクトル、あるいは全体のパターンが特有の点を第2特徴点とするのが望ましい。ここで、超音波プローブ203の位置検出用器具は、診察や手術中に医師などにより遮断される光学マーカよりも、遮断されることのない磁気センサが望ましい。   On the other hand, in the examination room or operating room 230, from the time-series two-dimensional ultrasonic image group 220 acquired in real time by the ultrasonic probe 203 whose position has been determined using a position detection instrument (for example, a magnetic sensor) , Generate a three-dimensional blood vessel model from the three-dimensional ultrasound image, and extract a second feature point group 250 arranged on three-dimensional coordinates representing the feature of the model. The second feature point group 250 is not limited as long as it represents the characteristic position of the living tissue in the three-dimensional ultrasonic image data, but the number of branches or the number of branches at the blood vessel branch point is the same as the first feature point. It is desirable that the branching vector or the entire pattern have a characteristic point as the second feature point. Here, the instrument for detecting the position of the ultrasonic probe 203 is preferably a magnetic sensor that is not blocked rather than an optical marker that is blocked by a doctor or the like during medical examination or surgery.

そして、医療支援システム200においては、第1特徴点と第2特徴点との3次元マッチングが行なわれ、第1特徴点群240が第2特徴点群250に重なるように、分割領域が位置調整されて連結されることによって、3次元モデルデータの変形が行なわれる。なお、3次元モデルデータの変形は、さらに分割領域や連結後の3次元部位モデルの非剛性変形を含んでもよい。   Then, in the medical support system 200, the three-dimensional matching between the first feature point and the second feature point is performed, and the division area is adjusted so that the first feature point group 240 overlaps the second feature point group 250. The transformation of the three-dimensional model data is carried out by being connected. The deformation of the three-dimensional model data may further include non-rigid deformation of the divided region and the three-dimensional part model after connection.

次に、医療支援システム200においては、実時間に生体201上に固定した位置検出用器具を用いて計測された、生体と3次元画像データに基づく3次元部位モデルとの位置関係に基づき、実時間の超音波画像に対応して変形された3次元部位モデル270を生体内部にあるように調整して3次元表示する。なお、3次元部位モデル270の3次元表示をする表示部は、オプティカルシースルー型HMDが望ましく、医師はHMDの表示画面上の3次元部位モデルの先に実際の生体を目視する。ここで、生体上の位置検出用器具は、生体と3次元部位モデルの表示との位置関係を高い精度で得るための光学マーカ付きの磁気センサが望ましい。   Next, in the medical support system 200, based on the positional relationship between the living body and the three-dimensional part model based on the three-dimensional image data, which is measured using the position detection instrument fixed on the living body 201 in real time, The three-dimensional part model 270 deformed corresponding to the ultrasonic image of time is adjusted to be inside the living body and displayed three-dimensionally. Preferably, the display unit for three-dimensional display of the three-dimensional part model 270 is an optical see-through HMD, and the doctor visually observes the actual living body ahead of the three-dimensional part model on the display screen of the HMD. Here, as a tool for position detection on a living body, a magnetic sensor with an optical marker for obtaining the positional relationship between the living body and the display of the three-dimensional part model with high accuracy is desirable.

図2Bは、本実施形態に係る第1特徴点群240および第2特徴点群250の抽出処理の概要を示す図である。なお、図2Bにおいては第1特徴点群240の抽出を代表して説明するが、第2特徴点群250の抽出も同様である。   FIG. 2B is a diagram showing an outline of extraction processing of the first feature point group 240 and the second feature point group 250 according to the present embodiment. Although extraction of the first feature point group 240 is described as a representative in FIG. 2B, extraction of the second feature point group 250 is the same.

取得した3次元血管画像241に対して、まず、各血管画像の中心線(芯線)242を抽出する。次に、複数の芯線242の分岐点や変曲点などの特徴点243を抽出して、分割処理260に使用する。   First, a center line (core line) 242 of each blood vessel image is extracted from the acquired three-dimensional blood vessel image 241. Next, feature points 243 such as branch points and inflection points of the plurality of core lines 242 are extracted and used in the division processing 260.

(システム構成)
図2Cは、本実施形態に係る医療支援システム200の構成を示すブロック図である。
(System configuration)
FIG. 2C is a block diagram showing the configuration of the medical support system 200 according to the present embodiment.

医療支援システム200は、CT装置211と、3次元モデル生成装置212と、画像処理装置280と、診察室や手術室230に配置された診察/手術器具群と、を備える。   The medical support system 200 includes a CT apparatus 211, a three-dimensional model generation apparatus 212, an image processing apparatus 280, and a medical examination / surgical instrument group arranged in a medical examination room or an operating room 230.

CT装置211は、患者201のコンピュータ断層撮影画像をあらかじめ取得する。なお、取得された目的の臓器に対して生成した3次元CT画像は、STL形式などの3次元データに変換するのが望ましい。3次元データの範囲に限定はないが、患者201の注目器官単位であることが望ましい。3次元モデル生成装置212は、CT装置211からのコンピュータ断層撮影画像群から、例えば3次元血管モデルを含む3次元部位モデルを生成して、画像処理装置280に渡す。なお、図2Cの画像処理装置280では、CT装置211によるコンピュータ断層撮影画像群に基づく3次元部位モデルの取得としたが、MRI装置であっても他のコンピュータ断層撮影装置に基づく3次元部位モデルであってもよい。また、3次元部位モデルのデータは、患者201の生体内部の生体組織の構成あるいは器官や患部の構成を表わすものであれば、STL形式に限定されない。なお、本実施形態においては、画像処理装置280が、外部の3次元モデル生成装置212で生成された3次元部位モデルのデータを取得する場合を示すが、画像処理装置280が3次元モデル生成装置212の機能を含む構成であってもよい。   The CT apparatus 211 acquires computer tomography images of the patient 201 in advance. The three-dimensional CT image generated for the acquired target organ is desirably converted to three-dimensional data such as STL format. Although there is no limitation on the range of the three-dimensional data, it is desirable to be the organ unit of interest of the patient 201. The three-dimensional model generation device 212 generates a three-dimensional region model including, for example, a three-dimensional blood vessel model from the group of computed tomography images from the CT device 211 and passes it to the image processing device 280. In the image processing apparatus 280 shown in FIG. 2C, the CT apparatus 211 obtains a three-dimensional site model based on a group of computed tomography images. However, even if it is an MRI apparatus, a three-dimensional site model based on another computed tomography apparatus It may be Further, the data of the three-dimensional region model is not limited to the STL format as long as it represents the configuration of a living tissue inside the living body of the patient 201 or the configuration of an organ or an affected part. In the present embodiment, although the case where the image processing device 280 acquires the data of the three-dimensional part model generated by the external three-dimensional model generation device 212 is shown, the image processing device 280 is a three-dimensional model generation device The configuration may include the functions of 212.

一方、診察室や手術室230の診察/手術器具群としては、超音波プローブ203と、磁気センサ231と、光学マーカ付き磁気センサ293と、Webカメラ294と、HMD295と、を有する。なお、Webカメラ294とHMD295とは、オプティカルシースルー型HMDとして一体化されている。超音波プローブ203は、実時間の診察中あるいは手術中に、患者201から超音波画像を取得する。磁気センサ231は、超音波プローブ203上に配置されて、超音波プローブ203の位置を検出する。光学マーカ付き磁気センサ293は、患者201に配置されて、磁気センサにより光学マーカの位置を検出し、光学マーカは患者201の生体とWebカメラ294との位置関係を判定するために使用される。Webカメラ294は、光学マーカ付き磁気センサ293の光学マーカを撮像して、患者201の生体とWebカメラ294との位置関係を判定する。なお、患者201の生体とWebカメラ294との位置関係を測定するためにHMDに磁気センサを取り付けてもよい。HMD295は、超音波画像に合致するように変形された3次元データで表わされる3次元モデルを、医師202が目視する患者201の位置に表示する。   On the other hand, as a medical examination / surgical instrument group of the medical examination room and the operating room 230, an ultrasonic probe 203, a magnetic sensor 231, a magnetic sensor 293 with an optical marker, a web camera 294 and an HMD 295 are provided. The web camera 294 and the HMD 295 are integrated as an optical see-through HMD. The ultrasound probe 203 acquires ultrasound images from the patient 201 during real time examination or surgery. The magnetic sensor 231 is disposed on the ultrasonic probe 203 to detect the position of the ultrasonic probe 203. The magnetic sensor with magnetic marker 293 is disposed on the patient 201 and detects the position of the optical marker with the magnetic sensor, and the optical marker is used to determine the positional relationship between the living body of the patient 201 and the Web camera 294. The web camera 294 captures an optical marker of the magnetic sensor 293 with an optical marker, and determines the positional relationship between the living body of the patient 201 and the web camera 294. A magnetic sensor may be attached to the HMD in order to measure the positional relationship between the living body of the patient 201 and the web camera 294. The HMD 295 displays a three-dimensional model represented by three-dimensional data deformed to match the ultrasound image at the position of the patient 201 viewed by the doctor 202.

画像処理装置280は、3次元データで表わされる3次元部位モデルを、磁気センサ231の検出信号によって位置および向きを判定した超音波プローブ203が取得した超音波画像に合致するように変形する。かかる変形には、3次元部位モデルを血管の分岐点などの特徴点に基づき領域に分割する分割処理と、超音波画像の特徴点に合致するように分割領域を連結する連結処理とが含まれる。次に、画像処理装置280は、光学マーカ付き磁気センサ293の磁気センサの検出信号と光学マーカを撮像したWebカメラ294の画像データによって、患者201の位置および向きと、患者201とHMD295との位置関係とを算出する。なお、Webカメラ294とHMD295との位置関係は一体のHMDとして固定されている。そして、画像処理装置280は、変形した3次元部位モデルが患者201の生体内部の正確な位置にあるように3次元表示データを生成して、HMD295に3次元表示させる。このように生体にセンサを固定するメリットは、生体が動いた時でも正確に3次元位置を推定することができることである。   The image processing device 280 deforms the three-dimensional region model represented by the three-dimensional data so as to match the ultrasound image acquired by the ultrasound probe 203 whose position and orientation have been determined by the detection signal of the magnetic sensor 231. Such deformation includes division processing for dividing a three-dimensional region model into regions based on feature points such as branch points of blood vessels, and connection processing for connecting division regions so as to match feature points of an ultrasound image. . Next, the image processing device 280 detects the position and orientation of the patient 201, and the positions of the patient 201 and the HMD 295, based on the detection signal of the magnetic sensor of the magnetic sensor 293 with an optical marker and the image data of the Web camera 294 imaging the optical marker. Calculate the relationship. The positional relationship between the web camera 294 and the HMD 295 is fixed as an integral HMD. Then, the image processing device 280 generates three-dimensional display data so that the deformed three-dimensional region model is at an accurate position inside the living body of the patient 201, and causes the HMD 295 to perform three-dimensional display. The merit of fixing the sensor to the living body in this way is that the three-dimensional position can be accurately estimated even when the living body moves.

(動作手順)
図3は、本実施形態に係る医療支援システム200の動作手順を示すシーケンス図である。
(Operation procedure)
FIG. 3 is a sequence diagram showing an operation procedure of the medical support system 200 according to the present embodiment.

CT装置211は、ステップS301において、患者201のコンピュータ断層撮影画像群を取得する。3次元モデル生成装置212は、ステップS302において、コンピュータ断層撮影画像群から肝臓などの部位あるいはその血管を抜き出して3次元表示する、3次元部位モデルデータを生成して、画像処理装置280に送信する。画像処理装置280は、ステップS303において、3次元モデル生成装置212から3次元部位モデルデータを受信する。画像処理装置280は、ステップS305において、3次元血管モデルのような3次元部位モデルに基づいて第1特徴点群を抽出する。そして、画像処理装置280は、ステップS307において、3次元部位モデルを、少なくとも1つの第1特徴点を含む3次元領域に分割して保持する。   The CT apparatus 211 acquires a computer tomography image group of the patient 201 in step S301. In step S302, the three-dimensional model generation device 212 generates three-dimensional region model data for extracting a region such as a liver or a blood vessel thereof from the computed tomography image group and displaying it three-dimensionally, and transmits it to the image processing device 280 . The image processing device 280 receives the three-dimensional part model data from the three-dimensional model generation device 212 in step S303. In step S305, the image processing device 280 extracts a first feature point group based on a three-dimensional region model such as a three-dimensional blood vessel model. Then, in step S307, the image processing device 280 divides and holds the three-dimensional region model into a three-dimensional region including at least one first feature point.

ステップS309において、磁気センサ231は超音波プローブ203の位置および向きを取得して画像処理装置280に送信し、超音波プローブ203はその時の超音波信号を取得して画像処理装置280に送信する。画像処理装置280は、ステップS311において、複数の継時的な位置情報と超音波信号とに基づいて超音波の2次元データを蓄積した後に、例えば血管モデルを示す3次元超音波モデルデータを生成する。次に、画像処理装置280は、ステップS313において、血管モデルを示す3次元超音波モデルデータに基づいて第2特徴点群を抽出する。   In step S309, the magnetic sensor 231 acquires the position and orientation of the ultrasonic probe 203 and transmits it to the image processing device 280, and the ultrasonic probe 203 acquires the ultrasonic signal at that time and transmits it to the image processing device 280. In step S311, the image processing device 280 generates two-dimensional data of ultrasonic waves based on a plurality of sequential position information and ultrasonic signals, and then generates, for example, three-dimensional ultrasonic model data indicating a blood vessel model. Do. Next, in step S313, the image processing device 280 extracts a second feature point group based on three-dimensional ultrasound model data indicating a blood vessel model.

さらに、画像処理装置280は、ステップS315において、第1特徴点群が第2特徴点群に合致するように、3次元部位モデルから生成した分割領域を位置変換する。そして、画像処理装置280は、位置変換した分割領域を連結する。なお、分割領域の連結を正確にするためには、第1特徴点を分割領域の面や稜線あるいは頂点などに含むのが望ましい。   Furthermore, in step S315, the image processing device 280 performs position conversion on the divided area generated from the three-dimensional part model so that the first feature point group matches the second feature point group. Then, the image processing device 280 connects the divided areas obtained by the position conversion. In order to accurately connect the divided areas, it is desirable to include the first feature point on the surface, ridge line or vertex of the divided area.

光学マーカ付きの磁気センサ293の磁気センサは、ステップS317において、配置した患者201の生体の位置および向きを取得して、画像処理装置280に送信する。また、Webカメラ294は、ステップS319において、光学マーカ付きの磁気センサ293の光学マーカを撮像して、光学マーカの撮像データを画像処理装置280に送信する。画像処理装置280は、ステップS321において、光学マーカの撮像データから生体と表示部であるHMD295との位置関係(距離と向き)を算出する。   The magnetic sensor of the magnetic sensor 293 with the optical marker acquires the position and orientation of the living body of the patient 201 placed in step S317, and transmits the acquired position and orientation to the image processing device 280. In step S319, the web camera 294 captures an optical marker of the magnetic sensor 293 with an optical marker, and transmits imaging data of the optical marker to the image processing apparatus 280. In step S 321, the image processing device 280 calculates the positional relationship (distance and direction) between the living body and the HMD 295 as the display unit from the imaging data of the optical marker.

なお、光学マーカ付きの磁気センサ293と超音波プローブ203の磁気センサ231とにより、超音波プローブ203の位置をより正確に検出することができる。すなわち、超音波プローブ203に光学マーカを配置することにより正確な位置を検出できるが、光学マーカがカメラの視界から隠れないことが条件となる。本実施形態においては、超音波プローブ203に磁気センサ231を配置して、超音波プローブ203を自由に移動することを可能にした。しかしながら、光学マーカに比較して正確性が低下するので、光学マーカ付きの磁気センサ293を生体201に配置することで、正確さを確保する。したがって、HMD295に磁気センサを取り付けた場合はHMD295と超音波プローブ203との位置関係が検出できるので、カメラによる撮像の必要はない。   The position of the ultrasonic probe 203 can be detected more accurately by the magnetic sensor 293 with an optical marker and the magnetic sensor 231 of the ultrasonic probe 203. That is, although the accurate position can be detected by arranging the optical marker on the ultrasonic probe 203, it is a condition that the optical marker does not hide from the field of view of the camera. In the present embodiment, the magnetic sensor 231 is disposed on the ultrasonic probe 203 so that the ultrasonic probe 203 can be freely moved. However, since the accuracy is reduced as compared with the optical marker, by disposing the magnetic sensor 293 with the optical marker on the living body 201, the accuracy is secured. Therefore, when the magnetic sensor is attached to the HMD 295, the positional relationship between the HMD 295 and the ultrasonic probe 203 can be detected, and therefore, imaging by a camera is not necessary.

そして、画像処理装置280は、ステップS323において、分割領域の連結により変形した3次元部位モデルを、患者201の生体内部にあるかのように表示する表示データを生成して、HMD295に送信する。HMD295は、ステップS325において、受信した表示データにより3次元部位モデルを患者201の生体内部にあるかのように表示する。   Then, in step S 323, the image processing device 280 generates display data to display the three-dimensional region model deformed by the connection of divided regions as if it is inside the living body of the patient 201, and transmits it to the HMD 295. In step S325, the HMD 295 displays the three-dimensional site model as if it is inside the living body of the patient 201 based on the received display data.

《画像処理装置の機能構成》
図4は、本実施形態に係る画像処理装置280の機能構成を示すブロック図である。
<< Functional Configuration of Image Processing Device >>
FIG. 4 is a block diagram showing a functional configuration of the image processing apparatus 280 according to the present embodiment.

画像処理装置280は、3次元部位モデル受信部411と、第1特徴点抽出部412と、分割領域生成部424と、を備える。また、画像処理装置280は、通信制御部413と、磁気信号受信部414と、超音波プローブ位置検出部415と、超音波信号受信部416と、超音波モデルデータ生成部417と、第2特徴点抽出部418と、を備える。さらに、画像処理装置280は、磁気信号受信部419と、患者位置検出部420と、光学マーカ画像受信部421と、HMD位置算出部422と、表示画像生成部423と、表示画像送信部425と、を備える。表示画像生成部423は、分割領域マッチング部431と、分割領域連結部432と、HMD画像生成部433と、を含む。   The image processing device 280 includes a three-dimensional part model reception unit 411, a first feature point extraction unit 412, and a divided region generation unit 424. The image processing apparatus 280 further includes a communication control unit 413, a magnetic signal reception unit 414, an ultrasonic probe position detection unit 415, an ultrasonic signal reception unit 416, an ultrasonic model data generation unit 417, and a second feature. And a point extraction unit 418. Furthermore, the image processing device 280 includes a magnetic signal reception unit 419, a patient position detection unit 420, an optical marker image reception unit 421, an HMD position calculation unit 422, a display image generation unit 423, and a display image transmission unit 425. And. The display image generation unit 423 includes a divided area matching unit 431, a divided area connection unit 432, and an HMD image generation unit 433.

3次元部位モデル受信部411は、外部の3次元モデル生成装置212においてコンピュータ断層撮影画像群から生成した血管モデルなどの3次元部位モデルを受信する。3次元部位モデルの受信は、記憶媒体を介してもよいし、通信制御部413を介してもよい。なお、断層画像からのSTLデータなどの3次元データの生成を画像処理装置280で実行する場合は、画像処理装置280はSTLデータ生成部を有する。第1特徴点抽出部412は、血管モデルなどの3次元部位モデルから第1特徴点を抽出する。分割領域生成部424は、STLデータなどで表わされた3次元部位モデルを、近接する第1特徴点を含む3次元の小領域に分割する。なお、各分割領域には少なくとも1つの第1特徴点が含まれる。分割領域の超音波画像の第2特徴点とのマッチングによる位置変換のためには、各分割領域には少なくとも3つの第1特徴点が含まれるのが望ましい。さらに、分割領域の連結を容易にするために、第1特徴点が各分割領域の面、稜線、頂点にあるよう分割するのが望ましい。   The three-dimensional region model reception unit 411 receives a three-dimensional region model such as a blood vessel model generated from the computer tomography image group in the external three-dimensional model generation device 212. The reception of the three-dimensional part model may be via a storage medium or via the communication control unit 413. When the image processing device 280 executes generation of three-dimensional data such as STL data from a tomographic image, the image processing device 280 includes an STL data generation unit. The first feature point extraction unit 412 extracts a first feature point from a three-dimensional part model such as a blood vessel model. The divided area generation unit 424 divides the three-dimensional part model represented by the STL data or the like into three-dimensional small areas including the adjacent first feature points. Each divided area includes at least one first feature point. Preferably, at least three first feature points are included in each split region for position conversion by matching with the second feature points of the ultrasound image of the split region. Furthermore, in order to facilitate connection of divided regions, it is desirable to divide the first feature points so that they are on the faces, edges, and vertices of each divided region.

通信制御部413は、診察/手術器具群290に含まれる各器具との情報交換を行なう。なお、診察室や手術室230の診察/手術器具群との通信は有線であっても無線であってもよいが、無線通信であるのが望ましい。磁気信号受信部414は、通信制御部413を介して、超音波プローブ203に配置した磁気センサ231からの磁気検出信号を受信する。超音波プローブ位置検出部415は、磁気センサ231からの磁気検出信号に基づいて、超音波プローブ203の位置および向きを検出する。詳細には、磁気検出信号に基づく磁気センサ231による位置および向きの検出は、磁場発生装置(不図示)と、コントローラ部(不図示)と、磁気センサ231と、を含む位置検出システムにおいて、コントローラ部で向きと座標を算出して送信する構成となっている。なお、磁気センサ231が磁気検出信号から位置および向きを検出するための記憶部を有する場合は、磁気センサ231から位置および向きを示すデータ(例えば、座標とベクトル)を受信してもよい。超音波信号受信部416は、通信制御部413を介して、超音波プローブ203から超音波信号を受信する。なお、超音波信号受信部416は、超音波プローブ203が超音波信号から超音波画像データを生成する機能を有する場合には、超音波画像データを受信してもよい。   The communication control unit 413 exchanges information with the instruments included in the medical examination / surgical instrument group 290. Communication with the medical examination / operational instrument group in the examination room or the operation room 230 may be wired or wireless, but it is desirable to be wireless communication. The magnetic signal reception unit 414 receives the magnetic detection signal from the magnetic sensor 231 disposed in the ultrasonic probe 203 via the communication control unit 413. The ultrasonic probe position detection unit 415 detects the position and orientation of the ultrasonic probe 203 based on the magnetic detection signal from the magnetic sensor 231. In detail, detection of the position and orientation by the magnetic sensor 231 based on the magnetic detection signal is performed by a controller in a position detection system including a magnetic field generator (not shown), a controller unit (not shown) and the magnetic sensor 231. The direction and coordinates are calculated by the unit and transmitted. When the magnetic sensor 231 has a storage unit for detecting the position and the direction from the magnetic detection signal, data (for example, coordinates and a vector) indicating the position and the direction may be received from the magnetic sensor 231. The ultrasound signal reception unit 416 receives an ultrasound signal from the ultrasound probe 203 via the communication control unit 413. When the ultrasound probe 203 has a function of generating ultrasound image data from an ultrasound signal, the ultrasound signal reception unit 416 may receive ultrasound image data.

超音波モデルデータ生成部417は、超音波信号受信部416が受信した超音波信号を、超音波プローブ位置検出部415が検出した超音波プローブ203の位置および向きに対応して、3次元座標の超音波モデルデータを生成する。なお、超音波モデルデータ生成部417は、超音波プローブ203が取得した各断面画像を3次元に接続して3次元超音波モデルデータを生成する。本実施形態では、超音波プローブ203が取得した各断面画像から血管などの構造物を抽出して、それらを3次元に接続して3次元超音波モデルデータを生成する。第2特徴点抽出部418は、超音波モデルデータ生成部417が生成した血管モデルなどの3次元超音波モデルデータから、例えば血管の枝分かれなどの第2特徴点を抽出する。   The ultrasound model data generation unit 417 has three-dimensional coordinates of the ultrasound signal received by the ultrasound signal reception unit 416, corresponding to the position and orientation of the ultrasound probe 203 detected by the ultrasound probe position detection unit 415. Generate ultrasound model data. The ultrasound model data generation unit 417 connects the cross-sectional images acquired by the ultrasound probe 203 three-dimensionally to generate three-dimensional ultrasound model data. In the present embodiment, a structure such as a blood vessel is extracted from each cross-sectional image acquired by the ultrasonic probe 203, and they are connected three-dimensionally to generate three-dimensional ultrasonic model data. The second feature point extraction unit 418 extracts, for example, a second feature point such as branching of a blood vessel from the three-dimensional ultrasonic model data such as the blood vessel model generated by the ultrasonic model data generation unit 417.

磁気信号受信部419は、通信制御部413を介して、光学マーカ付き磁気センサ293から磁気検出信号を受信する。なお、光学マーカ付き磁気センサ293が磁気検出信号から位置および向きを検出するための記憶部を有する場合は、位置および向きを示すデータ(例えば、座標とベクトル)を受信してもよい。患者位置検出部420は、光学マーカ付き磁気センサ293からの磁気検出信号に基づいて、患者201の位置および向きを検出する。詳細には、磁気検出信号に基づく光学マーカ付き磁気センサ293による位置および向きの検出は、磁場発生装置(不図示)と、コントローラ部(不図示)と、磁気センサ293と、を含む位置検出システムにおいて、コントローラ部で向きと座標を算出して送信する構成となっている。   The magnetic signal reception unit 419 receives the magnetic detection signal from the optical sensor with magnetic marker 293 via the communication control unit 413. When the optical sensor with magnetic marker 293 has a storage unit for detecting the position and orientation from the magnetic detection signal, data (for example, coordinates and vectors) indicating the position and orientation may be received. The patient position detection unit 420 detects the position and orientation of the patient 201 based on the magnetic detection signal from the optical sensor equipped magnetic sensor 293. In detail, detection of the position and orientation by the magnetic sensor with magnetic marker 293 based on the magnetic detection signal is a position detection system including a magnetic field generator (not shown), a controller unit (not shown), and a magnetic sensor 293. The controller unit is configured to calculate and transmit the direction and coordinates.

光学マーカ画像受信部421は、通信制御部413を介して、HMD295に設置されたWebカメラ294が撮像した光学マーカ付き磁気センサ293の光学マーカの撮影画像を受信する。HMD位置算出部422は、光学マーカ画像受信部421が受信した光学マーカの撮影画像に基づいて、HMD295と患者201との位置関係を算出する。なお、前述のように、HMD295に位置判定用の磁気センサを配置すれば、光学マーカの撮影画像に基づくHMD295と患者201との位置関係の算出はなくてもよい。   The optical marker image reception unit 421 receives a photographed image of the optical marker of the optical sensor with a magnetic marker 293 captured by the Web camera 294 installed in the HMD 295 via the communication control unit 413. The HMD position calculation unit 422 calculates the positional relationship between the HMD 295 and the patient 201 based on the captured image of the optical marker received by the optical marker image reception unit 421. As described above, if the magnetic sensor for position determination is arranged in the HMD 295, the calculation of the positional relationship between the HMD 295 and the patient 201 based on the captured image of the optical marker may not be necessary.

表示画像生成部423の分割領域マッチング部431は、分割領域生成部424が生成した各分割領域に含まれる第1特徴点と第2特徴点抽出部418が抽出した第2特徴点とをマッチングして、互いの特徴点が合致するように各分割領域を移動および回転する。そして、分割領域連結部432は、各分割領域を第1特徴点により連結して、3次元超音波画像に合致するように変形された、STLデータなどで表わされた3次元部位モデルを生成する。次に、HDM画像生成部433は、患者位置検出部420が検出した患者201の位置に変形した3次元部位モデルが重なるように、HMD位置算出部422で算出したHMD位置に3次元表示するための画像データを生成する。すなわち、計測されたHMD295の位置から観察した時に、患者201の生体に重なる3次元部位モデルがどのように見えるかを計算した3次元画像を生成する。表示画像送信部425は、HMD画像生成部433が生成した患者201の位置に重なる画像データを、通信制御部413を介して、HMD295に表示すべく送信する。   The divided region matching unit 431 of the display image generation unit 423 matches the first feature point included in each divided region generated by the divided region generation unit 424 with the second feature point extracted by the second feature point extraction unit 418. Then, each divided area is moved and rotated so that the feature points of each other match. Then, the divided area connection unit 432 connects the divided areas by the first feature points, and generates a three-dimensional part model represented by STL data or the like, which is deformed so as to match the three-dimensional ultrasonic image. Do. Next, the HDM image generation unit 433 performs three-dimensional display at the HMD position calculated by the HMD position calculation unit 422 so that the three-dimensional part model deformed at the position of the patient 201 detected by the patient position detection unit 420 overlaps. Generate image data of That is, when observed from the measured position of the HMD 295, a three-dimensional image is generated which calculates how the three-dimensional part model overlapping the living body of the patient 201 looks like. The display image transmission unit 425 transmits the image data overlapping the position of the patient 201 generated by the HMD image generation unit 433 to the HMD 295 via the communication control unit 413 for display.

(分割領域テーブル)
図5は、本実施形態に係る分割領域テーブル500の構成を示す図である。分割領域テーブル500は、コンピュータ断層撮影画像の1つであるCT画像から3次元形式の血管モデルなどの部位モデルデータから抽出した第1特徴点と、第1特徴点を含む分割領域とを保持するテーブルである。なお、分割領域テーブル500の構成は、図5に限定されない。また、図5においては、血管の枝分かれ場所を第1特徴点とする例を示すが、これに限定されず固有の特徴を表わす場所であればよい。
(Divided area table)
FIG. 5 is a diagram showing the configuration of the divided area table 500 according to the present embodiment. The divided region table 500 holds a first feature point extracted from a part model data such as a blood vessel model in a three-dimensional format from a CT image which is one of computed tomography images, and a divided region including the first feature point. It is a table. The configuration of the divided area table 500 is not limited to that shown in FIG. Further, FIG. 5 shows an example in which the branch location of the blood vessel is used as the first feature point, but it is not limited to this and it may be a location representing a unique feature.

分割領域テーブル500は、複数断層のCTデータから生成され、受信したSTL形式などの3次元部位モデルデータ501と、3次元部位モデルデータ501に含まれる3次元血管モデルデータ502と、血管の芯線を抽出した血管芯線503と、を記憶する。なお、本例では、抽象化して普遍的な特徴を考慮するため、血管芯線503に基づき特徴点を抽出するが、特徴点が有する特徴がマッチング可能な程度に不変であれば、血管の太さの比率などを考慮してもよい。なお、受信した3次元部位モデルデータ501が、血管のみを抜き出したSTLファイルであってもよい。   The divided area table 500 is generated from CT data of a plurality of slices, the received three-dimensional part model data 501 such as STL format, the three-dimensional blood vessel model data 502 included in the three-dimensional part model data 501, and the core line of the blood vessel. The extracted blood vessel core 503 is stored. In this example, feature points are extracted based on the blood vessel core line 503 in order to consider abstraction and universal features, but if the features possessed by the feature points are invariant to a matchable degree, the thickness of the blood vessel You may consider the ratio of The received three-dimensional region model data 501 may be an STL file from which only blood vessels are extracted.

分割領域テーブル500は、本例の第1特徴点データ504として、血管芯線503のパターンから、枝分かれ点を特徴点として、枝分かれIDと、枝分かれ特徴データと、特徴点の3次元位置データと、を記憶する。枝分かれ特徴データとしては、枝分かれ数511、各枝分かれの始点と方向を示す枝分かれベクトル512、全体の枝分かれをパターン化した枝分かれパターン513、その他の例えば血流方向など514、の少なくともいずれかを記憶する。枝分かれ特徴データは、特徴ID515としてあらかじめ類別されていてもよい。第1特徴点データ504は、図5に限定されない。マッチングにおける信頼性を高めるデータを加え、信頼性を低めるデータを除くことができる。   The divided area table 500 uses the pattern of the blood vessel core 503 as the first feature point data 504 of the present example, using the branch points as feature points, the branch ID, the branch feature data, and the three-dimensional position data of the feature points. Remember. As the branching feature data, at least one of the number of branches 511, a branching vector 512 indicating the start point and direction of each branch, a branching pattern 513 in which the entire branches are patterned, and others, for example, the blood flow direction 514 is stored. The branched feature data may be classified in advance as a feature ID 515. The first feature point data 504 is not limited to FIG. It is possible to add data that increases the reliability in matching and remove data that decreases the reliability.

分割領域テーブル500は、第1特徴点を含む分割領域を識別する分割領域ID505と、分割領域データ506と、を記憶する。ここで、分割領域データ506としては、第1特徴点以外の血管データや、分割領域の形状データ、重心データなどが含まれる。なお、図5においては、分割領域が、3つの第1特徴点、あるいは、4つの第1特徴点、を含む場合を例に図示しているが、分割領域が含む第1特徴点の数には限定はない。また、隣接する分割領域は、面や稜線、頂点に共通の第1特徴点を有するように生成することで、連結処理が容易となる。   The divided area table 500 stores divided area IDs 505 for identifying divided areas including the first feature points, and divided area data 506. Here, the divided area data 506 includes blood vessel data other than the first feature point, shape data of the divided area, centroid data, and the like. Although FIG. 5 illustrates the case where the divided area includes the three first feature points or the four first feature points, the number of the first feature points included in the divided area is one example. There is no limitation. Further, by generating adjacent divided areas so as to have the first feature point common to the face, ridge line, and vertex, connection processing becomes easy.

(超音波画像テーブル)
図6Aは、本実施形態に係る超音波画像テーブル610の構成を示す図である。超音波画像テーブル610は、超音波プローブ291から受信した超音波信号から超音波プローブ291の位置および向きを考慮した3次元の超音波モデルデータを生成するために使用される。
(Ultrasound image table)
FIG. 6A is a diagram showing the configuration of an ultrasound image table 610 according to the present embodiment. The ultrasound image table 610 is used to generate three-dimensional ultrasound model data in consideration of the position and orientation of the ultrasound probe 291 from the ultrasound signal received from the ultrasound probe 291.

超音波画像テーブル610は、超音波画像データID611、患者IDと患部とを含む患者情報612、取得日時(タイムスタンプ)613、に対応つけて、超音波プローブ203の形式に対応した取得パラメータ614と、取得パラメータ614により処理された受信した超音波画像データ615と、を記憶する。   The ultrasound image table 610 corresponds to ultrasound image data ID 611, patient information 612 including a patient ID and an affected part, acquisition date (time stamp) 613, and acquisition parameters 614 corresponding to the format of the ultrasound probe 203 and And store the received ultrasound image data 615 processed by the acquisition parameter 614.

また、超音波画像テーブル610は、磁気センサ231および磁気センサ293からの磁気センサ相対信号616と、磁気センサ相対信号616から検出した超音波プローブ203の位置および向きを示す超音波プローブの3次元位置データ617と、を記憶する。ここで、磁気センサ231および磁気センサ293からの磁気センサ相対信号616により超音波プローブ203の位置および向きを検出するのは、磁気センサ231による超音波プローブ203の位置情報だけでは、生体が動いた時に3次元位置がずれるためである。そのため、超音波プローブ203の位置および向きは、生体につけた磁気センサ293からの相対的な位置と方向として記録する。   In addition, the ultrasonic image table 610 is a three-dimensional position of the ultrasonic probe indicating the position and the direction of the ultrasonic probe 203 detected from the magnetic sensor relative signal 616 from the magnetic sensor 231 and the magnetic sensor 293 and the magnetic sensor relative signal 616. Data 617 is stored. Here, the position and direction of the ultrasonic probe 203 are detected by the magnetic sensor relative signal 616 from the magnetic sensor 231 and the magnetic sensor 293 only when the position information of the ultrasonic probe 203 by the magnetic sensor 231 moves the living body. Sometimes the three-dimensional position shifts. Therefore, the position and orientation of the ultrasonic probe 203 are recorded as the relative position and orientation from the magnetic sensor 293 attached to the living body.

そして、超音波画像テーブル610は、超音波プローブ203の位置および向きに対応して受信した超音波画像データ615を3次元座標変換した、3次元の超音波画像データ618を記憶する。さらに、各スキャンに対応する3次元の超音波画像データ618を接続した患者の器官単位あるいは患部単位の3次元超音波モデルデータ619を生成して記憶する。   Then, the ultrasound image table 610 stores three-dimensional ultrasound image data 618 in which the ultrasound image data 615 received corresponding to the position and orientation of the ultrasound probe 203 is three-dimensionally coordinate-transformed. Further, three-dimensional ultrasound model data 619 of an organ unit or an affected area unit of a patient connected to the three-dimensional ultrasound image data 618 corresponding to each scan is generated and stored.

(第2特徴点テーブル)
図6Bは、本実施形態に係る第2特徴点テーブル620の構成を示す図である。第2特徴点テーブル620は、超音波画像データ618から抽出した特徴点を保持するテーブルである。なお、第2特徴点テーブル620の構成は、図6Bに限定されない。また、図6Bにおいては、血管の枝分かれ場所を特徴点とする例を示すが、これに限定されず固有の特徴を表わす場所であればよいが、第1特徴点と共通の特徴であるのが望ましい。
(2nd feature point table)
FIG. 6B is a diagram showing the configuration of the second feature point table 620 according to the present embodiment. The second feature point table 620 is a table that holds feature points extracted from the ultrasound image data 618. The configuration of the second feature point table 620 is not limited to FIG. 6B. Further, FIG. 6B shows an example in which a branch point of a blood vessel is used as a feature point, but the present invention is not limited to this and it may be a place representing a unique feature, but the feature is common to the first feature point. desirable.

第2特徴点テーブル620は、超音波画像テーブル610の超音波画像データID611および超音波画像データ618に対応付けて、血管部位抽出画像データ621を記憶する。なお、血管部位抽出は、超音波画像データ618の2値化および輪郭抽出、そして環状輪郭の選別などにより行なわれる。   The second feature point table 620 stores blood vessel site extraction image data 621 in association with ultrasound image data ID 611 and ultrasound image data 618 of the ultrasound image table 610. The blood vessel site extraction is performed by binarization and contour extraction of the ultrasonic image data 618, selection of an annular contour, and the like.

また、第2特徴点テーブル620は、血管部位抽出画像データ621を接続することで抽出される血管モデルデータ622と、血管の芯線を抽出した血管芯線623と、を記憶する。なお、本例では、抽象化して普遍的な特徴を考慮するため、血管芯線623により特徴点を抽出するが、特徴点が有する特徴がマッチング可能な程度に不変であれば、血管の太さの比率などを考慮してもよい。   Further, the second feature point table 620 stores blood vessel model data 622 extracted by connecting the blood vessel site extraction image data 621 and a blood vessel core line 623 from which the blood vessel core line is extracted. In this example, the feature points are extracted by the blood vessel core line 623 in order to consider abstract and universal features, but if the features possessed by the feature points are invariant to the extent that matching is possible, The ratio may be considered.

そして、第2特徴点テーブル620は、本例の第2特徴点データ624として、血管芯線623のパターンから、枝分かれ点を特徴点として、枝分かれIDと、枝分かれ特徴データと、特徴点の3次元位置データと、を記憶する。枝分かれ特徴データについては、図5と同様であるので、詳細な説明を省略する。   Then, the second feature point table 620 uses the pattern of the blood vessel core 623 as the second feature point data 624 of this example, with the branch point as the feature point, the branch ID, the branch feature data, and the three-dimensional position of the feature point. Store the data. The branching feature data is the same as that of FIG. 5, so the detailed description will be omitted.

《表示画像生成部》
図7Aは、本実施形態に係る表示画像生成部423の機能構成を示すブロック図である。
<< Display image generation part >>
FIG. 7A is a block diagram showing a functional configuration of the display image generation unit 423 according to the present embodiment.

表示画像生成部423は、3次元部位モデル取得部701と、分割領域取得部702と、3次元部位モデル配置部703と、分割領域配置部704と、第2特徴点データ取得部705と、分割領域マッチング部431と、を備える。ここで、3次元部位モデル配置部703と、分割領域配置部704とが、分割領域連結部432に相当する。また、表示画像生成部423は、患者位置データ取得部707と、患者位置のモデル生成部708と、HMD位置データ取得部709と、HMD画像生成部433と、を備える。   The display image generation unit 423 includes a three-dimensional part model acquisition unit 701, a divided area acquisition unit 702, a three-dimensional part model arrangement unit 703, a divided area arrangement unit 704, a second feature point data acquisition unit 705, and division. And a region matching unit 431. Here, the three-dimensional part model arrangement unit 703 and the divided area arrangement unit 704 correspond to the divided area connection unit 432. Further, the display image generation unit 423 includes a patient position data acquisition unit 707, a patient position model generation unit 708, an HMD position data acquisition unit 709, and an HMD image generation unit 433.

3次元部位モデル取得部701は、3次元部位モデル受信部411で受信された3次元血管モデルを含む3次元部位モデルを取得する。分割領域取得部702は、分割領域生成部424で生成された分割領域を取得する。3次元部位モデル配置部703は、分割領域の配置に対応付けて3次元部位モデル取得部701が取得した3次元部位モデルデータを位置調整して配置する。分割領域配置部704は、分割領域に含まれる第1特徴点と第2特徴点とのマッチングにより分割領域が3次元超音波画像に合致するように、分割領域を位置調整して配置する。第2特徴点データ取得部705は、第2特徴点抽出部418から抽出された第2特徴点データを取得する。分割領域マッチング部431は、分割領域に含まれる第1特徴点と第2特徴点とをマッチングし、位置調整された分割領域の第1特徴点データが第2特徴点データに合致するように、3次元部位モデル配置部703および分割領域配置部704に対して位置調整による変形をさせる。なお、位置調整による変形としては、分割領域の形状を維持した並行移動や回転移動、あるいは、サイズ変更が含まれる。さらに、分割領域の配置後の特徴点を合致させる形状変化を含んでもよい。   The three-dimensional region model acquisition unit 701 acquires a three-dimensional region model including the three-dimensional blood vessel model received by the three-dimensional region model reception unit 411. The divided area acquisition unit 702 acquires the divided area generated by the divided area generation unit 424. The three-dimensional part model arrangement unit 703 aligns and arranges the three-dimensional part model data acquired by the three-dimensional part model acquisition unit 701 in association with the arrangement of the divided regions. The divided area arrangement unit 704 aligns and arranges the divided areas so that the divided areas match the three-dimensional ultrasound image by matching the first feature points and the second feature points included in the divided areas. The second feature point data acquisition unit 705 acquires second feature point data extracted from the second feature point extraction unit 418. The divided area matching unit 431 matches the first feature point and the second feature point included in the divided area, so that the first feature point data of the position-adjusted divided area matches the second feature point data, The three-dimensional part model placement unit 703 and the divided area placement unit 704 are deformed by position adjustment. Note that the deformation due to the position adjustment includes parallel movement, rotational movement or size change in which the shape of the divided area is maintained. Furthermore, a shape change may be included to match feature points after arrangement of divided regions.

患者位置データ取得部707は、患者位置検出部420から検出された患者位置データを取得する。患者位置のモデル生成部708は、分割領域連結部432において超音波画像に合致されるように位置調整された3次元部位モデルから、患者位置に重なる3次元モデルを生成する。HMD位置データ取得部709は、HMD位置算出部422から算出されたHMD位置データを取得する。HMD画像生成部710は、HMD位置データに対応して、患者位置のモデル生成部708が生成したモデルから、患者の生体に重なって見えるようHMD295に3次元表示するHMD画像を生成して、表示画像送信部425に出力する。   The patient position data acquisition unit 707 acquires the patient position data detected from the patient position detection unit 420. The patient position model generation unit 708 generates a three-dimensional model overlapping the patient position from the three-dimensional region model adjusted so as to be matched with the ultrasound image in the divided area connection unit 432. The HMD position data acquisition unit 709 acquires the HMD position data calculated from the HMD position calculation unit 422. The HMD image generation unit 710 generates, from the model generated by the model generation unit 708 for the patient position, an HMD image to be three-dimensionally displayed on the HMD 295 so as to be superimposed on the living body of the patient. It is output to the image transmission unit 425.

(表示画像生成部の処理)
図7Bは、本実施形態に係る分割領域連結部432の処理720を説明する図である。なお、分割領域連結部432の処理720は、図7Bに限定されない。分割領域に含まれる第1特徴点が第2特徴点に合致するように、分割領域を位置調整することによって3次元部位モデルを変形する方式であればいずれの処理も適用可能である。
(Process of display image generation unit)
FIG. 7B is a diagram for explaining the process 720 of the divided area linking unit 432 according to the present embodiment. In addition, the process 720 of the division | segmentation area | region connection part 432 is not limited to FIG. 7B. Any process can be applied as long as the three-dimensional part model is deformed by adjusting the position of the divided area such that the first feature point included in the divided area matches the second feature point.

分割領域連結部432の処理720は、初期の3次元部位モデルから分割された分割領域データと分割領域に含まれる第1特徴点データとの組721から、分割領域の第1特徴点組と第2特徴点とのマッチングにより、サイズ変更や3次元の位置変換や方向変換をして分割領域を結合した3次元部位モデルデータ722への変換を含む。また、分割領域連結部432の処理720は、分割領域を結合した3次元部位モデルデータ722から生体の位置に合わせたサイズ調整データ723への変換を含む。   The process 720 of the divided area linking unit 432 is based on the first set of feature points and the first set of divided areas from the set 721 of divided area data divided from the initial three-dimensional part model and the first feature point data included in the divided areas. Matching with two feature points includes conversion into three-dimensional part model data 722 in which divided areas are combined by resizing, three-dimensional position conversion, or direction conversion. Further, the processing 720 of the divided area linking unit 432 includes conversion of the three-dimensional part model data 722 obtained by combining the divided areas into size adjustment data 723 aligned with the position of the living body.

分割領域データと分割領域に含まれる第1特徴点データとの組721から、分割領域を結合した3次元部位モデルデータ722への変換は、第2特徴点データ726との分割領域マッチング724による分割領域の位置調整と連結を繰り返すことによって実現する。例えば、同一の特徴を有する第1特徴点と第2特徴点との最小2乗距離により、3次元超音波モデルに最も近いサイズや向きの分割領域に位置調整するが、他の方式も採用可能である。   The conversion from the set 721 of divided area data and first feature point data included in the divided area to three-dimensional part model data 722 in which divided areas are combined is performed by divided area matching 724 with second feature point data 726. It is realized by repeating the alignment and connection of the area. For example, by the least-square distance between the first feature point and the second feature point having the same feature, the position is adjusted to the divided area of the size or direction closest to the three-dimensional ultrasonic model, but other methods can be adopted It is.

次に、分割領域を結合した3次元部位モデルデータ722から生体の位置に合わせたサイズ調整データ723への変換は、患者位置データ取得部707により取得した生体位置727に重畳させるように、分割領域を結合した3次元部位モデルデータ722のサイズを変更する(725)。   Next, the conversion from the three-dimensional part model data 722 obtained by combining the divided areas to the size adjustment data 723 matched to the position of the living body is performed so that the divided areas are superimposed on the living body position 727 acquired by the patient position data acquiring unit 707. And change the size of the three-dimensional site model data 722 combined (725).

図7Cは、本実施形態に係る分割領域連結テーブル730の構成および位置合わせ用情報の例740を示す図である。   FIG. 7C is a diagram showing a configuration of the divided area linking table 730 according to this embodiment and an example 740 of alignment information.

分割領域連結テーブル730は、分割領域連結部432において、分割領域を連結して3次元超音波画像に合致した3次元部位モデルを生成するために使用される。   The divided region linking table 730 is used in the divided region linking unit 432 to link the divided regions to generate a three-dimensional region model that matches the three-dimensional ultrasound image.

分割領域連結テーブル730は、図5の分割領域テーブル500の分割領域ID505と、分割領域データ506と、第1特徴点データ504と、を記憶する。分割領域連結テーブル730は、変更された分割領域のサイズ、方向および位置の現在値731と、現在値731に基づいて変更された第1特徴点データの変更位置732と、を記憶する。そして、分割領域連結テーブル730は、第1特徴点データの変更位置732と一致した第2特徴点データ733と、一致した第2特徴点データ733に基づいて、分割領域の連結位置734を記憶する。   The divided area linking table 730 stores the divided area ID 505 of the divided area table 500 of FIG. 5, the divided area data 506, and the first feature point data 504. The divided area linking table 730 stores the current value 731 of the size, direction, and position of the changed divided area, and the changed position 732 of the first feature point data changed based on the current value 731. Then, the divided area connection table 730 stores the connected position 734 of the divided area based on the second feature point data 733 that matches the change position 732 of the first feature point data and the second feature point data 733 that matches. .

また、位置合わせ用情報の例740は、位置合わせの対象部位(臓器)において、特に、位置合わせの目標とすべき位置であり、マーカやセンサの配置位置、超音波プローブによる走査位置、を定めるために使用される。   Further, an example of the alignment information 740 is a position to be particularly targeted for alignment in the alignment target site (organ), and determines the arrangement position of the marker or sensor, and the scanning position by the ultrasonic probe. Used for

位置合わせ用情報の例740は、位置合わせ対象部位741に対応付けて、位置合わせ用目標位置742と、その目標位置が有する条件743と、を記憶する。   The example of the alignment information 740 stores the alignment target position 742 and the condition 743 of the target position in association with the alignment target portion 741.

なお、分割領域の位置調整と連結処理中、あるいは、連結処理後に合致を補う非剛性変形を組み合わせてもよい。その場合、材質パラメータに基づく変換行列により非剛性変形をして最適解を求める方式であっても、単純に同一の特徴を有する第1特徴点と第2特徴点との距離のズレを変形補正する方式であってもよい。なお、材質パラメータとしては、一般的な内臓の非剛性パラメータを用いてもよいが、各患者について、あるいは、患部について、非剛性パラメータを測定して用いるのが望ましい。   Note that non-rigid deformation that compensates for the match may be combined during position adjustment of the divided area and the connection process, or after the connection process. In that case, even in the method of obtaining an optimal solution by non-rigid deformation using a conversion matrix based on material parameters, the difference in the distance between the first feature point and the second feature point having the same feature is corrected. May be used. As the material parameter, a general non-rigid parameter of internal organs may be used, but it is desirable to measure and use the non-rigid parameter for each patient or affected part.

さらに、非剛性材質が含む特徴点を合致させる他の方式が採用されてもよい。例えば、非剛性材質についての変形を学習情報として蓄積しておき、それを利用する方式であってもよい。3次元モデルが肝臓、胃、膵臓など器官単位である場合は、それら器官の多数の変形例を学習しておき、患者特有の変形を少ないパラメータで表現することも可能である。   Furthermore, other methods may be adopted to match the feature points included in the non-rigid material. For example, a method may be used in which deformation of a non-rigid material is stored as learning information and used. When the three-dimensional model is an organ unit such as liver, stomach or pancreas, it is possible to learn many variations of these organs and express patient-specific deformation with less parameters.

また、3次元部位を細かい格子状に特徴点を含む制御点を配置して、その制御点間を非剛体変形する方式でもよい。あるいは、B-Spline関数を利用した非剛体変形(FFD:Free-form deformation)を用いて、空間的に滑らかで不規則な変形(揺らぎ)を高精度に推定して、領域ベースの位置合わせを用いた超解像を行う方式であってもよい。   Alternatively, control points including feature points may be arranged in a fine grid in a three-dimensional region, and non-rigid deformation may be performed between the control points. Alternatively, region-based alignment can be performed by estimating spatially smooth irregular deformation (fluctuation) with high accuracy using non-rigid deformation (FFD: Free-form deformation) using B-Spline function. The method of performing super resolution used may be used.

また、非剛体変形としては、アフィン変換や高次多項式を用いた変換も適用可能である。3次元モデルの合致評価としては、残差2乗和(SSD:Sum of squared difference)のよるものや、正規化相互相関(NCC:Normalized cross correlation)によるもの、相互情報量または正規化相互情報量(MI:Mutual information)によるもの、などが考えられる。   Also, as non-rigid deformation, affine transformation or transformation using a high-order polynomial can be applied. The match evaluation of the three-dimensional model includes residual sum of squared differences (SSD), normalized cross correlation (NCC), mutual information or normalized mutual information (MI: Mutual information) may be considered.

また、MRIやX線CTで得られた解剖学的情報を持つ画像と、PETやSPECTなどの機能的情報を持つ画像とを重ねることも行なわれており、その重ね合わせ技術も非剛体変形に適用可能である。   In addition, it is also practiced to superimpose an image having anatomical information obtained by MRI or X-ray CT with an image having functional information such as PET or SPECT. It is applicable.

(表示データ生成テーブル)
図8は、本実施形態に係る表示データ生成テーブル800の構成を示す図である。表示データ生成テーブル800は、患者201から実時間で取得した超音波画像データに合致する3次元部位モデルを患者201に重なるようにHMD295に表示するために使用するテーブルである。
(Display data generation table)
FIG. 8 is a view showing the configuration of a display data generation table 800 according to the present embodiment. The display data generation table 800 is a table used to display on the HMD 295 a three-dimensional region model that matches ultrasound image data acquired in real time from the patient 201 so as to overlap the patient 201.

表示データ生成テーブル800は、実時間を示すタイムスタンプ801に対応付けて、超音波プローブ位置情報802と、患者位置情報803と、HMD位置情報804と、を記憶する。超音波プローブ位置情報802は、磁気センサ292の検出データと超音波プローブ291の位置データとを有する。患者位置情報803は、光学マーカ付き磁気センサ293の検出データと患者201の位置データとを有する。HMD位置情報804は、光学マーカ付き磁気センサ293の光学マーカの画像データとHMD位置データとを有する。   The display data generation table 800 stores ultrasonic probe position information 802, patient position information 803, and HMD position information 804 in association with a time stamp 801 indicating an actual time. The ultrasonic probe position information 802 includes detection data of the magnetic sensor 292 and position data of the ultrasonic probe 291. The patient position information 803 includes detection data of the optical sensor with magnetic marker 293 and position data of the patient 201. The HMD position information 804 includes image data of the optical marker of the magnetic sensor with optical marker 293 and HMD position data.

そして、表示データ生成テーブル800は、上記位置情報を参照して生成されたHMD表示情報805を記憶する。HMD表示情報805は、上記位置情報を参照して生成された3次元部位モデルデータと、右目用HMD画像データと、左目用HMD画像データと、を含む。   Then, the display data generation table 800 stores the HMD display information 805 generated with reference to the position information. The HMD display information 805 includes three-dimensional part model data generated with reference to the position information, HMD image data for the right eye, and HMD image data for the left eye.

《画像処理装置のハードウェア構成》
図9は、本実施形態に係る画像処理装置280のハードウェア構成を示すブロック図である。
<< Hardware Configuration of Image Processing Device >>
FIG. 9 is a block diagram showing the hardware configuration of the image processing apparatus 280 according to this embodiment.

図9で、CPU910は演算制御用のプロセッサであり、プログラムを実行することで図4の画像処理装置280の機能構成部を実現する。ROM920は、初期データおよびプログラムなどの固定データおよびプログラムを記憶する。また、通信制御部413は、ネットワークを介して診察室や手術室230の診察/手術器具群や他の装置と通信する。なお、CPU910は1つに限定されず、複数のCPUであっても、あるいは画像処理用のGPUを含んでもよい。また、通信制御部413は、CPU910とは独立したCPUを有して、RAM940の領域に送受信データを書き込みあるいは読み出しするのが望ましい。また、RAM940とストレージ950との間でデータを転送するDMACを設けるのが望ましい(図示なし)。さらに、入出力インタフェース960は、CPU910とは独立したCPUを有して、RAM940の領域に入出力データを書き込みあるいは読み出しするのが望ましい。したがって、CPU910は、RAM940にデータが受信あるいは転送されたことを認識してデータを処理する。また、CPU910は、処理結果をRAM940に準備し、後の送信あるいは転送は通信制御部413やDMAC、あるいは入出力インタフェース960に任せる。   In FIG. 9, a CPU 910 is a processor for arithmetic control, and implements a functional configuration unit of the image processing apparatus 280 in FIG. 4 by executing a program. The ROM 920 stores fixed data and programs such as initial data and programs. In addition, the communication control unit 413 communicates with the examination / operational instrument group of the examination room and the operation room 230 and other devices via a network. Note that the CPU 910 is not limited to one, and may be a plurality of CPUs, or may include a GPU for image processing. Further, it is desirable that the communication control unit 413 have a CPU independent of the CPU 910, and write or read transmission / reception data in the area of the RAM 940. In addition, it is desirable to provide a DMAC for transferring data between the RAM 940 and the storage 950 (not shown). Furthermore, it is desirable that the input / output interface 960 have a CPU independent of the CPU 910 and write or read input / output data in the area of the RAM 940. Therefore, the CPU 910 recognizes that the data has been received or transferred to the RAM 940 and processes the data. Further, the CPU 910 prepares the processing result in the RAM 940, and leaves the subsequent transmission or transfer to the communication control unit 413, the DMAC, or the input / output interface 960.

RAM940は、CPU910が一時記憶のワークエリアとして使用するランダムアクセスメモリである。RAM940には、本実施形態の実現に必要なデータを記憶する領域が確保されている。3次元部位モデルデータ501は、CTデータから生成されて受信された3次元STL形式の3次元血管モデルを含む3次元部位モデルデータである。第1特徴点データ504は、3次元部位モデルデータ501から抽出された第1特徴点のデータである。分割領域データ506は、第1特徴点データ504を含み、3次元部位モデルデータ501から分割された分割領域のデータである。超音波モデルデータ619は、超音波プローブ203で実時間に検出した超音波信号から生成された3次元血管画像を含む3次元画像データである。第2特徴点データ624は、超音波モデルデータ619から抽出された第2特徴点のデータである。分割領域マッチングテーブル730は、図7Cに示した、分割領域マッチング部431が、分割領域が含む第1特徴点と第2特徴点とのマッチングをして分割領域を連結するためのテーブルである。HMD位置データ804は、Webカメラ294が撮像した光学マーカの画像に基づいて算出されたHMD295の位置データである。表示画像データ805は、位置調整して連結した分割領域に基づく3次元部位モデルを患者201に重ねて、HMD295に3次元表示するために生成されたデータである。なお、RAM940の各データは、前出の図5、図6A、図6B、図7C、図8のようにテーブルとして記憶されてもよい。   A RAM 940 is a random access memory used by the CPU 910 as a work area for temporary storage. In the RAM 940, an area for storing data necessary for realizing the present embodiment is secured. The three-dimensional region model data 501 is three-dimensional region model data including a three-dimensional blood vessel model in the three-dimensional STL format generated and received from CT data. The first feature point data 504 is data of a first feature point extracted from the three-dimensional part model data 501. The divided area data 506 is data of a divided area divided from the three-dimensional part model data 501, including the first feature point data 504. The ultrasound model data 619 is three-dimensional image data including a three-dimensional blood vessel image generated from an ultrasound signal detected in real time by the ultrasound probe 203. The second feature point data 624 is data of a second feature point extracted from the ultrasound model data 619. The divided area matching table 730 is a table shown in FIG. 7C for the divided area matching unit 431 to connect the divided areas by matching the first feature point and the second feature point included in the divided area. The HMD position data 804 is position data of the HMD 295 calculated based on the image of the optical marker captured by the web camera 294. The display image data 805 is data generated for three-dimensional display on the HMD 295 by superimposing a three-dimensional part model based on position-adjusted and connected divided areas on the patient 201. Each data of the RAM 940 may be stored as a table as shown in FIG. 5, FIG. 6A, FIG. 6B, FIG. 7C and FIG.

ストレージ950には、データベースや各種のパラメータ、あるいは本実施形態の実現に必要な以下のデータまたはプログラムが記憶されている。特徴点抽出アルゴリズム951は、第1特徴点あるいは第2特徴点を抽出するためのアルゴリズムである。領域分割アルゴリズム952は、第1特徴点を含む小領域に3次元部位モデルを分割するためのアルゴリズムである。分割領域マッチングアルゴリズム953は、第1特徴点を含む分割領域を第2特徴点に合致させるためのアルゴリズムである。   The storage 950 stores a database, various parameters, or the following data or program necessary for realizing the present embodiment. The feature point extraction algorithm 951 is an algorithm for extracting the first feature point or the second feature point. The area division algorithm 952 is an algorithm for dividing the three-dimensional part model into small areas including the first feature points. The divided area matching algorithm 953 is an algorithm for matching the divided area including the first feature point with the second feature point.

ストレージ950には、以下のプログラムが格納される。画像処理プログラム955は、本画像処理装置280の全体を制御するプログラムである。特徴点抽出モジュール956は、特徴点抽出アルゴリズム951に従って第1特徴点あるいは第2特徴点を抽出するモジュールである。領域分割モジュール957は、領域分割アルゴリズム952に従って第1特徴点を含む分割領域を生成するモジュールである。分割領域マッチングモジュール958は、分割領域マッチングアルゴリズム953に従って分割領域が含む第1特徴点を第2特徴点に合致させるように分割領域を位置調整して連結するモジュールである。表示画像生成モジュール959は、変形された3次元部位モデルを表わすSTLデータを患者201の生体内部にあるように、HMD295に3次元表示する表示画像を生成するモジュールである。   The storage 950 stores the following programs. The image processing program 955 is a program that controls the entire image processing apparatus 280. The feature point extraction module 956 is a module for extracting the first feature point or the second feature point according to the feature point extraction algorithm 951. The area dividing module 957 is a module for generating a divided area including the first feature point according to the area dividing algorithm 952. The divided area matching module 958 is a module for adjusting and connecting the divided areas so that the first feature point included in the divided area matches the second feature point according to the divided area matching algorithm 953. The display image generation module 959 is a module that generates a display image to be three-dimensionally displayed on the HMD 295 so that the STL data representing the deformed three-dimensional part model is inside the living body of the patient 201.

入出力インタフェース960は、入出力機器との入出力データをインタフェースする。入出力インタフェース960には、必要であれば、表示部961、操作部962、が接続される。なお、診察/手術器具群を有線接続する場合は、診察/手術器具群に含まれる磁気センサ231付きの超音波プローブ203や、光学マーカ付き磁気センサ293、Webカメラ294、HMD295が入出力インタフェース960に接続される。また、入出力インタフェース960には、必要であれば、音声入出力部や、GPS位置判定部が接続されてもよい。   The input / output interface 960 interfaces input / output data with input / output devices. A display unit 961 and an operation unit 962 are connected to the input / output interface 960, if necessary. When the medical examination / surgical instrument group is connected by wire, the ultrasonic probe 203 with the magnetic sensor 231 included in the medical examination / surgical instrument group, the magnetic sensor 293 with an optical marker, the web camera 294, and the HMD 295 have an input / output interface 960. Connected to In addition, if necessary, a voice input / output unit or a GPS position determination unit may be connected to the input / output interface 960.

なお、図9のRAM940やストレージ950には、画像処理装置280が有する汎用の機能や他の実現可能な機能に関連するプログラムやデータは図示されていない。   In the RAM 940 and the storage 950 of FIG. 9, programs and data related to general-purpose functions of the image processing apparatus 280 and other realizable functions are not shown.

《画像処理装置の処理手順》
図10は、本実施形態に係る画像処理装置280の処理手順を示すフローチャートである。このフローチャートは、図9のCPU910がRAM940を使用して実行し、図4および図7Aの機能構成部を実現する。
Processing Procedure of Image Processing Device
FIG. 10 is a flowchart showing the processing procedure of the image processing apparatus 280 according to the present embodiment. This flowchart is executed by the CPU 910 in FIG. 9 using the RAM 940, and implements the functional components in FIG. 4 and FIG. 7A.

画像処理装置280は、ステップS1001において、外部の3次元モデル生成装置212から3次元血管モデルを含む3次元部位モデルデータを受信する。なお、画像処理装置280内部でCTデータからSTLデータを生成する場合は、CTデータを受信してSTLデータを生成した後、3次元部位モデルデータを生成する。画像処理装置280は、ステップS1003において、3次元部位モデルデータに基づいて第1特徴点抽出処理を実行する。画像処理装置280は、ステップS1005において、例えばSTL形式で表わされる3次元部位モデルを、第1特徴点を含む小領域への領域分割処理を実行する。   In step S1001, the image processing device 280 receives three-dimensional region model data including a three-dimensional blood vessel model from the external three-dimensional model generation device 212. When STL data is generated from CT data in the image processing apparatus 280, the CT data is received and the STL data is generated, and then three-dimensional part model data is generated. In step S1003, the image processing device 280 executes a first feature point extraction process based on the three-dimensional part model data. In step S1005, the image processing device 280 executes area division processing of a three-dimensional part model represented, for example, in the STL format into small areas including first feature points.

画像処理装置280は、ステップS1007において、超音波プローブ203からの超音波画像データおよび磁気センサ231および磁気センサ293からの磁気センサ位置(超音波プローブ位置)を取得する。そして、画像処理装置280は、ステップS1009において、各超音波プローブ203の位置と超音波画像データとを蓄積して、3次元超音波モデルデータを生成する。画像処理装置280は、ステップ1011において、3次元超音波モデルデータに基づいて第2特徴点抽出処理を実行する。   The image processing device 280 acquires ultrasonic image data from the ultrasonic probe 203 and the magnetic sensor position (ultrasound probe position) from the magnetic sensor 231 and the magnetic sensor 293 in step S1007. Then, in step S1009, the image processing device 280 accumulates the position of each ultrasonic probe 203 and the ultrasonic image data, and generates three-dimensional ultrasonic model data. In step 1011, the image processing device 280 executes a second feature point extraction process based on the three-dimensional ultrasound model data.

画像処理装置280は、ステップS1013において、分割領域に含まれる第1特徴点と第2特徴点とのマッチングを行ない、分割領域の第1特徴点が第2特徴点に合致するか否かを判定する。分割領域の第1特徴点が第2特徴点に合致しない場合、画像処理装置280は、ステップS1015において、分割領域の位置調整を行ない、第1特徴点を調整する。STL形式の分割領域データの場合は、STLデータの変換を行なう。このように、分割領域の第1特徴点と第2特徴点とのマッチングを繰り返す。   In step S1013, the image processing device 280 performs matching between the first feature point and the second feature point included in the divided area, and determines whether the first feature point of the divided area matches the second feature point. Do. If the first feature point of the divided area does not match the second feature point, the image processing device 280 adjusts the position of the divided area in step S1015 to adjust the first feature point. In the case of divided area data in the STL format, conversion of STL data is performed. Thus, matching between the first feature point and the second feature point of the divided area is repeated.

分割領域の第1特徴点が第2特徴点に合致する場合、画像処理装置280は、ステップS1017において、分割領域を他の分割領域と連結する。そして、画像処理装置280は、ステップS1019において、ステップS1005で分割された小領域の連結が完了したか否かを判定する。分割領域の連結が完了していない場合、画像処理装置280は、ステップS1013に戻って、次の分割領域について分割領域の位置調整と連結処理を継続する。   If the first feature point of the divided area matches the second feature point, the image processing apparatus 280 links the divided area with another divided area in step S1017. Then, in step S1019, the image processing apparatus 280 determines whether or not connection of the small areas divided in step S1005 is completed. If connection of divided areas is not completed, the image processing apparatus 280 returns to step S1013 and continues position adjustment and connection processing of divided areas for the next divided area.

分割領域の連結が完了すると、3次元超音波モデルに対応する3次元部位モデルが生成されているので、画像処理装置280は、ステップS1021において、患者201に配置した光学マーカ付き磁気センサ293から磁気センサ位置(患者位置)を取得して、患者201の生体内部に、分割処理と連結処理とにより変形した3次元部位モデルを表示するように調整する。次に、画像処理装置280は、ステップS1023において、Webカメラ294から光学マーカ付き磁気センサ293の光学マーカ画像を取得する。そして、画像処理装置280は、光学マーカ画像から患者201とHMD295との位置関係を算出して、分割処理と連結処理とにより変形した3次元部位モデルが患者目視と重なるように、HMD295の表示データを生成して出力する。   Since the three-dimensional part model corresponding to the three-dimensional ultrasonic model is generated when the connection of the divided areas is completed, the image processing apparatus 280 generates the magnetic marker 293 with the optical marker from the magnetic sensor 293 disposed on the patient 201 in step S1021. The sensor position (patient position) is acquired and adjusted so as to display the three-dimensional part model deformed by the division processing and the connection processing inside the living body of the patient 201. Next, in step S 1023, the image processing device 280 acquires an optical marker image of the magnetic sensor with optical marker 293 from the web camera 294. Then, the image processing device 280 calculates the positional relationship between the patient 201 and the HMD 295 from the optical marker image, and the display data of the HMD 295 so that the three-dimensional region model deformed by the division process and the connection process overlaps with the patient's view. Generate and output

画像処理装置280は、ステップS1025において、患者201の生体内部への3次元部位モデルの表示の終了か否かを判定する。3次元部位モデルの表示の終了でなければ、画像処理装置280は、ステップS1021に戻って、超音波画像に位置合わせした3次元部位モデルの患者201の生体内部への表示を実時間に繰り返す。そして、例えば、肝臓の形が変形した時には、もう一度、超音波を使ったスキャンをして、新たな位置合わせを行う。すなわち、肝臓の形が変わらなければ、超音波によるスキャンなしで肝臓の観察を続ける。   In step S1025, the image processing device 280 determines whether or not the display of the three-dimensional part model inside the living body of the patient 201 is ended. If the display of the three-dimensional region model is not completed, the image processing device 280 returns to step S1021 and repeats the display of the three-dimensional region model aligned with the ultrasound image inside the living body of the patient 201 in real time. Then, for example, when the shape of the liver is deformed, another scan using ultrasound is performed to perform new alignment. That is, if the shape of the liver does not change, the observation of the liver continues without scanning by ultrasound.

(特徴点抽出処理)
図11は、本実施形態に係る特徴点抽出処理(S1003/S1011)の手順を示すフローチャートである。
(Feature point extraction processing)
FIG. 11 is a flowchart showing the procedure of feature point extraction processing (S1003 / S1011) according to the present embodiment.

画像処理装置280は、ステップS1111において、対象とする3次元モデルデータを取得する。第1特徴点抽出処理(S1003)の場合は、対象とする3次元モデルデータは3次元部位モデルデータであり、第2特徴点抽出処理(S1011)の場合は、対象とする3次元モデルデータは超音波モデルデータである。画像処理装置280は、ステップS1113において、取得した3次元モデルデータから血管モデルデータを抽出する。なお、第1特徴点抽出処理(S1003)の場合、あらかじめ血管モデルデータが取得されていれば、ステップS1113は必要ない。   In step S1111, the image processing device 280 acquires target three-dimensional model data. In the case of the first feature point extraction process (S1003), the target three-dimensional model data is three-dimensional part model data, and in the case of the second feature point extraction process (S1011), the target three-dimensional model data is It is ultrasonic model data. In step S1113, the image processing device 280 extracts blood vessel model data from the acquired three-dimensional model data. In the case of the first feature point extraction process (S1003), if blood vessel model data is obtained in advance, step S1113 is not necessary.

画像処理装置280は、ステップS1115において、血管モデルデータに基づいて血管芯線を抽出して、抽象化された血管パターンを生成する。次に、画像処理装置280は、ステップS1117において、血管芯線のパターンに基づき、血管の枝分かれ点を特徴点として抽出する。そして、画像処理装置280は、ステップS1119において、枝分かれ点の特徴データおよびその3次元位置との組を比較可能に格納する。   In step S1115, the image processing device 280 extracts the blood vessel core line based on the blood vessel model data, and generates an abstracted blood vessel pattern. Next, in step S1117, the image processing device 280 extracts a branch point of the blood vessel as a feature point based on the pattern of the blood vessel core. Then, in step S1119, the image processing device 280 stores the set of the feature data of the branch point and its three-dimensional position in a comparable manner.

(領域分割処理)
図12は、本実施形態に係る領域分割処理(S1005)の手順を示すフローチャートである。
(Area division processing)
FIG. 12 is a flowchart showing the procedure of area division processing (S1005) according to the present embodiment.

画像処理装置280は、ステップS1201において、本例では、血管芯線において少なくとも3つの枝分かれ点を第1特徴点として含む領域に、3次元部位モデルを分割する。次に、画像処理装置280は、ステップS1203において、各分割領域に識別子(ID)を付与する。そして、画像処理装置280は、ステップS1205において、分割領域IDに対応付けて第1特徴点組を記憶する。   In step S1201, in this example, the image processing device 280 divides the three-dimensional region model into regions including at least three branch points as first feature points in the blood vessel core line. Next, in step S1203, the image processing apparatus 280 assigns an identifier (ID) to each divided area. Then, in step S1205, the image processing apparatus 280 stores the first feature point set in association with the divided area ID.

なお、本実施形態においては、オプティカルシースルー型HMDへの変形された3次元部位モデルの表示を示したが、Webカメラ294で撮像した患者の生体画像に、変形された3次元部位モデルを重畳して、ビデオスルー型HMDやモニタ、あるいは、携帯端末などに表示してもよい。   In the present embodiment, the display of the deformed three-dimensional part model on the optical see-through HMD is shown, but the deformed three-dimensional part model is superimposed on the living body image of the patient captured by the web camera 294 It may be displayed on a video through HMD, a monitor, or a portable terminal.

本実施形態によれば、3次元超音波モデルに対応して変形された3次元部位モデルを患者の生体に重ねて表示するので、患者の生体内部の実時間における部位の状態を、生体内部の正確な位置において認識することができる。   According to the present embodiment, since the three-dimensional part model deformed corresponding to the three-dimensional ultrasonic model is superimposed and displayed on the living body of the patient, the state of the part in real time inside the living body of the patient can be It can be recognized at the correct position.

[第3実施形態]
次に、本発明の第3実施形態に係る医療支援システムについて説明する。本実施形態に係る医療支援システムは、上記第2実施形態と比べると、CT画像などから得た3次元部位モデルを超音波画像に対応して変形して、腹腔鏡により観察する内部画像に重畳して表示する点で異なる。その他の構成および動作は、第2実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
Third Embodiment
Next, a medical support system according to a third embodiment of the present invention will be described. As compared with the second embodiment, the medical support system according to the present embodiment deforms a three-dimensional region model obtained from a CT image or the like corresponding to an ultrasonic image and superimposes it on an internal image observed by a laparoscope Differs in that it is displayed. The other configurations and operations are similar to those of the second embodiment, and therefore the same configurations and operations are denoted by the same reference numerals and the detailed description thereof is omitted.

《医療支援システムの構成》
図13Aおよび図13Bを参照して、本実施形態の医療支援システムの構成および動作について説明する。
<< Composition of medical support system >>
The configuration and operation of the medical support system of the present embodiment will be described with reference to FIGS. 13A and 13B.

(システム概要)
図13Aは、本実施形態に係る医療支援システム1300の処理概要を示すブロック図である。なお、図13Aにおいて、図2Aと同様の構成要素には同じ参照番号を付して、説明を省略する。
(System overview)
FIG. 13A is a block diagram showing an outline of processing of the medical support system 1300 according to the present embodiment. In FIG. 13A, the same components as in FIG. 2A are assigned the same reference numerals and descriptions thereof will be omitted.

医療支援システム1300においては、棒状の超音波プローブ1303を体内に挿入し、腹腔鏡1391で観察している部位周囲の超音波画像を取得する。また、手術室1330において実時間に生体内部を観察する腹腔鏡1391に固定した位置検出用器具を用いて、腹腔鏡1391の観察画像と実時間の超音波画像に対応して変形された3次元部位モデルとの位置関係が計測される。そして、計測された位置関係に基づき、3次元部位モデルを調整して、腹腔鏡1391の観察画像に重畳して3次元表示1370をする。図13Aでは、3次元表示1370において、腹腔鏡1391の観察画像である点描の肝臓画像1372に重畳した部位モデルとして血管モデル1371を分かり易く示しているが、実際には腹腔鏡1391では観察できない組織内部の結果が重畳表示される。なお、腹腔鏡1391の観察画像に重畳して3次元部位モデルの3次元表示をする表示部は、携帯端末やモニタ、あるいは、ビデオシースルー型HMDが望ましい。ここで、位置検出用器具は、腹腔鏡1391の先端に固定した磁気センサが使用される。また、観察画像と3次元部位モデルの表示との位置関係を高い精度で得るためには、臓器に光学マーカを固定するのが望ましい。   In the medical support system 1300, a rod-shaped ultrasonic probe 1303 is inserted into the body, and an ultrasonic image around the site observed by the laparoscope 1391 is acquired. Also, using the position detection instrument fixed to the laparoscope 1391 for observing the inside of the living body in the operating room 1330 in real time, a three-dimensional image deformed corresponding to the observation image of the laparoscope 1391 and the real time ultrasonic image The positional relationship with the part model is measured. Then, based on the measured positional relationship, the three-dimensional region model is adjusted and superimposed on the observation image of the laparoscope 1391 to display a three-dimensional display 1370. In FIG. 13A, the blood vessel model 1371 is clearly illustrated as a site model superimposed on the stippled liver image 1372 which is an observation image of the laparoscope 1391 in the three-dimensional display 1370. The internal results are displayed superimposed. The display unit that performs three-dimensional display of the three-dimensional region model by superimposing it on the observation image of the laparoscope 1391 is preferably a portable terminal, a monitor, or a video see-through HMD. Here, as a position detection instrument, a magnetic sensor fixed to the tip of the laparoscope 1391 is used. Further, in order to obtain the positional relationship between the observation image and the display of the three-dimensional part model with high accuracy, it is desirable to fix the optical marker to the organ.

(システム構成)
図13Bは、本実施形態に係る医療支援システム1300の構成を示すブロック図である。なお、図13Bにおいて、図2Bと同様の構成要素には同じ参照番号を付して、説明を省略する。
(System configuration)
FIG. 13B is a block diagram showing the configuration of a medical support system 1300 according to the present embodiment. In FIG. 13B, the same components as in FIG. 2B are assigned the same reference numerals and descriptions thereof will be omitted.

医療支援システム1300は、CT装置211と、3次元モデル生成装置212と、画像処理装置1380と、診察室や手術室1330の診察/手術器具群と、を備える。   The medical support system 1300 includes a CT apparatus 211, a three-dimensional model generation apparatus 212, an image processing apparatus 1380, and a medical examination / surgical instrument group of a medical examination room and an operating room 1330.

診察室や手術室1330の診察/手術器具群は、棒状の超音波プローブ1303と、超音波プローブに固定された磁気センサ1331と、腹腔鏡1391と、腹腔鏡に固定された磁気センサ1392と、モニタ1370と、生体または対象臓器に固定された磁気センサ1393とを有する。磁気センサ1331および磁気センサ1393により、超音波プローブ1303の安定した位置検出ができる。腹腔鏡1391は、実時間の診察中あるいは手術中に、患者201から生体内の画像を取得する。磁気センサ1392は、腹腔鏡1391の先端位置に配置されて、腹腔鏡1391の観察位置を検出する。磁気センサ1392および磁気センサ1393により、腹腔鏡1391の安定した位置検出ができる。   The medical examination / surgical instrument group in the examination room or operation room 1330 includes a rod-shaped ultrasonic probe 1303, a magnetic sensor 1331 fixed to the ultrasonic probe, a laparoscope 1391 and a magnetic sensor 1392 fixed to the laparoscope It has a monitor 1370 and a magnetic sensor 1393 fixed to a living body or a target organ. The magnetic sensor 1331 and the magnetic sensor 1393 enable stable position detection of the ultrasonic probe 1303. The laparoscope 1391 acquires in vivo images from the patient 201 during real time examination or surgery. The magnetic sensor 1392 is disposed at the distal end position of the laparoscope 1391 to detect the observation position of the laparoscope 1391. The magnetic sensor 1392 and the magnetic sensor 1393 allow stable position detection of the laparoscope 1391.

画像処理装置1380は、3次元データで表わされる3次元部位モデルを領域分割し、磁気センサ1331の検出信号によって位置および向きを判定した超音波プローブ1303が取得した3次元超音波画像に合致するように連結することにより変形する。そして、画像処理装置1380は、変形した3次元部位モデルを、腹腔鏡1391が取得した観察画像に重畳させた3次元表示データを生成して、モニタ1370に表示させる。また、術者202が操作する腹腔鏡手術の処置具1373が、腹腔鏡1391により観察されて、モニタ1370に表示されている。   The image processing apparatus 1380 divides the three-dimensional region model represented by the three-dimensional data into regions, and matches the three-dimensional ultrasonic image acquired by the ultrasonic probe 1303 whose position and orientation are determined by the detection signal of the magnetic sensor 1331. It is deformed by connecting to. Then, the image processing device 1380 generates three-dimensional display data in which the deformed three-dimensional region model is superimposed on the observation image acquired by the laparoscope 1391 and causes the monitor 1370 to display the data. In addition, a laparoscopic treatment tool 1373 operated by the operator 202 is observed by the laparoscope 1391 and displayed on the monitor 1370.

なお、図13Bには、術者202しか図示されていないが、実際の腹腔鏡手術では、腹腔鏡を操作するスコピストと超音波プローブを操作する術者あるいは助手など複数の人間により操作されることになる。また、腹腔鏡1391が取得した観察画像に合致させた3次元部位モデルを重畳させてビデオシースルー型HMDに表示してもよい。   Although only the operator 202 is illustrated in FIG. 13B, in actual laparoscopic surgery, it may be operated by a plurality of persons such as a surgeon operating an ultrasound probe and a scopist operating an laparoscope. become. Alternatively, a three-dimensional region model matched with the observation image acquired by the laparoscope 1391 may be superimposed and displayed on the video see-through HMD.

《画像処理装置の機能構成》
図14は、本実施形態に係る画像処理装置1380の機能構成を示すブロック図である。なお、図14において、図4と同様の機能構成部には同じ参照番号を付して、説明を省略する。
<< Functional Configuration of Image Processing Device >>
FIG. 14 is a block diagram showing the functional configuration of the image processing apparatus 1380 according to this embodiment. In FIG. 14, the same functional components as in FIG. 4 will be assigned the same reference numerals and descriptions thereof will be omitted.

磁気信号受信部1419は、通信制御部413を介して、腹腔鏡1391に配置した磁気センサ1392からの磁気検出信号を受信する。腹腔鏡位置検出部1420は、磁気センサ1392からの磁気検出信号と磁気センサ1393からの磁気検出信号とに基づいて、腹腔鏡1391の位置および向きを検出する。なお、磁気センサ1392が磁気検出信号から位置および向きを検出するための記憶部を有する場合は、位置および向きを示すデータ(例えば、座標とベクトル)を受信してもよい。腹腔鏡画像受信部1421は、通信制御部413を介して、腹腔鏡1391から観察画像を受信する。なお、腹腔鏡画像受信部1421は、腹腔鏡1391が腹腔鏡画像データを生成する機能を有する場合には、腹腔鏡画像データを、直接、受信してもよい。磁気信号受信部1422は、通信制御部413を介して、生体201または生体内の対象臓器に配置した磁気センサ1393からの磁気検出信号を受信する。   The magnetic signal reception unit 1419 receives, via the communication control unit 413, a magnetic detection signal from the magnetic sensor 1392 disposed in the laparoscope 1391. The laparoscopic position detection unit 1420 detects the position and orientation of the laparoscope 1391 based on the magnetic detection signal from the magnetic sensor 1392 and the magnetic detection signal from the magnetic sensor 1393. When the magnetic sensor 1392 has a storage unit for detecting the position and orientation from the magnetic detection signal, data (for example, coordinates and vectors) indicating the position and orientation may be received. The laparoscopic image reception unit 1421 receives an observation image from the laparoscope 1391 via the communication control unit 413. When the laparoscope 1391 has a function of generating laparoscopic image data, the laparoscopic image reception unit 1421 may directly receive laparoscopic image data. The magnetic signal receiving unit 1422 receives, via the communication control unit 413, a magnetic detection signal from the magnetic sensor 1393 disposed in the living body 201 or a target organ in the living body.

表示画像生成部1423の生成モデル重畳部1433は、STL形式などで表わされる3次元部位モデルを領域分割して特徴点が対応するように連結することによって、実時間の3次元超音波モデルに合致するよう変形された3次元部位モデルを、腹腔鏡1391が取得した観察画像に重畳した画像を生成する。そして、生成モデル重畳部1433は、生成した重畳画像を、表示画像送信部425からモニタ1370や携帯端末、あるいは、ビデオシースルー型HMDに送信して表示させる。   The generation model superimposing unit 1433 of the display image generation unit 1423 matches the real-time three-dimensional ultrasound model by dividing the three-dimensional part model represented by the STL format or the like into regions and linking them so that the feature points correspond. An image is generated by superimposing the three-dimensional region model deformed as described above on the observation image acquired by the laparoscope 1391. Then, the generated model superimposing unit 1433 transmits the generated superimposed image from the display image transmitting unit 425 to the monitor 1370, the portable terminal, or the video see-through HMD and causes the display to be displayed.

本実施形態によれば、腹腔鏡により取得した生体内部画像に、3次元超音波画像に対応して変形された3次元部位モデルを重ねて表示するので、患者の生体内部の実時間における部位の状態を、生体内部の画像を伴い正確に認識することができる。   According to the present embodiment, since the three-dimensional part model deformed corresponding to the three-dimensional ultrasonic image is superimposed and displayed on the in-vivo image acquired by the laparoscope, the part in real time inside the patient's in-vivo The state can be accurately recognized with the image inside the living body.

[第4実施形態]
次に、本発明の第4実施形態に係る医療支援システムについて説明する。本実施形態に係る医療支援システムは、上記第2実施形態と比べると、3次元超音波モデルに対応して変形した3次元部位モデルを患者の生体上のシートディスプレイに表示する点で異なる。その他の構成および動作は、第2実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
Fourth Embodiment
Next, a medical support system according to a fourth embodiment of the present invention will be described. The medical support system according to the present embodiment is different from the second embodiment in that a three-dimensional part model deformed corresponding to a three-dimensional ultrasonic model is displayed on a sheet display on a living body of a patient. The other configurations and operations are similar to those of the second embodiment, and therefore the same configurations and operations are denoted by the same reference numerals and the detailed description thereof is omitted.

《医療支援システムの構成》
図15は、本実施形態に係る医療支援システム1500の構成を示すブロック図である。なお、図15において、図2Bまたは図13Bと同様の構成要素は同じ参照番号を付して、説明を省略する。
<< Composition of medical support system >>
FIG. 15 is a block diagram showing the configuration of a medical support system 1500 according to the present embodiment. In FIG. 15, the same components as in FIG. 2B or FIG. 13B carry the same reference numerals, and the description thereof is omitted.

医療支援システム1500は、CT装置211と、3次元モデル生成装置212と、画像処理装置1580と、診察室や手術室1530の診察/手術器具群と、を備える。   The medical support system 1500 includes a CT apparatus 211, a three-dimensional model generation apparatus 212, an image processing apparatus 1580, and a medical examination / surgical instrument group of a medical examination room or an operating room 1530.

診察室や手術室1530の診察/手術器具群は、超音波プローブ203と、超音波プローブに固定された磁気センサ231と、光学マーカ付き磁気センサ293と、ビデオカメラ1594と、シートディスプレイ1595と、を有する。ビデオカメラ1594は、シートディスプレイ1595に配置された光学マーカ付き磁気センサ293の光学マーカを撮像する。患者201の表面に配置されたシートディスプレイ1595は、3次元超音波モデルに合致するように変形された3次元データで表わされる3次元モデルを、生体内部の正確な位置に表示する。   The medical examination / surgical instrument group in the medical examination room or operating room 1530 includes an ultrasonic probe 203, a magnetic sensor 231 fixed to the ultrasonic probe, a magnetic sensor 293 with an optical marker, a video camera 1594, and a sheet display 1595. Have. The video camera 1594 captures an optical marker of the optical sensor with a magnetic marker 293 disposed on the sheet display 1595. The sheet display 1595 disposed on the surface of the patient 201 displays the three-dimensional model represented by the three-dimensional data deformed to match the three-dimensional ultrasonic model at an accurate position inside the living body.

画像処理装置1580は、3次元データで表わされる3次元部位モデルを、超音波プローブ203からの超音波信号と超音波プローブ203の位置情報とを蓄積して得た3次元超音波モデルに合致するように変形する。そして、画像処理装置1580は、変形した3次元部位モデルが患者201の生体内部の正確な位置にあるように3次元表示データを生成して、シートディスプレイ1595に3次元表示させる。   The image processing device 1580 matches the three-dimensional region model represented by the three-dimensional data with the three-dimensional ultrasonic model obtained by accumulating the ultrasonic signal from the ultrasonic probe 203 and the positional information of the ultrasonic probe 203. To be transformed. Then, the image processing device 1580 generates three-dimensional display data so that the deformed three-dimensional region model is at an accurate position inside the living body of the patient 201, and causes the sheet display 1595 to perform three-dimensional display.

なお、本実施形態において、シートディスプレイ1595は患者201の生体表面と同じなので、画像処理装置1580は、患者201およびシートディスプレイ1595の位置および向きを光学マーカの撮像画像から検出すればよく、患者201とシートディスプレイ1595との位置関係を算出する必要はない。   In the present embodiment, since the sheet display 1595 is the same as the living body surface of the patient 201, the image processing device 1580 may detect the position and orientation of the patient 201 and the sheet display 1595 from the captured image of the optical marker. There is no need to calculate the positional relationship between the and the sheet display 1595.

《画像処理装置の機能構成》
図16は、本実施形態に係る画像処理装置1580の機能構成を示すブロック図である。なお、図16において、図4または図14と同様の機能構成部には同じ参照番号を付して、説明を省略する。
<< Functional Configuration of Image Processing Device >>
FIG. 16 is a block diagram showing the functional configuration of the image processing apparatus 1580 according to this embodiment. In FIG. 16, the same functional components as in FIG. 4 or FIG. 14 are assigned the same reference numerals and descriptions thereof will be omitted.

シート位置算出部1622は、光学マーカ画像受信部421が受信した光学マーカの撮影画像に基づいて、シートディスプレイ1595の正確な位置を算出する。   The sheet position calculation unit 1622 calculates an accurate position of the sheet display 1595 based on the captured image of the optical marker received by the optical marker image reception unit 421.

表示画像生成部1623のシート画像生成部1633は、患者位置検出部420が検出した患者201の位置に調整したSLTデータによる3次元部位モデルが重なるように、シート位置算出部1622で算出したシートディスプレイ位置に3次元表示する表示画像を生成する。表示画像送信部1625は、シート画像生成部1633が生成した患者201の位置に重なる画像データを、通信制御部413を介して、シートディスプレイ1595に表示すべく送信する。   The sheet image generation unit 1633 of the display image generation unit 1623 calculates the sheet display calculated by the sheet position calculation unit 1622 so that the three-dimensional part model by the SLT data adjusted to the position of the patient 201 detected by the patient position detection unit 420 overlaps. Generate a display image to be displayed three-dimensionally at the position. The display image transmission unit 1625 transmits the image data overlapping the position of the patient 201 generated by the sheet image generation unit 1633 to be displayed on the sheet display 1595 via the communication control unit 413.

なお、シート画像生成部1633の構成および動作は、3次元部位モデルの表示先がHMD295からシートディスプレイ1595に変わるのみで第2実施形態と同様なので、ここでは詳説を省略する。しかし、本例では、シートディスプレイ1595が非剛体変形するので、シート状非剛体の変形操作が必要であり、既存の技術が利用できる。   The configuration and operation of the sheet image generation unit 1633 are the same as those of the second embodiment except that the display destination of the three-dimensional part model is changed from the HMD 295 to the sheet display 1595, and thus the detailed description is omitted here. However, in this example, since the sheet display 1595 is non-rigidly deformed, a sheet-like non-rigid deformation operation is required, and the existing technology can be used.

本実施形態によれば、変形された3次元部位モデルを患者の生体上のシートディスプレイに表示するので、視線などを考慮することなく普通に患者の生体内部の実時間における部位の状態を正確な位置において認識することができる。   According to the present embodiment, since the deformed three-dimensional part model is displayed on the sheet display on the patient's living body, the state of the part in the patient's living body in real time is normally corrected without considering the line of sight or the like. It can be recognized in position.

[第5実施形態]
次に、本発明の第5実施形態に係る医療支援システムについて説明する。本実施形態に係る医療支援システムは、上記第3実施形態と比べると、腹腔鏡1391の観察画像に変形した3次元部位モデルを重畳した画像を、ネットワークを介して通信端末に表示させる点で異なる。その他の構成および動作は、第3実施形態と同様であるため、同じ構成および動作については同じ符号を付してその詳しい説明を省略する。
Fifth Embodiment
Next, a medical support system according to a fifth embodiment of the present invention will be described. The medical support system according to the present embodiment is different from the third embodiment in that an image obtained by superimposing the deformed three-dimensional region model on the observation image of the laparoscope 1391 is displayed on the communication terminal via the network. . The other configurations and operations are similar to those of the third embodiment, and therefore the same configurations and operations are denoted by the same reference numerals and the detailed description thereof will be omitted.

《医療支援システムの構成》
図17は、本実施形態に係る医療支援システム1700の構成を示すブロック図である。なお、図17において、図2B、図13B、図15と同様の構成要素には同じ参照番号を付して、説明を省略する。
<< Composition of medical support system >>
FIG. 17 is a block diagram showing the configuration of a medical support system 1700 according to the present embodiment. In FIG. 17, the same components as those in FIGS. 2B, 13B, and 15 are assigned the same reference numerals and descriptions thereof will be omitted.

図17において、画像処理装置1780は、図13Bの画像処理装置と同様に腹腔鏡1391の観察画像に重畳して3次元部位モデルを表示する。同時に、画像処理装置1780は、腹腔鏡1391で撮像した観察画像に3次元部位モデルを重畳した画像を生成し、ネットワーク1790を介して、外部の他の医師やユーザに配信する。配信先には、ノートPC1791や、スマートフォンやタブレットなどの携帯端末1792、モニタ179i、サーバ179nなどが接続されてよい。   In FIG. 17, the image processing device 1780 displays a three-dimensional region model by superimposing on the observation image of the laparoscope 1391 as in the image processing device of FIG. 13B. At the same time, the image processing apparatus 1780 generates an image in which the three-dimensional region model is superimposed on the observation image captured by the laparoscope 1391 and distributes the image to another external doctor or user via the network 1790. A notebook PC 1791, a portable terminal 1792, such as a smartphone or a tablet, a monitor 179i, a server 179n, or the like may be connected to the delivery destination.

本実施形態によれば、診察室や手術室の外部において他の医師や第三者も患者の生体内部の腹腔鏡の観察画像を監視でき、より正確な医療を支援することができる。   According to this embodiment, other doctors and third parties can monitor the observation image of the laparoscope inside the living body of the patient outside the doctor's office or the operating room, and can support more accurate medical care.

[他の実施形態]
上記実施形態においては、本発明の医療支援システムの限られた構成例しか示されていない。図18は、本発明の医療支援システムの種々の構成例1800を示す図である。本発明は図18の例に限定されないが、図18から本発明の適用範囲が明らかである。
[Other embodiments]
In the above embodiment, only a limited configuration example of the medical support system of the present invention is shown. FIG. 18 is a view showing various configuration examples 1800 of the medical support system of the present invention. Although the present invention is not limited to the example of FIG. 18, the scope of application of the present invention is apparent from FIG.

図18の構成例1800には、変形して表示する3次元部位モデル1801と、3次元部位モデル1801の位置合わせに使用される3次元超音波モデル1802と、部位モデル合致方法(位置合わせ方法)1803と、3次元部位モデル1801を重ね合わせる対象1804と、表示部1805と、が示されている。これらは、それぞれ独立して組み合わされて、より好適な位置合わせと重ね合わせが実現される。   In the configuration example 1800 of FIG. 18, a three-dimensional region model 1801 deformed and displayed, a three-dimensional ultrasound model 1802 used for alignment of the three-dimensional region model 1801, and a region model matching method (alignment method) An object 1804 on which the three-dimensional part model 1801 is superimposed, and a display unit 1805 are shown. These are independently combined to achieve more preferable alignment and superposition.

また、実施形態を参照して本発明を説明したが、本発明は上記実施形態に限定されるものではない。本発明の構成や詳細には、本発明のスコープ内で当業者が理解し得る様々な変更をすることができる。また、それぞれの実施形態に含まれる別々の特徴を如何様に組み合わせたシステムまたは装置も、本発明の範疇に含まれる。   Furthermore, although the present invention has been described with reference to the embodiment, the present invention is not limited to the above embodiment. Various modifications that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention. Also included within the scope of the present invention are systems or devices that combine the different features included in each embodiment.

また、本発明は、複数の機器から構成されるシステムに適用されてもよいし、単体の装置に適用されてもよい。さらに、本発明は、実施形態の機能を実現する制御プログラムが、システムあるいは装置に直接あるいは遠隔から供給される場合にも適用可能である。したがって、本発明の機能をコンピュータで実現するために、コンピュータにインストールされるプログラム、あるいはそのプログラムを格納した媒体、そのプログラムをダウンロードさせるWWW(World Wide Web)サーバも、本発明の範疇に含まれる。特に、少なくとも、上述した実施形態に含まれる処理ステップをコンピュータに実行させるプログラムを格納した非一時的コンピュータ可読媒体(non-transitory computer readable medium)は本発明の範疇に含まれる。   Furthermore, the present invention may be applied to a system configured of a plurality of devices or to a single device. Furthermore, the present invention is also applicable to the case where a control program for realizing the functions of the embodiments is supplied to a system or apparatus directly or remotely. Therefore, in order to realize the functions of the present invention on a computer, a program installed on the computer, a medium storing the program, and a WWW (World Wide Web) server for downloading the program are also included in the scope of the present invention. . In particular, a non-transitory computer readable medium storing a program that causes a computer to execute at least the processing steps included in the above-described embodiment is included in the scope of the present invention.

Claims (14)

患者の断層撮影画像群に基づいて、3次元部位モデルのデータを生成する部位モデル生成手段と、
前記3次元部位モデルから、所定の特徴を有する複数の第1特徴点の位置情報を抽出する第1特徴点抽出手段と、
前記患者に対して超音波プローブを用いて取得した超音波データと、前記超音波データを取得した前記超音波プローブの位置および向きデータとを対応付けて蓄積し、前記超音波データと前記位置および向きデータとを用いて、3次元超音波モデルのデータを生成する超音波モデル生成手段と、
前記3次元超音波モデルから、前記所定の特徴を有する複数の第2特徴点の位置情報を抽出する第2特徴点抽出手段と、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように、前記3次元部位モデルを変形する変形手段と、
前記変形手段により変形された前記3次元部位モデルの投影画像を表示する表示手段と、
を備え
前記変形手段は、
前記3次元部位モデルを、各々が少なくとも1つの前記第1特徴点を含む複数の3次元領域に分割する分割領域生成手段と、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように前記複数の3次元領域のそれぞれを位置調整し、位置調整された前記複数の3次元領域を互いに連結する分割領域連結手段と、
を有し、
前記表示手段は、前記分割領域連結手段が連結した前記複数の3次元領域の投影画像を前記3次元部位モデルの投影画像として表示する医療支援システム。
A part model generation unit that generates data of a three-dimensional part model based on a tomographic image group of a patient;
First feature point extraction means for extracting position information of a plurality of first feature points having predetermined features from the three-dimensional part model;
The ultrasound data acquired for the patient using the ultrasound probe and the position and orientation data of the ultrasound probe for which the ultrasound data is acquired are stored in association with each other, and the ultrasound data, the position, and the position Ultrasonic model generation means for generating data of a three-dimensional ultrasonic model using orientation data;
Second feature point extraction means for extracting position information of the plurality of second feature points having the predetermined feature from the three-dimensional ultrasound model;
Deformation means for deforming the three-dimensional part model so that the plurality of first feature points and the plurality of second feature points overlap;
Display means for displaying a projection image of the three-dimensional part model deformed by the deformation means;
Equipped with
The deformation means is
Division area generation means for dividing the three-dimensional part model into a plurality of three-dimensional areas each including at least one of the first feature points;
Each of the plurality of three-dimensional regions is position-adjusted such that the plurality of first feature points and the plurality of second feature points overlap, and a division region connection is made to connect the plurality of position-adjusted plurality of three-dimensional regions. Means,
Have
The display means, the medical support system that displays a projection image of the divided plurality of three-dimensional area region connecting means is connected as a projection image of the three-dimensional site model.
前記複数の第1特徴点は、前記3次元部位モデルの注目部位に含まれる3次元血管モデルの特徴点であり、前記複数の第2特徴点は、前記3次元超音波モデルの前記注目部位に含まれる3次元血管モデルの特徴点であり、
前記表示手段は、前記3次元血管モデルを前記3次元部位モデルとして表示する、請求項1に記載の医療支援システム。
The plurality of first feature points are feature points of a three-dimensional blood vessel model included in a focused portion of the three-dimensional portion model, and the plurality of second feature points are positioned at the focused portion of the three-dimensional ultrasound model. It is a feature point of the included three-dimensional blood vessel model,
The medical support system according to claim 1, wherein the display means displays the three-dimensional blood vessel model as the three-dimensional region model.
前記患者の生体と、前記生体の位置および向きまたは生体画像の位置および向きを検出するための第1位置検出用器具とを撮像する撮像手段と、
撮像された前記第1位置検出用器具の位置および向きに基づいて、前記変形手段により変形された前記3次元部位モデルの位置、向きおよび大きさを調整する第1調整手段と、
をさらに備え、
前記表示手段は、前記変形され調整された3次元部位モデルの投影画像を、前記患者の生体または生体画像に重なるように表示する、請求項1または2に記載の医療支援システム。
Imaging means for imaging the living body of the patient and a first position detection instrument for detecting the position and direction of the living body or the position and direction of the living body image;
First adjustment means for adjusting the position, orientation and size of the three-dimensional part model deformed by the deformation means based on the position and orientation of the first position detection instrument imaged;
And further
The medical support system according to claim 1 or 2 , wherein the display means displays the projection image of the deformed and adjusted three-dimensional part model so as to overlap the living body or the living body image of the patient.
前記第1位置検出用器具は、光学マーカ付きの磁気センサまたは光学マーカである請求項に記載の医療支援システム。 The medical support system according to claim 3 , wherein the first position detection instrument is a magnetic sensor or an optical marker with an optical marker. 前記患者の生体の内部を撮像する、第2位置検出用器具が固定された腹腔鏡と、
前記第2位置検出用器具の位置および向きと前記超音波プローブの位置および向きとに基づいて、前記変形手段により変形された前記3次元部位モデルの位置、向きおよび大きさを調整する第2調整手段と、
をさらに備え、
前記表示手段は、前記変形され調整された3次元部位モデルの投影画像を、前記腹腔鏡が撮像した生体内画像に重なるように表示する、請求項1または2に記載の医療支援システム。
A laparoscope fixed with a second position detection instrument for imaging the inside of the patient's living body;
A second adjustment for adjusting the position, orientation and size of the three-dimensional part model deformed by the deformation means based on the position and orientation of the second position detection instrument and the position and orientation of the ultrasonic probe Means,
And further
The medical support system according to claim 1 or 2 , wherein the display means displays the projection image of the deformed and adjusted three-dimensional region model so as to overlap the in-vivo image captured by the laparoscope.
前記第2位置検出用器具は、磁気センサである請求項に記載の医療支援システム。 The medical support system according to claim 5 , wherein the second position detection instrument is a magnetic sensor. 前記超音波プローブに固定された第3位置検出用器具の位置および向きを検出する超音波プローブ位置検出手段を有する請求項1乃至のいずれか1項に記載の医療支援システム。 The medical support system according to any one of claims 1 to 6 , further comprising ultrasonic probe position detection means for detecting the position and orientation of the third position detection instrument fixed to the ultrasonic probe. 前記第3位置検出用器具は光学マーカまたは磁気センサである、請求項に記載の医療支援システム。 The medical support system according to claim 7 , wherein the third position detection instrument is an optical marker or a magnetic sensor. 前記表示手段は、前記変形され調整された3次元部位モデルの投影画像と前記患者の生体とを重なるように表示するオプティカルシースルー型のヘッドマウントディスプレイ、または、前記変形され調整された3次元部位モデルの投影画像と前記患者の生体画像とを重なるように表示するビデオシースルー型のヘッドマウントディスプレイである請求項1乃至のいずれか1項に記載の医療支援システム。 The display means is an optical see-through head mounted display for displaying the projected image of the deformed and adjusted three-dimensional part model and the living body of the patient so as to overlap each other, or the deformed and adjusted three-dimensional part model The medical support system according to any one of claims 1 to 8 , wherein the medical support system is a video see-through head-mounted display that displays the projection image of and the living body image of the patient in an overlapping manner. 前記表示手段は、前記変形され調整された3次元部位モデルの投影画像と、前記患者の生体または生体画像とが重なるように表示するシートディスプレイである請求項1乃至のいずれか1項に記載の医療支援システム。 The sheet display according to any one of claims 1 to 8 , wherein the display means is a sheet display for displaying the projection image of the deformed and adjusted three-dimensional part model and the living body or the living body image of the patient in an overlapping manner. Medical support system. 患者の断層撮影画像群に基づいて、3次元部位モデルのデータを生成する部位モデル生成ステップと、
前記3次元部位モデルから、所定の特徴を有する複数の第1特徴点の位置情報を抽出する第1特徴点抽出ステップと、
前記患者に対して超音波プローブを用いて取得した超音波データと、前記超音波データを取得した前記超音波プローブの位置および向きデータとを対応付けて蓄積手段に蓄積する蓄積ステップと、
前記超音波データと前記位置および向きデータとを用いて、3次元超音波モデルのデータを生成する超音波モデル生成ステップと、
前記3次元超音波モデルから、前記所定の特徴を有する複数の第2特徴点の位置情報を抽出する第2特徴点抽出ステップと、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように、前記3次元部位モデルを変形する変形ステップと、
前記変形ステップにおいて変形された前記3次元部位モデルの投影画像を表示する表示ステップと、
を含み、
前記変形ステップは、
前記3次元部位モデルを、各々が少なくとも1つの前記第1特徴点を含む複数の3次元領域に分割する分割領域生成ステップと、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように前記複数の3次元領域のそれぞれを位置調整し、位置調整された前記複数の3次元領域を互いに連結する分割領域連結ステップと、
を含み、
前記表示ステップにおいては、前記分割領域連結ステップにおいて連結した前記複数の3次元領域の投影画像を前記3次元部位モデルの投影画像として表示する医療支援方法。
A part model generation step of generating data of a three-dimensional part model based on a tomographic image group of a patient;
A first feature point extraction step of extracting position information of a plurality of first feature points having predetermined features from the three-dimensional part model;
An accumulation step of correlating the ultrasound data acquired for the patient using the ultrasound probe with the position and orientation data of the ultrasound probe for which the ultrasound data is acquired, and accumulating the data in an accumulation unit;
An ultrasound model generation step of generating data of a three-dimensional ultrasound model using the ultrasound data and the position and orientation data;
A second feature point extraction step of extracting position information of the plurality of second feature points having the predetermined feature from the three-dimensional ultrasound model;
Deforming the three-dimensional part model so that the plurality of first feature points and the plurality of second feature points overlap;
A display step of displaying a projection image of the three-dimensional part model deformed in the deformation step;
Only including,
The deformation step is
A division area generation step of dividing the three-dimensional part model into a plurality of three-dimensional areas each including at least one of the first feature points;
Each of the plurality of three-dimensional regions is position-adjusted such that the plurality of first feature points and the plurality of second feature points overlap, and a division region connection is made to connect the plurality of position-adjusted plurality of three-dimensional regions. Step and
Including
The medical support method which displays the projection image of said some three-dimensional area | region connected in the said division area connection step in the said display step as a projection image of the said three-dimensional site | part model .
患者の断層撮影画像群に基づいて生成された3次元部位モデルのデータを受信する受信手段と、
前記3次元部位モデルから、所定の特徴を有する複数の第1特徴点の位置情報を抽出する第1特徴点抽出手段と、
前記患者に対して超音波プローブを用いて取得した超音波データと、前記超音波データを取得した前記超音波プローブの位置および向きデータとを対応付けて蓄積する蓄積手段と、
前記超音波データと前記位置および向きデータとを用いて、3次元超音波モデルのデータを生成する超音波モデル生成手段と、
前記3次元超音波モデルから、前記所定の特徴を有する複数の第2特徴点の位置情報を抽出する第2特徴点抽出手段と、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように、前記3次元部位モデルを変形する変形手段と、
前記変形手段により変形された前記3次元部位モデルの投影画像を表示手段に送信する送信手段と、
を備え
前記変形手段は、
前記3次元部位モデルを、各々が少なくとも1つの前記第1特徴点を含む複数の3次元領域に分割する分割領域生成手段と、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように前記複数の3次元領域のそれぞれを位置調整し、位置調整された前記複数の3次元領域を互いに連結する分割領域連結手段と、
を有し、
前記送信手段は、前記分割領域連結手段が連結した前記複数の3次元領域の投影画像を前記3次元部位モデルの投影画像として前記表示手段に送信する画像処理装置。
Receiving means for receiving data of a three-dimensional part model generated based on a group of tomographic images of the patient;
First feature point extraction means for extracting position information of a plurality of first feature points having predetermined features from the three-dimensional part model;
Storage means for correlating and storing ultrasound data acquired for the patient using an ultrasound probe and position and orientation data of the ultrasound probe for which the ultrasound data is acquired;
Ultrasonic model generation means for generating data of a three-dimensional ultrasonic model using the ultrasonic data and the position and orientation data;
Second feature point extraction means for extracting position information of the plurality of second feature points having the predetermined feature from the three-dimensional ultrasound model;
Deformation means for deforming the three-dimensional part model so that the plurality of first feature points and the plurality of second feature points overlap;
Transmission means for transmitting the projection image of the three-dimensional part model deformed by the deformation means to display means;
Equipped with
The deformation means is
Division area generation means for dividing the three-dimensional part model into a plurality of three-dimensional areas each including at least one of the first feature points;
Each of the plurality of three-dimensional regions is position-adjusted such that the plurality of first feature points and the plurality of second feature points overlap, and a division region connection is made to connect the plurality of position-adjusted plurality of three-dimensional regions. Means,
Have
The transmission unit, an image processing apparatus that sends a projection image of the divided region of the plurality of three-dimensional area coupling means coupled to said display means as a projection image of the three-dimensional site model.
患者の断層撮影画像群に基づいて生成された3次元部位モデルのデータを受信する受信ステップと、
前記3次元部位モデルから、所定の特徴を有する複数の第1特徴点の位置情報を抽出する第1特徴点抽出ステップと、
前記患者に対して超音波プローブを用いて取得した超音波データと、前記超音波データを取得した前記超音波プローブの位置および向きデータとを対応付けて蓄積手段に蓄積する蓄積ステップと、
前記超音波データと前記位置および向きデータとを用いて、3次元超音波モデルのデータを生成する超音波モデル生成ステップと、
前記3次元超音波モデルから、前記所定の特徴を有する複数の第2特徴点の位置情報を抽出する第2特徴点抽出ステップと、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように、前記3次元部位モデルを変形する変形ステップと、
前記変形ステップにおいて変形された前記3次元部位モデルの投影画像を表示手段に送信する送信ステップと、
を含み、
前記変形ステップは、
前記3次元部位モデルを、各々が少なくとも1つの前記第1特徴点を含む複数の3次元領域に分割する分割領域生成ステップと、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように前記複数の3次元領域のそれぞれを位置調整し、位置調整された前記複数の3次元領域を互いに連結する分割領域連結ステップと、
を含み、
前記送信ステップにおいては、前記分割領域連結ステップにおいて連結した前記複数の3次元領域の投影画像を前記3次元部位モデルの投影画像として前記表示手段に送信する画像処理装置の制御方法。
Receiving data of a three-dimensional part model generated based on a group of tomographic images of the patient;
A first feature point extraction step of extracting position information of a plurality of first feature points having predetermined features from the three-dimensional part model;
An accumulation step of correlating the ultrasound data acquired for the patient using the ultrasound probe with the position and orientation data of the ultrasound probe for which the ultrasound data is acquired, and accumulating the data in an accumulation unit;
An ultrasound model generation step of generating data of a three-dimensional ultrasound model using the ultrasound data and the position and orientation data;
A second feature point extraction step of extracting position information of the plurality of second feature points having the predetermined feature from the three-dimensional ultrasound model;
Deforming the three-dimensional part model so that the plurality of first feature points and the plurality of second feature points overlap;
A transmitting step of transmitting a projection image of the three-dimensional part model deformed in the deformation step to display means;
Only including,
The deformation step is
A division area generation step of dividing the three-dimensional part model into a plurality of three-dimensional areas each including at least one of the first feature points;
Each of the plurality of three-dimensional regions is position-adjusted such that the plurality of first feature points and the plurality of second feature points overlap, and a division region connection is made to connect the plurality of position-adjusted plurality of three-dimensional regions. Step and
Including
The control method of the image processing apparatus, in the transmitting step, transmitting the projection images of the plurality of three-dimensional regions connected in the division region connecting step to the display unit as a projection image of the three-dimensional part model .
患者の断層撮影画像群に基づいて生成された3次元部位モデルのデータを受信する受信ステップと、
前記3次元部位モデルから、所定の特徴を有する複数の第1特徴点の位置情報を抽出する第1特徴点抽出ステップと、
前記患者に対して超音波プローブを用いて取得した超音波データと、前記超音波データを取得した前記超音波プローブの位置および向きデータとを対応付けて蓄積手段に蓄積する蓄積ステップと、
前記超音波データと前記位置および向きデータとを用いて、3次元超音波モデルのデータを生成する超音波モデル生成ステップと、
前記3次元超音波モデルから、前記所定の特徴を有する複数の第2特徴点の位置情報を抽出する第2特徴点抽出ステップと、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように、前記3次元部位モデルを変形する変形ステップと、
前記変形ステップにおいて変形された前記3次元部位モデルの投影画像を表示手段に送信する送信ステップと、
をコンピュータに実行させる画像処理装置の制御プログラムであって、
前記変形ステップにおいては、
前記3次元部位モデルを、各々が少なくとも1つの前記第1特徴点を含む複数の3次元領域に分割する分割領域生成ステップと、
前記複数の第1特徴点と前記複数の第2特徴点とが重なるように前記複数の3次元領域のそれぞれを位置調整し、位置調整された前記複数の3次元領域を互いに連結する分割領域連結ステップと、
をコンピュータに実行させ、
前記送信ステップにおいては、前記分割領域連結ステップにおいて連結した前記複数の3次元領域の投影画像を前記3次元部位モデルの投影画像として前記表示手段に送信するようコンピュータに実行させる画像処理装置の制御プログラム
Receiving data of a three-dimensional part model generated based on a group of tomographic images of the patient;
A first feature point extraction step of extracting position information of a plurality of first feature points having predetermined features from the three-dimensional part model;
An accumulation step of correlating the ultrasound data acquired for the patient using the ultrasound probe with the position and orientation data of the ultrasound probe for which the ultrasound data is acquired, and accumulating the data in an accumulation unit;
An ultrasound model generation step of generating data of a three-dimensional ultrasound model using the ultrasound data and the position and orientation data;
A second feature point extraction step of extracting position information of the plurality of second feature points having the predetermined feature from the three-dimensional ultrasound model;
Deforming the three-dimensional part model so that the plurality of first feature points and the plurality of second feature points overlap;
A transmitting step of transmitting a projection image of the three-dimensional part model deformed in the deformation step to display means;
A control program of an image processing apparatus which causes a computer to execute
In the deformation step,
A division area generation step of dividing the three-dimensional part model into a plurality of three-dimensional areas each including at least one of the first feature points;
Each of the plurality of three-dimensional regions is position-adjusted such that the plurality of first feature points and the plurality of second feature points overlap, and a division region connection is made to connect the plurality of position-adjusted plurality of three-dimensional regions. Step and
On your computer,
In the transmission step, a control program of an image processing apparatus which causes a computer to execute projection images of the plurality of three-dimensional regions connected in the division region connecting step as the projection image of the three-dimensional part model .
JP2015084771A 2015-04-17 2015-04-17 MEDICAL SUPPORT SYSTEM, MEDICAL SUPPORT METHOD, IMAGE PROCESSING APPARATUS, AND CONTROL METHOD AND CONTROL PROGRAM THEREOF Active JP6510301B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015084771A JP6510301B2 (en) 2015-04-17 2015-04-17 MEDICAL SUPPORT SYSTEM, MEDICAL SUPPORT METHOD, IMAGE PROCESSING APPARATUS, AND CONTROL METHOD AND CONTROL PROGRAM THEREOF

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015084771A JP6510301B2 (en) 2015-04-17 2015-04-17 MEDICAL SUPPORT SYSTEM, MEDICAL SUPPORT METHOD, IMAGE PROCESSING APPARATUS, AND CONTROL METHOD AND CONTROL PROGRAM THEREOF

Publications (2)

Publication Number Publication Date
JP2016202351A JP2016202351A (en) 2016-12-08
JP6510301B2 true JP6510301B2 (en) 2019-05-08

Family

ID=57486235

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015084771A Active JP6510301B2 (en) 2015-04-17 2015-04-17 MEDICAL SUPPORT SYSTEM, MEDICAL SUPPORT METHOD, IMAGE PROCESSING APPARATUS, AND CONTROL METHOD AND CONTROL PROGRAM THEREOF

Country Status (1)

Country Link
JP (1) JP6510301B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11571180B2 (en) 2016-12-16 2023-02-07 Koninklijke Philips N.V. Systems providing images guiding surgery
CN110892452A (en) * 2017-05-04 2020-03-17 Mim软件有限公司 System and method for predictive fusion
CN110021386B (en) * 2017-07-27 2023-06-23 北大医疗信息技术有限公司 Feature extraction method, feature extraction device, equipment and storage medium
EP3733047A4 (en) * 2018-02-09 2021-02-17 Sony Corporation Surgical system, image processing device, and image processing method
US10825563B2 (en) * 2018-05-14 2020-11-03 Novarad Corporation Aligning image data of a patient with actual views of the patient using an optical code affixed to the patient
JP7164423B2 (en) * 2018-12-12 2022-11-01 キヤノンメディカルシステムズ株式会社 MEDICAL IMAGE PROCESSING APPARATUS, X-RAY CT APPARATUS, AND MEDICAL IMAGE PROCESSING METHOD
WO2020157984A1 (en) * 2019-02-01 2020-08-06 TCC Media Lab株式会社 Composite image generation system and position information correction system
JP7304508B2 (en) * 2019-02-19 2023-07-07 株式会社シンクアウト Information processing system and information processing program
WO2023162657A1 (en) * 2022-02-28 2023-08-31 富士フイルム株式会社 Medical assistance device, medical assistance device operation method, and operation program
JP2023183004A (en) * 2022-06-15 2023-12-27 株式会社アールテック Medical image processing apparatus and medical image processing method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007136133A (en) * 2005-11-18 2007-06-07 Toshio Fukuda System for presenting augmented reality
US8111892B2 (en) * 2008-06-04 2012-02-07 Medison Co., Ltd. Registration of CT image onto ultrasound images
KR101121286B1 (en) * 2009-07-31 2012-03-23 한국과학기술원 Ultrasound system and method for performing calibration of sensor
KR102090270B1 (en) * 2013-04-25 2020-03-17 삼성메디슨 주식회사 Method and apparatus for image registration
JP5410629B1 (en) * 2013-05-14 2014-02-05 健司 三木 Ultrasonic diagnostic system, image processing apparatus, control method thereof, and control program

Also Published As

Publication number Publication date
JP2016202351A (en) 2016-12-08

Similar Documents

Publication Publication Date Title
JP6510301B2 (en) MEDICAL SUPPORT SYSTEM, MEDICAL SUPPORT METHOD, IMAGE PROCESSING APPARATUS, AND CONTROL METHOD AND CONTROL PROGRAM THEREOF
US9480456B2 (en) Image processing apparatus that simultaneously displays two regions of interest on a body mark, processing method thereof and storage medium
CN110769740B (en) Universal apparatus and method for integrating diagnostic tests into real-time therapy
US10881353B2 (en) Machine-guided imaging techniques
KR101572487B1 (en) System and Method For Non-Invasive Patient-Image Registration
JP6463038B2 (en) Image alignment apparatus, method and program
JP6049202B2 (en) Image processing apparatus, method, and program
JP6083103B2 (en) Image complementation system for image occlusion area, image processing apparatus and program thereof
EP3081184A1 (en) System and method for fused image based navigation with late marker placement
JP5504028B2 (en) Observation support system, method and program
JP5569711B2 (en) Surgery support system
JP2008005923A (en) Medical guide system
JP2019514632A (en) Correction of probe induced deformation in ultrasound fusion imaging system
JP6493885B2 (en) Image alignment apparatus, method of operating image alignment apparatus, and image alignment program
EP3328305B1 (en) Microscope tracking based on video analysis
KR20160057024A (en) Markerless 3D Object Tracking Apparatus and Method therefor
CN107260305A (en) Area of computer aided minimally invasive surgery system
JP6476125B2 (en) Image processing apparatus and surgical microscope system
KR101592444B1 (en) Medical image augmentation device using transparent display and method thereof
JP7027029B2 (en) Ultrasound diagnostic equipment and medical image processing equipment
EP4128145B1 (en) Combining angiographic information with fluoroscopic images
WO2024067753A1 (en) Registration method, registration system, navigation information determination method, and navigation system
JP2013048688A (en) Image processing device, image processing method and program
JP2021045341A (en) Arthroscopic surgery support device, arthroscopic surgery support method, and program
CN115176283A (en) Augmented reality positioning medical views

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180330

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20180330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190404

R150 Certificate of patent or registration of utility model

Ref document number: 6510301

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250