JP5173303B2 - Medical image processing apparatus and medical image diagnostic apparatus - Google Patents

Medical image processing apparatus and medical image diagnostic apparatus Download PDF

Info

Publication number
JP5173303B2
JP5173303B2 JP2007196534A JP2007196534A JP5173303B2 JP 5173303 B2 JP5173303 B2 JP 5173303B2 JP 2007196534 A JP2007196534 A JP 2007196534A JP 2007196534 A JP2007196534 A JP 2007196534A JP 5173303 B2 JP5173303 B2 JP 5173303B2
Authority
JP
Japan
Prior art keywords
medical image
site
model
image
heart
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007196534A
Other languages
Japanese (ja)
Other versions
JP2009028362A (en
Inventor
洋一 高田
重治 大湯
克彦 藤本
正泰 熊倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp filed Critical Toshiba Corp
Priority to JP2007196534A priority Critical patent/JP5173303B2/en
Publication of JP2009028362A publication Critical patent/JP2009028362A/en
Application granted granted Critical
Publication of JP5173303B2 publication Critical patent/JP5173303B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、医用画像を処理する医用画像処理装置及びその医用画像処理装置を備える医用画像診断装置に関する。   The present invention relates to a medical image processing apparatus that processes medical images and a medical image diagnostic apparatus that includes the medical image processing apparatus.

医用画像診断装置は、医用画像を撮影する医用画像撮影装置やその医用画像を処理する医用画像処理装置等を備えている。医用画像撮影装置としては、例えば、X線断層撮影装置(X線CT装置)、核磁気共鳴装置(MRI装置)及び超音波診断装置等が挙げられる。X線断層撮影装置は、被検体にX線を照射し、その被検体を通過したX線を検出し、被検体の内部(注目部位)をCT画像として表示する装置である。超音波診断装置は、被検体に超音波を送波し、その反射波(エコー波)を受波し、被検体の内部(注目部位)を超音波画像として表示する装置である。   The medical image diagnostic apparatus includes a medical image capturing apparatus that captures a medical image, a medical image processing apparatus that processes the medical image, and the like. Examples of the medical imaging apparatus include an X-ray tomography apparatus (X-ray CT apparatus), a nuclear magnetic resonance apparatus (MRI apparatus), and an ultrasonic diagnostic apparatus. An X-ray tomography apparatus is an apparatus that irradiates a subject with X-rays, detects the X-rays that have passed through the subject, and displays the interior (part of interest) of the subject as a CT image. The ultrasonic diagnostic apparatus is an apparatus that transmits an ultrasonic wave to a subject, receives a reflected wave (echo wave) thereof, and displays the inside (target site) of the subject as an ultrasonic image.

前述の医用画像を処理する画像処理技術としては、様々な画像処理技術が提案されている。例えば、X線CT装置及び超音波診断装置により得られた同一関心部位(注目部位)についてのCT画像と超音波画像を合成して表示する複合型医用画像診断装置や、磁気共鳴画像の特定的な特徴部に対して超音波画像の対応する特徴部を位置合わせし、超音波画像を重ね合わせた磁気共鳴画像を生成する画像診断支援システムが提案されている(例えば、特許文献1及び特許文献2参照)。   Various image processing techniques have been proposed as image processing techniques for processing the aforementioned medical images. For example, a combined medical image diagnostic apparatus that synthesizes and displays a CT image and an ultrasonic image of the same region of interest (target region) obtained by an X-ray CT apparatus and an ultrasonic diagnostic apparatus, or a specific magnetic resonance image An image diagnosis support system has been proposed in which a corresponding feature portion of an ultrasonic image is aligned with a special feature portion and a magnetic resonance image is generated by superimposing the ultrasonic images (for example, Patent Literature 1 and Patent Literature 1). 2).

一方、被検体の注目部位の疾患をシミュレーションする技術も提案されている。例えば、心臓の形状をモデル化し、そのモデルに心筋の機械的パラメータを組み込むことによって、心臓の動き(壁運動)や心腔内の血液の動態をシミュレーションする技術や、同様に、心臓の形状をモデル化し、そのモデルに心筋の電気パラメータを組み込むことによって、興奮伝播過程や電位変化をシミュレーションする技術が提案されている。このようなシミュレーションにより得られた部位モデル(例えば心臓モデル)からは、注目部位のある種の機能情報が得られる。また、医用画像撮影装置により得られた医用画像(例えば心臓画像)からは、注目部位の形態情報や別の機能情報が得られる。
特開平10−127623号公報 特開2003−153877号公報
On the other hand, a technique for simulating a disease at a site of interest of a subject has also been proposed. For example, by modeling the heart shape and incorporating the mechanical parameters of the myocardium into the model, techniques for simulating heart motion (wall motion) and blood dynamics in the heart chamber, as well as the heart shape A technique for simulating excitation propagation processes and potential changes by modeling and incorporating myocardial electrical parameters into the model has been proposed. From a part model (for example, a heart model) obtained by such a simulation, certain function information of the part of interest can be obtained. In addition, from the medical image (for example, a heart image) obtained by the medical image photographing apparatus, the shape information of the region of interest and other functional information are obtained.
Japanese Patent Laid-Open No. 10-127623 JP 2003-153877 A

しかしながら、医用画像撮影装置により得られた医用画像と、シミュレーションにより得られた部位モデルとは別画像となるため、注目部位の形態情報とその機能情報との関係認識が難しく、医師等の診断者が被検体の注目部位の状況を的確に把握することは困難である。   However, since the medical image obtained by the medical imaging apparatus and the part model obtained by the simulation are different images, it is difficult to recognize the relationship between the shape information of the attention part and the function information, and a doctor or other diagnostician However, it is difficult to accurately grasp the state of the site of interest of the subject.

本発明は、上記に鑑みてなされたものであり、被検体の注目部位の形態情報とその機能情報との関係認識を容易にし、診断者が注目部位の状況を的確に把握することができる医用画像処理装置及び医用画像診断装置を提供することである。   The present invention has been made in view of the above, and facilitates the recognition of the relationship between the form information of the region of interest of the subject and the function information thereof, and allows the diagnostician to accurately grasp the situation of the region of interest. An image processing apparatus and a medical image diagnostic apparatus are provided.

本発明の実施の形態に係る第1の特徴は、医用画像処理装置において、医用画像撮影装置により撮影された画像であって被検体の注目部位を示す医用画像と、注目部位の疾患をシミュレーションするためのモデルであって注目部位を示す部位モデルとを位置合わせをして合成し、医用画像及び部位モデルの合成画像を生成して表示する手段を備え、部位モデルは、モデルデータベースに記憶されており、機械バネ定数、静止膜電位及びイオン濃度の情報を含んでいることである。 A first feature according to an embodiment of the present invention is that a medical image processing apparatus simulates a medical image that is an image captured by a medical image capturing apparatus and shows a region of interest of a subject, and a disease of the region of interest. model is a by the site model shows the area of interest by the alignment synthesized for, comprising means for generating and displaying a composite image of the medical image and site model, the site model is stored in a model database cage is Rukoto comprise mechanical spring constant, resting membrane potential and the information of the ion concentration.

本発明の実施の形態に係る第2の特徴は、医用画像診断装置において、医用画像を撮影する医用画像撮影装置と、前述の第1の特徴に係る医用画像処理装置とを備えることである。   The second feature according to the embodiment of the present invention is that the medical image diagnostic device includes a medical image photographing device for photographing a medical image and the medical image processing device according to the first feature described above.

本発明によれば、被検体の注目部位の形態情報とその機能情報との関係認識を容易にし、診断者が注目部位の状況を的確に把握することができる医用画像処理装置及び医用画像診断装置を提供することができる。   According to the present invention, a medical image processing apparatus and a medical image diagnostic apparatus that facilitate the recognition of the relationship between the form information of the region of interest of the subject and the function information, and allow the diagnostician to accurately grasp the state of the region of interest. Can be provided.

本発明の実施の一形態について図面を参照して説明する。   An embodiment of the present invention will be described with reference to the drawings.

図1に示すように、本発明の実施の形態に係る医用画像診断装置1は、被検体の注目部位(例えば、心臓)を示す医用画像を撮影する医用画像撮影装置2と、その撮影した医用画像を保管する医用画像データベース3と、注目部位の疾患をシミュレーションするための部位モデル(例えば、心臓モデル)を保管するモデルデータベース4と、医用画像及び部位モデルの合成画像を生成する合成処理を行う医用画像処理装置5とを備えている。これらの各部はLAN(Local Area Network)等のネットワーク6により接続されている。   As shown in FIG. 1, a medical image diagnostic apparatus 1 according to an embodiment of the present invention includes a medical image photographing apparatus 2 for photographing a medical image showing a target region (for example, a heart) of a subject, and the medical image taken by the medical image photographing apparatus 2 A medical image database 3 for storing images, a model database 4 for storing a site model (for example, a heart model) for simulating a disease at a site of interest, and a synthesis process for generating a synthesized image of the medical image and the site model are performed. And a medical image processing apparatus 5. These units are connected by a network 6 such as a LAN (Local Area Network).

医用画像撮影装置2は、被検体の注目部位(関心部位)を示す医用画像を撮影する撮影装置である。この医用画像撮影装置2としては、例えば、X線断層撮影装置(X線CT装置)や超音波診断装置等を用いる。X線断層撮影装置を用いた場合には、医用画像はCT画像であり、超音波診断装置を用いた場合には、医用画像は超音波画像(超音波エコー画像)である。   The medical image capturing apparatus 2 is an image capturing apparatus that captures a medical image indicating a region of interest (region of interest) of a subject. For example, an X-ray tomography apparatus (X-ray CT apparatus) or an ultrasonic diagnostic apparatus is used as the medical image imaging apparatus 2. When the X-ray tomography apparatus is used, the medical image is a CT image, and when the ultrasonic diagnostic apparatus is used, the medical image is an ultrasonic image (ultrasonic echo image).

医用画像データベース3は、医用画像撮影装置2により得られた医用画像(例えば、被検体の各部位に関するCT画像であるボリュームデータや超音波画像等)を記憶する記憶装置である。ここで、被検体の各部位としては、例えば、心臓、肺及び胃等が挙げられる。なお、CT画像(ボリュームデータ)や超音波画像は、医用画像撮影装置2により得られ、ネットワーク6を介して医用画像データベース3に格納される。   The medical image database 3 is a storage device that stores medical images obtained by the medical image photographing device 2 (for example, volume data or ultrasonic images that are CT images related to each part of the subject). Here, examples of each part of the subject include the heart, lungs, and stomach. CT images (volume data) and ultrasonic images are obtained by the medical image photographing apparatus 2 and stored in the medical image database 3 via the network 6.

モデルデータベース4は、注目部位の疾患をシミュレーションするためのモデルであって、その注目部位を示すシミュレーションモデルを部位モデルとして記憶する記憶装置である。注目部位が心臓である場合には、心臓の形状がモデル化され、心臓モデルが作成される。その心臓モデルの情報がモデルデータベース4に記憶されている。この心臓モデルの情報としては、例えば、形態、機械バネ定数、静止膜電位及びイオン濃度等の設定値情報が含まれる。   The model database 4 is a model for simulating a disease at a site of interest, and is a storage device that stores a simulation model indicating the site of interest as a site model. When the site of interest is the heart, the shape of the heart is modeled and a heart model is created. Information on the heart model is stored in the model database 4. The information on the heart model includes set value information such as the form, mechanical spring constant, resting membrane potential, and ion concentration.

ここで、心臓の形状モデルとしては、セルモデル(数万個のセルを心臓の形状に配置したモデル)や四面体分割モデル(色々な形状の四面体の組み合わせにより心臓を表現したモデル)等が用いられる。例えば、X線断層撮影装置により撮影された心臓の解剖画像から心臓領域を抽出し、自動的にセル分割又は四面体分割を行うことにより、個人の心臓形状が表現され、個人の心臓形状を有する心臓モデルが用いられる。また、個人の心臓形状ではなく、標準の心臓形状を有する心臓モデルが用いられる場合もある。   Here, as a heart shape model, a cell model (a model in which tens of thousands of cells are arranged in the shape of the heart), a tetrahedron division model (a model expressing the heart by a combination of tetrahedrons of various shapes), etc. Used. For example, a heart region is extracted from a anatomical image of a heart imaged by an X-ray tomography apparatus, and cell division or tetrahedron division is automatically performed to express a person's heart shape. A heart model is used. In addition, a heart model having a standard heart shape instead of an individual heart shape may be used.

医用画像処理装置5は、図2に示すように、各部を集中的に制御するCPU(Central Processing Unit)等の制御部11と、ROM(Read Only Memory)やRAM(Random Access Memory)等のメモリ12と、医用画像や部位モデル等の各種画像を表示する表示部13と、操作者からの入力操作を受け付ける操作部14と、各種プログラムや各種データ等を記憶する記憶部15と、外部装置との通信を行う通信部16と、医用画像や部位モデル等の各種画像を処理する画像処理部17とを備えている。これらの各部は、バスライン18により電気的に接続されている。   As shown in FIG. 2, the medical image processing apparatus 5 includes a control unit 11 such as a CPU (Central Processing Unit) that centrally controls each unit, and a memory such as a ROM (Read Only Memory) and a RAM (Random Access Memory). 12, a display unit 13 that displays various images such as medical images and part models, an operation unit 14 that receives input operations from an operator, a storage unit 15 that stores various programs, various data, and the like, and an external device A communication unit 16 that performs the above communication, and an image processing unit 17 that processes various images such as medical images and part models. These parts are electrically connected by a bus line 18.

制御部11は、記憶部15に記憶された各種プログラムや各種データ等に基づいて、各部を制御する。特に、制御部11は、各種のプログラムやデータに基づいて、データの計算又は加工等を行う一連のデータ処理、医用画像及び部位モデルの合成画像を生成する合成処理及び画像を表示する表示処理等を実行する。   The control unit 11 controls each unit based on various programs and various data stored in the storage unit 15. In particular, the control unit 11 performs a series of data processing for performing calculation or processing of data based on various programs and data, a synthesis process for generating a composite image of a medical image and a part model, a display process for displaying an image, and the like. Execute.

メモリ12は、制御部11が実行する起動プログラム等を記憶するメモリであって、制御部11のワークエリアとしても機能するメモリである。なお、起動プログラムは、医用画像処理装置5の起動時に制御部11により読み出されて実行される。   The memory 12 is a memory that stores a startup program executed by the control unit 11 and also functions as a work area of the control unit 11. The activation program is read and executed by the control unit 11 when the medical image processing apparatus 5 is activated.

表示部13は、二次元画像や三次元画像等の各種画像をカラー表示する表示装置である。この表示部13としては、例えば、液晶ディスプレイやCRT(Cathode Ray Tube)ディスプレイ等を用いる。   The display unit 13 is a display device that displays various images such as a two-dimensional image and a three-dimensional image in color. As the display unit 13, for example, a liquid crystal display, a CRT (Cathode Ray Tube) display, or the like is used.

操作部14は、操作者により入力操作される入力部であって、画像表示の開始や画像の切り替え、設定の変更等の各種の入力操作を受け付ける入力部である。この操作部14としては、例えば、マウスやキーボード等の入力デバイスを用いる。   The operation unit 14 is an input unit that is input by an operator, and is an input unit that receives various input operations such as image display start, image switching, and setting change. For example, an input device such as a mouse or a keyboard is used as the operation unit 14.

記憶部15は、各種のプログラムやデータ等を記憶する記憶装置であって、特に、医用画像と部位モデルとの合成(位置合わせ)に関する合成用データD1を記憶する記憶装置である。この記憶部15としては、例えば、磁気ディスク装置や半導体ディスク装置(フラッシュメモリ)等を用いる。なお、合成用データD1は、医用画像と部位モデルとの合成に必要な情報、例えば伸縮量や変形量等の情報である。この合成用データD1は、画像処理部17により得られ、バスライン18を介して記憶部15に格納される。   The storage unit 15 is a storage device that stores various programs, data, and the like. In particular, the storage unit 15 is a storage device that stores synthesis data D1 related to the synthesis (positioning) of a medical image and a part model. For example, a magnetic disk device or a semiconductor disk device (flash memory) is used as the storage unit 15. The composition data D1 is information necessary for composition of the medical image and the part model, for example, information such as the amount of expansion / contraction and the amount of deformation. The composition data D1 is obtained by the image processing unit 17 and stored in the storage unit 15 via the bus line 18.

通信部16は、LANやインターネット等のネットワーク6を介して外部装置との通信を行う装置である。この通信部16としては、LANカードやモデム等を用いる。外部装置としては、医用画像撮影装置2、医用画像データベース3及びモデルデータベース4等が挙げられる。   The communication unit 16 is a device that communicates with an external device via a network 6 such as a LAN or the Internet. As the communication unit 16, a LAN card, a modem, or the like is used. Examples of the external device include a medical image photographing device 2, a medical image database 3, a model database 4, and the like.

画像処理部17は、図3に示すように、時相確認手段17aと、医用画像情報取得手段17bと、モデル情報取得手段17cと、特異点抽出手段17d、17eと、内壁及び外壁の輪郭抽出手段17f、17gと、画像及びモデル間の特異点フィッティング手段17hと、画像及びモデル間の輪郭フィッティング手段17iと、画像及びモデルの位置合わせ手段17jとを具備している。なお、画像処理部17は、ソフトウェア又はハードウェア(回路)あるいはそれらの両方により構成されている。ここから、注目部位が心臓である場合について説明する。すなわち、医用画像が心臓画像(心臓形態画像)G1となり、部位モデルが心臓モデルM1となる(図4参照)。   As shown in FIG. 3, the image processing unit 17 includes a time phase confirmation unit 17a, a medical image information acquisition unit 17b, a model information acquisition unit 17c, singular point extraction units 17d and 17e, and contour extraction of inner and outer walls. Means 17f, 17g, singular point fitting means 17h between images and models, contour fitting means 17i between images and models, and image and model alignment means 17j are provided. The image processing unit 17 is configured by software, hardware (circuit), or both. From here, the case where a site of interest is the heart will be described. That is, the medical image is a heart image (heart shape image) G1, and the region model is a heart model M1 (see FIG. 4).

時相確認手段17aは、心臓画像G1と心臓モデルM1との心電図における時相を確認し、それらの時相が同じ時相となるように時相を調整する手段である。同じ時相に調整することにより、心臓画像G1と心臓モデルM1の形状を精度良く合わせこむことが可能になる。時相としては、例えば、拡張期の特定の時相、特に拡張末期を用いる。心臓の形状モデルを拡張末期の時相で構築した場合、拡張末期では、心臓画像G1と心臓モデルM1とが同じ状態(略静止状態)になるため、この拡張末期の心臓画像G1及び心臓モデルM1を用いた場合、それらの形状をより精度良く合わせこむことが可能である。   The time phase confirmation means 17a is a means for confirming the time phases in the electrocardiograms of the heart image G1 and the heart model M1, and adjusting the time phases so that these time phases are the same. By adjusting to the same time phase, the shapes of the heart image G1 and the heart model M1 can be accurately matched. As the time phase, for example, a specific time phase in the diastole, particularly the end diastole is used. When the heart shape model is constructed in the time phase of the end diastole, since the heart image G1 and the heart model M1 are in the same state (substantially stationary state) in the end diastole, the heart image G1 and the heart model M1 in the end diastole When is used, it is possible to match their shapes with higher accuracy.

医用画像情報取得手段17bは、特定の時相(例えば、拡張末期)における心臓画像G1を医用画像データベース3から取得する手段である。同様に、モデル情報取得手段17cは、特定の時相(例えば、拡張末期)における心臓モデルM1をモデルデータベース4から取得する手段である。なお、心臓モデルM1の情報としては、例えば、形態、機械バネ定数、静止膜電位及びイオン濃度等の設定値情報が取得される。   The medical image information acquisition unit 17b is a unit that acquires the heart image G1 in a specific time phase (for example, end diastole) from the medical image database 3. Similarly, the model information acquisition unit 17c is a unit that acquires the heart model M1 in a specific time phase (for example, end diastole) from the model database 4. As the information of the heart model M1, for example, set value information such as form, mechanical spring constant, resting membrane potential, and ion concentration is acquired.

この医用画像情報取得手段17bにより、例えば、図4及び図5に示すような心臓画像G1が医用画像データベース3から取得される。ここで、図5では、図4の心臓画像G1を2次元的に示している。また、モデル情報取得手段17cにより、例えば、図4及び図6に示すような心臓モデルM1がモデルデータベース4から取得される。ここで、図6では、図4の心臓モデルM1を2次元的に示している。   For example, a heart image G1 as shown in FIGS. 4 and 5 is acquired from the medical image database 3 by the medical image information acquisition means 17b. Here, in FIG. 5, the heart image G1 of FIG. 4 is shown two-dimensionally. Further, for example, a heart model M1 as shown in FIGS. 4 and 6 is acquired from the model database 4 by the model information acquisition means 17c. Here, in FIG. 6, the heart model M1 of FIG. 4 is shown two-dimensionally.

特異点抽出手段17dは、心臓画像G1から特異点を選択して抽出する手段である。同様に、特異点抽出手段17eは、心臓モデルM1から特異点を選択して抽出する手段である。この特異点としては、例えば、心尖部、弁の位置、大動脈、大静脈、冠動脈、心室中隔及び心房中隔等が挙げられる。なお、心臓画像G1上においては、特異点は自動抽出され、心臓モデルM1上においては、特異点は予め設定されおり、前述の設定値情報から得られる。   The singular point extraction unit 17d is a unit that selects and extracts a singular point from the heart image G1. Similarly, the singular point extraction unit 17e is a unit that selects and extracts a singular point from the heart model M1. Examples of this singular point include the apex, valve position, aorta, vena cava, coronary artery, ventricular septum, and atrial septum. Note that the singular point is automatically extracted on the heart image G1, and the singular point is set in advance on the heart model M1, and is obtained from the set value information described above.

この特異点抽出手段17dにより、図5に示すように、心臓画像G1では、例えば、複数の特異点A1〜A4が抽出される。また、この特異点抽出手段17eにより、図6に示すように、心臓モデルM1では、例えば、複数の特異点B1〜B4が得られる。ここで、各特異点A1〜A4、B1〜B4は、三次元の座標(x、y、z)で示される。なお、特異点A2及び特異点B2がそれぞれ原点とされている。   As shown in FIG. 5, the singular point extraction means 17d extracts, for example, a plurality of singular points A1 to A4 in the heart image G1. Further, as shown in FIG. 6, for example, a plurality of singular points B1 to B4 are obtained by the singular point extracting means 17e in the heart model M1. Here, each of the singular points A1 to A4 and B1 to B4 is indicated by three-dimensional coordinates (x, y, z). The singular point A2 and the singular point B2 are the origins.

内壁及び外壁の輪郭抽出手段17fは、心臓画像G1から心臓の内壁及び外壁の輪郭を抽出する手段である。同様に、内壁及び外壁の輪郭抽出手段17gは、心臓モデルM1から心臓の内壁及び外壁の輪郭を抽出する手段である。なお、心臓画像G1上においては、それらの輪郭は自動抽出され、心臓モデルM1上においては、それらの輪郭は予め設定されおり、前述の設定値情報から得られる。   The inner wall and outer wall contour extracting means 17f is a means for extracting the inner wall and outer wall contours of the heart from the heart image G1. Similarly, the inner wall and outer wall contour extracting means 17g is a means for extracting the inner wall and outer wall contours of the heart from the heart model M1. Note that the contours are automatically extracted on the heart image G1, and the contours are set in advance on the heart model M1, and are obtained from the set value information described above.

画像及びモデル間の特異点フィッティング手段17hは、心臓画像G1及び心臓モデルM1間において、各特異点A1〜A4、B1〜B4をフィッティングする手段である。このとき、心臓画像G1の各特異点A1〜A4が動かされても良いし、心臓モデルM1の各特異点B1〜B4が動かされても良い。これは、操作部14に対する操作者の入力操作に応じて予め設定されている。このフィッティング手段により、特異点A1〜A4、B1〜B4の移動情報(例えば、回転量や伸縮量等を示す変換係数)が求められる。この特異点A1〜A4、B1〜B4の移動情報は、合成用データD1として記憶部15に格納される。   The singular point fitting means 17h between images and models is means for fitting the singular points A1 to A4 and B1 to B4 between the heart image G1 and the heart model M1. At this time, each singular point A1 to A4 of the heart image G1 may be moved, or each singular point B1 to B4 of the heart model M1 may be moved. This is set in advance according to the input operation of the operator to the operation unit 14. By this fitting means, movement information (for example, a conversion coefficient indicating the rotation amount, expansion / contraction amount, etc.) of the singular points A1 to A4 and B1 to B4 is obtained. The movement information of the singular points A1 to A4 and B1 to B4 is stored in the storage unit 15 as synthesis data D1.

この画像及びモデル間の特異点フィッティング手段17hにより、図5及び図6に示すように、例えば、心臓画像G1の各特異点A1〜A4間の離間距離(特異点間距離)m1〜m5と、心臓モデルM1の各特異点B1〜B4間の離間距離(特異点間距離)n1〜n5とが一致するように(m1=n1、m2=n2、m3=n3、m4=n4、m5=n5)、心臓画像G1の各特異点A1〜A4又は心臓モデルM1の各特異点B1〜B4が動かされる。このときの各伸縮量が各セルに線形に分配され(線形分配)、すなわち各セルの伸縮量が線形に調整され、各セルの移動量(特異点の移動情報)が求められる。これらのセルの移動量は、合成用データD1として記憶部15に格納される。   The singular point fitting means 17h between the image and the model, for example, as shown in FIGS. 5 and 6, for example, the separation distances (distance between singular points) m1 to m5 between the singular points A1 to A4 of the heart image G1, The separation distances (distances between singular points) n1 to n5 between the singular points B1 to B4 of the heart model M1 match (m1 = n1, m2 = n2, m3 = n3, m4 = n4, m5 = n5). The singular points A1 to A4 of the heart image G1 or the singular points B1 to B4 of the heart model M1 are moved. Each expansion / contraction amount at this time is linearly distributed to each cell (linear distribution), that is, the expansion / contraction amount of each cell is linearly adjusted, and the movement amount of each cell (movement information of singular points) is obtained. The movement amounts of these cells are stored in the storage unit 15 as synthesis data D1.

画像及びモデル間の輪郭フィッティング手段17iは、心臓画像G1及び心臓モデルM1間において、内壁や外壁等の輪郭をフィッティングする手段である。このとき、心臓画像G1の輪郭が動かされても良いし、心臓モデルM1の輪郭が動かされても良い。これは、操作部14に対する操作者の入力操作に応じて予め設定されている。このフィッティング手段により、輪郭の移動情報(例えば、回転量や伸縮量等を示す変換係数)が求められる。この輪郭の移動情報は、合成用データD1として記憶部15に格納される。   The contour fitting means 17i between the image and the model is a means for fitting the contours of the inner wall and the outer wall between the heart image G1 and the heart model M1. At this time, the contour of the heart image G1 may be moved, or the contour of the heart model M1 may be moved. This is set in advance according to the input operation of the operator to the operation unit 14. By this fitting means, contour movement information (for example, a conversion coefficient indicating a rotation amount, an expansion / contraction amount, etc.) is obtained. The contour movement information is stored in the storage unit 15 as synthesis data D1.

この画像及びモデル間の輪郭フィッティング手段17iにより、図5及び図6に示すように、例えば、各特異点間距離m1〜m5、n1〜n5を固定しながら(各特異点A1〜A4、B1〜B4を固定しながら)、心臓画像G1の内壁における複数の中点(図5中の×印)から1つの中点a1が選択され、選択した中点a1に相関のある中点b1が心臓モデルM1から選択される。次いで、特異点A1−中点a1−特異点A4の形状と特異点B1−中点b1−特異点B4の形状とが一致するように心臓画像G1の中点a1又は心臓モデルM1の中点b1が動かされる。その動かされた中点a1又は中点b1に相当するセルも一緒に動かされる。このときの各伸縮量(セルが動いた分だけ)が各セルに線形に分配され(線形分配)、すなわち各セルの伸縮量が線形に調整され、各セルの移動量(輪郭の移動情報)が求められる。これらのセルの移動量は、合成用データD1として記憶部15に格納される。このような処理が全ての中点について行われ、また、心臓画像G1の外壁でも同様に行われる。   As shown in FIGS. 5 and 6, the contour fitting means 17i between the image and the model fixes, for example, the distances between singular points m1 to m5 and n1 to n5 (each singular point A1 to A4, B1 to B1). While fixing B4, one midpoint a1 is selected from a plurality of midpoints (marked with x in FIG. 5) on the inner wall of the heart image G1, and a midpoint b1 correlated with the selected midpoint a1 is a heart model. Selected from M1. Next, the middle point a1 of the heart image G1 or the middle point b1 of the heart model M1 so that the shape of the singular point A1-mid point a1-single point A4 and the shape of the singular point B1-mid point b1-single point B4 coincide. Is moved. The cell corresponding to the moved middle point a1 or middle point b1 is also moved together. Each expansion / contraction amount at this time (as much as the cell has moved) is linearly distributed to each cell (linear distribution), that is, the expansion / contraction amount of each cell is linearly adjusted, and the movement amount of each cell (contour movement information) Is required. The movement amounts of these cells are stored in the storage unit 15 as synthesis data D1. Such a process is performed for all the midpoints, and is similarly performed on the outer wall of the heart image G1.

画像及びモデルの位置合わせ手段17jは、記憶部15に格納された合成用データD1に基づいて、心臓画像G1と心臓モデルM1との位置合わせを行ってそれらを合成し、心臓画像G1及び心臓モデルM1の合成画像G2を生成する手段である。これにより、それらの合成画像G2が得られる。この合成画像G2は表示部13に表示され、加えて、必要に応じて記憶部15に保存される。   The image and model alignment unit 17j performs alignment between the heart image G1 and the heart model M1 based on the synthesis data D1 stored in the storage unit 15 and synthesizes them, and the heart image G1 and the heart model This is a means for generating a composite image G2 of M1. Thereby, those synthesized images G2 are obtained. The composite image G2 is displayed on the display unit 13 and, in addition, stored in the storage unit 15 as necessary.

この画像及びモデルの位置合わせ手段17jにより、合成用データD1、すなわち各セルの移動量を用いて、図4に示すように、心臓画像G1及び心臓モデルM1の位置合わせ(大きさ及び形状等)が合わせられ、心臓画像G1及び心臓モデルM1が合成される。これにより、心臓画像G1及び心臓モデルM1の合成画像G2が得られ、その合成画像G2は表示部13に表示される。このとき、合成画像G2上には、壁運動異常部分R1や壁厚異常部分R2もそれぞれ色を変えて表示される。   As shown in FIG. 4, the image and model alignment means 17j uses the synthesis data D1, that is, the amount of movement of each cell, to align the heart image G1 and the heart model M1 (size, shape, etc.). Are combined to synthesize a heart image G1 and a heart model M1. Thereby, the synthesized image G2 of the heart image G1 and the heart model M1 is obtained, and the synthesized image G2 is displayed on the display unit 13. At this time, the wall motion abnormal part R1 and the wall thickness abnormal part R2 are also displayed in different colors on the composite image G2.

画像及びモデル間の輪郭フィッティング手段17iと、画像及びモデルの位置合わせ手段17jとは、一般的に次のように構成することができる。フィッティング前において、心臓画像G1の各特異点A1〜A4は心臓画像上の座標系で表されており、心臓モデルM1の各特異点B1〜B4は心臓モデルの座標系で表されている。まず、これら心臓画像G1の特異点A1〜A4と心臓モデルM1の各特異点B1〜B4のそれぞれの座標系での座標値を用いて、両座標系の間の関係を求める。一般に、それらの関係はa=f(b)の様に表される。aは心臓画像の座標値であり、bは心臓モデルの座標値である。fは両者の座標の写像を表す関数であり、代表的な例としては線形関数による線形写像が挙げられる。他の例としては多項式関数やspline関数等が挙げられる。これらの後者の場合、変形を含むフィッティングを行うことができる。いずれの場合も関数fの具体的な形状は有限個のパラメータで表される。フィッティング処理では、心臓画像G1の各特異点A1〜A4と心臓モデルM1の各特異点B1〜B4との各々の座標値をa=f(b)に代入して得られる連立方程式を解くことにより、関数fのパラメータを決定する。得られたパラメータセットは心臓画像G1の座標系と心臓モデルM1の座標系との点の対応関係を具体的に表すものであり、これが決定された段階で、全ての点の対応関係が得られたことになる。心臓画像G1にて抽出された輪郭点a1、a2、・・・をa=f(b)に代入し、これらの心臓モデルM1内での対応する位置のb1、b2、・・・を求めることもできる。その逆に、心臓モデルM1の輪郭点b1、b2、・・・をa=f(b)に代入し、これらの心臓モデルM1内での対応する位置のa1、a2、・・・を求めることもできる。   The contour fitting means 17i between the image and the model and the image and model alignment means 17j can be generally configured as follows. Before fitting, the singular points A1 to A4 of the heart image G1 are represented by a coordinate system on the heart image, and the singular points B1 to B4 of the heart model M1 are represented by a coordinate system of the heart model. First, using the coordinate values in the coordinate systems of the singular points A1 to A4 of the heart image G1 and the singular points B1 to B4 of the heart model M1, the relationship between the two coordinate systems is obtained. In general, the relationship is expressed as a = f (b). a is the coordinate value of the heart image, and b is the coordinate value of the heart model. f is a function representing the mapping of the coordinates of both, and a typical example is a linear mapping by a linear function. Other examples include polynomial functions and spline functions. In these latter cases, fitting including deformation can be performed. In either case, the specific shape of the function f is represented by a finite number of parameters. In the fitting process, by solving the simultaneous equations obtained by substituting the coordinate values of the singular points A1 to A4 of the heart image G1 and the singular points B1 to B4 of the heart model M1 into a = f (b). The parameters of the function f are determined. The obtained parameter set specifically represents the correspondence between points in the coordinate system of the heart image G1 and the coordinate system of the heart model M1, and when this is determined, the correspondence between all points is obtained. That's right. Substituting the contour points a1, a2,... Extracted in the heart image G1 into a = f (b), and obtaining b1, b2,. You can also. Conversely, the contour points b1, b2,... Of the heart model M1 are substituted into a = f (b), and the corresponding positions a1, a2,. You can also.

このような画像処理部17では、シミュレーションとリアルタイム心エコーとの心電同期技術や呼吸動除去技術、加えて、心疾患シミュレーションとCT画像とをレジストレーションする技術、心疾患シミュレーションモデルとリアルタイム超音波画像の取得断面及び領域との位置合わせ技術、そのモデルから対応断面及び対応領域を切り出すMPR(Multi Planer Reformation)やVR(Volume Reformation)技術(バーチャルソノグラフィー技術)等が用いられる。   In such an image processing unit 17, an electrocardiographic synchronization technique and a respiratory motion removal technique between simulation and real-time echocardiography, a technique for registering a heart disease simulation and a CT image, a heart disease simulation model, and real-time ultrasound An alignment technique with an acquired cross section and region of an image, an MPR (Multi Planer Reformation) technique and a VR (Volume Reformation) technique (virtual sonography technique) that extract a corresponding cross section and a corresponding area from the model are used.

次に、このような医用画像診断装置1、特に、医用画像処理装置5の合成表示処理について図7及び図8を参照して説明する。医用画像処理装置5の制御部11が、画像処理部17により合成処理を行い、合成処理後の合成画像G2を表示する表示処理を実行する。ここでは、一例として、心臓画像G1を心臓モデルM1に合わす合成処理を行う。   Next, a composite display process of such a medical image diagnostic apparatus 1, in particular, the medical image processing apparatus 5, will be described with reference to FIGS. The control unit 11 of the medical image processing apparatus 5 performs a combining process by the image processing unit 17 and executes a display process for displaying the combined image G2 after the combining process. Here, as an example, a synthesis process for matching the heart image G1 with the heart model M1 is performed.

図7に示すように、制御部11は、画像処理部17により、同じ位相時間の心臓画像G1及び心臓モデルM1を選択し(ステップS1)、選択した心臓画像G1の各特異点A1〜A4(図5参照)を抽出し(ステップS2)、選択した心臓モデルM1の各特異点B1〜B4(図6参照)を抽出する(ステップS3)。   As shown in FIG. 7, the control unit 11 selects a heart image G1 and a heart model M1 having the same phase time by using the image processing unit 17 (step S1), and each singular point A1 to A4 ( (See FIG. 5) is extracted (step S2), and the singular points B1 to B4 (see FIG. 6) of the selected heart model M1 are extracted (step S3).

次いで、制御部11は、画像処理部17により、心臓画像G1の各特異点A1〜A4間の離間距離(特異点間距離)m1〜m5を算出し(ステップS4)、心臓モデルM1の各特異点B1〜B4間の離間距離(特異点間距離)n1〜n5を算出する(ステップS5)。   Next, the control unit 11 calculates the separation distances (distances between singular points) m1 to m5 between the singular points A1 to A4 of the heart image G1 by the image processing unit 17 (step S4), and each singularity of the heart model M1. The distances between the points B1 to B4 (distances between singular points) n1 to n5 are calculated (step S5).

次に、制御部11は、画像処理部17により、心臓画像G1及び心臓モデルM1の各特異点間距離m1〜m5、n1〜n5が同じになるように、心臓画像G1において原点となる特異点A2以外の特異点A1、A3、A4の1つを移動させ(ステップS6)、このときの伸縮方向と伸縮量に合わせて、その伸縮量を各セルに線形に分配し、すなわち各セルの伸縮量を線形に調整する(ステップS7)。その後、制御部11は、各セルの移動量及び変形量(特異点A1〜A4、B1〜B4の移動情報)を合成用データD1として記憶部15に保存する(ステップS8)。   Next, the control unit 11 causes the image processing unit 17 to use the singular point that is the origin in the heart image G1 so that the distances m1 to m5 and n1 to n5 between the singular points of the heart image G1 and the heart model M1 are the same. One of the singular points A1, A3, A4 other than A2 is moved (step S6), and the expansion / contraction amount is linearly distributed to each cell according to the expansion / contraction direction and expansion / contraction amount at this time, that is, expansion / contraction of each cell The amount is adjusted linearly (step S7). Thereafter, the control unit 11 stores the movement amount and deformation amount of each cell (movement information of the singular points A1 to A4 and B1 to B4) in the storage unit 15 as the synthesis data D1 (step S8).

さらに、制御部11は、特異点A1〜A4、B1〜B4の位置が完全に一致しているか否かを判断し(ステップS9)、それらの位置が完全に一致するまでステップS6〜S8を繰り返す(ステップS9のNO)。それらの位置が、設定された精度(例えば、1mm)の範囲内で完全に一致していると判断した場合には(ステップS9のYES)、図8に示すように、心臓画像G1の内壁を選択し(ステップS10)、選択した内壁の輪郭を抽出、すなわち内壁をトレースし(ステップS11)、トレースした線分中に複数の中点(図5及び図6参照)を設定する(ステップS12)。このときの中点の設定は、等間隔でもよく、偏っていてもよい。なお、前述の精度の設定は、操作部14に対する操作者の入力操作に応じて予め設定されている。   Further, the control unit 11 determines whether or not the positions of the singular points A1 to A4 and B1 to B4 are completely matched (Step S9), and repeats Steps S6 to S8 until those positions are completely matched. (NO in step S9). When it is determined that these positions are completely matched within a set accuracy (for example, 1 mm) (YES in step S9), the inner wall of the heart image G1 is displayed as shown in FIG. Select (step S10), extract the outline of the selected inner wall, that is, trace the inner wall (step S11), and set a plurality of midpoints (see FIGS. 5 and 6) in the traced line segment (step S12). . At this time, the midpoints may be set at equal intervals or may be biased. Note that the accuracy setting described above is set in advance in accordance with an input operation performed by the operator on the operation unit 14.

次に、制御部11は、画像処理部17により、複数の中点から1つの中点a1を選択し(ステップS13)、各特異点A1〜A4を固定させた状態で、その中点a1を移動させる(ステップS14)。このとき、例えば、制御部11は、心臓画像G1での異なる2つの特異点と中点とからなる形状(特異点A1−中点a1−特異点A4の形状)と、それらの特異点及び中点に対応する心臓モデルM1での異なる2つの特異点と中点とからなる形状(特異点B1−中点b1−特異点B4の形状)とが一致するように中点a1を動かす。このとき、中点a1に相当するセルもしくは要素(モデルを構成する要素)も一緒に動かされる。   Next, the control unit 11 selects one midpoint a1 from a plurality of midpoints by using the image processing unit 17 (step S13), and fixes each singular point A1 to A4 with the midpoint a1. Move (step S14). At this time, for example, the control unit 11 has a shape composed of two different singular points and a middle point in the heart image G1 (a singular point A1-a middle point a1-a shape of a singular point A4), and those singular points and middle points. The middle point a1 is moved so that the shape (the shape of the singular point B1-the middle point b1-the singular point B4) consisting of two different singular points and the middle point in the heart model M1 corresponding to the point matches. At this time, the cell or element (element constituting the model) corresponding to the midpoint a1 is also moved together.

次いで、制御部11は、このときの伸縮量を各セルに線形に分配し、すなわち各セルの伸縮量を線形に調整し、各セルの移動量(内壁の輪郭の移動情報)を合成用データD1として記憶部15に保存する(ステップS15)。各特異点A1〜A4と中点との距離及び方向が必要な精度内に達したか否かを判断し(ステップS16)、全ての中点においてその距離及び方向が必要な精度内に達するまで、ステップS13〜S15を繰り返す(ステップS16のNO)。   Next, the control unit 11 linearly distributes the expansion / contraction amount at this time to each cell, that is, linearly adjusts the expansion / contraction amount of each cell, and determines the movement amount of each cell (movement information of the contour of the inner wall) as data for synthesis. It is stored in the storage unit 15 as D1 (step S15). It is determined whether or not the distances and directions between the singular points A1 to A4 and the midpoints are within the required accuracy (step S16), and the distances and directions at all the midpoints are within the required accuracy. , Steps S13 to S15 are repeated (NO in Step S16).

その距離及び方向が必要な精度内に達したと判断した場合には(ステップS16のYES)、心臓画像G1の外壁を選択し(ステップS17)、選択した外壁の輪郭を抽出、すなわち外壁をトレースし(ステップS18)、トレースした線分中に複数の中点を設定する(ステップS19)。このときの中点の設定は、等間隔でもよく、偏っていてもよい。   If it is determined that the distance and direction have reached the required accuracy (YES in step S16), the outer wall of the heart image G1 is selected (step S17), and the outline of the selected outer wall is extracted, that is, the outer wall is traced. Then, a plurality of midpoints are set in the traced line segment (step S19). At this time, the midpoints may be set at equal intervals or may be biased.

次に、制御部11は、画像処理部17により、複数の中点から1つの中点を選択し(ステップS20)、特異点A1〜A4を固定させた状態で、その中点を移動させる(ステップS21)。このときも、前述同様、例えば、制御部11は、心臓画像G1での異なる2つの特異点と中点とからなる形状と、それらの特異点及び中点に対応する心臓モデルM1での異なる2つの特異点と中点とからなる形状とが一致するように中点を動かす。   Next, the control unit 11 uses the image processing unit 17 to select one midpoint from a plurality of midpoints (step S20), and moves the midpoint while fixing the singular points A1 to A4 ( Step S21). Also at this time, as described above, for example, the control unit 11 has two different singular points and midpoints in the heart image G1 and two different shapes in the heart model M1 corresponding to the singular points and midpoints. The midpoint is moved so that the shape consisting of one singular point and the midpoint matches.

次いで、制御部11は、このときの伸縮量を各セルに線形に分配し、すなわち各セルの伸縮量を線形に調整し、各セルの移動量(外壁の輪郭の移動情報)を合成用データD1として記憶部15に保存する(ステップS22)。各特異点と中点との距離及び方向が必要な精度内に達したか否かを判断し(ステップS23)、全ての中点においてその距離及び方向が必要な精度内に達するまで、ステップS20〜S22を繰り返す(ステップS23のNO)。   Next, the control unit 11 linearly distributes the expansion / contraction amount at this time to each cell, that is, linearly adjusts the expansion / contraction amount of each cell, and determines the movement amount of each cell (movement information of the contour of the outer wall) as data for synthesis. It is stored in the storage unit 15 as D1 (step S22). It is determined whether or not the distance and direction between each singular point and the midpoint have reached the required accuracy (step S23), and step S20 is performed until the distance and direction have reached the required accuracy at all the midpoints. To S22 are repeated (NO in step S23).

その距離及び方向が必要な精度内に達したと判断した場合には(ステップS23のYES)、記憶部15に保存されている合成用データD1、すなわち各セルの移動量を用いて、心臓画像G1を変形し、心臓モデルM1に一致させる(ステップS24)。これにより、心臓画像G1と心臓モデルM1との合成画像G2が得られる(図4参照)。制御部11は、その合成画像G2を表示部13に表示し、さらに、必要に応じて、その合成画像G2を記憶部15に保存する。このとき、制御部11は、合成画像G2上に壁運動異常部分R1や壁厚異常部分R2をそれぞれの色を変えて表示する。   When it is determined that the distance and direction have reached the required accuracy (YES in step S23), the composition data D1, which is stored in the storage unit 15, that is, the movement amount of each cell is used. G1 is deformed and matched with the heart model M1 (step S24). Thereby, a composite image G2 of the heart image G1 and the heart model M1 is obtained (see FIG. 4). The control unit 11 displays the composite image G2 on the display unit 13, and further stores the composite image G2 in the storage unit 15 as necessary. At this time, the control unit 11 displays the wall motion abnormal part R1 and the wall thickness abnormal part R2 on the composite image G2 by changing the respective colors.

このような合成表示処理により、合成画像G2が表示部13に表示され、医師等の診断者により視認される。このとき、心臓画像G1と心臓モデルM1とが1つの合成画像G2として表示され、被検体の心臓の形態情報とその機能情報との関係認識が容易になるので、診断者は被検体の心臓の状況(状態)を的確に把握することができる。さらに、心臓モデルM1上でシミュレーションするための疾患部位の情報が心臓画像G1上に重畳して表示されるので、注目部位である心臓の疾患に対する新たな質的診断情報を診断者に与えることができる。特に、診断者の経験や熟練度等に依存することなく、患者の心臓の状況(形態及び機能等)を的確に把握することが可能になるので、正確な診断を行うことができる。   With such a composite display process, the composite image G2 is displayed on the display unit 13 and is visually recognized by a diagnostician such as a doctor. At this time, the heart image G1 and the heart model M1 are displayed as one composite image G2, and it becomes easy to recognize the relationship between the heart shape information of the subject and its function information. The situation (state) can be accurately grasped. Furthermore, since information on a diseased part for simulation on the heart model M1 is displayed superimposed on the heart image G1, new qualitative diagnostic information for the disease of the heart, which is the target part, can be given to the diagnostician. it can. In particular, since it becomes possible to accurately grasp the condition (form and function, etc.) of the patient's heart without depending on the experience and skill level of the diagnostician, an accurate diagnosis can be performed.

さらに、合成画像G2に壁運動異常部分R1や壁厚異常部分R2等の異常部分を表示することによって、その異常部分が合成画像G2に表示され、心臓の状況に加え、その異常部分を即座にかつ正確に把握することができる。すなわち、壁運動異常がない状態のCT画像でA氏(個人)の心臓モデルM1を作成し、その心臓モデルM1を用いた心疾患シミュレーションによって、壁運動異常等の異常を合成画像G2上に再現することが可能になるので、心臓の疾患に対する新たな質的診断情報が医師等に与えられ、医師等の診断者は、被検体の心臓の形態情報とその機能情報との関係認識を容易に行うことができる。さらに、CT画像や超音波画像等の心臓画像G1と、心臓モデルM1の心疾患シミュレーションとの様々な比較検討及び比較診断を容易に行うことが可能になるので、患者の心臓の状況(形態及び機能等)を的確に把握することができ、その結果、正確な診断を行うことができる。   Furthermore, by displaying the abnormal part such as the wall motion abnormal part R1 and the wall thickness abnormal part R2 in the composite image G2, the abnormal part is displayed in the composite image G2, and the abnormal part is immediately displayed in addition to the state of the heart. And it can be grasped accurately. That is, Mr. A's (individual) heart model M1 is created from a CT image without any wall motion abnormalities, and abnormalities such as wall motion abnormalities are reproduced on the composite image G2 by a heart disease simulation using the heart model M1. Therefore, new qualitative diagnostic information for heart diseases is given to doctors, etc., and doctors and other diagnosticians can easily recognize the relationship between the heart shape information of the subject and its functional information. It can be carried out. Furthermore, since various comparative examinations and comparative diagnoses between the heart image G1 such as a CT image or an ultrasound image and the heart disease simulation of the heart model M1 can be easily performed, the patient's heart condition (form and Function etc.) can be accurately grasped, and as a result, an accurate diagnosis can be performed.

以上説明したように、本発明の実施の形態によれば、医用画像撮影装置2により撮影された画像であって被検体の注目部位を示す医用画像(例えば心臓画像G1)と、注目部位の疾患をシミュレーションするためのモデルであって注目部位を示す部位モデル(例えば心臓モデルM1)とを合成し、医用画像及び部位モデルの合成画像G2を生成することによって、医用画像と部位モデルとが1つの合成画像G2として表示され、被検体の注目部位の形態情報とその機能情報との関係認識が容易になるので、医師等の診断者は被検体の心臓の状況(状態)を的確に把握することができる。また、部位モデル上でシミュレーションするための疾患部位の情報を医用画像(診断画像)上に重畳し、合成画像G2として表示することが可能になるので、注目部位の疾患に対する新たな質的診断情報を与えることができる。その結果、医師等の診断者は被検体の注目部位の状況を的確に把握することができる。   As described above, according to the embodiment of the present invention, a medical image (for example, heart image G1) that is an image captured by the medical image capturing apparatus 2 and indicates a target region of a subject, and a disease in the target region. Is combined with a region model (for example, a heart model M1) indicating the region of interest, and a medical image and a combined image G2 of the region model are generated. Since it is displayed as a composite image G2 and it becomes easy to recognize the relationship between the form information of the region of interest of the subject and the function information thereof, a diagnostician such as a doctor can accurately grasp the state (state) of the subject's heart. Can do. In addition, since it becomes possible to superimpose information on a diseased part for simulation on a part model on a medical image (diagnostic image) and display it as a composite image G2, new qualitative diagnostic information for the disease of the attentional part Can be given. As a result, a diagnostician such as a doctor can accurately grasp the status of the site of interest of the subject.

特に、注目部位が心臓である場合には、CT画像や超音波画像等の心臓画像G1と心疾患シミュレーションの心臓モデルM1との複合的な診断情報(画像情報)を比較表示、すなわち重畳表示することが可能になるので、心疾患の総合診断環境を提供することができる。すなわち、虚血性心疾患や狭心症等に関する質的診断情報、例えば、心筋細胞のイオン電流の活性度や心筋細胞の機械的な伸縮度(動き)等を提示することができる。これにより、診断者は、心筋の梗塞状態や虚血状態を推測するための新たな質的診断情報を得ることができる。加えて、超音波画像だけではカバーすることができない広い視野領域で心機能を観察することができる。   In particular, when the site of interest is the heart, the combined diagnostic information (image information) of the heart image G1 such as a CT image or an ultrasound image and the heart model M1 of heart disease simulation is displayed in comparison, that is, superimposed. Therefore, it is possible to provide a comprehensive diagnosis environment for heart diseases. That is, it is possible to present qualitative diagnostic information related to ischemic heart disease, angina pectoris, and the like, for example, the activity of ionic current of cardiomyocytes, the mechanical stretching (movement) of cardiomyocytes, and the like. Thereby, the diagnostician can obtain new qualitative diagnostic information for estimating the infarct state or ischemic state of the myocardium. In addition, the cardiac function can be observed in a wide visual field area that cannot be covered only by the ultrasonic image.

また、医用画像(例えば心臓画像G1)と部位モデル(例えば心臓モデルM1)との合成を行う場合には、医用画像の複数の特異点A1〜A4及び部位モデルの複数の特異点B1〜B4を抽出し、抽出した医用画像の複数の特異点A1〜A4及び部位モデルの複数の特異点B1〜B4に基づいて医用画像の注目部位と部位モデルの注目部位との位置合わせを行うことによって、精度良く医用画像及び部位モデルの合成画像G2を生成することができる。   When a medical image (for example, heart image G1) and a part model (for example, heart model M1) are combined, a plurality of singular points A1 to A4 of the medical image and a plurality of singular points B1 to B4 of the part model are obtained. By extracting and aligning the attention site of the medical image and the attention site of the site model based on the plurality of singular points A1 to A4 of the extracted medical image and the plurality of singular points B1 to B4 of the site model, A composite image G2 of a medical image and a part model can be generated well.

さらに、位置合わせを行う場合には、抽出した医用画像(例えば心臓画像G1)の複数の特異点A1〜A4及び部位モデル(例えば心臓モデルM1)の複数の特異点B1〜B4に基づいて、医用画像の注目部位と部位モデルの注目部位との大きさを一致させ、抽出した医用画像の複数の特異点A1〜A4及び部位モデルの複数の特異点B1〜B4に基づいて、医用画像の注目部位と部位モデルの注目部位との形状を一致させることによって、より精度良く医用画像及び部位モデルの合成画像G2を生成することができる。   Furthermore, in the case of performing alignment, based on the plurality of singular points A1 to A4 of the extracted medical image (for example, heart image G1) and the plurality of singular points B1 to B4 of the region model (for example, heart model M1), The attention site of the medical image is matched with the size of the attention site of the image and the attention site of the site model, and based on the plurality of singular points A1 to A4 of the extracted medical image and the plurality of singular points B1 to B4 of the site model. By matching the shape of the region model with the target region of the region model, the medical image and the combined image G2 of the region model can be generated with higher accuracy.

加えて、大きさを一致させる場合には、抽出した医用画像(例えば心臓画像G1)の複数の特異点A1〜A4から各々の特異点間の離間距離m1〜m5及び抽出した部位モデル(例えば心臓モデルM1)の複数の特異点B1〜B4から各々の特異点間の離間距離n1〜n5を求め、求めた医用画像の各々の離間距離m1〜m5と求めた部位モデルの各々の離間距離n1〜n5とがそれぞれ同じになるように医用画像の注目部位と部位モデルの注目部位との大きさを一致させることから、容易な処理により医用画像及び部位モデルの合成画像G2を生成することが可能になり、さらに、医用画像及び部位モデルの大きさを精度良く一致させることが可能になるので、処理時間が長くなることを防止しつつ精度が高い合成画像G2を得ることができる。   In addition, when the sizes are matched, the distances m1 to m5 between the singular points from the plurality of singular points A1 to A4 of the extracted medical image (for example, the heart image G1) and the extracted part model (for example, the heart) The separation distances n1 to n5 between the singular points are obtained from the plurality of singular points B1 to B4 of the model M1), and the obtained separation distances m1 to m5 of the medical image and the obtained separation distances n1 to n5 of the part model. Since the size of the site of interest in the medical image and the site of interest in the site model are matched so that n5 is the same, it is possible to generate the combined image G2 of the medical image and site model through easy processing. In addition, since the sizes of the medical image and the part model can be made to coincide with each other with high accuracy, it is possible to obtain a highly accurate composite image G2 while preventing an increase in processing time. That.

また、形状を一致させる場合には、医用画像の注目部位(例えば心臓画像G1)の輪郭及び部位モデル(例えば心臓モデルM1)の注目部位の輪郭を抽出し、抽出した医用画像の複数の特異点及び抽出した部位モデルの複数の特異点に基づいて、抽出した医用画像の注目部位の輪郭と抽出した部位モデルの注目部位の輪郭とが同じになるように医用画像の注目部位と部位モデルの注目部位との形状を一致させることから、容易な処理により医用画像及び部位モデルの合成画像G2を生成することが可能になり、さらに、医用画像及び部位モデルの形状を精度良く一致させることが可能になるので、処理時間が長くなることを防止しつつ精度が高い合成画像G2を得ることができる。   In addition, in the case of matching the shapes, the contour of the target region (for example, heart image G1) of the medical image and the contour of the target region of the region model (for example, heart model M1) are extracted, and a plurality of specific points of the extracted medical image are extracted. In addition, based on a plurality of singular points of the extracted part model, the attention part of the medical image and the part model are focused so that the contour of the attention part of the extracted medical image and the contour of the attention part of the extracted part model are the same. By matching the shape with the part, it is possible to generate a composite image G2 of the medical image and the part model with easy processing, and furthermore, it is possible to match the shape of the medical image and the part model with high accuracy. Therefore, it is possible to obtain a synthesized image G2 with high accuracy while preventing an increase in processing time.

さらに、生成した合成画像G2に注目部位の異常部分(例えば、壁運動異常部分R1や壁厚異常部分R2)を示すことによって、その異常部分が合成画像G2に表示されるので、注目部位の疾患に対する新たな質的診断情報を与えることが可能になるので、診断者は心臓の状況に加え、その異常部分を即座にかつ正確に把握することができ、さらに、心臓の状況(形態及び機能等)に対する異常部分の位置関係等も容易に把握することができる。   Furthermore, since the abnormal part (for example, the wall motion abnormal part R1 or the wall thickness abnormal part R2) is displayed in the composite image G2 by showing the abnormal part (for example, the wall motion abnormal part R1 or the wall thickness abnormal part R2) in the generated composite image G2. It is possible to provide new qualitative diagnostic information for the diagnosis, so that the diagnostician can immediately and accurately grasp the abnormal part in addition to the heart condition, and further, the heart condition (form and function, etc.) ) Can be easily grasped.

(他の実施の形態)
なお、本発明は、前述の実施の形態に限るものではなく、その要旨を逸脱しない範囲において種々変更可能である。
(Other embodiments)
The present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the scope of the invention.

例えば、前述の実施の形態においては、医用画像情報(心臓画像G1)やモデル情報(心臓モデルM1)を取得する場合、時相として、拡張期の特定の時相(拡張末期)を用いているが、これに限るものではなく、他の時相を用いてもよく、さらに、時相毎に医用画像情報やモデル情報を取得して合成画像G2を生成するようにしてもよい。この場合には、生成した複数の合成画像G2を時系列に並べて表示部13に連続表示させることによって、心臓の状況の時系列的な変化を直感的に認識することが可能になるので、心臓の状況を容易に把握することができる。   For example, in the above-described embodiment, when acquiring medical image information (heart image G1) or model information (heart model M1), a specific time phase (end diastole) in the diastole is used as the time phase. However, the present invention is not limited to this, and other time phases may be used. Furthermore, medical image information and model information may be acquired for each time phase to generate the composite image G2. In this case, it is possible to intuitively recognize a time-series change in the state of the heart by arranging a plurality of generated composite images G2 in time series and continuously displaying them on the display unit 13, so that the heart Can easily grasp the situation.

また、前述の実施の形態においては、X線断層撮影装置(X線CT装置)や超音波診断装置等を用いて医用画像撮影装置2を構成しているが、これに限るものではなく、例えば、他の撮影装置を用いるようにしてもよく、さらに、X線断層撮影装置や超音波診断装置等の医用画像撮影装置2に医用画像処理装置5を組み込み、医用画像診断装置1を構成するようにしてもよい。   In the above-described embodiment, the medical imaging apparatus 2 is configured using an X-ray tomography apparatus (X-ray CT apparatus), an ultrasonic diagnostic apparatus, or the like. Other imaging apparatuses may be used, and further, the medical image processing apparatus 5 is incorporated in the medical imaging apparatus 2 such as an X-ray tomography apparatus or an ultrasonic diagnostic apparatus to constitute the medical image diagnostic apparatus 1. It may be.

本発明の実施の一形態に係る医用画像診断装置の概略構成を示すブロック図である。1 is a block diagram showing a schematic configuration of a medical image diagnostic apparatus according to an embodiment of the present invention. 図1に示す医用画像診断装置が備える医用画像処理装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the medical image processing apparatus with which the medical image diagnostic apparatus shown in FIG. 1 is provided. 図2に示す医用画像処理装置が備える画像処理部の概略構成を示すブロック図である。FIG. 3 is a block diagram illustrating a schematic configuration of an image processing unit included in the medical image processing apparatus illustrated in FIG. 2. 図3に示す画像処理部が行う画像合成を説明するための説明図である。It is explanatory drawing for demonstrating the image composition which the image process part shown in FIG. 3 performs. 図3に示す画像処理部が行う画像合成を説明するために心臓画像を示す模式図である。It is a schematic diagram which shows a heart image in order to demonstrate the image synthesis which the image process part shown in FIG. 3 performs. 図3に示す画像処理部が行う画像合成を説明するために心臓モデルを示す模式図である。It is a schematic diagram which shows a heart model in order to demonstrate the image synthesis which the image process part shown in FIG. 3 performs. 図1に示す医用画像診断装置、特に、図2に示す医用画像処理装置が行う合成処理の流れを示すフローチャートである。3 is a flowchart showing a flow of a synthesis process performed by the medical image diagnostic apparatus shown in FIG. 1, particularly, the medical image processing apparatus shown in FIG. 図1に示す医用画像診断装置、特に、図2に示す医用画像処理装置が行う合成処理の流れを示すフローチャートである。3 is a flowchart showing a flow of a synthesis process performed by the medical image diagnostic apparatus shown in FIG. 1, particularly, the medical image processing apparatus shown in FIG.

符号の説明Explanation of symbols

1 医用画像診断装置
2 医用画像撮影装置
5 医用画像処理装置
A1〜A4 特異点
B1〜B4 特異点
G1 医用画像(心臓画像)
G2 合成画像
M1 部位モデル(心臓モデル)
m1〜m5 離間距離(特異点離間距離)
n1〜n5 離間距離(特異点離間距離)
DESCRIPTION OF SYMBOLS 1 Medical image diagnostic apparatus 2 Medical image imaging device 5 Medical image processing apparatus A1-A4 Singular point B1-B4 Singular point G1 Medical image (heart image)
G2 Composite image M1 Site model (heart model)
m1-m5 separation distance (singular point separation distance)
n1-n5 separation distance (singular point separation distance)

Claims (8)

医用画像撮影装置により撮影された画像であって被検体の注目部位を示す医用画像と、前記注目部位の疾患をシミュレーションするためのモデルであって前記注目部位を示す部位モデルとを位置合わせをして合成し、前記医用画像及び前記部位モデルの合成画像を生成して表示する手段を備え
前記部位モデルは、モデルデータベースに記憶されており、機械バネ定数、静止膜電位及びイオン濃度の情報を含んでいることを特徴とする医用画像処理装置。
A medical image that is an image captured by a medical imaging apparatus and shows a target region of a subject and a region model that simulates a disease of the target region and indicates the target region are aligned. synthesized Te, comprising means for generating and displaying a composite image of the medical image and the site model,
The site model is stored in the model database, a medical image processing apparatus according to claim Rukoto comprise mechanical spring constant, resting membrane potential and the information of the ion concentration.
前記生成して表示する手段は、
前記医用画像の複数の特異点及び前記部位モデルの複数の特異点を抽出する手段と、
抽出した前記医用画像の複数の特異点及び前記部位モデルの複数の特異点に基づいて前記医用画像の注目部位と前記部位モデルの注目部位との位置合わせを行う手段と、
を具備していることを特徴とする請求項1記載の医用画像処理装置。
The means for generating and displaying is
Means for extracting a plurality of singular points of the medical image and a plurality of singular points of the part model;
Means for aligning a site of interest of the medical image and a site of interest of the site model based on the plurality of singular points of the extracted medical image and the plurality of singular points of the site model;
The medical image processing apparatus according to claim 1, further comprising:
前記位置合わせを行う手段は、
抽出した前記医用画像の複数の特異点及び前記部位モデルの複数の特異点に基づいて、前記医用画像の注目部位と前記部位モデルの注目部位との大きさを一致させる手段と、
抽出した前記医用画像の複数の特異点及び前記部位モデルの複数の特異点に基づいて、前記医用画像の注目部位と前記部位モデルの注目部位との形状を一致させる手段と、
を具備していることを特徴とする請求項2記載の医用画像処理装置。
The means for performing the alignment includes
Means for matching the size of the site of interest of the medical image and the site of interest of the site model based on the plurality of singular points of the extracted medical image and the plurality of singular points of the site model;
Means for matching the shapes of the attention site of the medical image and the attention site of the site model based on the plurality of singular points of the extracted medical image and the plurality of singular points of the site model;
The medical image processing apparatus according to claim 2, further comprising:
前記大きさを一致させる手段は、抽出した前記医用画像の複数の特異点から各々の特異点間の離間距離及び抽出した前記部位モデルの複数の特異点から各々の特異点間の離間距離を求め、求めた前記医用画像の各々の前記離間距離と求めた前記部位モデルの各々の前記離間距離とがそれぞれ同じになるように前記医用画像の注目部位と前記部位モデルの注目部位との大きさを一致させることを特徴とする請求項3記載の医用画像処理装置。   The means for matching the sizes obtains a separation distance between each singular point from a plurality of singular points of the extracted medical image and a separation distance between each singular point from the plurality of singular points of the extracted part model. The size of the attention site of the medical image and the attention site of the site model are set such that the obtained separation distance of each of the medical images and the obtained separation distance of each of the site models are the same. The medical image processing apparatus according to claim 3, wherein the medical image processing apparatuses match each other. 前記形状を一致させる手段は、前記医用画像の注目部位の輪郭及び前記部位モデルの注目部位の輪郭を抽出し、抽出した前記医用画像の複数の特異点及び前記部位モデルの複数の特異点に基づいて、抽出した前記医用画像の注目部位の輪郭と前記部位モデルの注目部位の輪郭とが同じになるように前記医用画像の注目部位と前記部位モデルの注目部位との形状を一致させることを特徴とする請求項3又は4記載の医用画像処理装置。   The means for matching the shapes extracts the outline of the site of interest of the medical image and the outline of the site of interest of the site model, and based on the extracted singular points of the medical image and the singular points of the site model And the shape of the target site of the medical image and the target site of the site model are matched so that the contour of the target site of the extracted medical image and the profile of the target site of the site model are the same. The medical image processing apparatus according to claim 3 or 4. 生成した前記合成画像に前記注目部位の異常部分を示す手段を備えることを特徴とする請求項1乃至5のいずれか一に記載の医用画像処理装置。   The medical image processing apparatus according to any one of claims 1 to 5, further comprising means for indicating an abnormal portion of the attention site in the generated composite image. 前記生成して表示する手段は、生成した前記合成画像を表示する表示部を備えることを特徴とする請求項1乃至6のいずれか一に記載の医用画像処理装置。 The medical image processing apparatus according to claim 1, wherein the generating and displaying unit includes a display unit that displays the generated composite image. 医用画像を撮影する医用画像撮影装置と、
請求項1乃至7のいずれか一に記載の医用画像処理装置と、
を備えることを特徴とする医用画像診断装置。
A medical image photographing device for photographing a medical image;
A medical image processing apparatus according to any one of claims 1 to 7;
A medical image diagnostic apparatus comprising:
JP2007196534A 2007-07-27 2007-07-27 Medical image processing apparatus and medical image diagnostic apparatus Active JP5173303B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007196534A JP5173303B2 (en) 2007-07-27 2007-07-27 Medical image processing apparatus and medical image diagnostic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007196534A JP5173303B2 (en) 2007-07-27 2007-07-27 Medical image processing apparatus and medical image diagnostic apparatus

Publications (2)

Publication Number Publication Date
JP2009028362A JP2009028362A (en) 2009-02-12
JP5173303B2 true JP5173303B2 (en) 2013-04-03

Family

ID=40399559

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007196534A Active JP5173303B2 (en) 2007-07-27 2007-07-27 Medical image processing apparatus and medical image diagnostic apparatus

Country Status (1)

Country Link
JP (1) JP5173303B2 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5566370B2 (en) 2009-02-26 2014-08-06 株式会社日立メディコ Medical image processing apparatus and method
JP5610129B2 (en) * 2010-03-26 2014-10-22 富士通株式会社 Three-dimensional template deformation method, apparatus and program
JP5653135B2 (en) * 2010-08-30 2015-01-14 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー Ultrasonic diagnostic apparatus and control program therefor
JP6016222B2 (en) * 2010-10-25 2016-10-26 東芝メディカルシステムズ株式会社 Medical image processing apparatus, medical image photographing apparatus, and medical image processing program
EP2675351B1 (en) 2011-02-17 2021-06-23 Tyto Care Ltd. System, handheld diagnostics device and methods for performing an automatic and remote trained personnel guided non-invasive medical examination
CA2827523C (en) * 2011-02-17 2019-09-10 Eon Medical Ltd. System and method for performing an automatic and self-guided medical examination
JP6135901B2 (en) * 2012-10-23 2017-05-31 富士通株式会社 Display processing program, display processing method, and display processing apparatus
JP6032610B2 (en) * 2013-04-15 2016-11-30 富士通株式会社 Display processing program, display processing method, and display processing apparatus
US9563979B2 (en) * 2014-11-28 2017-02-07 Toshiba Medical Systems Corporation Apparatus and method for registering virtual anatomy data
CN107205653B (en) 2015-01-09 2020-11-20 马克斯-普朗克科学促进学会 Method and device for characterizing the spatio-temporal dynamics of a medium that can be excited to deform
JP6797557B2 (en) * 2016-05-17 2020-12-09 キヤノンメディカルシステムズ株式会社 Medical image diagnostic equipment, medical image processing equipment and image display program
JP7165541B2 (en) * 2018-09-14 2022-11-04 富士フイルムヘルスケア株式会社 Volume data processing device, method and program
CN114617676A (en) * 2022-02-15 2022-06-14 源深(深圳)医疗器械有限责任公司 Elastic spring type ventricular diastole auxiliary device and personalized customization method thereof

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6449540A (en) * 1987-08-19 1989-02-27 Toshimitsu Musha Simulator for cardiac electric phenomenon
JPH08289877A (en) * 1995-04-24 1996-11-05 Toshiba Corp Simulation method for excitation propagation process of tissue and intra-tissue electromagnetic phenomenon diagnostic device
JPH10127623A (en) * 1996-10-29 1998-05-19 Shimadzu Corp Compound type medical diagnostic image system
JP3660781B2 (en) * 1997-05-26 2005-06-15 株式会社東芝 Diagnostic device for intracardiac electrical phenomena
JP4208275B2 (en) * 1997-10-30 2009-01-14 株式会社東芝 Diagnostic device for intracardiac electrical phenomenon and method for displaying the phenomenon
JP4342644B2 (en) * 1999-07-19 2009-10-14 株式会社東芝 Intracardiac electrical phenomenon diagnostic device
JP2001061803A (en) * 1999-08-24 2001-03-13 Chiba Inst Of Technology Biomagnetic field analyzer
JP4495803B2 (en) * 1999-08-30 2010-07-07 株式会社東芝 Intracardiac electrical phenomenon diagnostic device
WO2001029770A2 (en) * 1999-10-21 2001-04-26 Arch Development Corporation Detectnig asymetric abnormalities in chest radiography by contralateral and temporal subtraction technique using elastic matching
JP3711038B2 (en) * 2001-06-15 2005-10-26 バブコック日立株式会社 Skull superimposing method and apparatus
JP3878462B2 (en) * 2001-11-22 2007-02-07 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー Diagnostic imaging support system
US7117026B2 (en) * 2002-06-12 2006-10-03 Koninklijke Philips Electronics N.V. Physiological model based non-rigid image registration
JP4138445B2 (en) * 2002-10-28 2008-08-27 アロカ株式会社 Ultrasonic diagnostic equipment
JP3982817B2 (en) * 2003-03-07 2007-09-26 株式会社東芝 Image processing apparatus and image processing method
JP4359749B2 (en) * 2003-04-17 2009-11-04 株式会社日立メディコ Movement display method and diagnostic imaging apparatus for living tissue
JP4027867B2 (en) * 2003-09-10 2007-12-26 株式会社日立ハイテクノロジーズ Biomagnetic field measurement device
JP4503265B2 (en) * 2003-11-12 2010-07-14 株式会社日立メディコ X-ray CT system
JP2006198060A (en) * 2005-01-19 2006-08-03 Ziosoft Inc Image processing method and image processing program
JP2006204330A (en) * 2005-01-25 2006-08-10 Hitachi Medical Corp Image display device
US20070049817A1 (en) * 2005-08-30 2007-03-01 Assaf Preiss Segmentation and registration of multimodal images using physiological data
US8639485B2 (en) * 2005-11-14 2014-01-28 Immersion Medical, Inc. Systems and methods for editing a model of a physical system for a simulation

Also Published As

Publication number Publication date
JP2009028362A (en) 2009-02-12

Similar Documents

Publication Publication Date Title
JP5173303B2 (en) Medical image processing apparatus and medical image diagnostic apparatus
US11517241B2 (en) Mean TSI feature based determination method and system
JP6323451B2 (en) Image processing apparatus and program
US9665935B2 (en) Image processing device and program
JP5661453B2 (en) Image processing apparatus, ultrasonic diagnostic apparatus, and image processing method
EP1846896B1 (en) A method, a system and a computer program for integration of medical diagnostic information and a geometric model of a movable body
JP6424623B2 (en) Image processing apparatus and program
US11653897B2 (en) Ultrasonic diagnostic apparatus, scan support method, and medical image processing apparatus
JP2002306483A (en) Medical diagnosis image processing equipment and method thereof
JP6401459B2 (en) Image processing apparatus and image processing method
US9504852B2 (en) Medical image processing apparatus and radiation treatment apparatus
EP2681711B1 (en) Visualization for navigation guidance
JP2018519046A (en) Electromagnetic dynamic alignment for device navigation
JP2012205899A (en) Image generating method and system of body organ using three-dimensional model and computer readable recording medium
JP4616872B2 (en) Image display device and image display program
JP6510301B2 (en) MEDICAL SUPPORT SYSTEM, MEDICAL SUPPORT METHOD, IMAGE PROCESSING APPARATUS, AND CONTROL METHOD AND CONTROL PROGRAM THEREOF
JP2011125568A (en) Image processor, image processing method, program and image processing system
JP2009022459A (en) Medical image processing display device and its processing program
US9763591B2 (en) Method and system to subdivide a mapping area for mechanical activation analysis
US10078906B2 (en) Device and method for image registration, and non-transitory recording medium
JP4327139B2 (en) Image processing method and image processing program
US9380940B2 (en) Method and system for displaying a three dimensional visualization of cardiac motion
JP6797557B2 (en) Medical image diagnostic equipment, medical image processing equipment and image display program
JP2002140689A (en) Medical image processor and its method
JP2017225835A (en) Image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100705

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20100804

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20100908

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100817

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121227

R150 Certificate of patent or registration of utility model

Ref document number: 5173303

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350