JP2014042830A - Image processor, image processing method, image processing system, and program - Google Patents

Image processor, image processing method, image processing system, and program Download PDF

Info

Publication number
JP2014042830A
JP2014042830A JP2013208316A JP2013208316A JP2014042830A JP 2014042830 A JP2014042830 A JP 2014042830A JP 2013208316 A JP2013208316 A JP 2013208316A JP 2013208316 A JP2013208316 A JP 2013208316A JP 2014042830 A JP2014042830 A JP 2014042830A
Authority
JP
Japan
Prior art keywords
image
cross
tomographic
tomographic image
section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013208316A
Other languages
Japanese (ja)
Other versions
JP5709957B2 (en
Inventor
Takaaki Endo
隆明 遠藤
Kiyohide Sato
清秀 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013208316A priority Critical patent/JP5709957B2/en
Publication of JP2014042830A publication Critical patent/JP2014042830A/en
Application granted granted Critical
Publication of JP5709957B2 publication Critical patent/JP5709957B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To generate a high quality image of a target cross section by positioning tomographic image groups.SOLUTION: An object tomographic image group acquisition part 110 acquires a tomographic image group composed of a plurality of tomographic images, and a target cross section setting part 130 sets a target cross section. A positioning part 140 calculates a positioning parameter of respective tomographic images to perform positioning on the basis of a positional relation between the tomographic image group and the cross section. the tomographic image generation part 150 positions the tomographic image groups by using the positioning parameter of the respective tomographic images to generate an image of the target cross section.

Description

本発明は、超音波画像診断装置、光干渉断層計(OCT装置)、磁気共鳴映像装置(MRI装置)、X線コンピュータ断層撮影装置(X線CT装置)、などの医用画像収集装置(モダリティ)で撮像した画像を処理する装置及び方法に関する。   The present invention relates to a medical image acquisition apparatus (modality) such as an ultrasonic diagnostic imaging apparatus, an optical coherence tomography (OCT apparatus), a magnetic resonance imaging apparatus (MRI apparatus), and an X-ray computed tomography apparatus (X-ray CT apparatus). The present invention relates to an apparatus and a method for processing an image picked up in (1).

医療の分野において、医師は、被検体を撮像した断層画像をモニタに表示し、表示された医用画像を読影して病変部の診断を行う。断層画像を撮像する医用画像収集装置(以下、モダリティと呼ぶ)としては、以下のような装置が挙げられる。すなわち、超音波画像診断装置(以下、超音波装置と呼ぶ)、光干渉断層計(以下、OCT装置と呼ぶ)、磁気共鳴映像装置(以下、MRI装置と呼ぶ)、X線コンピュータ断層撮影装置(以下、X線CT装置と呼ぶ)などが挙げられる。   In the medical field, a doctor displays a tomographic image of a subject on a monitor, interprets the displayed medical image, and diagnoses a lesion. Examples of a medical image collection apparatus (hereinafter referred to as a modality) that captures a tomographic image include the following apparatuses. That is, an ultrasonic diagnostic imaging apparatus (hereinafter referred to as an ultrasonic apparatus), an optical coherence tomometer (hereinafter referred to as an OCT apparatus), a magnetic resonance imaging apparatus (hereinafter referred to as an MRI apparatus), an X-ray computed tomography apparatus ( (Hereinafter referred to as an X-ray CT apparatus).

これらのモダリティで撮像された断層画像を観察するだけでは、病変部の状態を正しく診断することが困難な場合がある。そこで、撮像時と異なる任意断面の画像を断層画像群から生成して、病変部を異なる角度で観察することにより、病変部の状態を正しく診断しようとする試みがなされている。   There are cases where it is difficult to correctly diagnose the state of a lesioned part only by observing a tomographic image taken with these modalities. Therefore, an attempt has been made to correctly diagnose the state of the lesion by generating an image of an arbitrary cross section different from that at the time of imaging from the tomographic image group and observing the lesion at a different angle.

例えば超音波装置では、通常は医師や技師が超音波探触子(以下、プローブと呼ぶ)を手に持って自由に動かしながら撮像を行うため、撮像した断層画像が人体を基準とした空間中のどの位置を撮像したものなのかが明らかではない。そこで、断層画像中の画像特徴に基づいて断層画像間の空間的な位置関係を求める試みがなされている(例えば非特許文献1)。断層画像間の空間的な位置関係が求められれば、公知の方法を用いて任意断面の画像を生成することができる。なお、以下では断層画像群を任意断面で切り出して得られる画像のことを断面画像と呼ぶ。   For example, in an ultrasound device, a doctor or engineer usually performs imaging while holding an ultrasound probe (hereinafter referred to as a probe) freely in his / her hand, so the tomographic image taken is in a space based on the human body. It is not clear which position of the image was taken. Therefore, an attempt has been made to obtain a spatial positional relationship between tomographic images based on image features in the tomographic images (for example, Non-Patent Document 1). If a spatial positional relationship between tomographic images is obtained, an image of an arbitrary cross section can be generated using a known method. Hereinafter, an image obtained by cutting out a tomographic image group with an arbitrary cross section is referred to as a cross-sectional image.

断層画像間の空間的な位置関係を求めて任意の断面画像を生成する上述の方法は、被検体が剛体であるという前提に基づいている。しかし、断層画像群を撮像する過程でのプローブの押し当てなどにより、現実の被検体には変形が生じてしまう。そのため、上述の方法で生成した断面画像の画質は劣化する場合がある。そこで、被検体の変形の影響を補正する試みがなされている。例えば非特許文献2には、隣接する断層画像間の画像特徴の対応付けに基づいてプローブの押し当てによる被検体の変形量を推定し、推定された変形量に基づいて各断層画像を引き伸ばすことによって被検体の変形の影響を補正する手法が開示されている。   The above-described method for obtaining an arbitrary cross-sectional image by obtaining a spatial positional relationship between tomographic images is based on the premise that the subject is a rigid body. However, the actual subject is deformed by pressing the probe in the process of capturing the tomographic image group. Therefore, the image quality of the cross-sectional image generated by the above method may be deteriorated. Therefore, attempts have been made to correct the influence of the deformation of the subject. For example, in Non-Patent Document 2, the deformation amount of the subject due to the pressing of the probe is estimated based on the association of image features between adjacent tomographic images, and each tomographic image is stretched based on the estimated deformation amount. Discloses a method for correcting the influence of deformation of the subject.

A.Gee,R.Prager,G.Treece,and L.Berman,“Engineering a freehand 3D ultrasound system,”Pattern Recognition Letters,vol.24,pp.757−777,2003.A. Gee, R.A. Prager, G .; Trees, and L.L. Berman, “Engineering a freehand 3D ultrasound system,” Pattern Recognition Letters, vol. 24, pp. 757-777, 2003. G.Treece,R.Prager,and L.Berman,“Correction of probe pressure artifacts in freehand 3D ultrasound,”Medical Image Analysis,vol.6,pp.199−214,2002.G. Trees, R.M. Prager, and L.L. Berman, “Collection of probe pressure artifacts in freehand 3D ultrasound,” Medical Image Analysis, vol. 6, pp. 199-214, 2002. W.Hoff and T.Vincent,“Analysis of head pose accuracy in augmented reality,”IEEE Transactions on Visualization and Computer Graphics,vo1.6,no.4,pp.319−334,2000.W. Hoff and T.W. Vincent, “Analysis of Head Pose Accuracy in Augmented Reality,” IEEE Transactions on Visualization and Computer Graphics, vo1.6, no. 4, pp. 319-334, 2000. C.Wachinger,W.Wein,and N.Navab,“Three−dimensional ultrasound mosaicing,”Proc.MICCAI 2007,pp.327−335,2007.C. Wachinger, W.M. Wein, and N.M. Navab, “Three-dimensional ultra sound mosaicing,” Proc. MICCAI 2007, pp. 327-335, 2007.

しかしながら非特許文献2の方法では、隣接する断層画像間の画像特徴を対応付けた結果を、断層画像中の画素の位置によらず利用していた。そのため、被検体の変形が場所によらず均一であるという仮定が成り立たない場合には、断層画像群の位置関係が全体的に均一にずれてしまい、生成される画像の画質が低くなるという不都合が生じていた。   However, in the method of Non-Patent Document 2, the result of associating image features between adjacent tomographic images is used regardless of the position of the pixel in the tomographic image. For this reason, when the assumption that the deformation of the subject is uniform regardless of the location does not hold, the positional relationship between the tomographic image groups is shifted uniformly, and the image quality of the generated image is lowered. Has occurred.

本発明はかかる課題を解決するためになされたものであり、被検体の複数の断層画像について夫々対応する部分領域と所定の面との距離が小さいほど、前記対応する部分領域の位置が合うように前記断層画像の位置合わせを行う位置合わせ手段と、前記所定の面の位置情報に基づいて、前記位置合わせがされた複数の断層画像から断面画像を生成する生成手段と、を有することを特徴とする。   The present invention has been made to solve such a problem, and the position of the corresponding partial region is more suitable as the distance between the corresponding partial region and the predetermined surface of each of the tomographic images of the subject is smaller. A positioning unit that performs positioning of the tomographic image, and a generating unit that generates a cross-sectional image from the plurality of aligned tomographic images based on positional information of the predetermined surface. And

かかる構成を有する本発明によれば、所定の面付近における位置合わせが優先して行われるため、断面画像を高画質に生成することができる。   According to the present invention having such a configuration, alignment in the vicinity of a predetermined surface is performed with priority, so that a cross-sectional image can be generated with high image quality.

第一の実施例に係る画像処理装置の機器構成を説明する図である。It is a figure explaining the apparatus structure of the image processing apparatus which concerns on a 1st Example. 画像処理装置が実行する位置合わせ処理の概要を示す図である。It is a figure which shows the outline | summary of the alignment process which an image processing apparatus performs. 第一の実施例における、全体の処理手順を示すフローチャートである。It is a flowchart which shows the whole process sequence in a 1st Example. 第一の実施例における、断層画像群の位置合わせパラメータの算出手順を示すフローチャートである。It is a flowchart which shows the calculation procedure of the alignment parameter of a tomographic image group in a 1st Example. 第二の実施例に係る画像処理装置の機器構成を説明する図である。It is a figure explaining the apparatus structure of the image processing apparatus which concerns on a 2nd Example. 第二の実施例における、全体の処理手順を示すフローチャートである。It is a flowchart which shows the whole process sequence in a 2nd Example. 第二の実施例における、断層画像群の位置合わせパラメータの算出手順を示すフローチャートである。It is a flowchart which shows the calculation procedure of the alignment parameter of a tomographic image group in a 2nd Example. 第三の実施例における、断層画像群の位置合わせパラメータの算出手順を示すフローチャートである。It is a flowchart which shows the calculation procedure of the alignment parameter of a tomographic image group in a 3rd Example.

以下、添付図面に従って本発明の好ましい実施例について詳説する。ただし、発明の範囲は記載内容または図示例に限定されるものではない。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the scope of the invention is not limited to the description or illustrated examples.

(MRI断層像を注目断面とする)本実施例に係る画像処理装置は、超音波診断装置によって予め撮像して得られた複数の断層画像の位置合わせを行い、その結果に基づいて、操作者(医師や技師)が指定した注目断面の二次元画像(断面画像)を生成する。その際に、断層画像群と注目断面との位置関係を考慮して位置合わせパラメータを算出することで、断面画像が高画質に生成されるようにする。本実施例では、各断層画像の位置姿勢、および、プローブの押し当てによる体内組織の圧縮変形量を、位置合わせパラメータとして用いる。なお、本実施例では、プローブの押し当てによって、各断層画像の縦方向(体表から体内に向かう方向)のみに、体表からの深さに比例した量だけ被検体が圧縮変形されると仮定する。以下、本実施例に係る画像処理装置について説明する。   The image processing apparatus according to the present embodiment (using an MRI tomographic image as a cross section of interest) aligns a plurality of tomographic images obtained in advance by an ultrasonic diagnostic apparatus, and based on the result, the operator A two-dimensional image (cross-sectional image) of the cross section of interest designated by the (doctor or engineer) is generated. At this time, the alignment parameter is calculated in consideration of the positional relationship between the tomographic image group and the target cross section so that the cross-sectional image is generated with high image quality. In this embodiment, the position and orientation of each tomographic image and the amount of compressive deformation of the body tissue due to the pressing of the probe are used as alignment parameters. In this embodiment, when the probe is pressed and deformed, the subject is compressed and deformed only in the longitudinal direction of each tomographic image (direction from the body surface to the body) by an amount proportional to the depth from the body surface. Assume. The image processing apparatus according to this embodiment will be described below.

図1(a)は、本実施例における画像処理システムの構成を示す。同図に示すように、本実施例における画像処理装置100は、対象断層画像群取得部110、参照断層画像群取得部120、注目断面設定部130、位置合わせパラメータ算出部140、断面画像生成部150によって構成される。そして、第1医用画像収集装置170によって被検体を予め撮像して得られた対象断層画像群と、第2医用画像収集装置180によって被検体を予め撮像して得られた参照断層画像群とを保持するデータサーバ190に接続されている。   FIG. 1A shows a configuration of an image processing system in the present embodiment. As shown in the figure, the image processing apparatus 100 according to the present embodiment includes a target tomographic image group acquisition unit 110, a reference tomographic image group acquisition unit 120, an attention slice setting unit 130, an alignment parameter calculation unit 140, and a slice image generation unit. 150. Then, a target tomographic image group obtained by imaging the subject in advance by the first medical image collection device 170 and a reference tomographic image group obtained by imaging the subject in advance by the second medical image collection device 180 are obtained. It is connected to the data server 190 that holds it.

データサーバ190が保持する対象断層画像群は、第1医用画像収集装置170としての超音波装置によって被検体を予め撮像して得られた、複数の二次元断層画像(超音波断層画像)である。なお、第1医用画像収集装置170によって被検体を撮像する際に、プローブの位置姿勢が位置姿勢センサで計測されているものとする。また、プローブの位置姿勢は、基準座標系(被検体を基準とした空間中の座標系)における夫々の超音波断層画像の位置姿勢に変換した上で、超音波断層画像と対応付けてデータサーバ190に保持されているものとする。位置姿勢センサは、例えば、米国Polhemus社のFASTRAK等によって構成される。なお、位置姿勢センサは、プローブの位置姿勢が計測できるのであれば、どのように構成されていてもよい。基準座標系で表現された対象断層画像群は、対象断層画像群取得部110を介して画像処理装置100に入力される。   The target tomographic image group held by the data server 190 is a plurality of two-dimensional tomographic images (ultrasound tomographic images) obtained by imaging a subject in advance by an ultrasonic device as the first medical image acquisition device 170. . It is assumed that the position and orientation of the probe are measured by the position and orientation sensor when the subject is imaged by the first medical image acquisition apparatus 170. Further, the position and orientation of the probe is converted into the position and orientation of each ultrasonic tomographic image in the reference coordinate system (the coordinate system in the space with the subject as a reference), and then associated with the ultrasonic tomographic image and the data server. 190 is held. The position / orientation sensor is configured by, for example, FASTRAK of Polhemus, USA. The position and orientation sensor may be configured in any way as long as the position and orientation of the probe can be measured. The target tomographic image group expressed in the reference coordinate system is input to the image processing apparatus 100 via the target tomographic image group acquisition unit 110.

一方、データサーバ190が保持する参照断層画像群は、第2医用画像収集装置180としてのMRI装置によって被検体を予め撮像して得られた複数のMRI断層画像である。なお、参照断層画像群を構成する各MRI断層画像の位置姿勢は、基準座標系に変換した上でデータサーバ190に保持されているものとする。基準座標系で表現された参照断層画像群は、参照断層画像群取得部120を介して画像処理装置100に入力される。   On the other hand, the reference tomographic image group held by the data server 190 is a plurality of MRI tomographic images obtained by imaging the subject in advance by the MRI apparatus as the second medical image acquisition apparatus 180. It is assumed that the position and orientation of each MRI tomographic image constituting the reference tomographic image group is held in the data server 190 after being converted into the standard coordinate system. The reference tomographic image group expressed in the reference coordinate system is input to the image processing apparatus 100 via the reference tomographic image group acquisition unit 120.

対象断層画像群取得部110は、画像処理装置100へ入力される対象断層画像群を取得して、位置合わせパラメータ算出部140へと出力する。ここで、対象断層画像の夫々には、データサーバ190が保持している当該断層画像の位置姿勢の情報が付帯しているものとする。   The target tomographic image group acquisition unit 110 acquires the target tomographic image group input to the image processing apparatus 100 and outputs it to the alignment parameter calculation unit 140. Here, it is assumed that information of the position and orientation of the tomographic image held by the data server 190 is attached to each target tomographic image.

参照断層画像群取得部120は、画像処理装置100へ入力される参照断層画像群を取得して、注目断面設定部130へと出力する。ここで、参照断層画像の夫々には、データサーバ190が保持している当該断層画像の位置姿勢の情報が付帯しているものとする。   The reference tomographic image group acquisition unit 120 acquires a reference tomographic image group input to the image processing apparatus 100 and outputs the reference tomographic image group to the attention slice setting unit 130. Here, it is assumed that information of the position and orientation of the tomographic image held by the data server 190 is attached to each reference tomographic image.

注目断面設定部130は、参照断層画像群取得部120の出力である参照断層画像群を取得し、参照断層画像群の中から1枚のMRI断層画像を選択する(操作者による選択を取得する)。そして、選択したMRI断層画像を表す断面を注目断面に設定し、その位置姿勢を位置合わせパラメータ算出部140および断面画像生成部150へと出力する。なお、以下では、選択したMRI断層画像を選択断層画像と呼ぶ。   The attention slice setting unit 130 acquires a reference tomographic image group that is an output of the reference tomographic image group acquiring unit 120, and selects one MRI tomographic image from the reference tomographic image group (acquires selection by the operator). ). Then, the cross section representing the selected MRI tomographic image is set as the cross section of interest, and the position and orientation thereof are output to the alignment parameter calculation section 140 and the cross section image generation section 150. Hereinafter, the selected MRI tomographic image is referred to as a selected tomographic image.

位置合わせパラメータ算出部140は、対象断層画像群と注目断面との位置関係を考慮しながら、対象断層画像群の位置合わせパラメータを算出する。そのために、対象断層画像群取得部110の出力である対象断層画像群を取得する。また、注目断面設定部130の出力である注目断面の位置姿勢を取得する。そして、これらに基づいて位置合わせパラメータを算出(補正)する。すなわち、対象断層画像群取得部110から得た夫々の断層画像の位置姿勢を補正し、また、プローブの押し当てによる体内組織の圧縮変形量の絶対値(以下、絶対圧縮変形量と呼ぶ)を夫々の断層画像に対して算出する。そして、算出した位置合わせパラメータを、断面画像生成部150へと出力する。なお、ここでいう位置合わせは、位置合わせの結果を表示させることのみを指すものではなく、位置合わせパラメータを算出し、位置合わせがされた断層画像群を表示するためのデータが生成されたことを持って、位置合わせの完了とする。   The alignment parameter calculation unit 140 calculates the alignment parameter of the target tomographic image group in consideration of the positional relationship between the target tomographic image group and the target slice. For this purpose, a target tomographic image group that is an output of the target tomographic image group acquiring unit 110 is acquired. Further, the position and orientation of the cross section of interest, which is the output of the cross section of interest setting unit 130, is acquired. Based on these, alignment parameters are calculated (corrected). That is, the position and orientation of each tomographic image obtained from the target tomographic image group acquisition unit 110 is corrected, and the absolute value of the amount of compressive deformation of the body tissue due to the pressing of the probe (hereinafter referred to as the absolute compressive deformation amount). Calculation is performed for each tomographic image. Then, the calculated alignment parameter is output to the cross-sectional image generation unit 150. Note that the alignment described here does not only indicate that the alignment result is displayed, but the alignment parameter is calculated and data for displaying the aligned tomographic image group is generated. To complete the alignment.

断面画像生成部150は、対象断層画像群からの断面画像の生成を、位置合わせパラメータに基づいて実行する。そのために、注目断面設定部130の出力である注目断面の位置姿勢を取得する。また、位置合わせパラメータ算出部140の出力である対象断層画像群の位置合わせパラメータを取得する。そして、これらに基づいて注目断面の画像(断面画像)を生成して出力する。位置合わせが済んだ断層画像群から所定の断面画像を生成する方法は周知の技術により実現可能である。   The cross-sectional image generation unit 150 generates a cross-sectional image from the target tomographic image group based on the alignment parameter. For this purpose, the position and orientation of the target section, which is the output of the target section setting unit 130, is acquired. Also, the alignment parameter of the target tomographic image group that is the output of the alignment parameter calculation unit 140 is acquired. Based on these, an image of a cross section of interest (cross-sectional image) is generated and output. A method of generating a predetermined cross-sectional image from a group of tomographic images that have been aligned can be realized by a known technique.

なお、図1(a)に示した各部(対象断層画像群取得部110、参照断層画像群取得部120、注目断面設定部130、位置合わせパラメータ算出部140、断面画像生成部150)の少なくとも一部は、独立した装置として実現してもよい。または、夫々1つもしくは複数のコンピュータにインストールし、コンピュータのCPUにより実行することで、その機能を実現するソフトウェアとして実現してもよい。本実施例では、各部は、それぞれソフトウェアにより実現され、同一のコンピュータにインストールされているものとする。   Note that at least one of the units (target tomographic image group acquisition unit 110, reference tomographic image group acquisition unit 120, attention slice setting unit 130, alignment parameter calculation unit 140, and sectional image generation unit 150) illustrated in FIG. The unit may be realized as an independent device. Alternatively, it may be implemented as software that implements its function by being installed in one or a plurality of computers and executed by the CPU of the computer. In this embodiment, each unit is realized by software and installed in the same computer.

図1(b)は、図1(a)に示した各部の夫々の機能を、ソフトウェアを実行することで実現するためのコンピュータの基本構成を示す図である。CPU1001は、RAM1002やROM1003に格納されたプログラムやデータを用いてコンピュータ全体の制御を行う。また、各部の夫々におけるソフトウェアの実行を制御して、各部の機能を実現する。RAM1002は、外部記憶装置1007や記憶媒体ドライブ1008からロードされたプログラムやデータを一時的に記憶するエリアを備えると共に、CPU1001が各種の処理を行うために必要とするワークエリアを備える。ROM1003は、一般にコンピュータのプログラムや設定データなどが格納されている。   FIG. 1B is a diagram illustrating a basic configuration of a computer for realizing the functions of the respective units illustrated in FIG. 1A by executing software. The CPU 1001 controls the entire computer using programs and data stored in the RAM 1002 and the ROM 1003. Further, the execution of software in each part is controlled to realize the function of each part. The RAM 1002 includes an area for temporarily storing programs and data loaded from the external storage device 1007 and the storage medium drive 1008, and a work area required for the CPU 1001 to perform various processes. The ROM 1003 generally stores computer programs and setting data.

キーボード1004、マウス1005は入力デバイスであり、操作者はこれらを用いて、各種の指示をCPU1001に入力することができる。表示部1006は、CRTや液晶ディスプレイなどにより構成されており、生成した断面画像の表示を行う。また、必要に応じて、参照断層画像やその他の画像の表示を行う。また、表示すべきメッセージやGUI等を表示することができる。   A keyboard 1004 and a mouse 1005 are input devices, and an operator can input various instructions to the CPU 1001 using these devices. The display unit 1006 includes a CRT, a liquid crystal display, and the like, and displays the generated cross-sectional image. In addition, a reference tomographic image and other images are displayed as necessary. In addition, a message to be displayed, a GUI, and the like can be displayed.

外部記憶装置1007は、ハードディスクドライブなどの大容量情報記憶装置として機能する装置であって、ここにOS(オペレーティングシステム)やCPU1001が実行するプログラム等を保存する。また本実施例の説明において、既知であると説明する情報はここに保存されており、必要に応じてRAM1002にロードされる。記憶媒体ドライブ1008は、CD−ROMやDVD−ROMなどの記憶媒体に記憶されているプログラムやデータをCPU1001からの指示に従って読み出して、RAM1002や外部記憶装置1007に出力する。I/F1009は、アナログビデオポートあるいはIEEE1394等のデジタル入出力ポートや、各種の情報を外部へ出力するためのイーサネット(登録商標)ポート等によって構成される。夫々が入力したデータはI/F1009を介してRAM1002に取り込まれる。対象断層画像群取得部110および参照断層画像群取得部120の機能の一部は、I/F1009によって実現される。   The external storage device 1007 is a device that functions as a large-capacity information storage device such as a hard disk drive, and stores an OS (operating system), a program executed by the CPU 1001, and the like. In the description of this embodiment, information that is described as being known is stored here, and loaded into the RAM 1002 as necessary. The storage medium drive 1008 reads a program or data stored in a storage medium such as a CD-ROM or DVD-ROM in accordance with an instruction from the CPU 1001 and outputs it to the RAM 1002 or the external storage device 1007. The I / F 1009 includes an analog video port or a digital input / output port such as IEEE 1394, an Ethernet (registered trademark) port for outputting various types of information to the outside, and the like. The data input by each is taken into the RAM 1002 via the I / F 1009. Some of the functions of the target tomographic image group acquisition unit 110 and the reference tomographic image group acquisition unit 120 are realized by the I / F 1009.

上述した各構成要素は、バス1010によって相互に接続される。   The above-described components are connected to each other by a bus 1010.

上述の構成を有する画像処理システムが全体として実行する処理の概要を、図2に基づいて説明する。画像処理装置100の対象断層画像群取得部110が第1医用画像収集装置170から取得した超音波断層画像群に対して、注目断面設定部130が注目断面を設定する(図2(a))。注目断面は、例えば超音波断層画像群と位置合わせが済んでいるMRI断層画像群から設定する。断面画像生成部150はこの注目断面による断面画像を超音波断層画像群から生成する。   An overview of processing executed as a whole by the image processing system having the above-described configuration will be described with reference to FIG. The target cross-section setting unit 130 sets a target cross section for the ultrasonic tomographic image group acquired from the first medical image acquisition apparatus 170 by the target tomographic image group acquiring unit 110 of the image processing apparatus 100 (FIG. 2A). . For example, the cross section of interest is set from an MRI tomographic image group that has been aligned with the ultrasonic tomographic image group. The cross-sectional image generation unit 150 generates a cross-sectional image based on the target cross-section from the ultrasonic tomographic image group.

注目断面による断面画像を生成する際に、画像処理装置100は超音波断層画像群をこの注目断面に対して最適化した位置合わせを行う。このために、位置合わせパラメータ算出部140は隣り合う二つの超音波断層画像について、夫々対応する部分領域を複数特定する(図2(b))。対応する部分領域の特定は、画像情報を用いて行う。そして特定された部分領域のうち、注目断面との距離が小さいほど正確に位置の対応が合うように二つの超音波断層画像の位置合わせパラメータを算出することで位置合わせを行う。そして、任意の隣り合う超音波断層画像に対して上記位置合わせを行うことで、超音波断層画像群の位置合わせを行う。位置合わせがされた超音波断層画像群により、断面画像生成部150は注目断面について高画質な断面画像を生成することができる。   When generating a cross-sectional image based on the cross section of interest, the image processing apparatus 100 performs alignment by optimizing the ultrasonic tomographic image group with respect to the cross section of interest. For this purpose, the alignment parameter calculation unit 140 specifies a plurality of corresponding partial regions for two adjacent ultrasonic tomographic images (FIG. 2B). The corresponding partial area is specified using image information. Then, among the identified partial areas, the alignment is performed by calculating the alignment parameters of the two ultrasonic tomographic images so that the correspondence between the positions becomes more accurate as the distance from the target cross section is smaller. Then, by aligning the arbitrary adjacent ultrasonic tomographic images, the ultrasonic tomographic image group is aligned. The cross-sectional image generation unit 150 can generate a high-quality cross-sectional image for the cross-section of interest using the aligned ultrasonic tomographic image group.

図3は、画像処理装置100が行う全体の処理手順を示すフローチャートである。なお、本実施例では、同フローチャートはCPU1001が各部の機能を実現するプログラムを実行することにより実現される。なお、以下の処理を行う前段で、同フローチャートに従ったプログラムコードは、例えば外部記憶装置1007からRAM1002に既にロードされているものとする。   FIG. 3 is a flowchart showing an overall processing procedure performed by the image processing apparatus 100. In the present embodiment, the flowchart is realized by the CPU 1001 executing a program that realizes the function of each unit. It is assumed that the program code according to the flowchart is already loaded from, for example, the external storage device 1007 to the RAM 1002 in the previous stage of performing the following processing.

(S3000) (データの取得)
ステップS3000において、画像処理装置100は、対象断層画像群取得部110の処理として対象断層画像群を取得する。また、参照断層画像群取得部120の処理として参照断層画像群を取得する。
(S3000) (Data acquisition)
In step S3000, the image processing apparatus 100 acquires a target tomographic image group as a process of the target tomographic image group acquisition unit 110. Further, a reference tomographic image group is acquired as a process of the reference tomographic image group acquiring unit 120.

(S3010) (注目断面の選択)
ステップS3010において、画像処理装置100は、注目断面設定部130の処理として、まず、参照断層画像群の中から操作者の指示にしたがって断層画像を選択し、これを選択断層画像とする。例えば、不図示のUIを介して操作者から「順送り」の指示を取得した場合には、参照断層画像群を構成する断層画像の撮像時刻の順番に従って断層画像を1枚ずつ順送りで表示部1006上に表示する。一方、「逆送り」の指示を取得した場合には、参照断層画像群を構成する断層画像の撮像時刻の逆順に断層画像を1枚ずつ逆送りで表示する。そして、不図示のUIを介して操作者から「選択」の指示を取得した場合には、現在表示されている断層画像を選択断層画像として選択する。そして、選択断層画像の基準座標系における位置姿勢を注目断面の位置姿勢として設定する。
(S3010) (Select section of interest)
In step S3010, as the processing of the attention slice setting unit 130, the image processing apparatus 100 first selects a tomographic image from the reference tomographic image group according to an instruction from the operator, and sets this as a selected tomographic image. For example, when an instruction of “forward feeding” is acquired from the operator via a UI (not shown), the display unit 1006 sequentially forwards the tomographic images one by one according to the order of the imaging times of the tomographic images constituting the reference tomographic image group. Display above. On the other hand, when the “reverse feed” instruction is acquired, the tomographic images are displayed one by one in the reverse order of the imaging times of the tomographic images constituting the reference tomographic image group. When a “selection” instruction is acquired from the operator via a UI (not shown), the currently displayed tomographic image is selected as the selected tomographic image. Then, the position and orientation of the selected tomographic image in the reference coordinate system are set as the position and orientation of the cross section of interest.

(S3020) (位置合わせパラメータの算出)
ステップS3020において、画像処理装置100は、位置合わせパラメータ算出部140の処理として、ステップS3010で設定した注目断面の位置姿勢に基づいて、対象断層画像群の位置合わせパラメータを算出(補正)する。なお、本ステップにおける位置合わせパラメータ算出部140の処理の詳細は、図4に示すフローチャートを用いて後に詳しく説明する。
(S3020) (Calculation of alignment parameter)
In step S3020, the image processing apparatus 100 calculates (corrects) the alignment parameter of the target tomographic image group based on the position and orientation of the target cross section set in step S3010 as the processing of the alignment parameter calculation unit 140. Details of the processing of the alignment parameter calculation unit 140 in this step will be described later in detail using the flowchart shown in FIG.

(S3030) (断面画像の生成)
ステップS3030において、画像処理装置100は、断面画像生成部150の処理として、ステップS3010で設定した注目断面の断面画像を生成する。具体的には、はじめに、ステップS3020で得た位置合わせパラメータの一部である被検体の絶対圧縮変形量に基づいて、夫々の対象断層画像の引き伸ばしを行う。そして、引き伸ばした後の対象断層画像群とステップS3020で得たそれらの位置姿勢を利用して、注目断面の画像を生成する。なお、絶対圧縮変形量を与えた場合の断層画像の引き伸ばし方法や、位置姿勢が既知の断層画像群から任意の断面画像を生成する方法については周知であるので、その詳細に関する説明は省略する。
(S3030) (Generation of cross-sectional image)
In step S3030, the image processing apparatus 100 generates the cross-sectional image of the target cross-section set in step S3010 as the process of the cross-sectional image generation unit 150. Specifically, first, each target tomographic image is stretched based on the absolute compression deformation amount of the subject that is a part of the alignment parameter obtained in step S3020. Then, an image of the cross section of interest is generated using the enlarged target tomographic image group and the position and orientation obtained in step S3020. Note that a method for enlarging a tomographic image when an absolute compressive deformation amount is given and a method for generating an arbitrary cross-sectional image from a group of tomographic images with known positions and orientations are well known, and thus detailed description thereof is omitted.

(S3040) (断面画像の出力)
ステップS3040において、画像処理装置100は、ステップS3030で生成した断面画像を、表示部1006に表示する。また、必要に応じて、I/F1009を介してこれを外部へと出力する。あるいは、他のアプリケーションから利用可能な状態としてRAM1002上に格納する。
(S3040) (Output of cross-sectional image)
In step S3040, the image processing apparatus 100 displays the cross-sectional image generated in step S3030 on the display unit 1006. Further, this is output to the outside via the I / F 1009 as necessary. Alternatively, it is stored in the RAM 1002 as a state that can be used by other applications.

以上によって、画像処理装置100の処理が実施される。   As described above, the processing of the image processing apparatus 100 is performed.

図4は、上述のステップS3020における位置合わせパラメータ算出部140の処理手順を示すフローチャートである。   FIG. 4 is a flowchart showing a processing procedure of the alignment parameter calculation unit 140 in step S3020 described above.

(S4000) (未処理の断層画像の選択)
ステップS4000において、位置合わせパラメータ算出部140は、対象断層画像群を構成する各断層画像から、以下に示すステップS4010〜S4037の処理を行っていない1枚の断層画像を未処理断層画像として選択する。本実施例では、撮像された時刻の順番に断層画像を選択する。この場合には通常は、隣り合う断層画像を順に位置合わせしていくこととなる。
(S4000) (Selection of unprocessed tomographic image)
In step S4000, the alignment parameter calculation unit 140 selects, from the tomographic images constituting the target tomographic image group, one tomographic image that has not been subjected to the processes of steps S4010 to S4037 described below as an unprocessed tomographic image. . In this embodiment, the tomographic images are selected in the order of the imaged times. In this case, normally, adjacent tomographic images are sequentially aligned.

(S4010) (処理対象領域の選択)
ステップS4010において、位置合わせパラメータ算出部140は、未処理断層画像を部分領域に分割して、そこから複数の処理対象領域を選択する。本実施例では、注目する部分領域が十分発達したスペックル(fully developed speckle)領域である場合に、その領域を処理対象領域として選択する。ここで、スペックルとは、生体組織からの超音波信号が干渉し合って超音波断層画像内に発生する斑紋状のノイズである。
(S4010) (Selection of processing target area)
In step S4010, the alignment parameter calculation unit 140 divides the unprocessed tomographic image into partial regions, and selects a plurality of processing target regions therefrom. In this embodiment, when the partial region of interest is a fully developed speckle region, the region is selected as a processing target region. Here, the speckle is mottled noise generated in an ultrasonic tomographic image due to interference of ultrasonic signals from a living tissue.

具体的には以下の処理を実行する。まず、未処理断層画像を例えば10×10個の互いに重ならない部分領域に分割する。次に、各部分領域が十分発達したスペックルノイズ領域(部分領域内の画素値が指数分布に従うという性質を有している)であるかどうかを、公知の方法で判定する。例えば、部分領域内の画素値の平均値と標準偏差の比が1に近いかどうかで判定する。そして、十分発達したスペックルノイズ領域と判定された部分領域を、処理対象領域として選択する。   Specifically, the following processing is executed. First, the unprocessed tomographic image is divided into, for example, 10 × 10 non-overlapping partial regions. Next, it is determined by a known method whether each partial area is a sufficiently developed speckle noise area (having a property that pixel values in the partial area follow an exponential distribution). For example, the determination is made based on whether the ratio between the average value of the pixel values in the partial area and the standard deviation is close to 1. Then, a partial area determined to be a sufficiently developed speckle noise area is selected as a processing target area.

(S4020) (処理対象領域の対応付け)
ステップS4020において、位置合わせパラメータ算出部140は、ステップS4010で処理対象領域として選択した各部分領域に対応する領域を、未処理断層画像の直前の時刻に撮像された断層画像内で探索する。本実施例では、正規化相互相関基準を用いたテンプレートマッチングによって、所定の探索範囲内において類似度が最も高い領域を探索する。そして、類似度が最も高いと判定された領域を対応領域として選択する。
(S4020) (Association of processing target areas)
In step S4020, the alignment parameter calculation unit 140 searches for a region corresponding to each partial region selected as the processing target region in step S4010 in the tomographic image captured at the time immediately before the unprocessed tomographic image. In the present embodiment, an area having the highest similarity is searched within a predetermined search range by template matching using a normalized cross correlation criterion. Then, the area determined to have the highest similarity is selected as the corresponding area.

(S4030) (相対位置合わせパラメータの算出)
ステップS4030において、位置合わせパラメータ算出部140は、ステップS4010で選択した複数の処理対象領域の位置情報とステップS4020で選択した複数の対応領域の位置情報とに基づいて、2枚の断層画像間の位置合わせパラメータを算出する。その際に、注目断面からの距離に応じた重みを付けた計算を行う。ここで、2枚の断層画像間の位置合わせパラメータは、並進成分(tx,ty,tz)、回転成分(roll,pitch,yaw)、および体表からの深さyに応じた体内組織の相対圧縮変形量p(y)から構成されるものとする。なお、p(y)は、深さyにおける2枚の断層画像間の相対変位量を表すものとする。
(S4030) (Calculation of relative alignment parameter)
In step S4030, the alignment parameter calculation unit 140 determines between the two tomographic images based on the position information of the plurality of processing target areas selected in step S4010 and the position information of the plurality of corresponding areas selected in step S4020. Calculate alignment parameters. At that time, a calculation with a weight according to the distance from the cross section of interest is performed. Here, the alignment parameters between the two tomographic images are the translational components (tx, ty, tz), the rotational components (roll, pitch, yaw), and the relative body tissue relative to the depth y from the body surface. It is assumed to be composed of the compression deformation amount p (y). Note that p (y) represents a relative displacement amount between two tomographic images at a depth y.

具体的には、まず、被検体が圧縮変形していないものと仮定して、次式によって面内移動成分(tx,ty,roll)を算出する。   Specifically, first, assuming that the subject is not compressed and deformed, an in-plane moving component (tx, ty, roll) is calculated by the following equation.

Figure 2014042830
Figure 2014042830

ここで、xdst_n=[xdst_n ydst_n 0 1]Tはn番目(n=1〜N)の処理対象領域の断層画像座標系における位置を表す。NはステップS4010で選択された処理対象領域の数である。また、xsrc_n=[xsrc_n ysrc_n 0 1]Tはn番目の処理対象領域に対応する対応領域の断層画像座標系における位置を表す。また、式1の右辺の左側の行列に付加された記号+は、当該行列の一般化逆行列を表している。   Here, xdst_n = [xdst_n ydst_n 0 1] T represents the position in the tomographic image coordinate system of the nth (n = 1 to N) processing target region. N is the number of processing target areas selected in step S4010. Moreover, xsrc_n = [xsrc_n ysrc_n 0 1] T represents the position in the tomographic image coordinate system of the corresponding area corresponding to the nth processing target area. Further, the symbol + added to the left matrix on the right side of Equation 1 represents a generalized inverse matrix of the matrix.

なお、上記の式1は、回転角が微小であると仮定した場合に成立する処理対象領域およびその対応領域の位置と面内移動成分との関係を表す次式を、面内移動成分について解くことによって導出できる。   The above equation 1 solves the following expression representing the relationship between the position of the processing target region and the corresponding region and the in-plane moving component that is satisfied when the rotation angle is small, with respect to the in-plane moving component. Can be derived by

Figure 2014042830
Figure 2014042830

なお、実際の処理では、式1において、n番目の処理対象領域から注目断面までの距離が近い場合には、例えばn番目の領域に関する行を複数個並べることによって、注目断面からの距離に応じた重みを付ける。例えば、距離に反比例して最大3個の行を並べればよい。すなわち、第一の閾値と第二の閾値を予め用意しておいて、注目断面までの距離が第一の閾値未満の処理対象領域には3個、第一の閾値以上かつ第二の閾値未満の処理対象領域には2個、第二の閾値以上の処理対象領域には1個の行の割り当てを行う。また、第二の閾値より大きい第三の閾値をさらに用いて、注目断面までの距離が第三の閾値以上の場合にはその処理対象領域は処理対象から除外するという構成であってもよい。   In actual processing, in Formula 1, when the distance from the nth processing target region to the target cross section is short, for example, by arranging a plurality of rows related to the nth region, the distance from the target cross section is determined. Weight. For example, a maximum of three rows may be arranged in inverse proportion to the distance. That is, the first threshold value and the second threshold value are prepared in advance, and three processing target regions whose distance to the target cross section is less than the first threshold value are greater than or equal to the first threshold value and less than the second threshold value. Two rows are allocated to the processing target area, and one row is allocated to the processing target area equal to or greater than the second threshold. In addition, a third threshold value that is larger than the second threshold value may be further used to exclude the processing target region from the processing target when the distance to the target cross section is equal to or greater than the third threshold value.

なお、処理対象領域から注目断面までの距離は、以下のように算出する。まず、未処理断層画像の位置姿勢と、断層画像座標系における処理対象領域の位置に基づいて、基準座標系における処理対象領域の位置を求める。そして、基準座標系における処理対象領域の位置と注目断面の位置姿勢に基づいて、両者の距離を算出すればよい。なお、本ステップの処理が最初に行われる場合には、未処理断層画像の位置姿勢の初期値として、対象断層画像群取得部110から得た2枚の断層画像の位置姿勢の相対値を用いる。   The distance from the processing target area to the target cross section is calculated as follows. First, the position of the processing target area in the reference coordinate system is obtained based on the position and orientation of the unprocessed tomographic image and the position of the processing target area in the tomographic image coordinate system. Then, the distance between them may be calculated based on the position of the processing target region in the reference coordinate system and the position and orientation of the target cross section. When the processing of this step is performed first, the relative value of the position and orientation of the two tomographic images obtained from the target tomographic image group acquisition unit 110 is used as the initial value of the position and orientation of the unprocessed tomographic image. .

次に、被検体が圧縮変形していないという仮定の下で、面外移動成分(tz,pitch,yaw)を算出する。ここで、処理対象領域が十分発達したスペックルノイズ領域の場合には、対応領域との間の三次元距離と相関値の関係を示す平均相関曲線が、ガウス曲線となることが知られている。本実施例では、この三次元距離と相関値の関係を示す平均相関曲線を、既知の情報として画像処理装置100が予め保持しているものとする。位置合わせパラメータ算出部140は、この平均相関曲線を利用して、夫々の処理対象領域とその対応領域との間の相関値に基づいて、当該領域間の三次元距離dznを算出する。そして、次式によって面外移動成分を算出する。   Next, an out-of-plane moving component (tz, pitch, yaw) is calculated under the assumption that the subject is not compressed and deformed. Here, when the processing target region is a sufficiently developed speckle noise region, it is known that an average correlation curve indicating a relationship between a three-dimensional distance to a corresponding region and a correlation value is a Gaussian curve. . In this embodiment, it is assumed that the image processing apparatus 100 holds an average correlation curve indicating the relationship between the three-dimensional distance and the correlation value as known information. The alignment parameter calculation unit 140 uses the average correlation curve to calculate a three-dimensional distance dzn between the regions based on the correlation value between each processing target region and its corresponding region. Then, the out-of-plane moving component is calculated by the following equation.

Figure 2014042830
Figure 2014042830

なお、上記の式3は、回転角が微小であると仮定した場合に成立する領域間の三次元距離と面外移動成分との関係を表す次式を、面外移動成分について解くことによって導出できる。   Equation 3 above is derived by solving the following equation representing the relationship between the three-dimensional distance between regions and the out-of-plane movement component, which is established when it is assumed that the rotation angle is small. it can.

Figure 2014042830
Figure 2014042830

式3においても、実際の処理では、n番目の処理対象領域から注目断面までの距離が近い場合には、例えばn番目の領域に関する行を複数個並べることによって、注目断面からの距離に応じた重みを付ける。   Also in Equation 3, in the actual processing, when the distance from the n th processing target region to the target cross section is short, for example, by arranging a plurality of rows related to the n th region, the distance from the target cross section is determined. Give weight.

さらに、上述の処理によって算出された2枚の断層画像間の位置姿勢と、位置姿勢センサによって計測された2枚の断層画像間の位置姿勢とを統合する。例えば非特許文献3に開示されている手法によって、夫々の位置姿勢を夫々の誤差共分散行列に基づいて統合して、2枚の断層画像間の尤もらしい位置姿勢を算出する。ここで、夫々の誤差共分散行列は、処理対象領域の対応付けにおいて許容される誤差、相関計算の誤差、位置姿勢センサの計測誤差などに基づいて算出することができる。なお、上述の面外移動成分の推定値は一般的に信頼度が低いので、位置姿勢センサの計測値をそのまま信じて用いる構成であってもよい。   Furthermore, the position and orientation between the two tomographic images calculated by the above-described processing and the position and orientation between the two tomographic images measured by the position and orientation sensor are integrated. For example, by using the method disclosed in Non-Patent Document 3, the respective positions and orientations are integrated based on the respective error covariance matrices to calculate a likely position and orientation between two tomographic images. Here, each error covariance matrix can be calculated based on an error allowed in the association of processing target areas, an error in correlation calculation, a measurement error of the position and orientation sensor, and the like. Note that the estimated value of the out-of-plane movement component described above generally has low reliability, and therefore, a configuration in which the measured value of the position / orientation sensor is believed as it is may be used.

次に、非特許文献2に開示されている手法に以下に述べる改良を加えた方法によって、プローブの押し当てによる被検体の相対圧縮変形量p(y)を推定する。具体的には、まず、上記の処理で算出した2枚の断層画像間の位置姿勢に基づいて、非特許文献2と同様に、未処理断層画像を直前の時刻に撮像された断層画像と平行になるように投影する。そして、隣接する断層画像間の画像特徴の対応付けに基づいて、夫々の奥行きyにおける被検体の相対圧縮変形量p(y)を推定する。非特許文献2では、投影した未処理断層画像の横ライン(横幅×1画素の部分領域)毎に、隣接する断層画像間でマッチングを取ることによって、夫々の奥行きにおける相対圧縮変形量を推定していた。これに対し、本実施例では、横幅×1画素の部分領域をさらに複数の互いに重ならない処理対象領域に分割し、処理対象領域同士のマッチングを取る。そして、夫々のマッチング結果を、処理対象領域と注目断面との間の距離に応じた重み付きで平均化することにより、夫々の奥行きにおける相対圧縮変形量p(y)を求める。   Next, the relative compression deformation amount p (y) of the subject due to the probe pressing is estimated by a method in which the method disclosed in Non-Patent Document 2 is improved as described below. Specifically, first, based on the position and orientation between the two tomographic images calculated by the above processing, as in Non-Patent Document 2, the unprocessed tomographic image is parallel to the tomographic image captured at the immediately preceding time. Project to be. Then, the relative compression deformation amount p (y) of the subject at each depth y is estimated based on the association of image features between adjacent tomographic images. In Non-Patent Document 2, the amount of relative compression deformation at each depth is estimated by matching between adjacent tomographic images for each horizontal line of the projected unprocessed tomographic image (a partial area of horizontal width × 1 pixel). It was. On the other hand, in this embodiment, the partial region of width × 1 pixel is further divided into a plurality of processing target regions that do not overlap each other, and matching between the processing target regions is performed. Then, each matching result is averaged with a weight corresponding to the distance between the processing target region and the target cross section, thereby obtaining the relative compression deformation amount p (y) at each depth.

以上の処理によって、2枚の断層画像(未処理断層画像とその直前の時刻に撮像された断層画像)間の位置合わせパラメータが算出される。   Through the above processing, the alignment parameter between the two tomographic images (the unprocessed tomographic image and the tomographic image captured at the immediately preceding time) is calculated.

(S4035) (収束しているか否かを判定)
ステップS4035において、位置合わせパラメータ算出部140は、ステップS4030における位置合わせパラメータ算出処理が収束したか否かの判定を行う。具体的には、前回の処理で算出された位置合わせパラメータと、今回の処理で算出された位置合わせパラメータとの差分を算出し、算出した差分値が予め定めた閾値よりも小さい場合に、位置合わせパラメータの算出処理が収束していると判定する。収束していないと判定された場合には、処理対象領域の奥行き方向の位置ydst_nを次式によって補正する。
(S4035) (Determining whether or not convergence has occurred)
In step S4035, the alignment parameter calculation unit 140 determines whether the alignment parameter calculation process in step S4030 has converged. Specifically, the difference between the alignment parameter calculated in the previous process and the alignment parameter calculated in the current process is calculated, and if the calculated difference value is smaller than a predetermined threshold value, It is determined that the adjustment parameter calculation processing has converged. If it is determined that it has not converged, the position ydst_n in the depth direction of the processing target region is corrected by the following equation.

Figure 2014042830
Figure 2014042830

そして、補正後の位置に基づいて、S4030の処理を再度行う。一方、収束していると判定された場合には、ステップS4037へと処理を進める。 Then, based on the corrected position, the process of S4030 is performed again. On the other hand, if it is determined that it has converged, the process proceeds to step S4037.

(S4037) (絶対位置合わせパラメータの算出)
ステップS4037において、位置合わせパラメータ算出部140は、直前の時刻に撮像された断層画像の基準座標系における位置姿勢に、以上の処理で得た並進成分と回転成分を加算することで、基準座標系における当該未処理断層画像の位置姿勢を算出する。また、直前の時刻に撮像された断層画像の絶対圧縮変形量に、以上の処理で得た相対圧縮変形量を加算することで、当該未処理断層画像の絶対圧縮変形量を算出する。なお、本実施例では、最初の時刻に撮像された断層画像の絶対圧縮変形量が0であると仮定する。
(S4037) (Calculation of absolute alignment parameter)
In step S4037, the alignment parameter calculation unit 140 adds the translation component and the rotation component obtained by the above processing to the position and orientation in the reference coordinate system of the tomographic image captured at the immediately preceding time, thereby obtaining the reference coordinate system. The position and orientation of the unprocessed tomographic image are calculated. Further, the absolute compression deformation amount of the unprocessed tomographic image is calculated by adding the relative compression deformation amount obtained by the above processing to the absolute compression deformation amount of the tomographic image captured at the immediately preceding time. In this embodiment, it is assumed that the absolute compression deformation amount of the tomographic image captured at the first time is zero.

(S4040) (全断層の処理を終えたか否かを判定)
ステップS4040において、位置合わせパラメータ算出部140は、全ての断層画像に対して処理を終えたか否かの判定を行い、処理を終えていない場合には、ステップS4000へと処理を戻す。この場合、処理を終えた断層画像の次に撮影された断層画像の位置合わせを行う。このように、複数の断層画像に対して連鎖的に位置合わせを実行する。
(S4040) (Determine whether or not processing of all faults has been completed)
In step S4040, the alignment parameter calculation unit 140 determines whether or not all the tomographic images have been processed. If the processing has not been completed, the process returns to step S4000. In this case, alignment of the tomographic image taken next to the tomographic image that has been processed is performed. In this way, alignment is performed in a chain manner on a plurality of tomographic images.

一方、処理を終えているのであれば、ステップS4050へと処理を進める。   On the other hand, if the process has been completed, the process proceeds to step S4050.

(S4050) (位置合わせパラメータの出力)
ステップS4050において、位置合わせパラメータ算出部140は、ステップS4000からステップS4040までの処理で算出した各断層画像の位置合わせパラメータを断面画像生成部150へと出力する。
(S4050) (Output of alignment parameter)
In step S4050, the alignment parameter calculation unit 140 outputs the alignment parameters of each tomographic image calculated in the processes from step S4000 to step S4040 to the cross-sectional image generation unit 150.

以上のように、本実施例に係る画像処理装置によると、注目断面からの距離に応じた重みを付けて、断層画像群の位置合わせパラメータを算出(補正)することができる。これにより、注目断面付近の誤差を極力小さくするような位置合わせが行われるので、断面画像を高画質に生成することができる。   As described above, according to the image processing apparatus of the present embodiment, it is possible to calculate (correct) the alignment parameter of the tomographic image group with a weight according to the distance from the target cross section. Thereby, alignment is performed so as to minimize the error in the vicinity of the cross section of interest, so that a cross-sectional image can be generated with high image quality.

また、選択したMRI断層画像に対応する断面画像を超音波断層画像群から高画質に生成することができるので、選択したMRI断層画像と生成した断面画像とを容易に比較することができる。   In addition, since the cross-sectional image corresponding to the selected MRI tomographic image can be generated from the ultrasonic tomographic image group with high image quality, the selected MRI tomographic image and the generated cross-sectional image can be easily compared.

(第一の実施例の変形例1) (重み付けの方法)
本実施例では、式1や式3において、注目断面からの距離が近い処理対象領域に関する行を複数個並べることによって、注目断面からの距離に応じた重みを付けて、断層画像群の位置合わせパラメータを算出(補正)していた。しかし、注目断面からの距離に応じた重みを付ける方法はこれに限定されるものではない。例えば、式1や式3における右辺の右側の行列の夫々の行(夫々の領域間の距離を表している)に、注目断面からの距離に応じた重みを掛け合わせる方法であってもよい。このとき、n番目の処理対象領域に対応する重みwnは、注目断面に近い処理対象領域ほど大きな重みが与えられるように、例えば次式によって算出すればよい。
(Modification 1 of the first embodiment) (Weighting method)
In the present embodiment, the alignment of the tomographic image group is performed by assigning a weight according to the distance from the target cross section by arranging a plurality of rows related to the processing target region that are close to the target cross section in Expression 1 and Expression 3. The parameter was calculated (corrected). However, the method of applying a weight according to the distance from the target cross section is not limited to this. For example, a method of multiplying each row (representing the distance between the respective regions) of the right-side matrix in Equations 1 and 3 by a weight according to the distance from the cross section of interest may be used. At this time, the weight wn corresponding to the n-th processing target region may be calculated by the following equation, for example, so that the processing target region closer to the target cross section is given a higher weight.

Figure 2014042830
Figure 2014042830

ここで、dnは注目断面からn番目の処理対象領域までの距離を、cは予め定めた定数を表している。   Here, dn represents the distance from the cross section of interest to the nth processing target region, and c represents a predetermined constant.

(第一の実施例の変形例2) (位置姿勢のみ/変形パラメータのみ)
本実施例では、各断層画像の位置姿勢、および、プローブの押し当てによる体内組織の圧縮変形量を、位置合わせパラメータとして用いる場合を例に述べた。しかし、各断層画像の位置姿勢が高精度な位置姿勢センサによる計測などで既知と仮定できる(補正を必要としない)場合には、プローブの押し当てによる体内組織の圧縮変形量のみを位置合わせパラメータとして用いてもよい。また逆に、被検体の変形が無視できるような場合には、各断層画像の位置姿勢のみを位置合わせパラメータとして用いてもよい。
(Modification 2 of the first embodiment) (Only position and orientation / deformation parameters only)
In the present embodiment, the case where the position and orientation of each tomographic image and the amount of compressive deformation of the body tissue due to the pressing of the probe are used as alignment parameters has been described as an example. However, if the position and orientation of each tomographic image can be assumed to be known by measurement with a high-accuracy position and orientation sensor (no correction is required), only the amount of compressive deformation of the body tissue due to the pressing of the probe is used as the alignment parameter. It may be used as Conversely, if the deformation of the subject can be ignored, only the position and orientation of each tomographic image may be used as the alignment parameter.

(第一の実施例の変形例3) (ボリュームを一旦再構成してから断面画像生成)
本実施例では、ステップS3030の処理において、注目断面の位置姿勢に基づいて対象断層画像群から断面画像を生成していた。しかし、断面画像の生成方法はこれに限られるものではない。
(Modification 3 of the first embodiment) (Cross-sectional image generation after reconstructing the volume once)
In the present embodiment, in the process of step S3030, a cross-sectional image is generated from the target tomographic image group based on the position and orientation of the target cross-section. However, the method for generating the cross-sectional image is not limited to this.

例えば、算出した位置合わせパラメータに基づいて公知の方法で対象断層画像群から超音波の三次元ボリュームデータを一旦再構成して、この三次元ボリュームデータから断面画像を生成してもよい。以下では、断層画像群と三次元ボリュームデータを合わせて三次元画像データと呼ぶ。   For example, ultrasonic three-dimensional volume data may be once reconstructed from the target tomographic image group by a known method based on the calculated alignment parameter, and a cross-sectional image may be generated from the three-dimensional volume data. Hereinafter, the tomographic image group and the three-dimensional volume data are collectively referred to as three-dimensional image data.

また、超音波の三次元画像データに画像処理を施して見え方を調整した新たな三次元画像データを生成して、その新たな三次元画像データの断面を断面画像として生成してもよい。例えば、エッジ強調処理や、臓器セグメンテーション結果に基づく擬似カラー処理等を施した三次元画像データを生成して、その断面画像を生成してもよい。もちろん、超音波の三次元画像データから断面画像を生成した後に、断面画像に対して上述したような画像処理を施してもよい。   Alternatively, new three-dimensional image data obtained by performing image processing on the ultrasonic three-dimensional image data and adjusting the appearance may be generated, and a cross section of the new three-dimensional image data may be generated as a cross-sectional image. For example, three-dimensional image data subjected to edge enhancement processing, pseudo color processing based on organ segmentation results, or the like may be generated, and the cross-sectional image thereof may be generated. Of course, after the cross-sectional image is generated from the ultrasonic three-dimensional image data, the above-described image processing may be performed on the cross-sectional image.

さらに、設定した断面に基づいて三次元画像データから画像を生成するものであれば、生成する断面画像は、その断面上の画素値またはボクセル値を画像化した画像でなくてもよい。例えば、断面を中心として法線方向に所定の範囲を設定した上で、当該範囲内における法線方向の画素値またはボクセル値の最大値を断面上の各点に関して求めた最大値投影画像を断面画像としてもよい。ここでは、設定した断面に関して生成される上記のような画像を含め、広義の意味で「断面画像」とよぶ。   Furthermore, if an image is generated from three-dimensional image data based on a set cross section, the generated cross section image may not be an image obtained by imaging pixel values or voxel values on the cross section. For example, after setting a predetermined range in the normal direction around the cross section, the maximum value projection image obtained by calculating the maximum value of the pixel value or voxel value in the normal direction within the range for each point on the cross section It may be an image. Here, the image including the above-described image generated with respect to the set cross section is referred to as a “cross-sectional image” in a broad sense.

(第一の実施例の変形例4) (生成画像の画質を評価)
本実施例の方法を、生成画像の画質を評価して位置合わせする方法とさらに組み合わせてもよい。すなわち、位置合わせの評価値を、生成画像の画質と位置合わせパラメータの関数として定義して、生成画像の画質の評価結果が位置合わせに反映されるようにしてもよい。この場合には、各断層画像の位置合わせパラメータの算出(補正)と生成画像の画質の評価を所定の回数または所定の画質を上回るまで繰り返すことにより、断面画像をさらに高画質に生成することができる。
(Modification 4 of the first embodiment) (Evaluation of image quality of generated image)
You may further combine the method of a present Example with the method of evaluating and aligning the image quality of a production | generation image. That is, the alignment evaluation value may be defined as a function of the image quality of the generated image and the alignment parameter, and the evaluation result of the image quality of the generated image may be reflected in the alignment. In this case, the calculation (correction) of the alignment parameters of each tomographic image and the evaluation of the image quality of the generated image are repeated a predetermined number of times or until a predetermined image quality is exceeded, thereby generating a cross-sectional image with higher image quality. it can.

また、生成画像の画質を評価する代わりに、選択断層画像との比較によって生成画像を評価してもよい。この比較には、例えば相互情報量基準などの、画像間の整合性や類似度を評価するための公知の評価基準を用いればよい。   Further, instead of evaluating the image quality of the generated image, the generated image may be evaluated by comparison with the selected tomographic image. For this comparison, for example, a known evaluation criterion for evaluating the consistency and similarity between images, such as a mutual information criterion, may be used.

(第一の実施例の変形例5) (MRI断層画像以外を注目断面に指定)
本実施例では、MRI断層画像群の中から断層画像を選択し、その基準座標系における位置姿勢を注目断面の位置姿勢として設定する場合を例に述べた。しかし、注目断面はこれに限らず任意の断面であってもよい。
(Modification 5 of the first embodiment) (Specify a section other than the MRI tomographic image as the target cross section)
In this embodiment, the case where a tomographic image is selected from the MRI tomographic image group and the position and orientation in the reference coordinate system is set as the position and orientation of the target cross section has been described as an example. However, the cross section of interest is not limited to this and may be an arbitrary cross section.

例えば、MRI断層画像群から病変部の特徴が適切に描出されるような任意断面の画像を生成して、その基準座標系における位置姿勢を注目断面の位置姿勢として設定してもよい。その際に、設定する断面は平面に限らず曲面であってもよい。断面が曲面であっても、当該断面と処理対象領域との距離を算出することで、それ以外の処理は全て上記と同様に行うことができる。   For example, an image of an arbitrary cross section in which the feature of the lesion is appropriately depicted from the MRI tomographic image group may be generated, and the position and orientation in the reference coordinate system may be set as the position and orientation of the target cross section. In that case, the set cross section is not limited to a flat surface but may be a curved surface. Even if the cross section is a curved surface, all the other processes can be performed in the same manner as described above by calculating the distance between the cross section and the processing target region.

また例えば、超音波断層画像群のうち生成したい断面画像の特徴が現れている断層画像を2枚指定して、夫々の断層画像における特徴部を通る平面を注目断面としてもよい。この場合には、注目断面に対して指定された断層画像は固定され、この指定された断層画像に対して他の断層画像を近い方から順に位置合わせしていく。また、1枚または3枚以上の断層画像を指定して固定してもよい。   Further, for example, two tomographic images in which features of a cross-sectional image to be generated appear in the ultrasonic tomographic image group may be designated, and a plane passing through the characteristic part in each tomographic image may be set as the target cross-section. In this case, the tomographic image designated with respect to the cross section of interest is fixed, and the other tomographic images are aligned with the designated tomographic image in order from the closest. One or three or more tomographic images may be designated and fixed.

(第一の実施例の変形例6) (スペックルノイズ領域以外)
本実施例では、超音波断層画像を部分領域に分割し、そこから十分に発達したスペックルノイズ領域を選択して処理対象領域として用いる場合を例に述べた。しかし、これに限らず、超音波断層画像から点特徴や線特徴などの画像特徴を周知の方法で抽出して、その近傍領域を処理対象領域として用いてもよい。この場合には、ステップS4030の処理において、面外移動成分の推定は行わずに、位置姿勢センサの計測値をそのまま用いればよい。
(Modification 6 of the first embodiment) (Other than speckle noise region)
In the present embodiment, an example has been described in which an ultrasonic tomographic image is divided into partial regions, and a speckle noise region that is sufficiently developed therefrom is selected and used as a processing target region. However, the present invention is not limited to this, and an image feature such as a point feature or a line feature may be extracted from an ultrasonic tomographic image by a well-known method, and its vicinity region may be used as a processing target region. In this case, in the process of step S4030, the measurement value of the position and orientation sensor may be used as it is without estimating the out-of-plane movement component.

(第一の実施例の変形例7) (圧縮変形を補正してから位置姿勢を算出)
本実施例では、まず被検体が圧縮変形していないものと仮定して断層画像間の位置姿勢を算出した上で、圧縮変形量を算出していた。しかし、これに限らず、まず位置姿勢センサの計測値をそのまま用いて圧縮変形量を算出し、処理対象領域の位置情報を補正した上で、断層画像間の位置姿勢の算出を行ってもよい。また、本実施例では、ステップS4035の処理において、ステップS4030における位置合わせパラメータ算出処理が収束したか否かの判定を行っていたが、ステップS4035の処理は行わなくてもよい。この場合、ステップS4030の処理は一回だけしか行われないため、速度を重視した処理が実現できる。
(Modification 7 of the first embodiment) (Calculate position and orientation after correcting compression deformation)
In this embodiment, the amount of compressive deformation is calculated after calculating the position and orientation between tomographic images on the assumption that the subject is not compressed and deformed. However, the present invention is not limited to this. First, the amount of compression deformation may be calculated using the measurement values of the position and orientation sensor as they are, and the position and orientation between tomographic images may be calculated after correcting the position information of the processing target region. . In this embodiment, in the process of step S4035, it is determined whether or not the alignment parameter calculation process in step S4030 has converged, but the process of step S4035 may not be performed. In this case, since the process of step S4030 is performed only once, it is possible to realize a process that emphasizes speed.

(第一の実施例の変形例8) (3Dプローブ)
本実施例では、注目断面からの距離に応じた重みを付けて、2Dプローブによって得られた二次元断層画像群の位置合わせパラメータを算出していた。しかし、これに限らず、注目断面からの距離に応じた重みを付けて、3Dプローブによって得られたボリュームデータ群(三次元断層画像群)の位置合わせパラメータを算出してもよい。例えば非特許文献4に開示されている手法では、重なり合う微小領域の類似度の総和を最小化することによってボリュームデータ群の位置合わせを行っているが、この類似度の総和を算出する処理を、注目断面からの距離に応じた重みを付けて行ってもよい。
(Modification 8 of the first embodiment) (3D probe)
In the present embodiment, the weighting according to the distance from the target cross section is applied, and the alignment parameter of the two-dimensional tomographic image group obtained by the 2D probe is calculated. However, the present invention is not limited to this, and the alignment parameter of the volume data group (three-dimensional tomographic image group) obtained by the 3D probe may be calculated by assigning a weight according to the distance from the target section. For example, in the method disclosed in Non-Patent Document 4, the volume data group is aligned by minimizing the sum of the similarities of the overlapping micro regions. The process of calculating the sum of the similarities is performed as follows: You may attach and weight according to the distance from an attention cross section.

(第一の実施例の変形例9) (任意の領域を位置合わせの基準とする)
本実施例では、指定した注目断面に対して最適化した位置合わせを行ったが、本発明の適用例はこれに限らない。例えば、被検体の所定の三次元領域に対して最適化した位置合わせを行ってもよい。その場合には、例えば三次元領域の重心からの距離が小さいほど対応する部分領域の位置が合うように断層画像群の位置合わせを行えばよい。
(Modification 9 of the first embodiment) (Any area is used as a reference for alignment)
In the present embodiment, the optimized alignment is performed for the designated section of interest, but the application example of the present invention is not limited to this. For example, an optimized alignment may be performed on a predetermined three-dimensional region of the subject. In that case, for example, the tomographic image group may be aligned so that the position of the corresponding partial region is matched as the distance from the center of gravity of the three-dimensional region is small.

(第一の実施例の変形例10) (未処理の断層画像の選択)
本実施例では、位置合わせパラメータ算出部140は撮影した時刻順に位置合わせ対象とする断層画像を選択するが、これに限らず、時刻に限らず隣り合う断層画像を順に位置合わせしても良い。また、最初に基準となる断層画像を選択し、その基準となる断層画像から隣り合う断層画像を連鎖的に位置合わせしてもよい。この場合には、基準となる断層画像に合わせて複数の断層画像の位置が決められるため、より高画質の断面画像を生成することができる。また、基準となる断層画像を選択する場合には、隣り合う断層画像を順に連鎖的に位置合わせするのではなく、常に基準となる断層画像と未処理の断層画像との対応を特定して位置合わせを実行してもよい。この場合には、選択された基準の画像に合わせて高画質な断面画像を生成することができる。
(Modification 10 of the first embodiment) (Selection of unprocessed tomographic image)
In the present embodiment, the alignment parameter calculation unit 140 selects tomographic images to be aligned in order of photographing time. However, the present invention is not limited to this, and adjacent tomographic images may be aligned in order. Alternatively, a reference tomographic image may be selected first, and adjacent tomographic images may be chain-aligned from the reference tomographic image. In this case, since the positions of a plurality of tomographic images are determined according to the reference tomographic image, a higher-quality cross-sectional image can be generated. In addition, when selecting a tomographic image as a reference, instead of sequentially aligning adjacent tomographic images in sequence, the correspondence between the reference tomographic image and an unprocessed tomographic image is always specified and positioned. Matching may be performed. In this case, a high-quality cross-sectional image can be generated in accordance with the selected reference image.

(実時間超音波断層像を注目断面とする)第一の実施例では、MRI装置によって被検体を予め撮像して得られたMRI断層画像群の中から選択断層画像を選択し、選択断層画像を表す断面を注目断面として設定する場合について説明した。しかし、注目断面の設定方法はこれに限らず、超音波装置によって実時間で被検体を撮像して得られる断層画像を表す断面を注目断面として設定するのであってもよい。本実施例に係る画像処理装置は、超音波診断装置によって予め撮像して得られた断層画像群の位置合わせを行い、その結果に基づいて、実時間で撮像して得られる断層画像と同一断面の画像(断面画像)を、断層画像群から逐次的に生成する。その際に、断層画像群と注目断面との位置関係を考慮して位置合わせパラメータを算出することで、断面画像が高画質に生成されるようにする。以下、本実施例に係る画像処理装置について、第一の実施例との相違部分についてのみ説明する。   In the first embodiment (with a real-time ultrasonic tomographic image as the cross section of interest), a selected tomographic image is selected from a group of MRI tomographic images obtained by imaging the subject in advance by the MRI apparatus, and the selected tomographic image is selected. A case has been described in which the cross section representing is set as the cross section of interest. However, the setting method of the attention section is not limited to this, and a section representing a tomographic image obtained by imaging the subject in real time by the ultrasonic apparatus may be set as the attention section. The image processing apparatus according to the present embodiment aligns tomographic image groups obtained by imaging in advance by the ultrasonic diagnostic apparatus, and based on the result, the same cross section as the tomographic image obtained by imaging in real time Are sequentially generated from the tomographic image group. At this time, the alignment parameter is calculated in consideration of the positional relationship between the tomographic image group and the target cross section so that the cross-sectional image is generated with high image quality. Hereinafter, only the difference from the first embodiment will be described for the image processing apparatus according to this embodiment.

図5は、本実施例に係る画像処理装置の構成を示す。なお、図1と同じ部分については同じ番号、記号を付けており、その説明を省略する。図5に示すように、本実施例における画像処理装置500は、対象断層画像群取得部110、参照断層画像取得部520、注目断面設定部530、位置合わせパラメータ算出部540、断面画像生成部550、画像合成部560によって構成されている。また、画像処理装置500は、実時間で被検体の断層画像を撮像する第1医用画像収集装置170に接続されており、当該断層画像とその位置姿勢を逐次入力する。さらに、画像処理装置500は、第1医用画像収集装置170によって被検体を予め撮像して得られた対象断層画像群を保持するデータサーバ590に接続されている。   FIG. 5 shows the configuration of the image processing apparatus according to the present embodiment. The same parts as those in FIG. 1 are given the same numbers and symbols, and the description thereof is omitted. As illustrated in FIG. 5, the image processing apparatus 500 according to the present exemplary embodiment includes a target tomographic image group acquisition unit 110, a reference tomographic image acquisition unit 520, an attention cross-section setting unit 530, an alignment parameter calculation unit 540, and a cross-sectional image generation unit 550. The image composition unit 560 is configured. The image processing apparatus 500 is connected to a first medical image acquisition apparatus 170 that captures a tomographic image of a subject in real time, and sequentially inputs the tomographic image and its position and orientation. Furthermore, the image processing apparatus 500 is connected to a data server 590 that holds a target tomographic image group obtained by imaging a subject in advance by the first medical image collection apparatus 170.

データサーバ590は、第一の実施例と同様に、第1医用画像収集装置170としての超音波装置によって被検体を予め撮像して得られた複数の超音波断層画像を、対象断層画像群として保持している。基準座標系で表現された対象断層画像群は、第一の実施例と同様に、対象断層画像群取得部110を介して画像処理装置500に入力される。なお、第一の実施例とは異なり、データサーバ590は参照断層画像群を保持していない。   As in the first embodiment, the data server 590 uses a plurality of ultrasonic tomographic images obtained by imaging an object in advance by the ultrasonic device as the first medical image acquisition device 170 as a target tomographic image group. keeping. The target tomographic image group expressed in the reference coordinate system is input to the image processing apparatus 500 via the target tomographic image group acquisition unit 110 as in the first embodiment. Unlike the first embodiment, the data server 590 does not hold a reference tomographic image group.

参照断層画像取得部520は、第1医用画像収集装置170から画像処理装置500へと逐次的に入力される断層画像を取得して、これを参照断層画像として注目断面設定部530へと逐次的に出力する。   The reference tomographic image acquisition unit 520 acquires tomographic images that are sequentially input from the first medical image acquisition device 170 to the image processing device 500, and uses the acquired tomographic images as reference tomographic images sequentially to the attention cross-section setting unit 530. Output to.

注目断面設定部530は、参照断層画像取得部520の出力である参照断層画像を逐次的に取得して、参照断層画像を表す断面を注目断面に設定する。そして、その位置姿勢を位置合わせパラメータ算出部540および断面画像生成部550へと逐次的に出力する。   The attention slice setting unit 530 sequentially acquires the reference tomographic image, which is the output of the reference tomographic image acquisition unit 520, and sets the slice representing the reference tomographic image as the attention slice. Then, the position and orientation are sequentially output to the alignment parameter calculation unit 540 and the cross-sectional image generation unit 550.

位置合わせパラメータ算出部540は、対象断層画像群と注目断面との位置関係を考慮しながら、逐次的に更新される注目断面の夫々に対応して、対象断層画像群の位置合わせパラメータを逐次的に算出する。そのために、対象断層画像群取得部110の出力である対象断層画像群を取得する。また、注目断面設定部530の出力である注目断面の位置姿勢を逐次的に取得する。そして、これらの情報に基づいて、現在取得している注目断面に対応する位置合わせパラメータを、過去に算出した(過去に取得した注目断面に対応する)位置合わせパラメータの情報も利用しながら逐次的に算出する。そして、得られた位置合わせパラメータを、断面画像生成部550へと逐次的に出力する。   The alignment parameter calculation unit 540 sequentially determines the alignment parameters of the target tomographic image group corresponding to each of the target cross-sectional images that are sequentially updated while considering the positional relationship between the target tomographic image group and the target cross-sectional image. To calculate. For this purpose, a target tomographic image group that is an output of the target tomographic image group acquiring unit 110 is acquired. Further, the position and orientation of the cross section of interest, which is the output of the cross section of interest setting unit 530, is sequentially acquired. Based on these pieces of information, the alignment parameters corresponding to the currently acquired section of interest are sequentially calculated using the information of the alignment parameters calculated in the past (corresponding to the section of attention acquired in the past). To calculate. Then, the obtained alignment parameters are sequentially output to the cross-sectional image generation unit 550.

断面画像生成部550は、対象断層画像群からの断面画像の生成を、位置合わせパラメータに基づいて実行する。そのために、注目断面設定部530の出力である注目断面の位置姿勢を逐次的に取得する。また、位置合わせパラメータ算出部540の出力である各超音波断層画像の位置姿勢を逐次的に取得する。そして、これらに基づいて注目断面の画像(断面画像)を生成して、画像合成部560へと逐次的に出力する。   The cross-sectional image generation unit 550 generates a cross-sectional image from the target tomographic image group based on the alignment parameter. For this purpose, the position and orientation of the cross section of interest, which is the output of the cross section of interest setting unit 530, is sequentially acquired. In addition, the position and orientation of each ultrasonic tomographic image, which is the output of the alignment parameter calculation unit 540, are sequentially acquired. Based on these, an image of a cross section of interest (cross-sectional image) is generated and sequentially output to the image composition unit 560.

画像合成部560は、参照断層画像取得部520の出力である参照断層画像と、断面画像生成部550の出力である断面画像とを逐次的に取得し、両者を合成して逐次的に出力する。   The image synthesis unit 560 sequentially acquires the reference tomographic image that is the output of the reference tomographic image acquisition unit 520 and the cross-sectional image that is the output of the cross-sectional image generation unit 550, synthesizes both, and sequentially outputs them. .

なお、画像処理装置500を構成する上記各部の夫々の機能をソフトウェアの実行によって実現するコンピュータの基本構成は、第一の実施例における図2と同様である。   Note that the basic configuration of a computer that implements the functions of the above-described units constituting the image processing apparatus 500 by executing software is the same as that in FIG. 2 in the first embodiment.

図6は、画像処理装置500が行う全体の処理手順を示すフローチャートである。同フローチャートは、本実施例ではCPU1001が各部の機能を実現するプログラムを実行することにより実現される。なお、以下の処理を行う前段で、同フローチャートに従ったプログラムコードは、例えば外部記憶装置1007からRAM1002に既にロードされているものとする。   FIG. 6 is a flowchart showing an overall processing procedure performed by the image processing apparatus 500. In the present embodiment, the flowchart is realized by the CPU 1001 executing a program that realizes the function of each unit. It is assumed that the program code according to the flowchart is already loaded from, for example, the external storage device 1007 to the RAM 1002 in the previous stage of performing the following processing.

(S6000) (データの取得)
ステップS6000において、画像処理装置500は、対象断層画像群取得部110の処理として対象断層画像群を取得する。
(S6000) (Data acquisition)
In step S6000, the image processing apparatus 500 acquires the target tomographic image group as the processing of the target tomographic image group acquisition unit 110.

(S6003) (処理対象領域の選択と対応付け)
ステップS6003において、画像処理装置500は、位置合わせパラメータ算出部540の処理として、ステップS6000で取得した対象断層画像群を構成する断層画像の夫々に対して、処理対象領域の選択を行う。そして、夫々の断層画像を撮像した時刻の直前の時刻に撮像した断層画像内において、選択した処理対象領域の対応領域を探索する。
具体的には、第一の実施例におけるステップS4010及びステップS4020と同様な処理を、全ての断層画像に対して実行する。
(S6003) (Selection and association with processing target area)
In step S6003, the image processing apparatus 500 selects a processing target region for each of the tomographic images constituting the target tomographic image group acquired in step S6000 as processing of the alignment parameter calculation unit 540. Then, a corresponding area of the selected processing target area is searched for in the tomographic image captured at the time immediately before the time when each tomographic image is captured.
Specifically, the same processing as Step S4010 and Step S4020 in the first embodiment is executed for all tomographic images.

(S6005) (データの取得)
ステップS6005において、画像処理装置500は、参照断層画像取得部520の処理として、現時刻に画像処理装置500に入力されている最新の断層画像を、参照断層画像として取得する。
(S6005) (Data acquisition)
In step S6005, the image processing apparatus 500 acquires the latest tomographic image input to the image processing apparatus 500 at the current time as the reference tomographic image as processing of the reference tomographic image acquisition unit 520.

(S6010) (注目断面の設定)
ステップS6010において、画像処理装置500は、注目断面設定部530の処理として、参照断層画像の基準座標系における位置姿勢を注目断面の位置姿勢として設定する。
(S6010) (Setting of attention cross section)
In step S6010, the image processing apparatus 500 sets the position and orientation of the reference tomographic image in the standard coordinate system as the position and orientation of the target cross section as the processing of the attention cross section setting unit 530.

(S6020) (位置合わせパラメータの算出)
ステップS6020において、画像処理装置500は、位置合わせパラメータ算出部540の処理として、ステップS6010で設定した注目断面の位置姿勢に基づいて、対象断層画像群の位置合わせパラメータを算出(補正)する。なお、本ステップにおける位置合わせパラメータ算出部540の処理の詳細は、図7に示すフローチャートを用いて後に詳しく説明する。
(S6020) (Calculation of alignment parameter)
In step S6020, the image processing apparatus 500 calculates (corrects) the alignment parameter of the target tomographic image group based on the position and orientation of the target cross section set in step S6010 as the processing of the alignment parameter calculation unit 540. Details of the processing of the alignment parameter calculation unit 540 in this step will be described later in detail using the flowchart shown in FIG.

(S6030) (断面画像の生成)
ステップS6030において、画像処理装置500は、断面画像生成部550の処理として、ステップS6010で設定した注目断面の断面画像を対象断層画像群から生成する。この処理は第一の実施例におけるステップS3030の処理と同様であるので、詳細な説明は省略する。
(S6030) (Cross-section image generation)
In step S6030, the image processing apparatus 500 generates a cross-sectional image of the target cross-section set in step S6010 from the target tomographic image group as a process of the cross-sectional image generation unit 550. Since this process is the same as the process of step S3030 in the first embodiment, detailed description thereof is omitted.

(S6040) (画像の合成)
ステップS6040において、画像処理装置500は、画像合成部560の処理として、ステップS6005で取得した参照断層画像と、ステップS6030で生成した断面画像とを合成する。そして、合成した画像を表示部1006に表示する。また、必要に応じて、I/F1009を介してこれを外部へと出力する。あるいは、他のアプリケーションから利用可能な状態としてRAM1002上に格納する。
(S6040) (Image composition)
In step S6040, the image processing apparatus 500 synthesizes the reference tomographic image acquired in step S6005 and the cross-sectional image generated in step S6030 as processing of the image synthesis unit 560. Then, the synthesized image is displayed on the display unit 1006. Further, this is output to the outside via the I / F 1009 as necessary. Alternatively, it is stored in the RAM 1002 as a state that can be used by other applications.

例えば、参照断層画像と断面画像を異なる色で描画して重ね合わせて表示してもよいし、あるいは、参照断層画像と断面画像のいずれか一方のみを選択して表示できるようにしてもよい。また、一つの画面を縦または横に分割して、一方に参照断層画像を表示し他方に断面画像を表示してもよいし、二つの画面に夫々表示してもよい。   For example, the reference tomographic image and the cross-sectional image may be drawn with different colors and superimposed or displayed, or only one of the reference tomographic image and the cross-sectional image may be selected and displayed. Further, one screen may be divided vertically or horizontally, a reference tomographic image may be displayed on one side, and a cross-sectional image may be displayed on the other side, or may be displayed on two screens, respectively.

(S6050) (終了の判定)
ステップS6050において、画像処理装置500は、全体の処理を終了するか否かの判定を行う。例えば、表示部1006上に配置された終了ボタンを操作者がマウス1005でクリックするなどして、終了の判定を入力する。終了すると判定した場合には、画像処理装置500の処理の全体を終了させる。一方、終了すると判定しなかった場合には、ステップS6005へと処理を戻し、新たに取得される参照断層画像に対して、ステップS6005からステップS6040までの処理を再度実行する。
(S6050) (Determination of termination)
In step S6050, the image processing apparatus 500 determines whether to end the entire process. For example, when the operator clicks the end button arranged on the display unit 1006 with the mouse 1005, the end determination is input. When it is determined that the processing is to be ended, the entire processing of the image processing apparatus 500 is ended. On the other hand, if it is not determined to end, the process returns to step S6005, and the processes from step S6005 to step S6040 are performed again on the newly acquired reference tomographic image.

以上によって、画像処理装置500の処理が実施される。   Thus, the processing of the image processing apparatus 500 is performed.

図7は、上述のステップS6020における位置合わせパラメータ算出部540の処理手順を示すフローチャートである。   FIG. 7 is a flowchart showing a processing procedure of the alignment parameter calculation unit 540 in step S6020 described above.

ステップS7000の処理は、第一の実施例におけるステップS4000の処理と同様であるので、詳細な説明は省略する。   Since the process of step S7000 is the same as the process of step S4000 in the first embodiment, detailed description thereof is omitted.

(S7030) (相対位置合わせパラメータの算出)
ステップS7030において、位置合わせパラメータ算出部540は、ステップS7000で選択した未処理断層画像に関して、当該断層画像とその直前の時刻に撮像された断層画像との間の位置合わせパラメータを算出する。この処理は、ステップS6003で選択した当該断層画像に係る複数の処理対象領域とその対応領域の位置情報とに基づいて行う。それ以外の処理は第一の実施例におけるステップS4030と同様であるので、詳細な説明は省略する。ただし、未処理断層画像の位置姿勢の初期値は、前の時刻の注目断面に基づいて求めた値を用いる。
(S7030) (Calculation of relative alignment parameter)
In step S7030, the alignment parameter calculation unit 540 calculates an alignment parameter between the tomographic image and the tomographic image captured at the immediately preceding time for the unprocessed tomographic image selected in step S7000. This process is performed based on the plurality of process target areas related to the tomographic image selected in step S6003 and the position information of the corresponding areas. Since other processes are the same as those in step S4030 in the first embodiment, detailed description thereof is omitted. However, as the initial value of the position and orientation of the unprocessed tomographic image, a value obtained based on the cross section of interest at the previous time is used.

以下、ステップS7035、S7037、S7040およびステップS7050の処理は、第一の実施例におけるステップS4035、S4037、S4040およびステップS4050の処理と同様であるので、詳細な説明は省略する。   Hereinafter, the processes in steps S7035, S7037, S7040, and step S7050 are the same as the processes in steps S4035, S4037, S4040, and step S4050 in the first embodiment, and thus detailed description thereof is omitted.

(S7060) (座標の補正)
ステップS7060において、位置合わせパラメータ算出部540は、ステップS7030で推定した夫々の断層画像の絶対圧縮変形量に基づいて、ステップS6003で求めた処理対象領域の位置情報を補正する。これにより、新たな注目断面に対してステップS7030の位置合わせパラメータ算出処理を行う際には、前の時刻の注目断面に基づいて求めた絶対圧縮変形量を差し引くことによって補正した後の(処理対象領域とその対応領域の)位置情報が適用される。
(S7060) (Coordinate correction)
In step S7060, the alignment parameter calculation unit 540 corrects the position information of the processing target region obtained in step S6003 based on the absolute compression deformation amount of each tomographic image estimated in step S7030. As a result, when the alignment parameter calculation process in step S7030 is performed on a new section of interest, a correction result obtained by subtracting the absolute compressive deformation amount obtained based on the section of attention at the previous time (processing target) The position information of the area and its corresponding area is applied.

以上のように、本実施例に係る画像処理装置は、断層画像群と実時間で撮像して得られる断層画像との位置関係に基づいて、断層画像群を構成する各断層画像の位置合わせパラメータを算出する。そうすることで、実時間で撮像して得られる断層画像と同一断面の画像(断面画像)を高画質に生成することができる。さらに、逐次的に設定される注目断面の位置姿勢は前の時刻の注目断面とあまり大きく変わらないので、前の時刻の注目断面に基づいて求めた位置合わせパラメータを利用することによって、収束計算を速めることができる。   As described above, the image processing apparatus according to the present embodiment is based on the positional relationship between the tomographic image group and the tomographic image obtained in real time, and the alignment parameters of the tomographic images constituting the tomographic image group. Is calculated. By doing so, it is possible to generate an image (cross-sectional image) having the same cross section as the tomographic image obtained by imaging in real time with high image quality. Furthermore, the position and orientation of the cross section of interest set sequentially does not change much from the cross section of interest at the previous time, so the convergence calculation is performed by using the alignment parameters obtained based on the cross section of interest at the previous time. You can speed up.

また、実時間で撮像して得られる超音波断層画像に対応する断面画像を過去の超音波断層画像群から高画質に生成することができるので、過去の超音波断層画像群から生成した断面画像と現在の超音波断層画像とを容易に比較することができる。   In addition, since a cross-sectional image corresponding to an ultrasonic tomographic image obtained by imaging in real time can be generated from a past ultrasonic tomographic image group with high image quality, a cross-sectional image generated from a past ultrasonic tomographic image group And current ultrasonic tomographic images can be easily compared.

(第二の実施例の変形例1) (3D探触子でMPR像を取得)
本実施例では、超音波画像診断装置で断層画像を実時間で撮像する場合を例に述べたが、超音波画像診断装置で取得するデータはこれに限られるものではない。例えば、3次元の超音波探触子でMPR(Multi Planar Reformat)像を取得する場合にも、上記の実施例の手法が適用可能である。すなわち、複数の切断面の夫々を注目断面として上記の実施例の手法を夫々の注目断面に対して適用すればよい。
(Modification 1 of the second embodiment) (Acquire MPR image with 3D probe)
In the present embodiment, the case where a tomographic image is captured in real time by the ultrasonic diagnostic imaging apparatus has been described as an example, but data acquired by the ultrasonic diagnostic imaging apparatus is not limited to this. For example, the method of the above embodiment can also be applied when acquiring an MPR (Multi Planar Reformat) image with a three-dimensional ultrasonic probe. That is, the method of the above-described embodiment may be applied to each attention cross section with each of the plurality of cut surfaces as the attention cross section.

(第二の実施例の変形例2) (UI指定断面を注目断面とする)
本実施例では、参照断層画像と断面画像を合成して表示する場合を例に述べたが、第一の実施例と同様に断面画像のみを表示してもよい。その場合には、画像合成部560が不要となる。
(Modification 2 of the second embodiment) (UI designated cross section is a cross section of interest)
In this embodiment, the case where the reference tomographic image and the cross-sectional image are combined and displayed has been described as an example, but only the cross-sectional image may be displayed as in the first embodiment. In that case, the image composition unit 560 becomes unnecessary.

さらに、参照断層画像の位置姿勢を注目断面の位置姿勢に設定する代わりに、例えば以下の方法で操作者が指定する注目断面の位置姿勢を取得してもよい。その場合には、参照断層画像取得部520も不要となる。まず、操作者がマウス1005やキーボード1004などを用いて、注目断面の回転方向および回転角度および各軸方向への移動を指定する。例えば、表示部1006に表示された断面画像をマウス1005で選択し、マウスの左ボタンを押下したままドラッグ操作することで、ドラッグした方向に注目断面を回転させるような注目断面の姿勢の変化量を算出する。その際、注目断面の回転方向はドラッグ操作時のマウスの移動方向に応じて算出すればよく、注目断面の回転角度はドラッグ操作時のマウスの移動量に応じて算出すればよい。例えば、マウスの変位を断面画像上における2次元ベクトルとして、このベクトルの大きさに比例した値を回転角度として、このベクトルに直交する断面画像上のベクトルを回転軸として設定すればよい。次に、マウスの右ボタンを押下したままドラッグ操作することで、注目断面の画像面内における移動量を指定する。そして、マウスのホイールを前後方向に回転操作することで、注目断面の法線方向への移動量を指定する。なお、マウスのドラッグ操作に限らず、キーボードの特定のキーに各方向への回転操作や回転角度の変更や各軸方向への移動を割り当ててもよい。または、表示画面上に操作ボタン等を配置してマウスでクリックして操作してもよい。以上のようにして位置姿勢の変化量を得たら、現在の注目断面の位置姿勢に当該変化量を付加することで、新たな位置姿勢を算出する。   Furthermore, instead of setting the position and orientation of the reference tomographic image to the position and orientation of the target section, the position and orientation of the target section specified by the operator may be acquired by the following method, for example. In that case, the reference tomographic image acquisition unit 520 is also unnecessary. First, the operator uses the mouse 1005, the keyboard 1004, and the like to specify the rotation direction and rotation angle of the cross section of interest and the movement in each axial direction. For example, by selecting a cross-sectional image displayed on the display unit 1006 with the mouse 1005 and performing a drag operation while holding down the left mouse button, the amount of change in posture of the cross-section of interest that rotates the cross-section of interest in the dragged direction. Is calculated. At this time, the rotation direction of the cross section of interest may be calculated according to the movement direction of the mouse during the drag operation, and the rotation angle of the cross section of interest may be calculated according to the amount of movement of the mouse during the drag operation. For example, a mouse displacement may be set as a two-dimensional vector on the cross-sectional image, a value proportional to the magnitude of the vector may be set as the rotation angle, and a vector on the cross-sectional image orthogonal to the vector may be set as the rotation axis. Next, the amount of movement of the cross section of interest in the image plane is specified by performing a drag operation while pressing the right button of the mouse. Then, the amount of movement in the normal direction of the cross section of interest is specified by rotating the mouse wheel in the front-rear direction. Not only the mouse drag operation, but also a specific key on the keyboard may be assigned a rotation operation in each direction, a change in rotation angle, or a movement in each axial direction. Alternatively, an operation button or the like may be arranged on the display screen and operated by clicking with the mouse. When the change amount of the position and orientation is obtained as described above, a new position and orientation is calculated by adding the change amount to the current position and orientation of the target cross section.

なお、位置姿勢センサなどを装着した位置姿勢指示具を操作者が移動および回転させることによって、当該センサの位置姿勢計測値を注目断面の位置姿勢として取得する構成であってもよい。この場合に、位置姿勢センサを装着したプローブを位置姿勢指示具として用いてもよい。   In addition, the configuration may be such that the position and orientation measurement value of the sensor is acquired as the position and orientation of the target cross section when the operator moves and rotates a position and orientation indicator equipped with a position and orientation sensor. In this case, a probe equipped with a position and orientation sensor may be used as a position and orientation indicator.

(「注目断面からの距離に応じた重み」の別の実施例)
第一の実施例では、断層画像群を構成する各断層画像の位置合わせパラメータを算出する演算の中で、注目断面からの距離に応じた重みを設定する場合について説明した。しかし、注目断面からの距離に応じた重みを設定する方法はこれに限らず、例えば注目断面に近いほど処理対象領域を多く選択するのであってもよい。本実施例に係る画像処理装置は、断層画像群から注目断面の画像(断面画像)を生成する際に、断層画像群と注目断面との位置関係に基づいて処理対象領域を選択し、断層画像群を構成する各断層画像の位置合わせパラメータを算出(補正)する。そうすることで、断面画像が高画質に生成されるようにする。以下、本実施例に係る画像処理装置について、第一の実施例との相違部分についてのみ説明する。
(Another example of "weight according to the distance from the cross section of interest")
In the first embodiment, a case has been described in which a weight corresponding to the distance from the cross section of interest is set in the calculation for calculating the alignment parameter of each tomographic image constituting the tomographic image group. However, the method of setting the weight according to the distance from the target section is not limited to this, and for example, the closer to the target section, the more processing target regions may be selected. The image processing apparatus according to the present embodiment selects a processing target region based on the positional relationship between the tomographic image group and the target cross section when generating an image of the target cross section (cross section image) from the tomographic image group, and generates the tomographic image. The alignment parameter of each tomographic image constituting the group is calculated (corrected). By doing so, a cross-sectional image is generated with high image quality. Hereinafter, only the difference from the first embodiment will be described for the image processing apparatus according to this embodiment.

本実施例における画像処理装置の構成は図1と同様であるため、その説明を省略する。
また、本実施例における画像処理装置が行う全体の処理手順を示すフローチャートは図3と同様であるので、その説明も省略する。ただし、ステップS3020の処理の詳細のみが異なっている。
Since the configuration of the image processing apparatus in this embodiment is the same as that shown in FIG. 1, the description thereof is omitted.
A flowchart showing the overall processing procedure performed by the image processing apparatus according to the present embodiment is the same as that shown in FIG. However, only the details of the processing in step S3020 are different.

図8は、第三の実施例のステップS3020における位置合わせパラメータ算出部140の処理手順を示すフローチャートである。   FIG. 8 is a flowchart showing the processing procedure of the alignment parameter calculation unit 140 in step S3020 of the third embodiment.

ステップS8000の処理は、第一の実施例におけるステップS4000の処理と同様であるので、詳細な説明は省略する。   Since the process in step S8000 is the same as the process in step S4000 in the first embodiment, a detailed description thereof will be omitted.

(S8005) (交線の算出)
ステップS8005において、位置合わせパラメータ算出部140は、未処理断層画像と注目断面との交線を算出する。未処理断層画像の位置姿勢はセンサ計測値がその初期値として与えられており、注目断面の位置姿勢はステップS3030で得られているので、周知の方法で2つの平面の交線を算出することができる。
(S8005) (Calculation of intersection line)
In step S8005, the alignment parameter calculation unit 140 calculates an intersection line between the unprocessed tomographic image and the cross section of interest. Since the position and orientation of the unprocessed tomographic image are given as sensor initial values and the position and orientation of the cross section of interest are obtained in step S3030, the intersection of the two planes is calculated by a well-known method. Can do.

(S8010) (処理対象領域の選択)
ステップS8010において、位置合わせパラメータ算出部140は、未処理断層画像を部分領域に分割して、そこから複数の処理対象領域を選択する。本実施例においても、注目する部分領域が十分発達したスペックル領域である場合に、その領域を処理対象領域として選択する。具体的には以下の処理を実行する。まず、未処理断層画像を例えば5×5個の互いに重ならない部分領域に分割する。本実施例では、ステップS8005で算出した交線と交わる部分領域を、さらに2×2の互いに重ならない部分領域に分割する。次に、各部分領域が十分発達したスペックル領域であるかどうかを、部分領域内の画素値の平均値と標準偏差の比が1に近いかどうかで判定する。そして、十分発達したスペックル領域と判定された部分領域を、処理対象領域として選択する。本ステップの処理により、一般的には、注目断面に近いほど多くの処理対象領域が選択される。
(S8010) (Selection of processing target area)
In step S8010, the alignment parameter calculation unit 140 divides the unprocessed tomographic image into partial regions, and selects a plurality of processing target regions therefrom. Also in the present embodiment, when the partial area of interest is a sufficiently developed speckle area, that area is selected as a processing target area. Specifically, the following processing is executed. First, an unprocessed tomographic image is divided into, for example, 5 × 5 partial areas that do not overlap each other. In this embodiment, the partial area that intersects the intersection calculated in step S8005 is further divided into 2 × 2 partial areas that do not overlap each other. Next, whether or not each partial area is a sufficiently developed speckle area is determined based on whether or not the ratio of the average value of the pixel values in the partial area to the standard deviation is close to 1. Then, a partial area determined to be a sufficiently developed speckle area is selected as a process target area. As a result of the processing in this step, generally, the closer to the cross section of interest, the more processing target regions are selected.

ステップS8020の処理は、第一の実施例におけるステップS4020の処理と同様であるので、詳細な説明は省略する。   Since the process of step S8020 is the same as the process of step S4020 in the first embodiment, detailed description thereof is omitted.

(S8030) (相対位置合わせパラメータの算出)
ステップS8030において、位置合わせパラメータ算出部140は、ステップS8000で選択した未処理断層画像に関して、当該断層画像とその直前の時刻に撮像された断層画像との間の位置合わせパラメータを算出する。本ステップの処理は、第一の実施例におけるステップS4030と同様であるので、詳細な説明は省略する。ただし、注目断面からの距離に応じた重み付け計算は行わない。
(S8030) (Calculation of relative alignment parameter)
In step S8030, the alignment parameter calculation unit 140 calculates an alignment parameter between the tomographic image and the tomographic image captured at the immediately preceding time for the unprocessed tomographic image selected in step S8000. Since the process of this step is the same as that of step S4030 in the first embodiment, detailed description thereof is omitted. However, weighting calculation according to the distance from the cross section of interest is not performed.

以下、ステップS8035、S8037、S8040およびステップS8050の処理は、第一の実施例におけるS4035、S4037、S4040およびステップS4050の処理と同様であるので、詳細な説明は省略する。   Hereinafter, the processes in steps S8035, S8037, S8040, and step S8050 are the same as the processes in S4035, S4037, S4040, and step S4050 in the first embodiment, and thus detailed description thereof is omitted.

以上のように、本実施例に係る画像処理装置は、断層画像群と注目断面との位置関係に基づいて、注目断面に近いほど多くの処理対象領域を選択して、断層画像群を構成する各断層画像の位置合わせパラメータを補正する。これにより、注目断面に近いほど誤差が小さくなるような位置合わせが行われるなので、断面画像を高画質に生成することができる。   As described above, the image processing apparatus according to the present embodiment configures a tomographic image group by selecting a larger number of processing target regions closer to the target cross section based on the positional relationship between the tomographic image group and the target cross section. The alignment parameter of each tomographic image is corrected. As a result, alignment is performed so that the error becomes smaller as the section is closer to the target section, so that a section image can be generated with high image quality.

(第三の実施例の変形例1)
本実施例の方法を、第一の実施例の方法と組み合わせてもよい。すなわち、注目断面に近いほど多くの処理対象領域を選択した上で、さらに注目断面からの距離に応じた重みを付けて、断層画像群の位置合わせパラメータを算出(補正)してもよい。これにより、注目断面付近の誤差を極力小さくするような位置合わせが行われるので、断面画像を高画質に生成することができる。
(Modification 1 of the third embodiment)
The method of this embodiment may be combined with the method of the first embodiment. That is, the closer to the cross section of interest, the more processing target regions are selected, and the weighting corresponding to the distance from the cross section of interest is further applied to calculate (correct) the alignment parameters of the tomographic image group. Thereby, alignment is performed so as to minimize the error in the vicinity of the cross section of interest, so that a cross-sectional image can be generated with high image quality.

また、画像特徴のみに基づいて算出された2枚の断層画像間の位置姿勢と、位置姿勢センサによって計測された2枚の断層画像間の位置姿勢とを統合する際に、注目断面に近いほど前者の重みが大きくなるようにしてでもよい。その他、断面との位置関係を考慮して位置合わせパラメータを求める方法であれば、いずれの方法であってもよい。   Further, when integrating the position and orientation between two tomographic images calculated based only on image features and the position and orientation between two tomographic images measured by the position and orientation sensor, the closer to the cross section of interest, The former weight may be increased. In addition, any method may be used as long as the alignment parameter is obtained in consideration of the positional relationship with the cross section.

(その他の実施例)
以上、実施例を詳述したが、本発明は、例えば、システム、装置、方法、プログラムもしくは記憶媒体等としての実施態様をとることが可能である。具体的には、複数の機器から構成されるシステムに適用してもよいし、また、一つの機器からなる装置に適用してもよい。
(Other examples)
Although the embodiments have been described in detail above, the present invention can take an embodiment as, for example, a system, apparatus, method, program, or storage medium. Specifically, the present invention may be applied to a system composed of a plurality of devices, or may be applied to an apparatus composed of a single device.

なお、本発明は、ソフトウェアのプログラムをシステム或いは装置に直接或いは遠隔から供給し、そのシステム或いは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによって前述した実施例の機能が達成される場合を含む。この場合、供給されるプログラムは実施例で図に示したフローチャートに対応したコンピュータプログラムである。   In the present invention, the functions of the above-described embodiments are achieved by supplying a software program directly or remotely to a system or apparatus, and the computer of the system or apparatus reads and executes the supplied program code. Including the case. In this case, the supplied program is a computer program corresponding to the flowchart shown in the drawing in the embodiment.

従って、本発明の機能処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。   Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。   In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, and the like.

コンピュータプログラムを供給するためのコンピュータ読み取り可能な記憶媒体としては以下が挙げられる。例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM、DVD−R)などである。   Examples of the computer-readable storage medium for supplying the computer program include the following. For example, floppy (registered trademark) disk, hard disk, optical disk, magneto-optical disk, MO, CD-ROM, CD-R, CD-RW, magnetic tape, nonvolatile memory card, ROM, DVD (DVD-ROM, DVD- R).

その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続し、該ホームページから本発明のコンピュータプログラムをハードディスク等の記録媒体にダウンロードすることが挙げられる。この場合、ダウンロードされるプログラムは、圧縮され自動インストール機能を含むファイルであってもよい。また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。   As another program supply method, a client computer browser is used to connect to a homepage on the Internet, and the computer program of the present invention is downloaded from the homepage to a recording medium such as a hard disk. In this case, the downloaded program may be a compressed file including an automatic installation function. It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer is also included in the present invention.

また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布するという形態をとることもできる。この場合、所定の条件をクリアしたユーザに、インターネットを介してホームページから暗号を解く鍵情報をダウンロードさせ、その鍵情報を使用して暗号化されたプログラムを実行し、プログラムをコンピュータにインストールさせるようにもできる。   Further, the program of the present invention may be encrypted, stored in a storage medium such as a CD-ROM, and distributed to users. In this case, a user who has cleared a predetermined condition is allowed to download key information for decryption from a homepage via the Internet, execute an encrypted program using the key information, and install the program on the computer. You can also.

また、コンピュータが、読み出したプログラムを実行することによって、前述した実施例の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどとの協働で実施例の機能が実現されてもよい。この場合、OSなどが、実際の処理の一部または全部を行い、その処理によって前述した実施例の機能が実現される。   In addition to the functions of the above-described embodiment being realized by the computer executing the read program, the embodiment of the embodiment is implemented in cooperation with an OS running on the computer based on the instruction of the program. A function may be realized. In this case, the OS or the like performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれて前述の実施例の機能の一部或いは全てが実現されてもよい。この場合、機能拡張ボードや機能拡張ユニットにプログラムが書き込まれた後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行う。   Furthermore, the program read from the recording medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, so that part or all of the functions of the above-described embodiments are realized. May be. In this case, after a program is written in the function expansion board or function expansion unit, the CPU or the like provided in the function expansion board or function expansion unit performs part or all of the actual processing based on the instructions of the program.

100 画像処理装置
110 対象断層画像群取得部
120 参照断層画像群取得部
130 注目断面設定部
140 位置合わせパラメータ算出部
150 断面画像生成部
DESCRIPTION OF SYMBOLS 100 Image processing apparatus 110 Target tomographic image group acquisition part 120 Reference tomographic image group acquisition part 130 Attention cross-section setting part 140 Positioning parameter calculation part 150 Cross-sectional image generation part

Claims (14)

被検体の複数の断層画像について夫々対応する部分領域と所定の面との距離が小さいほど、前記対応する部分領域の位置が合うように前記断層画像の位置合わせを行う位置合わせ手段と、
前記所定の面の位置情報に基づいて、前記位置合わせがされた複数の断層画像から断面画像を生成する生成手段と、を有することを特徴とする画像処理装置。
An alignment unit that aligns the tomographic image so that the position of the corresponding partial region matches the smaller the distance between the corresponding partial region and the predetermined plane for each of the tomographic images of the subject;
An image processing apparatus comprising: generating means for generating a cross-sectional image from the plurality of aligned tomographic images based on position information of the predetermined surface.
前記生成手段は、前記所定の面と同一の面に含まれる断面画像を生成することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the generation unit generates a cross-sectional image included in the same surface as the predetermined surface. 前記位置合わせ手段は、前記対応する部分領域に、前記断面との距離に応じた重み付けを行い、前記重み付けに基づいて前記位置合わせを行うことを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the alignment unit weights the corresponding partial region according to a distance from the cross section, and performs the alignment based on the weighting. 前記所定の面を指定する指定手段を有し、
前記位置合わせ手段は、前記指定手段により前記断面が変更されることに応じて前記位置合わせを行うことを特徴とする請求項1に記載の画像処理装置。
Designating means for designating the predetermined surface;
The image processing apparatus according to claim 1, wherein the alignment unit performs the alignment in response to the cross section being changed by the designation unit.
前記断層画像は超音波断層画像であることを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the tomographic image is an ultrasonic tomographic image. 前記位置合わせ手段は、前記断層画像について、スペックルノイズが十分に発達した領域を前記部分領域とすることを特徴とする請求項5に記載の画像処理装置。   The image processing apparatus according to claim 5, wherein the alignment unit sets an area where speckle noise is sufficiently developed for the tomographic image as the partial area. 前記位置合わせ手段は、前記対応する部分領域の間の距離を、該距離と前記対応する部分領域の相関値の関係を示す平均相関曲線がガウス曲線となることを利用して前記対応する領域間の距離を算出することを特徴とする請求項5に記載の画像処理装置。   The alignment means calculates the distance between the corresponding partial areas using the fact that an average correlation curve indicating the relationship between the distance and the correlation value of the corresponding partial area becomes a Gaussian curve. The image processing apparatus according to claim 5, wherein the distance is calculated. 前記位置合わせ手段は、前記断層画像を取得する超音波探触子の前記被検体に対する押し当てによる変形量に応じて位置合わせを行うことを特徴とする請求項5に記載の画像処理装置。   The image processing apparatus according to claim 5, wherein the alignment unit performs alignment according to an amount of deformation caused by pressing an ultrasonic probe that acquires the tomographic image against the subject. 前記位置合わせ手段は、互いに隣り合う断層画像の位置合わせを行うことを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the alignment unit performs alignment of adjacent tomographic images. 位置合わせの基準となる断層画像を前記複数の断層画像から選択する選択手段を有し、
前記位置合わせ手段は、前記選択された断層画像から連鎖的に位置合わせを行うことを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。
A selection unit that selects a tomographic image serving as a reference for alignment from the plurality of tomographic images;
The image processing apparatus according to claim 1, wherein the alignment unit performs alignment in a chain manner from the selected tomographic image.
被検体の複数の断層画像について夫々対応する部分と所定の領域との距離が小さいほど、前記対応する部分の位置が合うように前記断層画像の位置合わせを行う位置合わせ手段と、
前記所定の領域の位置情報に基づいて、前記位置合わせがされた複数の断層画像から断面画像を生成する生成手段と、
を有することを特徴とする画像処理装置。
An alignment means for aligning the tomographic image so that the position of the corresponding part matches the smaller the distance between the corresponding part and the predetermined region for each of the tomographic images of the subject;
Generating means for generating a cross-sectional image from the plurality of tomographic images that have been aligned based on position information of the predetermined region;
An image processing apparatus comprising:
被検体の複数の断層画像について夫々対応する部分領域と所定の面との距離が小さいほど、前記対応する部分領域の位置が合うように前記断層画像の位置合わせを行うステップと、
前記所定の面の位置情報に基づいて、前記位置合わせがされた複数の断層画像から断面画像を生成するステップと、
を有することを特徴とする画像処理方法。
A step of aligning the tomographic image so that the position of the corresponding partial region is matched as the distance between the corresponding partial region and the predetermined surface for each of the plurality of tomographic images of the subject is small;
Generating a cross-sectional image from a plurality of tomographic images that have been aligned based on position information of the predetermined surface;
An image processing method comprising:
被検体の複数の断層画像について夫々対応する部分領域と所定の面との距離が小さいほど、前記対応する部分領域の位置が合うように前記断層画像の位置合わせを行う処理と、
前記所定の面の位置情報に基づいて、前記位置合わせがされた複数の断層画像から断面画像を生成する処理と、
をコンピュータに実行させることを特徴とするプログラム。
A process of aligning the tomographic images so that the positions of the corresponding partial regions match each other as the distance between the corresponding partial region and the predetermined surface of each of the plurality of tomographic images of the subject decreases;
A process of generating a cross-sectional image from the plurality of tomographic images that have been aligned based on position information of the predetermined surface;
A program that causes a computer to execute.
被検体の複数の断層画像を取得する取得手段と、
前記複数の断層画像について夫々対応する部分領域と所定の面との距離が小さいほど、前記対応する部分領域の位置が合うように前記断層画像の位置合わせを行う位置合わせ手段と、
前記所定の面の位置情報に基づいて、前記位置合わせがされた複数の断層画像から断面画像を生成する生成手段と、を有することを特徴とする画像処理システム。
Acquisition means for acquiring a plurality of tomographic images of the subject;
An alignment unit that aligns the tomographic images so that the position of the corresponding partial region matches the smaller the distance between the corresponding partial region and the predetermined plane for each of the plurality of tomographic images;
An image processing system comprising: generating means for generating a cross-sectional image from the plurality of aligned tomographic images based on position information of the predetermined surface.
JP2013208316A 2013-10-03 2013-10-03 Image processing apparatus, image processing method, image processing system, and program Expired - Fee Related JP5709957B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013208316A JP5709957B2 (en) 2013-10-03 2013-10-03 Image processing apparatus, image processing method, image processing system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013208316A JP5709957B2 (en) 2013-10-03 2013-10-03 Image processing apparatus, image processing method, image processing system, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2009288456A Division JP5383467B2 (en) 2009-12-18 2009-12-18 Image processing apparatus, image processing method, image processing system, and program

Publications (2)

Publication Number Publication Date
JP2014042830A true JP2014042830A (en) 2014-03-13
JP5709957B2 JP5709957B2 (en) 2015-04-30

Family

ID=50394531

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013208316A Expired - Fee Related JP5709957B2 (en) 2013-10-03 2013-10-03 Image processing apparatus, image processing method, image processing system, and program

Country Status (1)

Country Link
JP (1) JP5709957B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018004453A (en) * 2016-07-01 2018-01-11 三菱重工業株式会社 Processing hole position determination device and processing hole position determination method
EP4302702A1 (en) * 2022-07-04 2024-01-10 FUJI-FILM Corporation Ultrasound diagnostic apparatus and control method of ultrasound diagnostic apparatus

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08332187A (en) * 1995-06-08 1996-12-17 Aloka Co Ltd Ultrasonic image processor
JP2003334192A (en) * 2002-05-20 2003-11-25 Toshiba Corp Ultrasonic diagnostic equipment
JP2005058551A (en) * 2003-08-18 2005-03-10 Ge Medical Systems Global Technology Co Llc Method for ultrasonic image display and equipment for ultrasonic diagnosis
JP2008086400A (en) * 2006-09-29 2008-04-17 Gifu Univ Mammographic image diagnostic system
WO2008075740A1 (en) * 2006-12-20 2008-06-26 Hitachi Medical Corporation Ultrasonographic device
JP2008259764A (en) * 2007-04-13 2008-10-30 Toshiba Corp Ultrasonic diagnostic equipment and diagnosis program of the equipment

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08332187A (en) * 1995-06-08 1996-12-17 Aloka Co Ltd Ultrasonic image processor
JP2003334192A (en) * 2002-05-20 2003-11-25 Toshiba Corp Ultrasonic diagnostic equipment
JP2005058551A (en) * 2003-08-18 2005-03-10 Ge Medical Systems Global Technology Co Llc Method for ultrasonic image display and equipment for ultrasonic diagnosis
JP2008086400A (en) * 2006-09-29 2008-04-17 Gifu Univ Mammographic image diagnostic system
WO2008075740A1 (en) * 2006-12-20 2008-06-26 Hitachi Medical Corporation Ultrasonographic device
JP2008259764A (en) * 2007-04-13 2008-10-30 Toshiba Corp Ultrasonic diagnostic equipment and diagnosis program of the equipment

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018004453A (en) * 2016-07-01 2018-01-11 三菱重工業株式会社 Processing hole position determination device and processing hole position determination method
EP4302702A1 (en) * 2022-07-04 2024-01-10 FUJI-FILM Corporation Ultrasound diagnostic apparatus and control method of ultrasound diagnostic apparatus

Also Published As

Publication number Publication date
JP5709957B2 (en) 2015-04-30

Similar Documents

Publication Publication Date Title
KR102269467B1 (en) Measurement point determination in medical diagnostic imaging
JP5538861B2 (en) Information processing apparatus, information processing method, information processing system, and program
JP5538862B2 (en) Image processing apparatus, image processing system, image processing method, and program
JP5430203B2 (en) Image processing apparatus and image processing method
JP4709177B2 (en) Three-dimensional image processing apparatus and method, and program
US7773786B2 (en) Method and apparatus for three-dimensional interactive tools for semi-automatic segmentation and editing of image objects
WO2011074162A1 (en) Image processing apparatus, image processing method, image processing system, and program
WO2010064348A1 (en) Information processing apparatus, information processing method, and program for positioning medical image
JP5631453B2 (en) Image processing apparatus and image processing method
JP6448356B2 (en) Image processing apparatus, image processing method, image processing system, and program
JP2012213558A (en) Image processing apparatus, image processing method, and program
JP2013153883A (en) Image processing apparatus, imaging system, and image processing method
JP2015054051A (en) Information processor, and information processing method
JP5415245B2 (en) MEDICAL IMAGE DISPLAY DEVICE, METHOD, AND PROGRAM
JP6429958B2 (en) Image processing apparatus, image processing method, and program
JP5383467B2 (en) Image processing apparatus, image processing method, image processing system, and program
JP5709957B2 (en) Image processing apparatus, image processing method, image processing system, and program
JP6487999B2 (en) Information processing apparatus, information processing method, and program
JP6263248B2 (en) Information processing apparatus, information processing method, and program
US11423554B2 (en) Registering a two-dimensional image with a three-dimensional image
JP5159195B2 (en) Medical image processing device
JP6251002B2 (en) Image processing apparatus, image processing method, and computer program
JP6391544B2 (en) Medical image processing apparatus, medical image processing method, and program
JP7165541B2 (en) Volume data processing device, method and program
EP4160543A1 (en) Method for analysing 3d medical image data, computer program and 3d medical image data evaluation device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140708

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150303

R151 Written notification of patent or utility model registration

Ref document number: 5709957

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees