JP2013248466A - Processing apparatus, processing method, and program - Google Patents

Processing apparatus, processing method, and program Download PDF

Info

Publication number
JP2013248466A
JP2013248466A JP2013159711A JP2013159711A JP2013248466A JP 2013248466 A JP2013248466 A JP 2013248466A JP 2013159711 A JP2013159711 A JP 2013159711A JP 2013159711 A JP2013159711 A JP 2013159711A JP 2013248466 A JP2013248466 A JP 2013248466A
Authority
JP
Japan
Prior art keywords
image
region
polynomial
processing apparatus
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013159711A
Other languages
Japanese (ja)
Other versions
JP5706933B2 (en
Inventor
Akira Ishikawa
亮 石川
Katsushi Ikeuchi
克史 池内
Jun Takamatsu
淳 高松
Takeshi Oishi
岳史 大石
Nami Tei
波 鄭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013159711A priority Critical patent/JP5706933B2/en
Publication of JP2013248466A publication Critical patent/JP2013248466A/en
Application granted granted Critical
Publication of JP5706933B2 publication Critical patent/JP5706933B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a mechanism for precise position adjustment of a plurality of images.SOLUTION: A processing apparatus performs position adjustment for a first region of a first image and a second region of a second image, wherein the processing apparatus generates a polynomial expression for calculating a value that responds to a distance from the first region of the first image, which then is a target for position adjustment, to obtain a corrected value for performing the position adjustment based on: positional coordinates of the second region on the first image; and the polynomial expression.

Description

本発明は、複数の画像データをコンピュータ処理し、画像の位置合わせをする処理装置に関する。   The present invention relates to a processing apparatus that performs computer processing on a plurality of image data and aligns images.

医療の分野において、医師は、患者を撮影した医用画像をモニタに表示し、表示された医用画像を読影して、病変部の状態や経時変化を観察する。この種の医用画像を生成する装置としては、単純X線撮影装置、X線コンピュータ断層撮影装置(X線CT)、核磁気共鳴映像装置(MRI)、核医学診断装置(SPECT、PETなど)、超音波画像診断装置(US)等が挙げられる。   In the medical field, a doctor displays a medical image obtained by photographing a patient on a monitor, interprets the displayed medical image, and observes a state of a lesioned part and a change with time. Devices that generate this type of medical image include simple X-ray imaging devices, X-ray computed tomography devices (X-ray CT), nuclear magnetic resonance imaging devices (MRI), nuclear medicine diagnostic devices (SPECT, PET, etc.), Examples thereof include an ultrasonic diagnostic imaging apparatus (US).

また、より精度の良い診断を目的として複数の装置から得た複数の画像を利用して、診断を行う場合もある。例えば同一の被検査者に対して複数の撮像装置を用いて撮影し、得られた画像を重ね合わせることで、診断や、レーザ照射等の治療に有効な情報を得ることができる。   In some cases, diagnosis is performed using a plurality of images obtained from a plurality of devices for the purpose of more accurate diagnosis. For example, it is possible to obtain information useful for diagnosis and treatment such as laser irradiation by superimposing images obtained by photographing a single subject using a plurality of imaging devices.

例えば、超音波画像診断装置から得られる画像とCTから得られる三次元画像とを重ね合わせ、治療用のレーザ照射のより正確な位置を得ている。そのため、画像の重ね合わせの高精度化が要求されている。しかし、医師は目視で双方の画像の位置合わせを行っているのが現状である。   For example, an image obtained from an ultrasonic diagnostic imaging apparatus and a three-dimensional image obtained from CT are superimposed to obtain a more accurate position of therapeutic laser irradiation. For this reason, there is a demand for higher accuracy in image superposition. However, the current situation is that doctors visually align both images.

一方、画像間の位置合わせを高速に行う方法が研究されつつある(非特許文献1)。
この方法では、以下の1)〜4)を収束するまで計算することにより両者の相対位置を推定する。
1)二次元画像の輪郭線を抽出し、輪郭線からの距離に応じた値を示す距離場を生成する。
2)それに対して、三次元幾何モデルのシルエット画像の輪郭を求め、輪郭上の点に距離場に応じて計算される力を加える。
3)そして、全ての輪郭線上に加えられる力の和と、三次元幾何モデル重心周りのモーメントを求める。
4)得られた力とモーメントに応じて、三次元幾何モデルの位置姿勢を更新する。
On the other hand, methods for performing alignment between images at high speed are being studied (Non-patent Document 1).
In this method, the following 1) to 4) are calculated until convergence, thereby estimating the relative positions of the two.
1) A contour line of a two-dimensional image is extracted, and a distance field indicating a value corresponding to the distance from the contour line is generated.
2) On the other hand, the contour of the silhouette image of the three-dimensional geometric model is obtained, and a force calculated according to the distance field is applied to a point on the contour.
3) Then, the sum of forces applied on all contour lines and the moment around the center of gravity of the three-dimensional geometric model are obtained.
4) Update the position and orientation of the three-dimensional geometric model according to the obtained force and moment.

2次元距離場を用いた2D-3Dレジストレーション岩下、倉爪、原、油谷、中本、小西、橋爪、長谷川、画像の認識・理解シンポジウム(MIRU3005), 30052D-3D registration using 2D distance field Iwashita, Kurazume, Hara, Aburaya, Nakamoto, Konishi, Hashizume, Hasegawa, Image Recognition and Understanding Symposium (MIRU3005), 3005 Michael M. Blane, Zhibin Lei, HakanCE ivi, and David B. Cooper, “The 3L Algorithm for Fitting Implicit Polynomial Curves and Surfaces to Data,” IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 22, No. 3, pp. 298-313, 3000Michael M. Blane, Zhibin Lei, HakanCE ivi, and David B. Cooper, “The 3L Algorithm for Fitting Implicit Polynomial Curves and Surfaces to Data,” IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 22, No. 3, pp .298-313, 3000 Tolga Tasdizen, Jean-PhilippeTarel, David B. Cooper, ”Improving the Stability of Algebraic Curves for Applications,” IEEE Transactions on Image Processing, Vol. 9, No. 3, pp. 405-416, 3000Tolga Tasdizen, Jean-PhilippeTarel, David B. Cooper, “Improving the Stability of Algebraic Curves for Applications,” IEEE Transactions on Image Processing, Vol. 9, No. 3, pp. 405-416, 3000 Amir Helzer, Meir Barzohar, and David Malah, “Stable Fitting of 2D Curves and 3D Surfaces by Implicit Polynomials,” IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 26, No. 10, pp. 1283-1294, 3004Amir Helzer, Meir Barzohar, and David Malah, “Stable Fitting of 2D Curves and 3D Surfaces by Implicit Polynomials,” IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 26, No. 10, pp. 1283-1294, 3004 BoZheng, Jun Takamatsu, and Katsushi Ikeuchi, “Adaptively Determining Degrees of Implicit Polynomial Curves and Surfaces,” Proc. 8th Asian Conference on Computer Vision, 3007BoZheng, Jun Takamatsu, and Katsushi Ikeuchi, “Adaptively Determining Degrees of Implicit Polynomial Curves and Surfaces,” Proc. 8th Asian Conference on Computer Vision, 3007 G. Taubin and D. Cooper, “Symbolic and Numerical Computation for Artificial Intelligence, chapter 6,” Computational Mathematics and Applications, Academic Press, 1992G. Taubin and D. Cooper, “Symbolic and Numerical Computation for Artificial Intelligence, chapter 6,” Computational Mathematics and Applications, Academic Press, 1992

非特許文献1に開示される技術は、輪郭線からの距離に応じた値をしめす距離場を数式で表す思想がなく、距離場を示す値をメモリに記憶しておく必要がある。そのため、上記3)の力などを計算する場合には、三次元幾何モデルのシルエット画像の輪郭座標に対応するメモリ上の座標を求める処理が必要となる。従って、メモリとのアクセスなしに数値計算として解を求めることが出来ない。また、位置合わせの効率化を計るために、メモリのアクセスが制限となり計算の簡略化を計ることも困難である。これは、位置合わせの精度へも影響するものである。   The technique disclosed in Non-Patent Document 1 does not have a concept of expressing a distance field indicating a value corresponding to a distance from the contour line by a mathematical formula, and it is necessary to store a value indicating the distance field in a memory. For this reason, when calculating the force 3) and the like, it is necessary to obtain a coordinate on the memory corresponding to the contour coordinate of the silhouette image of the three-dimensional geometric model. Therefore, the solution cannot be obtained as a numerical calculation without accessing the memory. In addition, in order to improve the efficiency of alignment, it is difficult to simplify the calculation because the memory access is limited. This also affects the alignment accuracy.

本発明は、上記の課題に鑑みてなされたものであり、複数の画像を精度よく位置合わせ処理する仕組みを提供することを目的とする。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a mechanism for accurately aligning a plurality of images.

上記の目的を達成するための、本発明の一態様によるによる処理装置は以下の構成を備える。すなわち、
第一の画像の第一の領域と第二の画像の第二の領域との位置合わせを行う処理装置であって、
前記第一の画像における位置合わせの対象となる前記第一の領域からの距離に応じた値を算出する多項式を生成する生成手段と、
前記第二の領域の前記第一の画像上の位置座標と前記多項式に基づいて前記位置合わせを行うための補正値を得る取得手段と、を備える。
In order to achieve the above object, a processing apparatus according to an aspect of the present invention comprises the following arrangement. That is,
A processing device for aligning a first region of a first image and a second region of a second image,
Generating means for generating a polynomial for calculating a value according to the distance from the first region to be aligned in the first image;
Obtaining means for obtaining a correction value for performing the alignment based on the position coordinates of the second region on the first image and the polynomial.

本発明の構成により、異なる撮像装置で撮像された二つの異なる画像間の位置合わせを高精度に行う仕組みを提供できる。   According to the configuration of the present invention, it is possible to provide a mechanism for performing alignment between two different images captured by different imaging devices with high accuracy.

実施形態に係る位置合わせ処理装置の機能構成を示す図である。It is a figure which shows the function structure of the position alignment processing apparatus which concerns on embodiment. 実施形態に係る位置合わせ処理システムの装置構成を示す図である。It is a figure which shows the apparatus structure of the position alignment processing system which concerns on embodiment. 実施形態に係る位置合わせ処理装置の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the position alignment processing apparatus which concerns on embodiment. 実施形態に係る図2のステップS302の処理を説明する図である。It is a figure explaining the process of step S302 of FIG. 2 which concerns on embodiment. 実施形態に係る図2のステップS303の処理を説明する図である。It is a figure explaining the process of step S303 of FIG. 2 which concerns on embodiment. 実施形態に係る図2のステップS305の処理を説明する図である。It is a figure explaining the process of step S305 of FIG. 2 which concerns on embodiment. 実施形態に係る位置合わせ処理を説明する図である。It is a figure explaining the alignment process which concerns on embodiment.

以下、添付図面に従って本発明に係る位置合わせ処理装置及び方法の好ましい実施形態について詳説する。ただし、発明の範囲は図示例に限定されるものではない。   Hereinafter, preferred embodiments of an alignment processing apparatus and method according to the present invention will be described in detail according to the accompanying drawings. However, the scope of the invention is not limited to the illustrated examples.

図1は、本実施形態に係る位置合わせ処理装置1000の機能構成を示している。位置合わせ処理装置1000は第一の撮影装置1100および、第二の撮影装置1110と接続されている。   FIG. 1 shows a functional configuration of an alignment processing apparatus 1000 according to the present embodiment. The alignment processing apparatus 1000 is connected to the first imaging apparatus 1100 and the second imaging apparatus 1110.

これらの撮影装置として、単純X線撮影装置、X線コンピュータ断層撮影装置(X線CT)、核磁気共鳴映像装置(MRI)、核医学診断装置(SPECT、PETなど)、超音波画像診断装置(US)等の撮影装置が挙げられる。また、医療用の画像のみでなく、一般のカメラで撮影した画像にも適用できるものである。   These imaging devices include simple X-ray imaging equipment, X-ray computed tomography equipment (X-ray CT), nuclear magnetic resonance imaging equipment (MRI), nuclear medicine diagnostic equipment (SPECT, PET, etc.), ultrasound imaging equipment ( US) and the like. Further, the present invention can be applied not only to medical images but also to images taken with a general camera.

第一の画像入力部1010は、第一の撮影装置1100が撮影した対象物体の画像を第一の画像として入力する。   The first image input unit 1010 inputs an image of the target object captured by the first imaging device 1100 as the first image.

生成部1020は、入力された第一の画像を処理して、位置合わせの対象となる領域から複数の位置座標を取得し、この複数の位置座標に基づく多項式を生成する。ここで位置合わせの対象となる領域とは、注目領域のことであり、例えば、医療画像であれば肺、胃、心臓等の人体内部の臓器や、頭、手等が相当する。一般のカメラ画像であれば、人の顔などが相当する。位置合わせの対象となる領域からの距離とは、例えば肺ならば肺と他の人体内部組織との境界領域からの距離を意味する。すなわち、位置合わせの対象となる領域を三次元構成する外面からの距離を意味する。   The generation unit 1020 processes the input first image, acquires a plurality of position coordinates from the region to be aligned, and generates a polynomial based on the plurality of position coordinates. Here, the region to be aligned is a region of interest. For example, in the case of a medical image, an organ inside the human body such as lung, stomach, heart, head, hand, or the like corresponds. If it is a general camera image, it corresponds to a human face. The distance from the region to be aligned means, for example, the distance from the boundary region between the lung and another human internal tissue in the case of the lung. That is, it means the distance from the outer surface that constitutes the region to be aligned three-dimensionally.

また、二次元画像であれば、位置合わせの対象となる領域からの距離とは、位置合わせの対象となる領域と外部領域の境界線である輪郭線からの距離を意味する。   In the case of a two-dimensional image, the distance from the region to be aligned means the distance from the contour that is the boundary line between the region to be aligned and the external region.

第二の画像入力部1030は、第二の撮影装置1110が撮影した対象物体の画像を第二の画像として入力する。   The second image input unit 1030 inputs an image of the target object captured by the second imaging device 1110 as a second image.

取得部1040は、第二の画像における位置合わせの対象となる領域から複数の位置座標を取得する。   The acquisition unit 1040 acquires a plurality of position coordinates from an area to be aligned in the second image.

なお、本実施形態では三次元画像をI3D(x,y,z)と表記する。I3D(x,y,z)は三次元空間の位置座標(x,y,z)における三次元画像の画素値を表現したものである。二次元画像であれば、Z=0として処理される。また、この画素値は撮影装置毎に物理的な意味が異なる。また、上記座標系は直交座標系を用いて表記しているがこれにかぎらず極座標系などを用いて表現してもよい。 In the present embodiment, the three-dimensional image is expressed as I 3D (x, y, z). I 3D (x, y, z) represents the pixel value of the three-dimensional image at the position coordinate (x, y, z) in the three-dimensional space. If it is a two-dimensional image, it is processed as Z = 0. Further, this pixel value has a different physical meaning for each photographing apparatus. Moreover, although the said coordinate system is described using the orthogonal coordinate system, you may express using not only this but a polar coordinate system.

例えば、単純X線撮影装置は、X線を人体に対して照射し、その透過X線を記録することで、人体内部のX線吸収率の平行投影像を得る。すなわち、X線吸収率に関する情報が画素値となる。   For example, a simple X-ray imaging apparatus irradiates a human body with X-rays and records the transmitted X-rays to obtain a parallel projection image of the X-ray absorption rate inside the human body. That is, the information regarding the X-ray absorption rate becomes the pixel value.

また、X線CTはX線を人体に対して様々な方向から照射し、多数の透視像を得て、それらの像を解析することで、人体内部の三次元的な情報を得る。このような三次元的な情報をCT撮影ではボクセルデータとよぶ。すなわち、X線CTから得られた画像では、ボクセル値に関する情報が画素値となる。   In addition, X-ray CT irradiates a human body from various directions, obtains a large number of fluoroscopic images, and analyzes these images to obtain three-dimensional information inside the human body. Such three-dimensional information is called voxel data in CT imaging. That is, in the image obtained from the X-ray CT, information regarding the voxel value is the pixel value.

また、MRIは、CTと同様に人体内部の3次元的な情報を得ることができる装置であるが、MRIは磁気共鳴現象を利用して画像化する装置であるため、X線吸収率を画像化するCTとは異なる物理情報が得られる。   MRI is a device that can obtain three-dimensional information inside the human body, similar to CT. However, since MRI is a device that uses magnetic resonance to image, the X-ray absorption rate can be imaged. Physical information different from the CT to be converted is obtained.

また、超音波画像診断装置は人体に超音波を照射して、人体の内部から反射してくる超音波を検出することで、人体内部の情報を取得する。超音波画像診断装置は通常、Bモードと称される方法で人体内部の断層画像を撮影する。超音波画像診断装置は、X線による被爆などといった人体に対する浸襲が無く、また撮影と観察を同時に行えるといった特徴がある。
以上のように、撮影装置毎に、物理的な意味が異なる情報が画素値として取得される。
Further, the ultrasonic diagnostic imaging apparatus obtains information inside the human body by irradiating the human body with ultrasonic waves and detecting ultrasonic waves reflected from the inside of the human body. An ultrasonic diagnostic imaging apparatus usually takes a tomographic image inside a human body by a method called B mode. The ultrasonic diagnostic imaging apparatus is characterized in that there is no invasion to the human body such as exposure to X-rays and that imaging and observation can be performed simultaneously.
As described above, information having a different physical meaning is acquired as a pixel value for each photographing apparatus.

算出部1050は、第二の画像から取得した複数の位置座標を座標変換して得た位置座標に対して、第一の画像における位置合わせの対象となる領域からの距離に応じた値を、生成部1020で生成された多項式を用いて夫々算出する。
決定部1060は、算出部1050で算出された値に基づいて、前記複数の位置座標の座標変換方法を決定する。座標変換方法に関しては後述する。
The calculation unit 1050 calculates a value corresponding to the distance from the region to be aligned in the first image, with respect to the position coordinates obtained by performing coordinate conversion on the plurality of position coordinates acquired from the second image. Each calculation is performed using the polynomial generated by the generation unit 1020.
The determination unit 1060 determines a coordinate conversion method for the plurality of position coordinates based on the value calculated by the calculation unit 1050. The coordinate conversion method will be described later.

座標変換部1070は、決定部1060で決定した座標変換方法で、前記第二の画像の位置座標を座標変換する。
また、画像合成部1080は、第一の画像と座標変換した第二の画像を合成した合成画像を生成し、画像表示装置1130に出力する。画像表示装置1130は、入力された画像を表示する。
The coordinate conversion unit 1070 converts the position coordinates of the second image using the coordinate conversion method determined by the determination unit 1060.
Further, the image composition unit 1080 generates a composite image obtained by combining the first image and the second image subjected to coordinate conversion, and outputs the composite image to the image display device 1130. The image display device 1130 displays the input image.

図2は、実施形態に係る位置合わせ処理装置1000を用いたシステムの装置構成を示す図である。本実施形態の位置合わせ処理システムは、位置合わせ処理装置1000、第一の撮影装置1100、画像記録装置3、ローカルエリアネットワーク(LAN)4、第二の撮影装置1110、外部位置計測センサ6を有する。   FIG. 2 is a diagram illustrating an apparatus configuration of a system using the alignment processing apparatus 1000 according to the embodiment. The alignment processing system of the present embodiment includes an alignment processing device 1000, a first imaging device 1100, an image recording device 3, a local area network (LAN) 4, a second imaging device 1110, and an external position measurement sensor 6. .

位置合わせ処理装置1000は、例えばパーソナルコンピュータ(PC)などで実現することができる。即ち、位置合わせ処理装置1000は、中央演算処理装置(CPU)100、主メモリ101、磁気ディスク102、表示メモリ103、モニタ104、マウス105、キーボード106を有する。   The alignment processing apparatus 1000 can be realized by a personal computer (PC), for example. That is, the alignment processing apparatus 1000 includes a central processing unit (CPU) 100, a main memory 101, a magnetic disk 102, a display memory 103, a monitor 104, a mouse 105, and a keyboard 106.

CPU100は、主として位置合わせ処理装置1000の各構成要素の動作を制御する。主メモリ101は、CPU100が実行する制御プログラムを格納したり、CPU100によるプログラム実行時の作業領域を提供したりする。磁気ディスク102は、オペレーティングシステム(OS)、周辺機器のデバイスドライブ、後述する位置合わせ処理等を行うためのプログラムを含む各種アプリケーションソフト等を格納する。表示メモリ103は、モニタ104のための表示用データを一時記憶する。モニタ104は、例えばCRTモニタや液晶モニタ等であり、表示メモリ103からのデータに基づいて画像を表示する。表示メモリ103とモニタ104は表示部を構成する。マウス105及びキーボード106はユーザによるポインティング入力及び文字等の入力をそれぞれ行う。上記各構成要素は共通バス107により互いに通信可能に接続されている。   The CPU 100 mainly controls the operation of each component of the alignment processing apparatus 1000. The main memory 101 stores a control program executed by the CPU 100 and provides a work area when the CPU 100 executes the program. The magnetic disk 102 stores an operating system (OS), device drives for peripheral devices, various application software including programs for performing alignment processing described later, and the like. The display memory 103 temporarily stores display data for the monitor 104. The monitor 104 is, for example, a CRT monitor or a liquid crystal monitor, and displays an image based on data from the display memory 103. The display memory 103 and the monitor 104 constitute a display unit. The mouse 105 and the keyboard 106 are used by the user for pointing input and character input, respectively. The above components are connected to each other via a common bus 107 so that they can communicate with each other.

本実実施形態において、位置合わせ処理装置1000は、LAN4を介して画像記録装置3から三次元画像データ等を読み出すことができる。また、LAN4を経由して第一の撮影装置1100から直接に三次元画像、二次元画像のいずれかを取得できるようにしてもよい。なお、本発明の形態はこれに限定されず、例えば位置合わせ処理装置1000に記憶装置、例えばFDD、CD−RWドライブ、MOドライブ、ZIPドライブ等を接続し、それらのドライブから画像データ等を読み込むようにしても良い。また、第一の撮影装置1100、第二の撮影装置1110としては、例えばX線CT装置、MRI装置、超音波画像診断装置、核医学装置、一般的なデジタルカメラなどが挙げられる。   In the present embodiment, the alignment processing apparatus 1000 can read out 3D image data and the like from the image recording apparatus 3 via the LAN 4. Further, either a three-dimensional image or a two-dimensional image may be acquired directly from the first imaging device 1100 via the LAN 4. The embodiment of the present invention is not limited to this. For example, a storage device such as an FDD, CD-RW drive, MO drive, or ZIP drive is connected to the alignment processing apparatus 1000, and image data or the like is read from these drives. You may do it. Examples of the first imaging apparatus 1100 and the second imaging apparatus 1110 include an X-ray CT apparatus, an MRI apparatus, an ultrasonic diagnostic imaging apparatus, a nuclear medicine apparatus, and a general digital camera.

また位置合わせ処理装置1000は、第二の撮影装置1110と接続されていて、撮影した画像を入力することができる。本実施形態では超音波画像診断装置を第二の撮影装置1110とした例に関して説明する。   The alignment processing apparatus 1000 is connected to the second imaging apparatus 1110 and can input a captured image. In the present embodiment, an example in which the ultrasonic diagnostic imaging apparatus is the second imaging apparatus 1110 will be described.

位置合わせ処理装置1000と第二の撮影装置1110とは直接に接続されても良いし、LAN4を介して接続されても良い。また、第二の撮像装置5から画像記録装置3に画像を記録し、位置合わせ処理装置1000が画像記録装置3から画像を読み出せるようにしても良い。   The alignment processing device 1000 and the second imaging device 1110 may be directly connected or may be connected via the LAN 4. Further, an image may be recorded from the second imaging device 5 to the image recording device 3 so that the alignment processing device 1000 can read the image from the image recording device 3.

ここで、I3D(x,y,z)で示される画像は、装置内の処理では画像データとして処理され、表示部における表示では可視画像として表示される。それゆえ、本実施形態では、I3D(x,y,z)で示される画像データを画像データ又は画像と呼ぶものとする。 Here, the image represented by I 3D (x, y, z) is processed as image data in the processing in the apparatus, and is displayed as a visible image in the display on the display unit. Therefore, in this embodiment, the image data represented by I 3D (x, y, z) is referred to as image data or an image.

外部位置計測センサ6は、第二の撮影装置1110の不図示の撮影プローブに装着され、その位置・姿勢などを計測する。また、外部位置計測センサ6と第二の撮影装置1110の撮影範囲、三次元画像との間の関係は事前に校正が行われているものとする。位置合わせ処理装置1000は外部位置計測センサ6の出力信号を計測結果として読み出すことで、第一の画像を基準とした座標系で、第二の撮影装置1110の撮影範囲をおおよその精度で取得できるものである。   The external position measurement sensor 6 is attached to an imaging probe (not shown) of the second imaging device 1110 and measures its position / posture. In addition, it is assumed that the relationship between the external position measurement sensor 6 and the imaging range and the three-dimensional image of the second imaging device 1110 has been calibrated in advance. The alignment processing apparatus 1000 reads the output signal of the external position measurement sensor 6 as a measurement result, and can acquire the imaging range of the second imaging apparatus 1110 with approximate accuracy in the coordinate system based on the first image. Is.

次に、図3のフローチャートを用いて、位置合わせ処理装置1000の動作に関して説明する。   Next, the operation of the alignment processing apparatus 1000 will be described using the flowchart of FIG.

ステップS301において、第一の画像入力部1010は、第一の撮影装置1100によって撮影した、被検査体の三次元画像データ又は二次元画像データを第一の画像として入力する。ここで第一の画像は第一の撮影装置1100から位置合わせ処理装置1000に直接入力しても良い。あるいは、第一の撮影装置1100が撮影した画像を、図2に記載の画像記録装置3に記録し、第一の画像入力部1010は画像記録装置3から所望の三次元画像データを読み出して入力してもよい。これら装置間の情報伝達は、図2に示すように例えばLAN4を介して行うことができ、その際の情報伝達のプロトコルとしてDICOM形式を利用する事ができる。
入力された三次元画像I3D(x,y,z)は、生成部1020に送信される。
In step S <b> 301, the first image input unit 1010 inputs the three-dimensional image data or the two-dimensional image data of the object to be inspected captured by the first imaging device 1100 as the first image. Here, the first image may be directly input from the first photographing apparatus 1100 to the alignment processing apparatus 1000. Alternatively, the image captured by the first imaging device 1100 is recorded in the image recording device 3 illustrated in FIG. 2, and the first image input unit 1010 reads out desired 3D image data from the image recording device 3 and inputs it. May be. Information transmission between these devices can be performed via the LAN 4 as shown in FIG. 2, for example, and the DICOM format can be used as an information transmission protocol at that time.
The input 3D image I 3D (x, y, z) is transmitted to the generation unit 1020.

ステップS302において、生成部1020は、ステップS301で入力された三次元画像から位置合わせの対象となる領域の輪郭点を抽出する。ここで位置合わせの対象となる領域とは、注目領域のことであり、例えば、医療画像であれば肺、胃、心臓、頭、手等の部位等が相当する。   In step S302, the generation unit 1020 extracts a contour point of a region to be aligned from the three-dimensional image input in step S301. Here, the region to be aligned is a region of interest. For example, in the case of a medical image, a region such as a lung, stomach, heart, head, hand, or the like corresponds.

この処理について図4を用いて説明する。図4の(a)はステップS301で入力した三次元画像の断層像(第1の画像)を、二次元画像として表した模式図である。   This process will be described with reference to FIG. FIG. 4A is a schematic diagram showing the tomographic image (first image) of the three-dimensional image input in step S301 as a two-dimensional image.

本実施形態では三次元画像で説明するが、二次元画像にも同様に適用できるものである。   Although this embodiment will be described using a three-dimensional image, it can be applied to a two-dimensional image in the same manner.

図4の(b)の画像は図4の(a)の画像から位置合わせの対象となる領域の輪郭点を検出した結果である。輪郭点の検出方法としては様々な方法が考えられるが、例えば三次元画像の画素値の空間勾配を求め、その空間画素勾配の大きさに対して閾値処理を施すことで実現することができる。   The image in FIG. 4B is the result of detecting the contour points of the region to be aligned from the image in FIG. Various methods can be considered as the method for detecting the contour point. For example, it can be realized by obtaining the spatial gradient of the pixel value of the three-dimensional image and performing threshold processing on the magnitude of the spatial pixel gradient.

三次元画像からの輪郭点検出の方法は、必ずしも自動的な処理の必要は無く、例えば、マウス105やキーボード106などからの入力を用いて、ユーザが手動で輪郭を入力できるようにしてもよい。また、自動で抽出した複数の輪郭点の中からユーザの指定に基づいて、後段の処理に用いる輪郭点を選択できるようにしても良い。   The method for detecting contour points from a three-dimensional image does not necessarily require automatic processing. For example, the contour may be manually input by the user using input from the mouse 105 or the keyboard 106. . Moreover, you may enable it to select the outline point used for a process of a back | latter stage based on a user's designation | designated from the several outline point extracted automatically.

ここではステップS302の処理により三次元画像の表面形状からN個の輪郭点が抽出されたものとし、その位置座標をベクトルx3di=(x3di,y3di,z3di)T,1≦i≦Nと表記する。 Here, it is assumed that N contour points are extracted from the surface shape of the three-dimensional image by the processing in step S302, and the position coordinates are represented by the vector x 3di = (x 3di , y 3di , z 3di ) T , 1 ≦ i ≦ Indicated as N.

ステップS303において、生成部1020は、ステップS302で抽出した輪郭点x3diに対して陰多項式(以下Implicit Polynomialの略記号として「IP」と呼ぶ)の当てはめを行う。それにより、位置合わせの対象となる領域の形状を陰多項式であらわす。 In step S303, the generation unit 1020 applies an implicit polynomial (hereinafter referred to as “IP” as an abbreviation for Implicit Polynomial) to the contour point x 3di extracted in step S302. Thereby, the shape of the region to be aligned is represented by an implicit polynomial.

ここで、陰多項式とは、陰関数を多項式の形式で定義したものである。より具体的には、ステップS302で抽出した位置合わせの対象となる領域の外面上のIPの値が、ゼロ等値面となるように近似する。これにより、位置合わせの対象となる領域からの距離に応じた値を算出する。この位置合わせの対象となる領域からの距離に応じた値の分布を距離場と呼ぶことがある。
また、陰関数を多項式の形式で表現し、その多項式の係数を求める処理を対象物体のモデル化と呼ぶ場合もある。
Here, the implicit polynomial is an implicit function defined in the form of a polynomial. More specifically, the IP value on the outer surface of the region to be aligned extracted in step S302 is approximated to be a zero isosurface. Thereby, a value corresponding to the distance from the region to be aligned is calculated. A distribution of values corresponding to the distance from the region to be aligned may be referred to as a distance field.
Also, the process of expressing the implicit function in the form of a polynomial and obtaining the coefficient of the polynomial may be called modeling of the target object.

この処理について図5を用いて説明する。図5の輪郭点400はステップS302で求めた輪郭点であり、IPゼロ等値面401は、このステップで求める陰関数のゼロ等値面である。求めたい陰関数Ψ3D(x)は、これらの点の位置において以下の制約を満たす。 This process will be described with reference to FIG. The contour point 400 in FIG. 5 is the contour point obtained in step S302, and the IP zero isosurface 401 is the implicit isozero surface of the implicit function obtained in this step. The implicit function Ψ 3D (x) to be found satisfies the following constraints at the positions of these points.

Figure 2013248466
Figure 2013248466

ここで、ベクトルx3diはステップS302で求めた複数の輪郭点のうちi番目の輪郭点の位置座標ベクトル(x3di,y3di,z3di)Tである。 Here, the vector x 3di is the position coordinate vector (x 3di , y 3di , z 3di ) T of the i-th contour point among the plurality of contour points obtained in step S302.

一方、陰多項式は、陰関数Ψ3D(x)を多項式で表現するため、以下のように定式化される。 On the other hand, the implicit polynomial is formulated as follows in order to express the implicit function Ψ 3D (x) as a polynomial.

Figure 2013248466
Figure 2013248466

ここでnは多項式の次数を表している。例えばn=3の場合には、

Figure 2013248466
となる。 Here, n represents the degree of the polynomial. For example, when n = 3,
Figure 2013248466
It becomes.

式2の右辺の第一項と第二項をそれぞれ横ベクトルaT、縦ベクトルm(x)と表記すると、

Figure 2013248466
と書き直すことができる。 When the first term and the second term on the right side of Equation 2 are expressed as a horizontal vector a T and a vertical vector m (x), respectively,
Figure 2013248466
Can be rewritten.

さらに、陰多項式Ψn 3D(x)はN個の輪郭点の全ての位置で式4が成り立つことから、それらの輪郭点の全てを連結した行列M=(m(x3d0)m(x3d1)・・・ m(x3dN))Tを定義することにより、次式を得る。 Furthermore, since the implicit polynomial Ψ n 3D (x) is obtained by Expression 4 at all positions of the N contour points, a matrix M = (m (x 3d0 ) m (x 3d1 ) connecting all of the contour points. ) ... m (x 3dN )) By defining T , the following equation is obtained.

Figure 2013248466
Figure 2013248466

ここで、0は要素が全て0となるN次元ベクトルである。   Here, 0 is an N-dimensional vector in which all elements are 0.

式5から直接的にaを求めるのは解の不安定性を招くため、幾つかの制約を加えた安定的な解法が非特許文献2、非特許文献3、非特許文献4に開示されている。本実施形態においても、これらの技術を利用して実現することができる。   Finding a directly from Equation 5 leads to instability of the solution, so a stable solution with some restrictions is disclosed in Non-Patent Document 2, Non-Patent Document 3, and Non-Patent Document 4. . Also in this embodiment, it is realizable using these techniques.

また、次数nは、表現する対象物体の表面形状の複雑さに応じて適切に選択する必要があり、例えば非特許文献5には、次数nを対象物体の形状に対して適応的に求める技術が開示されている。また、対象物体の形状に適した次数を予め設定しておくことも本発明の1実施形態になりうる。   Further, the order n needs to be appropriately selected according to the complexity of the surface shape of the target object to be expressed. For example, Non-Patent Document 5 discloses a technique for adaptively obtaining the order n with respect to the shape of the target object. Is disclosed. It is also possible to set an order suitable for the shape of the target object in advance as an embodiment of the present invention.

式5から直接的にaを求めるのは解の不安定性を招くため、幾つかの制約を加えた安定的な解法が非特許文献2、非特許文献3、非特許文献4に開示されている。本実施形態においても、これらの技術を利用して実現することができる。   Finding a directly from Equation 5 leads to instability of the solution, so a stable solution with some restrictions is disclosed in Non-Patent Document 2, Non-Patent Document 3, and Non-Patent Document 4. . Also in this embodiment, it is realizable using these techniques.

また、次数nは、表現する対象物体の表面形状の複雑さに応じて適切に選択する必要があり、例えば非特許文献5には、次数nを対象物体の形状に対して適応的に求める技術が開示されている。また、対象物体の形状に適した次数を予め設定しておくことも本発明の1実施形態になりうる。   Further, the order n needs to be appropriately selected according to the complexity of the surface shape of the target object to be expressed. For example, Non-Patent Document 5 discloses a technique for adaptively obtaining the order n with respect to the shape of the target object. Is disclosed. It is also possible to set an order suitable for the shape of the target object in advance as an embodiment of the present invention.

以上の処理を行うことで、陰多項式の係数行列aが求まり、ステップS301で入力した三次元画像における撮影対象物体の表面形状がモデル化される。   By performing the above processing, the coefficient matrix a of the implicit polynomial is obtained, and the surface shape of the object to be imaged in the three-dimensional image input in step S301 is modeled.

ここで、次数nは、位置合わせの精度に依存するものであり、nが高次になるほど位置合わせの精度があがる。一方、nが高次になるに従い計算処理の負荷は増すものである。   Here, the order n depends on the alignment accuracy, and the alignment accuracy increases as n becomes higher. On the other hand, the load of calculation processing increases as n becomes higher.

本実施形態では、複数の次元nに対して多項式を求めておき、使い分けるものとする。   In the present embodiment, polynomials are obtained for a plurality of dimensions n and used separately.

計算の初期の段階では、荒い位置合わせで高速化するとともに、ローカルミニマムと呼ばれる極所解に入らないようにnの次元を小さくしておく、そして計算回数が増すに従いnの値を上げた式に変更する。これは、後述する算出部1050の値に応じて変更しても良いし、予め設定された計算回数に応じて使用する多項式の次数を変更しても良い。
すなわち、高精度な位置合わせをする場合にはnの次元を上げる。
In the initial stage of calculation, the speed is increased by rough alignment, and the dimension of n is reduced so as not to enter a local minimum solution called a local minimum, and the value of n is increased as the number of calculations increases. Change to This may be changed according to a value of a calculation unit 1050 described later, or the degree of a polynomial used may be changed according to a preset number of calculations.
In other words, the n dimension is increased in the case of highly accurate alignment.

医療画像においては、撮影条件と画質に強い相関があり、例えば、X線の撮影では線量が増すほど画質があがる。そのため、高画質な画像に対しては高次のnが要求される。つまり、撮影条件によりnの次元を定めることが好ましい。   In medical images, there is a strong correlation between imaging conditions and image quality. For example, in X-ray imaging, the image quality increases as the dose increases. Therefore, higher-order n is required for high-quality images. That is, it is preferable to determine the dimension of n according to the photographing conditions.

ステップS304において、第二の画像入力部1030は、第二の撮影装置1110が撮影した第二の画像データを入力する。この入力は第二の撮影装置1110の撮影と同期して直接入力することもできるし、あるいは第二の撮影装置1110が過去に撮影した画像を、図2に記載の画像記録装置3に記録し、その画像を読み出して入力することもできる。いずれにしても、この第二の画像はステップS301で入力された三次元画像、又は二次元画像に写る対象物体の少なくとも一部を撮影した画像である。ここで、説明を簡略化するために入力する画像データは撮影対象物体の二次元断層像であるものとして説明を行う。   In step S304, the second image input unit 1030 inputs the second image data captured by the second imaging device 1110. This input can be directly input in synchronization with the photographing of the second photographing apparatus 1110, or an image photographed in the past by the second photographing apparatus 1110 is recorded in the image recording apparatus 3 shown in FIG. The image can be read out and input. In any case, the second image is a three-dimensional image input in step S301 or an image obtained by photographing at least a part of the target object shown in the two-dimensional image. Here, in order to simplify the description, the description will be made assuming that the input image data is a two-dimensional tomographic image of the object to be imaged.

ステップS305において、取得部1040は、ステップS304で入力された第二の画像から撮影対象物の輪郭点を検出する。ここで撮影対象とは、注目領域のことであり、例えば、医療画像であれば肺、胃、心臓、頭、手等の部位等が相当する。第二の画像が三次元画像であれば、撮影対象物の表面の輪郭点を検出する。   In step S305, the acquisition unit 1040 detects the contour point of the shooting target from the second image input in step S304. Here, the imaging target is a region of interest. For example, in the case of a medical image, a region such as a lung, stomach, heart, head, hand, or the like corresponds. If the second image is a three-dimensional image, a contour point on the surface of the photographing object is detected.

輪郭点は、例えばエッジ検出処理により抽出される。エッジ検出処理は、画像上の画素値とが大きく変化する位置を検出する処理である。例えば画素値の空間勾配の計算や、ラプラシアンフィルタ、ソーベルフィルタ、キャニーオペレータなどによって求めることができる。   The contour point is extracted by edge detection processing, for example. The edge detection process is a process for detecting a position where the pixel value on the image changes greatly. For example, it can be obtained by calculating a spatial gradient of pixel values, a Laplacian filter, a Sobel filter, a Canny operator, or the like.

図6は、画像に対して空間勾配の計算を行うことでエッジ検出を行った結果を模式的に表している。図6の(a)は入力された第二の画像を表している。(b)は(a)の画像に対して空間勾配の絶対値を値とする画像を示している。この図において、(a)で撮影された撮影対象の輪郭付近において(b)の値が大きくなる。以上のようにして求めたエッジに対して、予め設定した閾値処理を施すことにより、エッジが検出された画素と、エッジでない画素とを分別する。そして、検出されたN個の点群の夫々の点の画像座標を、xUsi=(xUSi,yUSi,zUSi)T(iは検出された点群におけるi番目の点を表す識別子)として記憶する。 FIG. 6 schematically shows a result of edge detection performed by calculating a spatial gradient on an image. FIG. 6A shows the input second image. (B) has shown the image which makes the absolute value of a spatial gradient the value with respect to the image of (a). In this figure, the value of (b) becomes large in the vicinity of the contour of the subject to be photographed in (a). By applying a preset threshold process to the edge obtained as described above, a pixel in which an edge is detected and a pixel that is not an edge are separated. Then, the image coordinates of each of the detected N point groups are set as x Usi = (x USi , y USi , z USi ) T (i is an identifier representing the i-th point in the detected point group) Remember as.

なお、本実施形態における第二の画像は二次元の断層像であるので、画像の横方向の座標値をx、縦方向の座標値をyとし、画像の厚み方向の座標値をz=0とする。
この場合、点群は三次元空間中の同一平面上に存在することになる。
Since the second image in the present embodiment is a two-dimensional tomographic image, the horizontal coordinate value of the image is x, the vertical coordinate value is y, and the coordinate value in the thickness direction of the image is z = 0. And
In this case, the point group exists on the same plane in the three-dimensional space.

ここで、第二の画像にノイズの混入がある場合には、上記エッジ検出処理の前にガウシアンフィルタやメディアンフィルタなどの平滑化フィルタを施し、ノイズの低減を行うことが望ましい。また、画像領域に被写体以外の領域が含まれる場合には、(c)のように画像領域に限定して処理を施すことが望ましい。例えば、画像に対してマスク処理を施したり、エッジ検出結果にマスク処理を施したりするなどして、撮影対象以外に起因するエッジを極力排除することが望ましい。
このステップで第二の画像の表面形状上における複数の位置座標が得られる。
Here, when noise is mixed in the second image, it is desirable to reduce the noise by applying a smoothing filter such as a Gaussian filter or a median filter before the edge detection process. In addition, when the image area includes an area other than the subject, it is desirable to perform processing only in the image area as shown in (c). For example, it is desirable to eliminate as much as possible edges caused by objects other than the object to be imaged by performing mask processing on the image or performing mask processing on the edge detection result.
In this step, a plurality of position coordinates on the surface shape of the second image are obtained.

ここで、第一の画像の表面形状上における複数の位置座標であるx3D=(x3D,y3D,z3D)Tと、第二の画像の表面形状上における複数の位置座標であるxUs=(xUS,yUS,zUS)Tとの関係を考える。これらの位置座標は基準とする座標系が異なるため、例えば同一の被検査者を撮影した夫々の画像中で人体の同一の部位を示す画素の位置座標は異なる。図7は、異なる座標系で撮影された画像同士の位置合わせを一般的に説明する図である。図7の(a)は、座標系610で対象物体を撮影した画像であり、本実施形態の第二の画像であるものとする。図7の(b)は、座標系610とは異なる座標系611の元で対象物を撮影した画像であり、本実施形態の第一の画像であるものとする。ここでは書面での説明の都合で三次元画像を二次元平面で提示している。また、図7の(c)は、(a)および(b)の画像の座標系が一致していると仮定して単純に合成した時の合成画像である。実際には座標系610と座標系611は異なるので(c)の合成画像では、撮影対象物体の輪郭がずれて表示されてしまう。一方、図7の(d)は、座標系610と座標系611との関係を正しく反映させて、両方の画像を合成した図である。以下に説明する本実施形態のステップS306〜ステップS310の処理は、このように異なる座標系の元で撮影された複数の画像の対応関係を求める処理(位置合わせ処理)であり、この処理は算出部1050で行われる。 Here, x 3D = (x 3D , y 3D , z 3D ) T that is a plurality of position coordinates on the surface shape of the first image, and x that is a plurality of position coordinates on the surface shape of the second image. Consider the relationship with Us = (x US , y US , z US ) T. Since these reference coordinates have different reference coordinate systems, for example, the position coordinates of pixels indicating the same part of the human body in each image obtained by photographing the same subject are different. FIG. 7 is a diagram for generally explaining alignment between images taken in different coordinate systems. FIG. 7A is an image obtained by photographing the target object in the coordinate system 610, and is a second image of the present embodiment. FIG. 7B is an image obtained by photographing an object under a coordinate system 611 different from the coordinate system 610, and is the first image of this embodiment. Here, a three-dimensional image is presented on a two-dimensional plane for convenience of explanation in writing. Further, (c) of FIG. 7 is a combined image when the images of (a) and (b) are simply combined on the assumption that the coordinate systems of the images match. Actually, since the coordinate system 610 and the coordinate system 611 are different, the contour of the object to be photographed is displayed with a deviation in the composite image of (c). On the other hand, FIG. 7D is a diagram in which both images are synthesized by correctly reflecting the relationship between the coordinate system 610 and the coordinate system 611. The processing of step S306 to step S310 of the present embodiment described below is processing (positioning processing) for obtaining a correspondence relationship between a plurality of images photographed under different coordinate systems in this way, and this processing is calculated. In section 1050.

このとき、第一の画像と第二の画像における同一部位を示す画素x3DとxUSの関係は、

Figure 2013248466
と書く事ができる。ここで、R3D→USは正規直行する3×3の回転行列であり、t3D→USは各軸方向への並進ベクトルでる。ここで、座標値の表記を拡張ベクトル(x,y,z)Tにすることで、式6は At this time, the relationship between the pixels x 3D and x US indicating the same part in the first image and the second image is as follows:
Figure 2013248466
Can be written. Here, R 3D → US is a 3 × 3 rotation matrix that is normally orthogonal, and t 3D → US is a translation vector in each axial direction. Here, by expressing the coordinate value as an extension vector (x, y, z) T , Equation 6 becomes

Figure 2013248466
Figure 2013248466

と書き直せる。ここで、TUS→3Dは次式に示す4×4の行列である。 It can be rewritten. Here, T US → 3D is a 4 × 4 matrix expressed by the following equation.

Figure 2013248466
Figure 2013248466

本実施形態における位置合わせ処理とは、第二の画像の対象物体の表面上における複数の輪郭点の位置座標の座標変換方法としての変換行列TUS→3Dを決定することである。 The alignment process in the present embodiment is to determine a conversion matrix T US → 3D as a coordinate conversion method of position coordinates of a plurality of contour points on the surface of the target object of the second image.

すなわち、ステップS303で得た第一の画像の撮影対象の表面と、ステップS305で得た第二の画像の表面上における複数の位置座標との距離がなるべく近くなるような変換行列TUS→3Dを決定する。この処理を行う方法には様々なものが考えられるが、本実施形態では、比較的安定的に解が求まる繰り返し計算によって解を得る。すなわち、変換行列の推定値T~US→3Dを逐次更新する処理を繰り返し行い、最終的に真の変換行列TUS→3Dに近い値を導出する。上述したように、位置合わせの精度に応じて用いる多項式の次数nも計算回数に応じて変更する。これにより位置合わせの高精度化が行えると共に、計算回数も短縮できる。また、撮影装置及び/または撮影条件に応じて、多項式の次数の変更方法を変えることが好ましい。 That is, the transformation matrix T US → 3D so that the distance between the surface of the first image obtained in step S303 and the plurality of position coordinates on the surface of the second image obtained in step S305 is as close as possible. To decide. There are various methods for performing this process. In the present embodiment, the solution is obtained by iterative calculation in which the solution is obtained relatively stably. That is, the process of sequentially updating the estimated value T˜US → 3D of the transformation matrix is repeatedly performed, and finally a value close to the true transformation matrix T US → 3D is derived. As described above, the degree n of the polynomial used according to the alignment accuracy is also changed according to the number of calculations. As a result, the positioning accuracy can be improved and the number of calculations can be shortened. Further, it is preferable to change the method of changing the degree of the polynomial according to the photographing apparatus and / or photographing conditions.

ステップS306において、算出部1050は、繰り返し計算で逐次更新していく変換行列T~US→3Dの初期値を設定する。本実施形態では、初期値の外部位置計測センサ6の出力信号を計測結果として読み出し、その計測値から得られる変換行列をT~US→3Dの初期値とする。これによって得られる変換行列は、センサの誤差や被検査者の体動の程度により、真の変換行列とは異なった変換行列となる。 In step S306, the calculation unit 1050 sets initial values of the transformation matrix T˜US → 3D that is sequentially updated by iterative calculation. In this embodiment, the output signal of the external position measurement sensor 6 having an initial value is read as a measurement result, and a conversion matrix obtained from the measurement value is set as an initial value of T˜US → 3D . The conversion matrix obtained thereby is a conversion matrix different from the true conversion matrix depending on the sensor error and the degree of body movement of the examinee.

ここで、ステップS305で検出された第二の画像の対象物の表面上における複数の位置座標がN個あり、そのうちi番目のエッジ点の位置座標がxUSi=(xUSi,yUSi,zUSi)Tであるとする。ステップS307において、算出部1050は、このエッジ点の位置座標値を第一の画像を基準とした座標系へ座標変換する。この変換は以下の計算によって行うことができる。 Here, there are N position coordinates on the surface of the object of the second image detected in step S305, and the position coordinate of the i-th edge point is x USi = (x USi , y USi , z USi ) T In step S307, the calculation unit 1050 performs coordinate conversion of the position coordinate value of the edge point into a coordinate system based on the first image. This conversion can be performed by the following calculation.

Figure 2013248466
Figure 2013248466

ここで、T~US→3Dは、第二の画像の座標系から第一の画像の座標系への変換行列の推定値を表す。T~US→3Dの値は、最初はステップS306で設定した初期値を用いるが、繰り返し計算の過程では順次更新された値を使用する。 Here, T˜US → 3D represents an estimated value of a transformation matrix from the coordinate system of the second image to the coordinate system of the first image. Initially, the initial value set in step S306 is used as the value of T to US → 3D , but sequentially updated values are used in the iterative calculation process.

ステップS308において、算出部1050はさらに、陰多項式表現された第一の画像の対象物体表面に関する情報を入力し、それと第二の画像上の各エッジ点が近づくように変換行列T~US→3Dを更新する。 In step S308, the calculation unit 1050 further inputs information related to the target object surface of the first image expressed in implicit polynomial, and transform matrix T˜US → 3D so that each edge point on the second image approaches. Update.

これを行うために、まずステップS307で、算出部1050は、第一の画像の座標系に投影された第二の画像上のエッジ点x3diに対して、IPにより算出されるベクトルg(x3Di)によって暫定的な移動先座標x 3Diを算出する。 In order to do this, in step S307, the calculation unit 1050 first calculates the vector g (x calculated by IP with respect to the edge point x 3di on the second image projected on the coordinate system of the first image. calculating a temporary destination coordinate x '3Di by 3Di).

Figure 2013248466
Figure 2013248466

ここでベクトルg(x3Di)は、

Figure 2013248466
である。ここで∇は空間勾配を求める演算子を表している。また、dist(x3Di)はエッジ点x3DiとIPによって表現された物体表面との近似距離であり、
Figure 2013248466
である。なお、Ψn 3Dは対象物体の形状モデルを表すIPであるので、Ψn 3D(x3Di)は位置座標x3diにおける距離場の値を表すことになる。 Where the vector g (x 3Di ) is
Figure 2013248466
It is. Here, ∇ represents an operator for obtaining a spatial gradient. Further, dist (x 3Di ) is an approximate distance between the edge point x 3Di and the object surface expressed by IP,
Figure 2013248466
It is. Since Ψ n 3D is an IP representing the shape model of the target object, Ψ n 3D (x 3Di ) represents the value of the distance field at the position coordinate x 3di .

次に、第一の画像の座標系に投影された第二の画像上のエッジ点x3diと、それを式10により暫定的に移動させたエッジ点x 3diから、この移動を最小二乗の評価基準で近似する剛体変換のパラメータを求める。そのために、まずx3diおよびx 3diについてi=0〜Nの座標ベクトルを結合した行列Xと行列X’を以下のように生成する。 Next, from the edge point x 3di on the second image projected onto the coordinate system of the first image and the edge point x 3di that has been tentatively moved by Equation 10, this movement is the least square. Find the parameters of rigid transformation approximated by the evaluation criteria. For this purpose, first, a matrix X and a matrix X ′ obtained by combining coordinate vectors of i = 0 to N with respect to x 3di and x 3di are generated as follows.

Figure 2013248466
Figure 2013248466

Figure 2013248466
Figure 2013248466

ここで、x-3di,x- 3di はそれぞれx3di,x 3diの平均値である。そして、

Figure 2013248466
を求め、このAの特異値分解A=USVTを行う。そして、その結果を用いて回転行列Rおよび、並進ベクトルtを次のように求める。 Here, x- 3di, x- '3di each x 3di, x' is an average value of 3Di. And
Figure 2013248466
And singular value decomposition A = USV T of A is performed. And the rotation matrix R and the translation vector t are calculated | required as follows using the result.

Figure 2013248466
Figure 2013248466

Figure 2013248466
Figure 2013248466

最後に、位置合わせのための変換行列T~US→3Dの更新を行う。式16、式17の結果を用いて更新後の変換行列T~US→3Dを次のように算出する。 Finally, the transformation matrix T ~ US → 3D for alignment is updated. Using the results of Equations 16 and 17, the updated transformation matrix T˜US → 3D is calculated as follows.

Figure 2013248466
Figure 2013248466

ステップS309において、決定部1060は、ステップS308で更新された変換行列T~ US→3Dを評価する。そのために、ステップS305で得た点群の第一の画像の座標系への投影結果と、ステップS303で得たIPとの距離distを計算する。距離の計算は、

Figure 2013248466
として近似的に求めることができる。ここで、x 3Di=T~’ US→3DxUSiであり、ステップS308で求めた更新後の変換行列T~ US→3Dにより第一の画像の座標系へ投影した第二の画像上のエッジ点の位置座標ベクトルである。 In step S309, the determination unit 1060 evaluates the transformation matrix T ′ ′ US → 3D updated in step S308. For this purpose, the distance dist between the projection result of the point cloud obtained in step S305 onto the coordinate system of the first image and the IP obtained in step S303 is calculated. The distance calculation is
Figure 2013248466
As an approximation. Here, 'a US → 3D x USi, transformation matrix T ~ the updated calculated in step S308' x "3Di = T ~ US → 3D by the on second image projected to the first coordinate system of the image Is the position coordinate vector of the edge point.

ステップS310において、決定部1060はさらに、ステップS307からステップS309までの位置合わせ処理を終了するか、さらに繰り返しを行うかの判定を行う。この判定は例えば、ステップS309で求めた各エッジ点の距離の総和と予め設定した閾値との比較により行うことができる。この比較の結果、各エッジ点の距離の総和が閾値よりも小さい場合には位置合わせ処理を終了し、そうでない場合にはステップS307に処理を戻して位置合わせ処理を繰り返すように制御される。また、それ以外にも位置合わせ処理によりステップS309で求めた各エッジ点の距離の総和の減少量が予め設定した閾値以下になった場合に位置合わせ処理の終了と判定するとしても良い。上述のように、本実施形態では各エッジ点の距離の総和に応じて、多項式の次数nも変更する。   In step S310, the determination unit 1060 further determines whether to end the alignment process from step S307 to step S309 or to repeat it. This determination can be made, for example, by comparing the sum of the distances of the edge points obtained in step S309 with a preset threshold value. As a result of this comparison, if the sum of the distances of the edge points is smaller than the threshold value, the alignment process is terminated, and if not, the process is returned to step S307 and the alignment process is repeated. In addition, it is also possible to determine that the alignment process has ended when the amount of reduction in the sum of the distances of the edge points obtained in step S309 by the alignment process is equal to or less than a preset threshold. As described above, in the present embodiment, the degree n of the polynomial is also changed according to the sum of the distances of the edge points.

ステップS310において位置合わせ処理を終了しないと判定した場合には、再びステップS307へ戻って、位置合わせ処理の繰り返しが継続される。この時、ステップS308で求めた更新後の変換行列T~’ US→3Dを用いてステップS307以降の処理が行われる。 If it is determined in step S310 that the alignment process is not to be ended, the process returns to step S307 again and the repetition of the alignment process is continued. At this time, processing after step S307 is performed using the updated conversion matrix T ~ ' US → 3D obtained in step S308.

ステップS311において、座標変換部1070は、ステップS310までで求められた変換行列T~ US→3Dに基づいて、第二の画像の座標変換を行う。そして第一の画像と第二の画像の統合表示を行う。統合表示の方法には様々なものが考えられるが、第一の画像と第二の画像の画素値を予め定まる比率で加算して表示することができる。 In step S311, the coordinate conversion unit 1070 performs coordinate conversion of the second image based on the conversion matrix T˜ US → 3D obtained in steps up to step S310. Then, an integrated display of the first image and the second image is performed. Various methods of integrated display are conceivable, but the pixel values of the first image and the second image can be added and displayed at a predetermined ratio.

また、第一の画像の一部の領域を、対応する第二の画像領域の面像に置き換えて表示することができる。   In addition, a partial area of the first image can be replaced with a plane image of the corresponding second image area and displayed.

また、第一の画像と、座標変換後の第二の画像を、並べて表示することもできる。   Also, the first image and the second image after coordinate conversion can be displayed side by side.

以上のような本実施形態における位置合わせ処理装置1000によれば、複数画像の高精度な位置合わせを、高速に行うことが可能となる。また、IPを用いて対象物体をモデル化することにより、メモリ上の距離場にアクセスする必要がない。このため、移動量の算出を行うための演算(式11、12)を非常に高速に行える効果がある。また、メモリ展開した距離場との照合が不用であり、多項式の次数を変更することが可能である。これにより、ローカルミニマムと呼ばれる極所解に陥ることなく、位置合わせ精度をあげることが出来る効果を有する。   According to the alignment processing apparatus 1000 in the present embodiment as described above, it is possible to perform high-precision alignment of a plurality of images at high speed. In addition, by modeling the target object using IP, it is not necessary to access the distance field on the memory. For this reason, there is an effect that the calculation (expressions 11 and 12) for calculating the movement amount can be performed at a very high speed. In addition, it is unnecessary to collate with the distance field developed in the memory, and the degree of the polynomial can be changed. As a result, there is an effect that the alignment accuracy can be increased without falling into a local solution called a local minimum.

また、三次元画像の座標系からから二次元画像の座標系への変換行列を求める事にしても良い。その場合、ステップS307の処理はステップS303で求めたIPを移動・回転させることになる。IPの移動・回転は、非特許文献6に開示されている方法により、IPの係数行列に対する演算処理で実現できる。   Alternatively, a conversion matrix from the coordinate system of the three-dimensional image to the coordinate system of the two-dimensional image may be obtained. In that case, the process of step S307 moves and rotates the IP obtained in step S303. The movement / rotation of the IP can be realized by arithmetic processing on the coefficient matrix of the IP by the method disclosed in Non-Patent Document 6.

また、外部位置計測センサ6の計測値を用いて変換行列の初期値を設定する方法を例として説明したが、本発明はそれに限られるものではない。
例えば、変換行列の初期値の設定に外部位置計測センサ6の計測値を用いずに、単位行列などの適当な値を与えて繰り返し計算の処理を開始しても良い。
Moreover, although the method of setting the initial value of the conversion matrix using the measurement value of the external position measurement sensor 6 has been described as an example, the present invention is not limited thereto.
For example, instead of using the measurement value of the external position measurement sensor 6 for setting the initial value of the conversion matrix, an appropriate value such as a unit matrix may be given to start the repeated calculation process.

その場合、真の変換行列と初期値との乖離が大きく、繰り返し計算によって真の変換行列とは異なる局所最適値に陥ってしまったり、計算の収束に非常に時間を要してしまったりする可能性がある。
それに対処するために、繰り返し処理を行った回数もカウントし、そのカウントが所定値以上に到達してもステップS310の終了条件を満たさない場合に、ステップS306で設定した初期値と個なる初期値を再度設定しなおして処理をやり直すようにしても良い。
In that case, the difference between the true transformation matrix and the initial value is large, and it may fall into a local optimum value different from the true transformation matrix due to repeated calculations, or it may take a very long time to converge the calculation. There is sex.
In order to cope with this, the number of repeated processing is also counted, and when the count reaches or exceeds a predetermined value, the initial value set in step S306 and the initial value set in step S306 are not satisfied. May be reset and the process may be performed again.

また、繰り返し処理の回数をカウントせずとも、ステップS306で複数の初期値を設定し、その初期値毎にステップS307以後の処理を行い、得られた複数結果から最終的な結果を導く処理手順にしても良い。   Further, a processing procedure for setting a plurality of initial values in step S306 without performing counting of the number of repetition processes, performing the processing after step S307 for each initial value, and deriving a final result from the obtained plurality of results. Anyway.

また、複数の超音波画像を対象に連続して位置合わせ処理を行う場合には、直前の超音波画像に対する位置合わせ結果を次の処理の初期値として与えるようにしても良い。この方法によれば、連続する超音波画像同士の撮影位置が近い場合には、最適解に近い初期値から処理を開始できるため、繰り返し処理の回数を省略でき、処理の効率化が期待できる。   In addition, in the case where the alignment process is continuously performed on a plurality of ultrasonic images, the alignment result for the immediately preceding ultrasonic image may be given as the initial value of the next process. According to this method, when the imaging positions of successive ultrasonic images are close, the process can be started from an initial value close to the optimum solution, so that the number of repetition processes can be omitted, and the efficiency of the process can be expected.

また、エッジ検出を行うことで輪郭点を抽出し、その輪郭点に対してIPをモデリングする処理を例として説明したが、本発明はこれに限定されるものではない。   Further, although the description has been given by taking as an example the process of extracting the contour point by performing edge detection and modeling the IP for the contour point, the present invention is not limited to this.

例えば、三次元画像から撮影対象とする臓器のテクスチャなどの領域特徴を抽出し、その領域が陰多項式の内部に含まれるように陰多項式のモデリングを行うこともできる。この場合は、対象物体は臓器のテクスチャで定められることになる。   For example, region features such as the texture of an organ to be imaged can be extracted from a three-dimensional image, and implicit polynomial modeling can be performed so that the region is included in the implicit polynomial. In this case, the target object is determined by the texture of the organ.

この方法によれば、三次元画像の撮影対象の輪郭部画素においてエッジが無い場合や、位置合わせ処理で容易にエッジ検出をできないような場合にも本発明を適用することができる。   According to this method, the present invention can be applied even when there is no edge in a contour pixel to be imaged of a three-dimensional image or when edge detection cannot be easily performed by the alignment process.

また、ステップS308において、算出部1050が、第二の座標系におけるIPの距離場に基づいて各エッジ点の移動を計算し、変換行列を更する場合を例として説明したが、本発明の実施はこれに限定されない。
例えば、式13のg(x3Di)は、

Figure 2013248466
(kはスカラーの定数)としても良い。 Further, in step S308, the calculation unit 1050 calculates the movement of each edge point based on the IP distance field in the second coordinate system and changes the transformation matrix as an example. Is not limited to this.
For example, g (x 3Di ) in Equation 13 is
Figure 2013248466
(K is a scalar constant).

すなわち、式14で示したIPの距離場(距離の近似)を直接用いずとも、IPの距離場から算出可能な他の値を用いてエッジ点の移動や変換行列の更新を行うものも、本発明の一つの実施形態となりうる。   In other words, without using the IP distance field (distance approximation) shown in Equation 14 directly, the edge point is moved or the transformation matrix is updated using another value that can be calculated from the IP distance field. This can be one embodiment of the present invention.

[その他の実施形態]
また、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体をシステム或いは装置に供給し、コンピュータがそのプログラムコードを読み出し実行することで、前述の実施形態の機能が達成される場合を含む。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録したコンピュータ読み取り可能な記憶媒体は本発明を構成することになる。
[Other Embodiments]
In addition, the present invention supplies a storage medium storing software program codes for realizing the functions of the above-described embodiments to a system or apparatus, and the computer reads and executes the program codes so that the functions of the above-described embodiments are performed. Including the case where is achieved. In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiments, and a computer-readable storage medium recording the program code constitutes the present invention.

また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現される構成に限られるものではない。例えば、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, the present invention is not limited to the configuration in which the functions of the above-described embodiments are realized by executing the program code read by the computer. For example, an operating system (OS) running on a computer performs part or all of actual processing based on an instruction of the program code, and the functions of the above-described embodiments may be realized by the processing. Needless to say, it is included.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれ、前述した実施形態の機能が実現される場合も含まれる。その場合、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現されることになる。   Furthermore, the case where the program code read from the storage medium is written in a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, and the functions of the above-described embodiments are realized. It is. In that case, the CPU of the function expansion card or function expansion unit performs part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments are realized by the processing. Become.

本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。   When the present invention is applied to the recording medium, program code corresponding to the flowchart described above is stored in the recording medium.

なお、上述した本実施の形態における記述は、本発明に係る好適な位置合わせ処理装置の一例であり、本発明はこれに限定されるものではない。   Note that the description in this embodiment described above is an example of a suitable alignment processing apparatus according to the present invention, and the present invention is not limited to this.

Claims (12)

第一の画像の第一の領域と第二の画像の第二の領域との位置合わせを行う処理装置であって、
前記第一の画像における位置合わせの対象となる前記第一の領域からの距離に応じた値を算出する多項式を生成する生成手段と、
前記第二の領域の前記第一の画像上の位置座標と前記多項式に基づいて前記位置合わせを行うための補正値を得る取得手段と、を備えることを特徴する処理装置。
A processing device for aligning a first region of a first image and a second region of a second image,
Generating means for generating a polynomial for calculating a value according to the distance from the first region to be aligned in the first image;
A processing apparatus comprising: an acquisition unit configured to obtain a correction value for performing the alignment based on a position coordinate of the second region on the first image and the polynomial.
前記第二の画像における位置合わせの対象となる第二の領域の複数の位置座標を前記第一の画像における座標に変換して得た位置座標に対して、前記第一の領域からの距離に応じた値を前記多項式を用いて夫々算出する算出手段を更に備え、
前記取得手段は、前記算出手段で算出された値に基づいて前記補正値を得ることを特徴とする請求項1に記載の処理装置。
With respect to the position coordinates obtained by converting the plurality of position coordinates of the second area to be aligned in the second image into the coordinates in the first image, the distance from the first area A calculation unit for calculating the corresponding values using the polynomial, respectively.
The processing apparatus according to claim 1, wherein the acquisition unit obtains the correction value based on the value calculated by the calculation unit.
第一の領域と第二の領域との位置合わせを行う処理装置であって、
第一の画像における位置合わせの対象となる前記第一の領域からの距離に応じた値を算出する多項式を生成する生成手段と、
第二の画像における位置合わせの対象となる前記第二の領域から得た複数の位置座標を前記第一の画像の座標に変換して得た位置座標に対して、前記第一の画像における前記第一の領域からの距離に応じた値を前記多項式を用いて夫々算出する算出手段と、
前記算出手段で算出された値に基づいて、前記複数の位置座標の座標変換方法を決定する決定手段と、
前記決定手段で決定した座標変換方法で、前記第二の画像の位置座標を座標変換する座標変換手段と、を備えることを特徴する処理装置。
A processing device for performing alignment between a first area and a second area,
Generating means for generating a polynomial for calculating a value according to the distance from the first region to be aligned in the first image;
With respect to the position coordinates obtained by converting the plurality of position coordinates obtained from the second area to be aligned in the second image into the coordinates of the first image, the position in the first image Calculating means for calculating values according to the distance from the first region using the polynomial, respectively;
Determining means for determining a coordinate conversion method of the plurality of position coordinates based on the value calculated by the calculating means;
A processing apparatus comprising: coordinate conversion means for converting the position coordinates of the second image by the coordinate conversion method determined by the determination means.
前記生成手段は、計算回数に応じて前記多項式の次数を変更することを特徴とする請求項1乃至3のいずれか1項に記載の処理装置。   The processing apparatus according to claim 1, wherein the generation unit changes the degree of the polynomial according to the number of calculations. 前記生成手段は、前記第一の画像の撮影条件で前記多項式の次数を定めることを特徴とする請求項1乃至4のいずれか1項に記載の処理装置。   5. The processing apparatus according to claim 1, wherein the generation unit determines an order of the polynomial according to a shooting condition of the first image. 6. 前記生成手段で生成される多項式は、前記第一の画像における位置合わせの対象となる前記第一の領域の外面上の位置座標に対して0の値を示す陰関数であることを特徴とする請求項1乃至5のいずれか1項に記載の処理装置。   The polynomial generated by the generating means is an implicit function indicating a value of 0 with respect to the position coordinates on the outer surface of the first region to be aligned in the first image. The processing apparatus of any one of Claims 1 thru | or 5. 前記第一の画像における前記第一の領域としての対象物体、前記第二の画像における前記第二の領域としての対象物体は、それぞれ、単純X線撮影装置、X線コンピュータ断層撮影装置、核磁気共鳴映像装置、核医学診断装置、超音波画像診断装置のいずれかで撮像されたデータから構成された物体であることを特徴とする請求項1乃至6のいずれか1項に記載の処理装置。   The target object as the first area in the first image and the target object as the second area in the second image are respectively a simple X-ray imaging apparatus, an X-ray computed tomography apparatus, and a nuclear magnetic field. The processing apparatus according to any one of claims 1 to 6, wherein the processing apparatus is an object composed of data captured by any one of a resonance imaging apparatus, a nuclear medicine diagnosis apparatus, and an ultrasonic image diagnosis apparatus. 前記第一の画像における前記第一の領域としての対象物体と前記座標変換手段で座標変換した前記第二の画像における前記第二の領域としての対象物体を重ねて表示する表示手段を更に備えることを特徴とする請求項3に記載の処理装置。   The apparatus further comprises display means for displaying the target object as the first area in the first image and the target object as the second area in the second image coordinate-converted by the coordinate conversion means. The processing apparatus according to claim 3. 前記第二の画像は、超音波画像診断装置で撮影されたものであり、
前記超音波画像診断装置は撮影に用いる撮影プローブの位置および姿勢を計測する位置計測センサを備え、
前記座標変換手段は、前記座標変換方法の初期値を該位置計測センサの出力信号に基づいて定めることを特徴とする請求項3に記載の処理装置。
The second image is taken with an ultrasonic diagnostic imaging apparatus,
The ultrasonic diagnostic imaging apparatus includes a position measurement sensor that measures the position and orientation of an imaging probe used for imaging,
The processing apparatus according to claim 3, wherein the coordinate conversion unit determines an initial value of the coordinate conversion method based on an output signal of the position measurement sensor.
第一の画像における位置合わせの対象となる第一の領域の輪郭からの距離に応じた値を算出する多項式に、前記第一の画像とは別の第二の画像における位置合わせの対象となる第二の領域の輪郭から得た位置座標を入力して計算した値に応じて前記第二の領域を前記第一の領域に位置合わせするための位置変更量を決定する決定手段と、
前記位置変更量に基づいて前記第二の領域と前記第一の領域の位置を合わせる位置合わせ手段と、を備えることを特徴する処理装置。
A polynomial that calculates a value corresponding to the distance from the contour of the first region to be aligned in the first image is a target to be aligned in a second image different from the first image. Determining means for determining a position change amount for aligning the second area with the first area according to a value calculated by inputting position coordinates obtained from the contour of the second area;
A processing apparatus comprising: an alignment unit that aligns the position of the second region and the first region based on the position change amount.
第一の領域と第二の領域との位置合わせを行う処理方法であって、
第一の画像における位置合わせの対象となる前記第一の領域からの距離に応じた値を算出する多項式を生成する生成工程と、
前記第二の領域の前記第一の画像上の位置座標と前記多項式に基づいて前記位置合わせを行うための補正値を得る取得工程と、を有することを特徴する処理方法。
A processing method for performing alignment between a first area and a second area,
A generating step of generating a polynomial for calculating a value according to the distance from the first region to be aligned in the first image;
An acquisition step of obtaining a correction value for performing the alignment based on the position coordinates on the first image of the second region and the polynomial.
コンピュータを、請求項1乃至10のいずれか1項に記載の処理装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the processing apparatus of any one of Claims 1 thru | or 10.
JP2013159711A 2013-07-31 2013-07-31 Processing apparatus, processing method, and program Expired - Fee Related JP5706933B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013159711A JP5706933B2 (en) 2013-07-31 2013-07-31 Processing apparatus, processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013159711A JP5706933B2 (en) 2013-07-31 2013-07-31 Processing apparatus, processing method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008126455A Division JP5335280B2 (en) 2008-05-13 2008-05-13 Alignment processing apparatus, alignment method, program, and storage medium

Publications (2)

Publication Number Publication Date
JP2013248466A true JP2013248466A (en) 2013-12-12
JP5706933B2 JP5706933B2 (en) 2015-04-22

Family

ID=49847703

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013159711A Expired - Fee Related JP5706933B2 (en) 2013-07-31 2013-07-31 Processing apparatus, processing method, and program

Country Status (1)

Country Link
JP (1) JP5706933B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017524464A (en) * 2014-08-19 2017-08-31 チェン シェシャオChen, Chieh Hsiao Method and system for determining the position of a probe at a surgical site

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59183461A (en) * 1983-04-01 1984-10-18 Hitachi Ltd Composite picture setting system
JPH07141508A (en) * 1993-11-17 1995-06-02 Matsushita Electric Ind Co Ltd Shape description device
JPH08103439A (en) * 1994-10-04 1996-04-23 Konica Corp Alignment processor for image and inter-image processor
JPH08110939A (en) * 1994-10-12 1996-04-30 Konica Corp Picture aligning processor and inter-picture arithmetic processing unit
JPH10137231A (en) * 1996-11-13 1998-05-26 Toshiba Iyou Syst Eng Kk Medical image processor
JP2000262511A (en) * 1999-03-12 2000-09-26 Toshiba Iyo System Engineering Kk Tomograph
US20030235337A1 (en) * 2002-02-01 2003-12-25 Nikolaos Paragios Non-rigid image registration using distance functions
JP2005106507A (en) * 2003-09-29 2005-04-21 Hitachi Ltd Image processing method
JP2008043736A (en) * 2006-07-18 2008-02-28 Toshiba Corp Medical image processing apparatus and method for processing medical image

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59183461A (en) * 1983-04-01 1984-10-18 Hitachi Ltd Composite picture setting system
JPH07141508A (en) * 1993-11-17 1995-06-02 Matsushita Electric Ind Co Ltd Shape description device
JPH08103439A (en) * 1994-10-04 1996-04-23 Konica Corp Alignment processor for image and inter-image processor
JPH08110939A (en) * 1994-10-12 1996-04-30 Konica Corp Picture aligning processor and inter-picture arithmetic processing unit
JPH10137231A (en) * 1996-11-13 1998-05-26 Toshiba Iyou Syst Eng Kk Medical image processor
JP2000262511A (en) * 1999-03-12 2000-09-26 Toshiba Iyo System Engineering Kk Tomograph
US20030235337A1 (en) * 2002-02-01 2003-12-25 Nikolaos Paragios Non-rigid image registration using distance functions
JP2005106507A (en) * 2003-09-29 2005-04-21 Hitachi Ltd Image processing method
JP2008043736A (en) * 2006-07-18 2008-02-28 Toshiba Corp Medical image processing apparatus and method for processing medical image

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JPN6013003569; Jie Liu: 'Ultrasound spatial compounding via registration of 2D slices into 3D volume' Ultrasonics Symposium, 2004 IEEE , 20040823, 2189-2192 *
JPN7013000284; Bo Zheng, Jun Takamatsu and Katsushi Ikeuchi: 'Adaptively determining degrees of implicit polynomial curves and surfaces' ProceedingACCV'07 Proceedings of the 8th Asian conference on Computer vision Volume Part II, 20071118, 289-300 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017524464A (en) * 2014-08-19 2017-08-31 チェン シェシャオChen, Chieh Hsiao Method and system for determining the position of a probe at a surgical site

Also Published As

Publication number Publication date
JP5706933B2 (en) 2015-04-22

Similar Documents

Publication Publication Date Title
JP5335280B2 (en) Alignment processing apparatus, alignment method, program, and storage medium
US9687204B2 (en) Method and system for registration of ultrasound and physiological models to X-ray fluoroscopic images
US10318839B2 (en) Method for automatic detection of anatomical landmarks in volumetric data
US8055046B2 (en) Shape reconstruction using X-ray images
US8879815B2 (en) Automatic initialization for 2D/3D registration
US8165372B2 (en) Information processing apparatus for registrating medical images, information processing method and program
Groher et al. Deformable 2D-3D registration of vascular structures in a one view scenario
US20110262015A1 (en) Image processing apparatus, image processing method, and storage medium
US11672505B2 (en) Correcting probe induced deformation in an ultrasound fusing imaging system
JP2011125568A (en) Image processor, image processing method, program and image processing system
JP6131161B2 (en) Image registration apparatus, method, program, and three-dimensional deformation model generation method
US10445904B2 (en) Method and device for the automatic generation of synthetic projections
US10078906B2 (en) Device and method for image registration, and non-transitory recording medium
JP6145870B2 (en) Image display apparatus and method, and program
Deligianni et al. Nonrigid 2-D/3-D registration for patient specific bronchoscopy simulation with statistical shape modeling: Phantom validation
JP6806655B2 (en) Radiation imaging device, image data processing device and image processing program
Ghafurian et al. A computationally efficient 3D/2D registration method based on image gradient direction probability density function
Novosad et al. Three-dimensional (3-D) reconstruction of the spine from a single X-ray image and prior vertebra models
JP6429958B2 (en) Image processing apparatus, image processing method, and program
JP6340315B2 (en) Image processing method
CN109350059B (en) Combined steering engine and landmark engine for elbow auto-alignment
JP2016002251A (en) Image processing apparatus, image processing method, and program
JP2022111704A (en) Image processing apparatus, medical image pick-up device, image processing method, and program
JP2022111705A (en) Leaning device, image processing apparatus, medical image pick-up device, leaning method, and program
JP5706933B2 (en) Processing apparatus, processing method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140718

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150227

R151 Written notification of patent or utility model registration

Ref document number: 5706933

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees