JP6202960B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP6202960B2
JP6202960B2 JP2013192367A JP2013192367A JP6202960B2 JP 6202960 B2 JP6202960 B2 JP 6202960B2 JP 2013192367 A JP2013192367 A JP 2013192367A JP 2013192367 A JP2013192367 A JP 2013192367A JP 6202960 B2 JP6202960 B2 JP 6202960B2
Authority
JP
Japan
Prior art keywords
image
resolution
processing apparatus
image processing
deformation information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013192367A
Other languages
Japanese (ja)
Other versions
JP2015058067A5 (en
JP2015058067A (en
Inventor
亮 石川
亮 石川
佐藤 清秀
清秀 佐藤
遠藤 隆明
隆明 遠藤
守田 憲司
憲司 守田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013192367A priority Critical patent/JP6202960B2/en
Publication of JP2015058067A publication Critical patent/JP2015058067A/en
Publication of JP2015058067A5 publication Critical patent/JP2015058067A5/en
Application granted granted Critical
Publication of JP6202960B2 publication Critical patent/JP6202960B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Magnetic Resonance Imaging Apparatus (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Description

本発明は、画像処理装置、画像処理装置の制御方法およびプログラムに関し、特に、核磁気共鳴映像装置(MRI)、X線コンピュータ断層撮影装置(X線CT)、超音波画像診断装置(US)など、種々の医用画像収集装置(モダリティ)で撮影した医用画像を処理する技術に関する。   The present invention relates to an image processing apparatus, a control method for the image processing apparatus, and a program, and in particular, a nuclear magnetic resonance imaging apparatus (MRI), an X-ray computed tomography apparatus (X-ray CT), an ultrasonic diagnostic imaging apparatus (US), and the like. The present invention relates to a technique for processing medical images taken by various medical image collection devices (modalities).

医療の分野において、あるモダリティの画像上に注目部位があった場合に、その対応部位を他のモダリティの画像上で同定し、その対比によって診断を行う場合がある。モダリティ間で撮影体位が異なる場合には、撮影時の被検体の形状が異なるため、その同定が難しくなる。そこで、双方の間における被検体の変形を推定すること(すなわち、変形を伴う画像間の位置合わせを行うこと)が試みられている。これにより、注目部位の位置情報に基づいて対応部位の位置を推定することや、一方の画像に変形を施して形状を他方と同一にした画像を生成することが可能となる。   In the medical field, when a site of interest is present on an image of a certain modality, the corresponding site may be identified on an image of another modality, and diagnosis may be performed by comparing the identified site. When the imaging posture differs between modalities, the shape of the subject at the time of imaging is different, so that identification becomes difficult. Therefore, an attempt has been made to estimate the deformation of the subject between the two (that is, to perform alignment between images accompanying the deformation). Thereby, it is possible to estimate the position of the corresponding part based on the position information of the target part, or to generate an image in which one image is deformed to have the same shape as the other.

非特許文献1では、伏臥位で撮影されたMRI画像と、仰臥位で撮影された超音波画像とを位置を合わせて表示する技術が開示されている。具体的には、伏臥位で撮影されたMRI画像に基づいて有限要素モデル(FEM)を生成し、そのモデルを用いて伏臥位から仰臥位への変形シミュレーションを行う。このシミュレーション結果に基づいて伏臥位で撮影されたMRI画像やMRI画像中に描出されている病変領域などを仰臥位の超音波画像上に重畳して表示する。これにより、伏臥位と仰臥位との間の変形による位置の違いを補正している。   Non-Patent Document 1 discloses a technique for displaying an MRI image photographed in a prone position and an ultrasonic image photographed in a supine position with the positions thereof aligned. Specifically, a finite element model (FEM) is generated based on the MRI image photographed in the prone position, and a deformation simulation from the prone position to the supine position is performed using the model. Based on the simulation result, the MRI image photographed in the prone position and the lesion area drawn in the MRI image are superimposed on the ultrasound image in the supine position. Thereby, the position difference due to the deformation between the prone position and the supine position is corrected.

T. Carter, C. Tanner, N. Beechey-Newman, D. Barratt and D. Hawkes, "MR navigated breast surgery: Method and initial clinical experience," MICCAI2008.T. Carter, C. Tanner, N. Beechey-Newman, D. Barratt and D. Hawkes, "MR navigated breast surgery: Method and initial clinical experience," MICCAI2008.

非特許文献1に記載の方法によれば、伏臥位と仰臥位との間で高い精度の変形推定が行われることが期待できる。一方で、伏臥位から仰臥位への体位の変化により、被検体の乳房が圧縮する変形が生じるため、伏臥位で撮影されたMRI画像を圧縮した変形画像を生成する必要がある。その際、生成される変形画像の品質が、伏臥位で撮影された元のMRI画像の品質に比べて劣化するという課題がある。   According to the method described in Non-Patent Document 1, it can be expected that highly accurate deformation estimation is performed between the prone position and the supine position. On the other hand, a change in the body position from the prone position to the supine position causes a deformation that compresses the breast of the subject. Therefore, it is necessary to generate a deformed image in which the MRI image taken in the prone position is compressed. At that time, there is a problem that the quality of the generated deformed image is deteriorated as compared with the quality of the original MRI image taken in the prone position.

本発明は、上記の課題に鑑みてなされたものであり、元画像を変形させて変形画像を生成する際に、元画像の品質をなるべく劣化させずに変形画像を生成できる技術を提供することを目的とする。   The present invention has been made in view of the above problems, and provides a technique capable of generating a deformed image without degrading the quality of the original image as much as possible when the deformed image is generated by deforming the original image. With the goal.

上記の目的を達成するための、本発明の一態様による画像処理装置は以下の構成を備える。   In order to achieve the above object, an image processing apparatus according to an aspect of the present invention has the following arrangement.

すなわち、被検体の第1の画像を取得する画像取得手段と、
前記被検体の変形情報を取得する変形情報取得手段と、
前記第1の画像の解像度と前記変形情報とに基づいて、前記第1の画像を変形した第2の画像の解像度を導出する導出手段と、
前記導出された解像度で前記第2の画像を生成する生成手段と
を備えることを特徴とする。
That is, image acquisition means for acquiring a first image of a subject;
Deformation information acquisition means for acquiring deformation information of the subject;
Derivation means for deriving the resolution of the second image obtained by deforming the first image based on the resolution of the first image and the deformation information;
Generating means for generating the second image at the derived resolution.

本発明によれば、元画像を変形させて変形画像を生成する際に、元画像の品質をなるべく劣化させずに変形画像を生成することが可能となる。   According to the present invention, when a deformed image is generated by deforming the original image, the deformed image can be generated without degrading the quality of the original image as much as possible.

第1実施形態に係る画像処理システムの機能構成を示す図。1 is a diagram illustrating a functional configuration of an image processing system according to a first embodiment. 第1実施形態に係る画像処理システムのハードウェア構成を示す図。1 is a diagram showing a hardware configuration of an image processing system according to a first embodiment. 第1実施形態に係る画像処理装置の処理手順を示すフローチャート。3 is a flowchart showing a processing procedure of the image processing apparatus according to the first embodiment. 第1実施形態に係る画像処理装置のステップS310の処理を詳しく説明する図。FIG. 5 is a diagram for explaining in detail processing in step S310 of the image processing apparatus according to the first embodiment. 第2実施形態に係る画像処理装置の処理手順を示すフローチャート。9 is a flowchart showing a processing procedure of the image processing apparatus according to the second embodiment. 第3実施形態に係る画像処理装置の処理手順を示すフローチャート。10 is a flowchart showing a processing procedure of the image processing apparatus according to the third embodiment. 第4実施形態に係る画像処理装置の処理手順を示すフローチャート。10 is a flowchart showing a processing procedure of the image processing apparatus according to the fourth embodiment. 第4実施形態に係る画像処理装置のステップS730の処理を詳しく説明する図。FIG. 10 is a diagram for explaining in detail processing in step S730 of the image processing apparatus according to the fourth embodiment.

以下、添付図面に従って本発明に係る画像処理装置及び方法の好ましい実施形態について詳説する。ただし、発明の範囲は図示例に限定されるものではない。   Hereinafter, preferred embodiments of an image processing apparatus and method according to the present invention will be described in detail with reference to the accompanying drawings. However, the scope of the invention is not limited to the illustrated examples.

(第1実施形態)
<第1実施形態の概要>
本実施形態に係る画像処理装置は、対象症例の乳房を伏臥位の体位で撮影したMRI画像(対象画像、すなわち第1の画像)に基づいて、伏臥位から仰臥位に体位を変化させた際の乳房の変形を推定し、仰臥位の体位で撮影したかのようなMRI画像(変形画像、すなわち第1の画像を変形した第2の画像)を仮想的に生成する。なお、以下の説明では、伏臥位で撮像した乳房のMRI画像を処理対象とする場合について説明するが、本発明の適用範囲については、被検体の体位やモダリティの種類がこれに限定されるものではない。
(First embodiment)
<Outline of the first embodiment>
The image processing apparatus according to the present embodiment changes the posture from the prone position to the supine position based on the MRI image (target image, that is, the first image) obtained by photographing the breast of the target case in the prone position. MRI image (deformed image, that is, a second image obtained by deforming the first image) is virtually generated as if the breast deformation was estimated and the image was taken in the supine position. In the following description, a case where an MRI image of a breast imaged in the prone position is a processing target will be described. However, the scope of the present invention is limited to the body position and modality type of the subject. is not.

<画像処理システムの機能構成>
図1は、本実施形態に係る画像処理システムの機能構成を示す図である。図1に示すように、本実施形態に係る画像処理システムは、画像処理装置100と、MRI画像撮影装置110と、データサーバ120と、モニタ130と、操作入力部140とを備えている。
<Functional configuration of image processing system>
FIG. 1 is a diagram illustrating a functional configuration of the image processing system according to the present embodiment. As shown in FIG. 1, the image processing system according to the present embodiment includes an image processing apparatus 100, an MRI image photographing apparatus 110, a data server 120, a monitor 130, and an operation input unit 140.

画像処理装置100は、対象画像取得部1000と、変形情報取得部1010と、解像度導出部1020と、変形画像生成部1030と、表示制御部1040とを備えている。そして、データサーバ120、モニタ130に接続される。なお、画像処理装置100は、図1の例ではデータサーバ120を介してMRI画像撮影装置110と接続されているが、MRI画像撮影装置110と直接接続されてもよい。   The image processing apparatus 100 includes a target image acquisition unit 1000, a deformation information acquisition unit 1010, a resolution derivation unit 1020, a deformation image generation unit 1030, and a display control unit 1040. Then, it is connected to the data server 120 and the monitor 130. Note that the image processing apparatus 100 is connected to the MRI image capturing apparatus 110 via the data server 120 in the example of FIG. 1, but may be directly connected to the MRI image capturing apparatus 110.

画像処理装置100が備える各処理部について説明する。対象画像取得部1000は、本実施形態において画像処理装置100が対象とする被検体(対象症例)に関する伏臥位の乳房のMRI画像(対象画像、すなわち第1の画像)をデータサーバ120から取得し、画像処理装置100へと取り込む。   Each processing unit included in the image processing apparatus 100 will be described. The target image acquisition unit 1000 acquires from the data server 120 an MRI image (target image, that is, the first image) of the prone breast related to the subject (target case) targeted by the image processing apparatus 100 in the present embodiment. The image processing apparatus 100 takes it in.

変形情報取得部1010は、対象画像取得部1000が取得した対象画像(第1の画像)に基づき、対象症例に関するうつ伏せから仰向けへの変形に関する情報を導出する。解像度導出部1020は、対象画像取得部1000が取得した対象画像の解像度に関する情報と、変形情報取得部1010が導出した対象症例の変形に関する情報とに基づいて、後述する変形画像生成部1030が生成する変形画像(第2の画像)の解像度を導出する。   Based on the target image (first image) acquired by the target image acquisition unit 1000, the deformation information acquisition unit 1010 derives information related to the deformation from prone to supine on the target case. The resolution deriving unit 1020 is generated by a deformed image generating unit 1030 described later based on information on the resolution of the target image acquired by the target image acquiring unit 1000 and information on the deformation of the target case derived by the deformation information acquiring unit 1010. The resolution of the deformed image (second image) is derived.

変形画像生成部1030は、対象画像取得部1000が取得した伏臥位の乳房のMRI画像(第1の画像)について、変形情報取得部1010が取得した対象症例の変形に関する情報に基づいて、うつ伏せから仰向けへ変形を施した変形画像(第2の画像)を、解像度導出部1020が導出した解像度で生成する。表示制御部1040は、変形画像生成部1030が生成した変形画像をモニタ130へと出力する。   The deformed image generation unit 1030 uses the prone breast MRI image (first image) acquired by the target image acquisition unit 1000 based on the information about the deformation of the target case acquired by the deformation information acquisition unit 1010. A deformed image (second image) deformed to the back is generated with the resolution derived by the resolution deriving unit 1020. The display control unit 1040 outputs the deformed image generated by the deformed image generating unit 1030 to the monitor 130.

MRI画像撮影装置110は、人体である被検体の内部の3次元領域に関する情報を核磁気共鳴法により取得した画像、すなわちMRI画像を取得する装置である。MRI画像撮影装置110はデータサーバ120と接続されており、取得したMRI画像をデータサーバ120へ送信する。データサーバ120は、MRI画像撮影装置110が撮影したMRI画像を保持する装置である。モニタ130は、表示制御部1040から出力されてきた変形画像を表示する。操作入力部140は、ユーザによるポインティング入力及び文字やコマンド等の入力を受け付ける。   The MRI imaging apparatus 110 is an apparatus that acquires an image obtained by nuclear magnetic resonance, that is, an MRI image, of information related to a three-dimensional region inside a subject that is a human body. The MRI image capturing apparatus 110 is connected to the data server 120 and transmits the acquired MRI image to the data server 120. The data server 120 is an apparatus that holds the MRI image captured by the MRI image capturing apparatus 110. The monitor 130 displays the deformed image output from the display control unit 1040. The operation input unit 140 accepts pointing input and input of characters, commands, and the like by the user.

<画像処理システムのハードウェア構成>
図2は、本実施形態に係る画像処理システムのハードウェア構成の一例を示す図である。本実施形態に係る画像処理システムは、画像処理装置100と、MRI画像撮影装置110と、データサーバ120と、モニタ130と、マウス1401と、キーボード1402とを備えている。
<Hardware configuration of image processing system>
FIG. 2 is a diagram illustrating an example of a hardware configuration of the image processing system according to the present embodiment. The image processing system according to the present embodiment includes an image processing apparatus 100, an MRI image capturing apparatus 110, a data server 120, a monitor 130, a mouse 1401, and a keyboard 1402.

画像処理装置100は、例えばパーソナルコンピュータ(PC)などで実現することができる。画像処理装置100は、中央演算画像処理装置(CPU)201と、主メモリ202と、磁気ディスク203と、表示メモリ204とを有する。   The image processing apparatus 100 can be realized by a personal computer (PC), for example. The image processing apparatus 100 includes a central processing image processing apparatus (CPU) 201, a main memory 202, a magnetic disk 203, and a display memory 204.

CPU201は、主として画像処理装置100の各構成要素の動作を制御する。主メモリ202は、CPU201が実行する制御プログラムを格納したり、CPU201によるプログラム実行時の作業領域を提供したりする。磁気ディスク203は、オペレーティングシステム(OS)、周辺機器のデバイスドライブ、後述する処理等を行うためのプログラムを含む各種アプリケーションソフト等を格納する。   The CPU 201 mainly controls the operation of each component of the image processing apparatus 100. The main memory 202 stores a control program executed by the CPU 201 and provides a work area when the CPU 201 executes the program. The magnetic disk 203 stores an operating system (OS), device drives of peripheral devices, various application software including programs for performing processing described later, and the like.

表示メモリ204は、モニタ130のための表示用データを一時記憶する。モニタ130は、例えばCRTモニタや液晶モニタ等であり、表示メモリ204からの取得したデータに基づいて画像を表示する。マウス1401及びキーボード1402は、図1で説明した操作入力部140の一例であり、ユーザによるポインティング入力及び文字やコマンド等の入力をそれぞれ行う。各構成要素は共通バス205により互いに通信可能に接続されている。   The display memory 204 temporarily stores display data for the monitor 130. The monitor 130 is a CRT monitor or a liquid crystal monitor, for example, and displays an image based on the data acquired from the display memory 204. A mouse 1401 and a keyboard 1402 are an example of the operation input unit 140 described with reference to FIG. 1, and perform a pointing input and input of characters, commands, and the like by a user. Each component is communicably connected to each other via a common bus 205.

<処理フロー>
次に、図3のフローチャートを参照して、本実施形態に係る画像処理装置100が実施する処理の手順について説明する。本実施形態に係る処理は、主メモリ202に格納されている各部の機能を実現するプログラムをCPU201が読み出して実行することにより実現される。また以下に説明する画像処理装置100が行う各処理の結果は、主メモリ202に格納することにより記録される。
<Processing flow>
Next, with reference to a flowchart of FIG. 3, a procedure of processing performed by the image processing apparatus 100 according to the present embodiment will be described. The processing according to the present embodiment is realized by the CPU 201 reading and executing a program that realizes the function of each unit stored in the main memory 202. The results of each process performed by the image processing apparatus 100 described below are recorded by being stored in the main memory 202.

[ステップS300:対象画像の取得]
ステップS300において、対象画像取得部1000は、本実施形態が処理の対象とする症例のMRI画像をデータサーバ120から取得し、画像処理装置100の主メモリ202上に展開して保持する処理を実行する。
[Step S300: Acquisition of target image]
In step S300, the target image acquisition unit 1000 acquires the MRI image of the case targeted for processing according to the present embodiment from the data server 120, and executes a process of developing and holding it on the main memory 202 of the image processing apparatus 100. To do.

本実施形態では対象症例の伏臥位の乳房のMRI画像を取得する場合を例として説明する。本実施形態では、このMRI画像を対象画像と称する。ここで、対象画像は対象症例の内部をMRI画像撮影装置110によって撮影した3次元画像であり、具体的には画像領域に3次元的に整然と配列された画素における画素値(輝度値)により構成される。また画像領域を定義するために、各画素の実空間における大きさ(画素サイズ)も付帯情報として対象画像に付される。本実施形態における対象画像は、直交する3軸(X,Y,Z)の方向成分によって識別可能な複数の画素によって構成され、付帯情報としての画素サイズは各3軸の方向の夫々に対して定義される。本実施形態では具体的に3軸の方向の夫々に対する画素サイズが、v_size_x=1.0mm, v_size_y=1.0mm, v_size_z=1.0mmの場合を例として説明する。   In this embodiment, a case where an MRI image of a breast in a prone position of a target case is acquired will be described as an example. In the present embodiment, this MRI image is referred to as a target image. Here, the target image is a three-dimensional image obtained by photographing the inside of the target case with the MRI image photographing device 110, and specifically, is configured by pixel values (luminance values) in pixels that are three-dimensionally arranged in the image region. Is done. Further, in order to define the image area, the size (pixel size) of each pixel in the real space is also attached to the target image as supplementary information. The target image in the present embodiment is configured by a plurality of pixels that can be identified by orthogonal three-axis (X, Y, Z) direction components, and the pixel size as supplementary information is for each of the three-axis directions. Defined. In the present embodiment, a specific example will be described in which the pixel sizes in the directions of the three axes are v_size_x = 1.0 mm, v_size_y = 1.0 mm, and v_size_z = 1.0 mm.

なお、対象画像の輝度値は、画素の3次元配列における画素アドレスを参照して導出される関数とみなすこともできる。本実施形態では対象画像を関数I(x,y,z)として表す。関数I(x,y,z)は、対象画像の撮影領域の3次元の実空間座標値(x,y,z)を引数として、その位置における画素値を返す関数である。また、画像処理装置100は、その内部において、対象画像を構成する画素の集合として対象画像を保持する。このとき、画素は三次元のメモリ配列に記録される。本実施形態では対象画像を保持するメモリ配列をI_mem(dx,dy,dz)として表記する。ここでdx,dy,dzはメモリ配列のアドレスを表す整数である。このアドレスが指し示す画素の撮影領域の実空間における位置は、(dx×size_x, dy×size_y, dz×size_x)である。アドレスdx,dy,dzの範囲はそれぞれ1≦dx≦Nx, 1≦dy≦Ny, 1≦dz≦Nz とする。ここで、アドレスの範囲Nx,Ny,Nzは対象画像の実空間上での撮影範囲と直接的に関係し、(Nx×size_x, Ny×size_y, Nz×size_z)が撮影範囲となる。   Note that the luminance value of the target image can also be regarded as a function derived with reference to pixel addresses in a three-dimensional array of pixels. In the present embodiment, the target image is represented as a function I (x, y, z). The function I (x, y, z) is a function that returns the pixel value at the position, using the three-dimensional real space coordinate value (x, y, z) of the shooting area of the target image as an argument. In addition, the image processing apparatus 100 holds the target image as a set of pixels constituting the target image. At this time, the pixels are recorded in a three-dimensional memory array. In the present embodiment, the memory array that holds the target image is represented as I_mem (dx, dy, dz). Here, dx, dy, dz are integers representing addresses of the memory array. The position of the pixel indicated by this address in the real space is (dx × size_x, dy × size_y, dz × size_x). The ranges of the addresses dx, dy, dz are 1 ≦ dx ≦ Nx, 1 ≦ dy ≦ Ny, and 1 ≦ dz ≦ Nz, respectively. Here, the address ranges Nx, Ny, Nz are directly related to the shooting range of the target image in the real space, and (Nx × size_x, Ny × size_y, Nz × size_z) is the shooting range.

[ステップS310: 変形情報の導出]
ステップS310において、変形情報取得部1010は、対象症例の乳房において、伏臥位から仰臥位への変形に関する情報を導出する処理を実行する。ここで、変形に関する情報とは例えば伏臥位から仰臥位への変形場を含む。
[Step S310: Derivation of deformation information]
In step S310, the deformation information acquisition unit 1010 executes processing for deriving information related to deformation from the prone position to the supine position in the breast of the target case. Here, the information regarding deformation includes, for example, a deformation field from the prone position to the supine position.

この処理の具体例として、伏臥位と仰臥位との間の乳房に対する重力方向の違いに起因して乳房に生じる変形を対象とする場合を例として説明する。この場合、乳房の自重による荷重の変化によって乳房には圧縮する方向の変形が生じる。この変形は、例えば有限要素法等を用いることで、シミュレーションすることができる。具体的な手順を図4を用いて説明する。図4 (a)に示すように、対象画像400には対象症例の乳房領域410の内部を撮影した領域が存在する。図4(a)では乳房領域410は、体表面420と大胸筋面430とに囲まれた領域である。体表面420や大胸筋面430は対象画像400を周知の方法で画像処理することによって自動、または手動で抽出することができる。次に、乳房領域410に対して有限要素法を適用するためにメッシュを生成する。   As a specific example of this processing, a case will be described as an example in which a deformation occurring in the breast due to a difference in the gravity direction with respect to the breast between the prone position and the supine position is targeted. In this case, the breast is deformed in the compressing direction due to a change in the load due to the weight of the breast. This deformation can be simulated by using, for example, a finite element method. A specific procedure will be described with reference to FIG. As shown in FIG. 4 (a), the target image 400 includes a region obtained by photographing the inside of the breast region 410 of the target case. In FIG. 4 (a), the breast region 410 is a region surrounded by the body surface 420 and the pectoral muscle surface 430. The body surface 420 and the pectoral muscle surface 430 can be extracted automatically or manually by subjecting the target image 400 to image processing by a known method. Next, a mesh is generated to apply the finite element method to the breast region 410.

具体的には図4(b)に示すように、乳房領域410をメッシュ要素440によって分割するメッシュを生成する。ここで、メッシュ要素の総数はN_elemであるものとする。メッシュ要素は4面体や6面体などの形態をとることができる。生成したメッシュの頂点の位置座標をPi=(pix,piy,piz)と表記する。ここでiはメッシュの頂点のインデックスを表す添え字であり、本実施形態では1≦i≦N_nodeの整数とする。ここでN_nodeはメッシュの頂点の総数である。このようにして生成したメッシュ構造に対して各メッシュ要素の力学特性や、外力、境界条件などを設定することにより、有限要素法による変形シミュレーションを実行できる。本実施形態では、変形シミュレーションにより、図4(c)に示すように、伏臥位から仰臥位へのメッシュの頂点位置の変位量を導出する。この変位量は、メッシュの頂点の位置Piの変形後の位置との差分値であり、ここではDi=(dix,diy,diz)と表記する。つまり、i番目のメッシュの頂点の仰臥位における位置はPi+Diである。   Specifically, as shown in FIG. 4B, a mesh that divides the breast region 410 by mesh elements 440 is generated. Here, it is assumed that the total number of mesh elements is N_elem. The mesh element can take the form of a tetrahedron or a hexahedron. The position coordinates of the vertex of the generated mesh are expressed as Pi = (pix, piy, piz). Here, i is a subscript indicating the index of the vertex of the mesh, and in this embodiment, it is an integer of 1 ≦ i ≦ N_node. Here, N_node is the total number of vertices of the mesh. A deformation simulation by the finite element method can be executed by setting the mechanical characteristics, external force, boundary conditions, and the like of each mesh element for the mesh structure thus generated. In the present embodiment, as shown in FIG. 4 (c), the displacement amount of the vertex position of the mesh from the prone position to the supine position is derived by deformation simulation. This amount of displacement is a difference value between the position Pi of the mesh and the position after deformation, and is expressed as Di = (dix, diy, diz) here. That is, the position of the vertex of the i-th mesh in the supine position is Pi + Di.

ステップS310では、さらにPi、Diおよびメッシュの頂点の接続に関する情報に基づいて、対象症例の伏臥位から仰臥位への変形場を導出する。具体的にはメッシュ要素の内部の変位を線形補間などにより求める。この方法は、メッシュモデルを用いた変形表現に関する周知の方法により実行できる。この結果、対象症例に関する変形を表す3次元の関数f_deform(x,y,z)が求められる。ここで、関数f_deform(x,y,z)は、対象症例を伏臥位で撮影した対象画像の画像座標(3次元)を引数として、その座標位置の変形後の位置(3次元)を返す関数である。   In step S310, a deformation field from the prone position to the supine position of the target case is derived based on the information regarding the connection of Pi, Di, and the vertexes of the mesh. Specifically, the displacement inside the mesh element is obtained by linear interpolation or the like. This method can be executed by a well-known method related to deformation expression using a mesh model. As a result, a three-dimensional function f_deform (x, y, z) representing the deformation related to the target case is obtained. Here, the function f_deform (x, y, z) is a function that takes the image coordinates (3D) of the target image obtained by photographing the target case in the prone position as an argument and returns the transformed position (3D) of the coordinate position It is.

上記の方法で導出したメッシュに関する情報を変形に関する情報として記録・保持する。ここでメッシュに関する情報とは、頂点の位置Pi、変位量Di、メッシュの頂点の接続に関する情報を含む。また、対象画像400の中の乳房領域410である領域を記録・保持する。ここでは乳房領域410を表すマスク画像f_mask(x,y,z)を生成して、記録・保持する。ただしf_mask(x,y,z)は、対象画像の撮影領域の実空間における3次元座標値(x,y,z)を引数とし、その位置が乳房領域410内部の場合に1、それ以外の場合には0の値を返すスカラ関数である。また、関数f_deform(x,y,z)は、乳房領域410の内部における実現値(引数と返り値の組)として記録する。   Information on the mesh derived by the above method is recorded and held as information on deformation. Here, the information on the mesh includes information on the vertex position Pi, the displacement amount Di, and the mesh vertex connection. In addition, an area that is the breast area 410 in the target image 400 is recorded and held. Here, a mask image f_mask (x, y, z) representing the breast region 410 is generated, recorded and held. However, f_mask (x, y, z) takes the three-dimensional coordinate value (x, y, z) in the real space of the shooting area of the target image as an argument, 1 if the position is inside the breast area 410, otherwise In some cases it is a scalar function that returns a value of 0. The function f_deform (x, y, z) is recorded as an actual value (a pair of an argument and a return value) inside the breast region 410.

[ステップS320: 局所的圧縮率の導出]
ステップS320において、解像度導出部1020は、ステップS310で導出した対象症例の変形に関する情報に基づき、その変形に伴う対象画像を構成する個々の局所領域に対する局所的な圧縮率を導出する処理を実行する。
[Step S320: Derivation of local compression ratio]
In step S320, the resolution deriving unit 1020 executes a process for deriving a local compression rate for each local region constituting the target image associated with the deformation based on the information regarding the deformation of the target case derived in step S310. .

局所的な圧縮率の導出は、ステップS310で生成したメッシュに関する情報に基づいて実行される。まず、ステップS310で生成したN_elem個のメッシュ要素の各々について、そのメッシュ要素の大きさの変化を導出する。具体的には、例えば、j番目のメッシュ要素に注目した場合に、そのメッシュ要素を構成する複数の頂点の位置を囲むバウンディングボックスを導出する。ここで注目するメッシュ要素の形態が6面体であれば、その6面体を構成する6個の頂点位置のバウンディングボックスとなる。導出したバウンディングボックスのX軸、Y軸、Z軸方向の夫々の大きさをbbXj, bbYj, bbZjとする。次に、注目したメッシュ要素の変形後の大きさ(バウンディングボックスの大きさ)も同様に導出する。ここでは、その大きさをbbXj'、bbYj'、bbZj'とする。次に、導出したバウンディングボックスの変形に伴う大きさの変化率を導出する。具体的には、座標軸毎に、式(1)により導出する。なお、本実施形態では圧縮率を導出しているが、拡張率として変化率を定義してもよい。以降の処理は拡張率についても同様に適用できる。   The derivation of the local compression rate is executed based on the information regarding the mesh generated in step S310. First, for each of the N_elem mesh elements generated in step S310, a change in the size of the mesh element is derived. Specifically, for example, when attention is paid to the j-th mesh element, a bounding box surrounding the positions of a plurality of vertices constituting the mesh element is derived. If the form of the mesh element of interest here is a hexahedron, it becomes a bounding box for the six vertex positions that make up the hexahedron. Let bbXj, bbYj, and bbZj be the sizes of the derived bounding box in the X-axis, Y-axis, and Z-axis directions. Next, the size after deformation of the mesh element of interest (the size of the bounding box) is similarly derived. Here, the sizes are assumed to be bbXj ′, bbYj ′, and bbZj ′. Next, the change rate of the size accompanying the deformation of the derived bounding box is derived. Specifically, for each coordinate axis, the value is derived by equation (1). In this embodiment, the compression rate is derived, but the rate of change may be defined as the expansion rate. The subsequent processing can be similarly applied to the expansion rate.

Figure 0006202960
Figure 0006202960

以上の処理を全てのメッシュ要素(局所領域)について行い、導出したcompXj、compYj、compZj (1≦j≦N_elem)を記録・保持する。   The above processing is performed for all mesh elements (local regions), and the derived compXj, compYj, and compZj (1 ≦ j ≦ N_elem) are recorded and retained.

[ステップS330: 変形画像の解像度の導出]
ステップS330において、解像度導出部1020は、ステップS320で導出した対象症例に関する局所的な圧縮率に基づき、後述するステップS340で変形画像生成部1030が生成する変形画像の解像度を導出する処理を実行する。以下、具体的な処理について説明する。まず、ステップS320で導出したメッシュ要素毎の圧縮率に基づいて、全メッシュ要素の圧縮率の最大値を導出する。この処理は式(2)により実行される。
[Step S330: Derivation of resolution of deformed image]
In step S330, the resolution deriving unit 1020 executes a process of deriving the resolution of the deformed image generated by the deformed image generating unit 1030 in step S340 described later based on the local compression rate related to the target case derived in step S320. . Specific processing will be described below. First, the maximum value of the compression rate of all mesh elements is derived based on the compression rate of each mesh element derived in step S320. This process is executed by equation (2).

Figure 0006202960
Figure 0006202960

そして、導出した圧縮率の最大値(maxCompX, maxCompY, maxCompZ)と、対象画像の解像度(size_x, size_y, size_z)とに基づいて、変形画像の解像度(size_x', size_y', size_z')を式(3)により導出する。   Then, based on the derived maximum value of compression rate (maxCompX, maxCompY, maxCompZ) and the resolution (size_x, size_y, size_z) of the target image, the resolution (size_x ', size_y', size_z ') of the deformed image is expressed by Derived by (3).

Figure 0006202960
Figure 0006202960

これにより、ステップS310で導出した対象症例の変形で最も圧縮されている局所領域の圧縮率に基づいて変形画像の解像度を決定することができる。以上の処理に従って、解像度導出部1020はステップS340で生成する変形画像の解像度を導出する処理を実行する。   Accordingly, the resolution of the deformed image can be determined based on the compression ratio of the local region that is most compressed by the deformation of the target case derived in step S310. In accordance with the above processing, the resolution deriving unit 1020 executes processing for deriving the resolution of the deformed image generated in step S340.

[ステップS340: 変形画像の生成]
ステップS340において、変形画像生成部1030は、ステップS310で導出した変形に関する情報に基づいて、対象画像を変形した変形画像を生成する処理を実行する。ここで、変形画像とは、仰臥位における対象症例と空間的に整合した画像であり、仮に対象症例を仰臥位の姿勢で撮影した場合に得られる画像と類似した画像である。本実施形態では、変形画像をIdeformed(x,y,z)と表記する。また、変形画像は、ステップS330で導出した解像度を持つ3次元画像である。以下、変形画像を生成する具体的な処理について説明する。
[Step S340: Generation of deformation image]
In step S340, the deformed image generation unit 1030 executes processing for generating a deformed image obtained by deforming the target image based on the information related to the deformation derived in step S310. Here, the deformed image is an image spatially aligned with the target case in the supine position, and is an image similar to an image obtained when the target case is photographed in the supine position. In the present embodiment, the deformed image is expressed as I deformed (x, y, z). The deformed image is a three-dimensional image having the resolution derived in step S330. Hereinafter, specific processing for generating a deformed image will be described.

まず、変形画像生成部1030は変形画像を格納するための3次元配列のメモリ領域を生成する。対象画像が撮影する実空間での撮影範囲は、(Nx×size_x, Ny×size_y, Nz×size_z)であり、変形画像もこれと同じ範囲の画像とする。ただし、変形画像の解像度はステップS330で導出した値を用いる。すなわち、変形画像を格納するためのメモリ領域は、(Nx×size_x÷size_x', Ny×size_y÷size_y', Nz×size_z÷size_z')とする。以上の処理により生成したメモリ領域をI_deform_mem(dx,dy,dz)と表記する。表記の意味はステップS300で説明した対象症例のメモリ領域I_mem(dx,dy,dz)の場合に準ずるため、ここでは説明を省略する。   First, the deformed image generation unit 1030 generates a three-dimensional array of memory areas for storing deformed images. The shooting range in the real space where the target image is shot is (Nx × size_x, Ny × size_y, Nz × size_z), and the deformed image is also an image in the same range. However, the value derived in step S330 is used as the resolution of the deformed image. That is, the memory area for storing the deformed image is (Nx × size_x ÷ size_x ′, Ny × size_y ÷ size_y ′, Nz × size_z ÷ size_z ′). The memory area generated by the above processing is expressed as I_deform_mem (dx, dy, dz). The meaning of the notation is the same as in the case of the memory area I_mem (dx, dy, dz) of the target case described in step S300, and the description is omitted here.

次に、ステップS310で導出した対象症例の変形f_deform(x,y,z)に基づいて、対象画像I(x,y,z)を変形させた変形画像I_deform(x,y,z)を生成する。ただし画像処理装置100内での実際の処理は、対象画像の輝度値を保持する3次元配列のメモリ領域I_mem(dx,dy,dz)の輝度値を変形f_deform(x,y,z)に基づいて、変形画像のメモリ領域I_deform_mem(dx,dy,dz)にマッピングする処理が実行される。具体的には、変形画像は、その画像を構成する複数の画素に関して次式に示す計算を実行することにより生成できる。   Next, based on the deformation f_deform (x, y, z) of the target case derived in step S310, a deformed image I_deform (x, y, z) is generated by deforming the target image I (x, y, z). To do. However, the actual processing in the image processing apparatus 100 is based on the modified f_deform (x, y, z) for the luminance value of the memory area I_mem (dx, dy, dz) in the three-dimensional array that holds the luminance value of the target image. Thus, a process of mapping to the memory area I_deform_mem (dx, dy, dz) of the deformed image is executed. Specifically, the deformed image can be generated by executing the calculation shown in the following equation with respect to a plurality of pixels constituting the image.

Figure 0006202960
Figure 0006202960

ただし、「*」はベクトルの要素間の積演算を意味する演算子である。また、f-1 deformはステップS310で取得した変形場を表す関数f_deformの逆関数であり、対象症例の仰臥位における位置を引数とし、その位置に対応する伏臥位の位置を返す3次元の関数である。f-1 deformはf_deformに基づいて周知の方法で求めるこができるため、ここでは詳細な説明は省略する。以上に説明したステップS340の処理により変形画像、Ideformed(x,y,z) が画像処理装置100内の3次元配列のメモリ領域I_deform_mem(dx,dy,dz)として生成される。 However, “*” is an operator that means a product operation between vector elements. F -1 deform is an inverse function of the function f_deform representing the deformation field acquired in step S310, and takes a position in the supine position of the target case as an argument, and returns a position of the prone position corresponding to that position. It is. Since f −1 deform can be obtained by a well-known method based on f_deform, detailed description is omitted here. A deformed image, I deformed (x, y, z) is generated as a three-dimensional array memory area I_deform_mem (dx, dy, dz) in the image processing apparatus 100 by the processing in step S340 described above.

[ステップS350: 変形画像の表示]
ステップS350において、表示制御部1040は、ステップS340で生成した変形画像に関する情報を画像処理装置100に接続されたモニタ130に送信し、表示させるように制御する。この時、表示制御部1040は、3次元の変形画像を所定の面で切断した2次元の断面画像を生成する処理を実行することができる。所定の面は例えばユーザがマウス1401やキーボード1402等を用いて対話的に操作できるようにできる。これにより、3次元の変形画像のうち、ユーザが所望する任意の領域を任意の角度で切り出した断面画像を任意の拡大縮小率で表示することができる。なお画像の表示方法は上記方法に限らず、例えば対象画像と変形画像の対応する断面を双方から切り出した断面画像を生成し、それらの画像を並べたり、重ねたりして表示するようにしても良い。また、3次元の変形画像をボリュームレンダリングして表示するようにしても良い。
[Step S350: Display deformed image]
In step S350, the display control unit 1040 transmits information related to the deformed image generated in step S340 to the monitor 130 connected to the image processing apparatus 100, and controls to display the information. At this time, the display control unit 1040 can execute processing for generating a two-dimensional cross-sectional image obtained by cutting the three-dimensional deformed image along a predetermined surface. For example, the predetermined surface can be interactively operated by the user using the mouse 1401, the keyboard 1402, and the like. Accordingly, a cross-sectional image obtained by cutting out an arbitrary region desired by the user at an arbitrary angle from the three-dimensional deformed image can be displayed at an arbitrary enlargement / reduction ratio. The image display method is not limited to the above method. For example, a cross-sectional image obtained by cutting out the corresponding cross-sections of the target image and the deformed image from both sides may be generated, and the images may be displayed side by side or superimposed. good. Further, a three-dimensional deformed image may be displayed by volume rendering.

以上説明したようにして、図3のフローチャートの各処理が実施される。これにより、対象症例の伏臥位の画像(対象画像)を、その対象画像が持つ輝度情報をなるべく欠落させることなく、仰臥位に変形させた変形画像を高品質かつ効率的に生成する仕組みを提供できる。   As described above, each process of the flowchart of FIG. 3 is performed. This provides a high-quality and efficient mechanism for generating a deformed image of a prone position of the target case (target image) transformed into the supine position without missing as much luminance information as possible from the target image. it can.

<変形例1-1:手動変形、2画像間の位置合わせへの適用でも良い>
第1実施形態の説明では、ステップS310において、伏臥位から仰臥位への変形の導出を、有限要素法を用いたシミュレーションにより実行する場合を例として説明したが、本発明の実施の形態はこれに限らない。例えば、マウス1401やキーボード1402などを介してユーザからの入力情報を取得し、それに基づいて対象画像に適用する変形を取得するようにしても良い。これ以外にも、例えば対象症例の乳房を仰向けの体位で撮影した低解像度のMRI画像を取得し、その画像に対象画像を周知の方法で変形位置合わせし、その変形位置合わせの結果から変形を取得するようにしても良い。つまり、ステップS310における対象症例の変形の導出または取得は、いかなる方法によって実行しても良い。いずれの場合でも第1実施形態で説明した効果と同様の効果が得られる。
<Modification 1-1: Manual deformation and application to alignment between two images>
In the description of the first embodiment, the case where the derivation of the deformation from the prone position to the supine position is performed by simulation using the finite element method in step S310 has been described as an example. Not limited to. For example, input information from the user may be acquired via the mouse 1401 or the keyboard 1402, and a deformation applied to the target image may be acquired based on the acquired information. In addition to this, for example, a low-resolution MRI image obtained by photographing the breast of the target case in a supine position is acquired, and the target image is deformed and aligned with the image by a well-known method, and the deformation is determined from the result of the deformed positioning. You may make it acquire. That is, the derivation or acquisition of the deformation of the target case in step S310 may be executed by any method. In either case, the same effects as those described in the first embodiment can be obtained.

<変形例1-2:圧縮率の平均値、ヒストグラム等に基づいても良い>
第1実施形態の説明では、ステップS330において、ステップS320で導出した局所的な圧縮率の最大値に基づいて変形画像の解像度を導出する場合を例として説明したが、本発明の実施の形態はこれに限らない。例えば、ステップS320で導出した局所的な圧縮率の平均値、または中央値に基づいて変形画像の解像度を導出するようにしても良い。または、ステップS320で導出した局所的な圧縮率のヒストグラムを生成し、上位から所定の変位値に相当する圧縮率の値に基づいて変形画像の解像度を導出するようにしても良い。また上述のような局所的な圧縮率の最大値や平均値、中央値など複数の指標に基づいて複数の解像度の候補を導出し、それらの中からより適した解像度をユーザに選択させたり、自動的に選択したりする仕組みを持つようにしても良い。これらの方法によれば、乳房領域全体の中の極めて僅かな局所領域に高い圧縮が生じるような場合においても、変形画像の品質と記憶容量とをバランスさせた解像度で変形画像を生成できるという効果が得られる。
<Modification 1-2: It may be based on an average value of compression ratio, a histogram, etc.>
In the description of the first embodiment, the case in which the resolution of the deformed image is derived based on the maximum value of the local compression rate derived in step S320 in step S330 has been described as an example. Not limited to this. For example, the resolution of the deformed image may be derived based on the average value or median value of the local compression rates derived in step S320. Alternatively, a local compression ratio histogram derived in step S320 may be generated, and the resolution of the deformed image may be derived based on the compression ratio value corresponding to a predetermined displacement value from the top. In addition, it derives a plurality of resolution candidates based on a plurality of indices such as the maximum value, average value, and median value of the local compression rate as described above, and allows the user to select a more suitable resolution from them, You may make it have a mechanism to select automatically. According to these methods, it is possible to generate a deformed image with a resolution that balances the quality of the deformed image and the storage capacity even in the case where high compression occurs in a very small local region in the entire breast region. Is obtained.

<変形例1-3:さらに輝度分布にも基づいても良い>
第1実施形態の説明では、ステップS330において、ステップS320で導出した局所的な圧縮率に基づいて変形画像の解像度を導出する場合を例として説明したが、本発明の実施の形態はこれに限らない。
<Modification 1-3: Further may be based on luminance distribution>
In the description of the first embodiment, the case where the resolution of the deformed image is derived based on the local compression rate derived in step S320 in step S330 has been described as an example. However, the embodiment of the present invention is not limited thereto. Absent.

例えば、ステップS320で導出した局所的な圧縮率に加えて、対象画像の輝度分布にも基づいて変形画像の解像度を導出するようにしても良い。例えば、局所的な圧縮率と、その局所位置における対象画像の輝度値の複雑さの値に基づいて、局所的な評価値を導出する。そして、局所的な評価値の最大値に基づいて変形画像の解像度を導出する。ここで輝度値の複雑さとは、例えば対象画像の当該局所領域における画素値の分散や空間周波数などに基づいて計算される値である。この値は、例えば当該局所領域の輝度値を平滑化した際に変動する輝度値の総和や平均などであっても良い。また局所的な評価値は、例えば、局所的な圧縮率と輝度値に複雑さの値の和や積などの演算により得られる値であって良い。この値は、この当該局所領域の変形画像を生成する際に必要となる解像度と関係する。例えば、局所的な圧縮率が高く、かつ輝度値の複雑さも高い場合には、当該領域の変形画像を仮に低い解像度で生成したとすると、元の対象画像の輝度値の情報が大きく失われることになる。この場合、評価値は高い値を示し、当該領域の変形画像を高い解像度で生成する必要性を表す評価値となる。   For example, the resolution of the deformed image may be derived based on the luminance distribution of the target image in addition to the local compression rate derived in step S320. For example, the local evaluation value is derived based on the local compression rate and the complexity value of the luminance value of the target image at the local position. Then, the resolution of the deformed image is derived based on the local maximum evaluation value. Here, the complexity of the luminance value is a value calculated based on, for example, the dispersion of pixel values in the local region of the target image and the spatial frequency. This value may be, for example, the sum or average of luminance values that vary when the luminance values of the local area are smoothed. The local evaluation value may be a value obtained by an operation such as a sum or product of a local compression rate and a luminance value and a complexity value. This value is related to the resolution required when generating the deformation image of the local region. For example, if the local compression rate is high and the complexity of the brightness value is high, if the deformed image of the area is generated at a low resolution, the information on the brightness value of the original target image is greatly lost. become. In this case, the evaluation value is a high value, and is an evaluation value indicating the necessity of generating a deformed image of the area with high resolution.

上述の局所的な評価値に基づいて変形画像の解像度を導出することにより、例えば、局所的に圧縮はあるものの、輝度値の分布が平淡な領域が存在するような場合に、第1実施形態に比べて高い記録効率で高品質な変形画像を生成できるという効果がある。   By deriving the resolution of the deformed image based on the above-described local evaluation value, for example, in the case where there is an area where the distribution of luminance values is faint although there is local compression, the first embodiment Compared to the above, there is an effect that a high-quality deformed image can be generated with high recording efficiency.

以上説明したように、本実施形態では、変形画像(第2の画像)を生成する際の変形情報に基づいて変形画像(第2の画像)の解像度(画素サイズ)を決定する。これにより、元画像(第1の画像)を変形させた変形画像を生成する際に、元画像の輝度分布を反映した高品質な変形画像(第2の画像)を生成することが可能となる。   As described above, in the present embodiment, the resolution (pixel size) of the deformed image (second image) is determined based on the deformation information when generating the deformed image (second image). Thereby, when generating a deformed image obtained by deforming the original image (first image), it is possible to generate a high-quality deformed image (second image) reflecting the luminance distribution of the original image. .

(第2実施形態;注目部位の圧縮率に基づいても良い)
第1実施形態では、ステップS330において、ステップS320で導出した局所的な圧縮率の最大値に基づいて変形画像の解像度を導出する場合を例として説明したが、本発明の実施の形態はこれに限らない。第2実施形態では、対象画像を取得すると共に、対象画像に描出されている腫瘍位置などの注目部位(注目領域)を抽出または取得し、その位置(注目位置)における局所的な圧縮率に基づいて変形画像の解像度を導出する例を説明する。
(Second embodiment; may be based on the compression ratio of the region of interest)
In the first embodiment, the case in which the resolution of the deformed image is derived based on the maximum value of the local compression rate derived in step S320 in step S330 has been described as an example, but the embodiment of the present invention is not limited thereto. Not exclusively. In the second embodiment, a target image is acquired, and a region of interest (region of interest) such as a tumor position depicted in the target image is extracted or acquired, and based on a local compression rate at that position (region of interest) An example of deriving the resolution of the deformed image will be described.

本実施形態に係る画像処理装置100の機能構成およびハードウェア構成は、第1実施形態と同様であるが、さらに不図示の注目領域取得部を備えている。以下、図5のフローチャートを参照して、本実施形態に係る画像処理装置100が実施する処理の手順について説明する。ステップS500の処理は、第1実施形態のステップS300の処理と同様であるため説明を省略する。   The functional configuration and hardware configuration of the image processing apparatus 100 according to the present embodiment are the same as those of the first embodiment, but further include a notable region acquisition unit (not shown). Hereinafter, with reference to a flowchart of FIG. 5, a procedure of processing performed by the image processing apparatus 100 according to the present embodiment will be described. Since the process of step S500 is the same as the process of step S300 of the first embodiment, a description thereof will be omitted.

ステップS505において、画像処理装置100の注目領域取得部は、対象画像中の注目位置を取得する処理を実行する。この処理は例えば対象画像に描出される腫瘍などユーザが注目する部位の位置を取得する処理であり、たとえばマウス1401やキーボード1402等の操作入力部140を用いてユーザ操作に従って直接入力指定することにより取得する。また、これ以外にも対象画像を画像処理することによりユーザが注目する部位、またはユーザが注目するべき部位を自動的に検出して、その位置を取得するようにしても良い。ステップS510およびステップS520の処理は、第1実施形態のステップS310およびS320の処理と同様であるため説明を省略する。   In step S505, the attention area acquisition unit of the image processing apparatus 100 executes processing for acquiring the attention position in the target image. This process is, for example, a process of acquiring a position of a part of interest of the user such as a tumor depicted in the target image. For example, by directly specifying an input according to a user operation using the operation input unit 140 such as a mouse 1401 or a keyboard 1402 get. In addition to this, it is also possible to automatically detect a part that the user pays attention to or a part that the user should pay attention to by performing image processing on the target image and acquire the position. Since the processes in steps S510 and S520 are the same as the processes in steps S310 and S320 of the first embodiment, the description thereof is omitted.

ステップS530において、解像度導出部1020は、ステップS520で導出した対象症例の変形に関する局所的な圧縮率に基づいて、後述するステップS540で生成する変形画像の解像度を導出する処理を実行する。第1実施形態では、対象症例の局所的な圧縮率の最大値に基づいて解像度を導出する場合を例として説明したが、本実施形態では、ステップS505で取得した注目位置や、その近傍における局所的な圧縮率に基づいて解像度を導出する。例えば、注目位置から所定の距離範囲の領域における圧縮率の平均値や最大値などに基づいて解像度を導出する。ステップS540およびステップS550の処理は、第1実施形態のステップS340およびステップS350の処理と同様であるため説明を省略する。   In step S530, the resolution deriving unit 1020 executes a process for deriving the resolution of the deformed image generated in step S540, which will be described later, based on the local compression rate related to the deformation of the target case derived in step S520. In the first embodiment, the case where the resolution is derived based on the maximum value of the local compression rate of the target case has been described as an example. However, in the present embodiment, the attention position acquired in step S505 and the local position in the vicinity thereof are described. The resolution is derived based on the compression ratio. For example, the resolution is derived based on the average value or the maximum value of the compression rate in a region within a predetermined distance range from the target position. Since the processes of Step S540 and Step S550 are the same as the processes of Step S340 and Step S350 of the first embodiment, description thereof will be omitted.

以上説明したように、本実施形態によれば、対象画像中で特に観察の対象となる注目部位における画像の品質をなるべく落とさずに変形画像を生成できるという効果がある。   As described above, according to the present embodiment, there is an effect that a deformed image can be generated without degrading the quality of an image in a target region to be observed in particular in the target image as much as possible.

(第3実施形態;変形の主軸に基づいて画像回転等の前処理を施す)
第3実施形態では、対象症例の変形の主軸と対象画像の画像座標の座標軸とを略一致させる前処理を施すことにより、第1実施形態で説明した処理をより効果的に実施する例について説明する。
(Third embodiment: Preprocessing such as image rotation is performed based on the main axis of deformation)
In the third embodiment, an example will be described in which the processing described in the first embodiment is more effectively performed by performing preprocessing that substantially matches the main axis of deformation of the target case with the coordinate axis of the image coordinates of the target image. To do.

本実施形態に係る画像処理装置100の機能構成およびハードウェア構成は、第1実施形態と同様であるが、不図示の変換部をさらに備えている。以下、図6のフローチャートを参照して、本実施形態に係る画像処理装置100が実施する処理の手順について説明する。ステップS600およびステップS610の処理は、第1実施形態のステップS300およびステップS310の処理と同様であるため説明を省略する。   The functional configuration and hardware configuration of the image processing apparatus 100 according to the present embodiment are the same as those in the first embodiment, but further include a conversion unit (not shown). Hereinafter, with reference to a flowchart of FIG. 6, a procedure of processing performed by the image processing apparatus 100 according to the present embodiment will be described. Since the processing of step S600 and step S610 is the same as the processing of step S300 and step S310 of the first embodiment, description thereof will be omitted.

ステップS615において、画像処理装置100の変換部は、ステップS610で導出した変形情報に基づいて、後述する変形の主軸を導出し、それに基づいて対象画像、Pi、Diを座標変換する処理を実行する。すなわち、ステップS610で導出したDi(ただし、1≦i≦N_node)に線形の主成分分析を実行して第1主成分から第3主成分を導出する。ここで各主成分は3次元の正規直交ベクトルである。この3つの正規直交ベクトルを変形の主軸と称する。この直交ベクトルを用いて、対象画像の画像座標軸(X,Y,Z)が変形の主軸と略一致するように直交変換する。すなわち回転変換を行う。この時、回転後の画像は、回転前の対象画像の各画素が持つ輝度情報をなるべく失わない様に解像度などを適宜設定する。例えば、第1実施形態と同様の構成を用いて解像度を決めるようにしても良い。また、ステップS610で導出したPi、Diも同様に回転の処理を施す。以上の処理によって得た回転後の対象画像、Pi、Diを用いて以降の処理を行う。ステップS620からステップS640の処理は、第1実施形態のステップS320からステップS340と同様の処理を実行する。   In step S615, the conversion unit of the image processing apparatus 100 derives a deformation main axis, which will be described later, based on the deformation information derived in step S610, and executes a process of performing coordinate conversion of the target image, Pi, and Di based on the main axis. . That is, the third principal component is derived from the first principal component by performing linear principal component analysis on Di (where 1 ≦ i ≦ N_node) derived in step S610. Here, each principal component is a three-dimensional orthonormal vector. These three orthonormal vectors are referred to as deformation main axes. Using this orthogonal vector, orthogonal transformation is performed so that the image coordinate axes (X, Y, Z) of the target image substantially coincide with the main axis of deformation. That is, rotation conversion is performed. At this time, the resolution and the like of the image after rotation are appropriately set so as not to lose as much luminance information as possible of each pixel of the target image before rotation. For example, the resolution may be determined using the same configuration as in the first embodiment. Further, Pi and Di derived in step S610 are similarly subjected to rotation processing. The subsequent processing is performed using the rotated target image, Pi, and Di obtained by the above processing. The process from step S620 to step S640 executes the same process as step S320 to step S340 of the first embodiment.

ステップS650の処理は、第1実施形態のステップS350と同様の処理を実行する。ただし、3次元の変形画像からユーザの入力などに基づいて断面画像を生成して表示する場合には、断面画像を生成する領域の変形画像の解像度に応じて表示の拡大縮小率を切り替えたり、拡大縮小率の範囲を限定したりしても良い。例えば、解像度が高い領域ではユーザの入力に応じて高い拡大率で表示できるようにし、逆に解像度が高くない領域では高い解像度で表示できなくする。これにより、表示領域に含まれる輝度情報の粗密に応じた拡大縮小率の制御が行われるため、ユーザにより適切な拡大縮小率で画像を表示できるという効果がある。   The process of step S650 executes the same process as step S350 of the first embodiment. However, when generating and displaying a cross-sectional image from a three-dimensional deformed image based on user input, etc., the display enlargement / reduction ratio can be switched according to the resolution of the deformed image in the region for generating the cross-sectional image, The range of the enlargement / reduction ratio may be limited. For example, an area with a high resolution can be displayed with a high magnification according to a user input, and conversely, an area with a low resolution cannot be displayed with a high resolution. Thereby, since the enlargement / reduction ratio is controlled in accordance with the density of the luminance information included in the display area, the user can display an image at an appropriate enlargement / reduction ratio.

以上説明したように、本実施形態では、対象症例に生じる変形の主軸が画像の座標軸と異なる場合に、それらを略一致させる前処理を施す。これにより、ステップS620以降の処理で実行される座標軸毎の圧縮率の設定が、対象症例の変形に対してより効果的に行えるという効果がある。   As described above, in the present embodiment, when the main axis of deformation that occurs in the target case is different from the coordinate axis of the image, preprocessing is performed to substantially match them. Thereby, there is an effect that the setting of the compression rate for each coordinate axis executed in the processing after step S620 can be more effectively performed for the deformation of the target case.

(第4実施形態;局所的な変形に応じて局所的に解像度を決める)
第1実施形態では、対象症例の局所的な変形に基づいて導出した解像度を変形画像の全体に適用する場合を例として説明したが、本発明の実施の形態はこれに限らない。第4実施形態では、対象症例の局所的な変形に基づいて導出した解像度を、変形画像の局所的な領域に適用する場合を例として説明する。
(Fourth embodiment; resolution is determined locally according to local deformation)
In the first embodiment, the case where the resolution derived based on the local deformation of the target case is applied to the entire deformed image has been described as an example, but the embodiment of the present invention is not limited to this. In the fourth embodiment, a case where the resolution derived based on the local deformation of the target case is applied to a local region of the deformed image will be described as an example.

本実施形態に係る画像処理装置100の機能構成およびハードウェア構成は、第1実施形態と同様であるため説明を省略する。以下、図7のフローチャートを参照して、本実施形態に係る画像処理装置100が実施する処理の手順について説明する。ステップS700からステップS720の処理は、第1実施形態のステップS300およびステップS320の処理と同様であるため説明を省略する。   Since the functional configuration and hardware configuration of the image processing apparatus 100 according to the present embodiment are the same as those in the first embodiment, description thereof will be omitted. Hereinafter, with reference to a flowchart of FIG. 7, a procedure of processing performed by the image processing apparatus 100 according to the present embodiment will be described. Since the processing from step S700 to step S720 is the same as the processing of step S300 and step S320 of the first embodiment, description thereof will be omitted.

ステップS730において、解像度導出部1020は、ステップS720で導出した対象症例の変形に関する局所的な圧縮率に基づいて、後述するステップS740で生成する変形画像の解像度を導出する処理を実行する。第1実施形態では、対象症例の局所的な圧縮率の最大値に基づいて、変形画像全体に適用する単一の解像度を導出する場合を例として説明した。これに対して本実施形態は、局所的な領域毎に個別に解像度を導出し、複数の解像度が混在する変形画像を生成するという点で第1実施形態とは異なる。ステップS730では、この局所毎の解像度の導出を行う。   In step S730, the resolution deriving unit 1020 executes a process for deriving the resolution of the deformed image generated in step S740, which will be described later, based on the local compression rate related to the deformation of the target case derived in step S720. In the first embodiment, the case where a single resolution to be applied to the entire deformed image is derived based on the maximum value of the local compression rate of the target case has been described as an example. On the other hand, the present embodiment is different from the first embodiment in that the resolution is derived for each local region and a deformed image in which a plurality of resolutions are mixed is generated. In step S730, the local resolution is derived.

この処理の具体例について図8を用いて詳しく説明する。図8(a)は、対象画像の画素を格納する3次元配列のメモリを、各画素が持つ実空間上でのサイズを反映させて並べた図である。ただし、本来は3次元の配列であるが、紙面上での説明の都合上、Z=(任意の定数)の断面を切り出して2次元の図を用いて説明する。本実施形態の対象画像の画素サイズ(解像度)は、size_x=1.0mm, size_y=1.0mm, size_z=1.0mmであり、等方の大きさの画素が整然と並んでいる。ここで、ステップS710で導出した対象症例の変形に関する情報が、例えば図4で説明したように対象画像400の中央付近で上下(Y軸方向)への圧縮が生じている場合を考える。   A specific example of this process will be described in detail with reference to FIG. FIG. 8 (a) is a diagram in which memories in a three-dimensional array that store pixels of the target image are arranged to reflect the size of each pixel in real space. However, although it is originally a three-dimensional array, for convenience of explanation on paper, a cross section of Z = (arbitrary constant) is cut out and described using a two-dimensional diagram. The pixel size (resolution) of the target image of the present embodiment is size_x = 1.0 mm, size_y = 1.0 mm, and size_z = 1.0 mm, and pixels of isotropic sizes are arranged in an orderly manner. Here, a case is considered where the information related to the deformation of the target case derived in step S710 is compressed vertically (in the Y-axis direction) near the center of the target image 400 as described with reference to FIG.

まず、図8(b)に示すように、変形画像800を複数の領域801〜領域809に分割する。次に、ステップS720で導出した圧縮率compXj、compYj、compZj (1≦j≦N_elem)を用いて、領域801〜領域809の夫々の領域における圧縮率の最大値を用いて導出する。この処理についてさらに詳しく説明する。   First, as shown in FIG. 8B, the deformed image 800 is divided into a plurality of regions 801 to 809. Next, using the compression rates compXj, compYj, and compZj (1 ≦ j ≦ N_elem) derived in step S720, the maximum values of the compression rates in the respective regions 801 to 809 are derived. This process will be described in more detail.

まず、変形画像800に含まれる複数の領域801〜領域809のうちの一つを選択する。ここでは領域801を選択したものとして説明を続ける。次に、ステップS710で導出した変形に関する情報に基づき、領域801に含まれる変形後のメッシュ要素を抽出する。これは変形後のメッシュ要素を構成するメッシュの頂点位置Diが領域801の内部であるか否かの判定に基づいて実行される。そして、抽出されたメッシュ要素を対象として、第1実施形態のステップS330と同様の処理を行う。すなわち抽出された複数のメッシュ要素の圧縮率の最大値を導出し、それに基づいて領域801の変形後の画像の解像度を導出する。以上の処理を変形画像800に含まれる全ての領域801〜領域809に対して実施する。これにより、各領域801〜領域809に関する解像度がそれぞれ導出される。図8(b)には、上記の処理により導出した解像度の例を示している。ここでは、Y軸方向に圧縮が生じている領域805のY軸方向の解像度が、対象画像400の解像度よりも高くなっている(つまり画素サイズが小さくなっている)結果を示している。また圧縮が生じていない他の領域では対象画像の解像度を変えずに適用している。   First, one of a plurality of areas 801 to 809 included in the deformed image 800 is selected. Here, the description will be continued assuming that the area 801 is selected. Next, a deformed mesh element included in the region 801 is extracted based on the information regarding the deformation derived in step S710. This is executed based on the determination as to whether or not the vertex position Di of the mesh constituting the deformed mesh element is within the region 801. Then, the same process as step S330 of the first embodiment is performed on the extracted mesh element. That is, the maximum value of the compression rate of the plurality of extracted mesh elements is derived, and the resolution of the image after deformation of the region 801 is derived based on the maximum value. The above processing is performed on all the regions 801 to 809 included in the deformed image 800. Thereby, the resolution regarding each area | region 801-area 809 is each derived | led-out. FIG. 8 (b) shows an example of the resolution derived by the above processing. Here, a result is shown in which the resolution in the Y-axis direction of the region 805 in which compression occurs in the Y-axis direction is higher than the resolution of the target image 400 (that is, the pixel size is reduced). In other areas where compression has not occurred, the image is applied without changing the resolution of the target image.

以上に説明したステップS730の処理により、ステップS720で導出した対象症例の局所的な圧縮率に基づいて、ステップS740で生成する変形画像の解像度を導出する。ステップS740およびステップS750の処理は、第1実施形態のステップS340およびステップS350と同様の処理を実行する。   Through the processing in step S730 described above, the resolution of the deformed image generated in step S740 is derived based on the local compression rate of the target case derived in step S720. The process of step S740 and step S750 performs the same process as step S340 and step S350 of the first embodiment.

以上説明したように、本実施形態では、対象症例の局所的な変形の特性に応じて適応的に解像度が設定された変形画像を生成する。これにより、対象症例に局所的に大きな変形が生じるような場合においても、対象画像が持つ輝度情報をなるべく失わない高品質な変形画像を、高い記録効率で生成できるという効果がある。   As described above, in the present embodiment, a deformed image in which the resolution is adaptively set according to the local deformation characteristics of the target case is generated. As a result, even when a large deformation occurs locally in the target case, there is an effect that a high-quality deformed image that does not lose as much luminance information as possible in the target image can be generated with high recording efficiency.

なお、上述した本実施の形態における記述は、本発明に係る好適な画像処理装置の一例であり、本発明はこれに限定されるものではない。   Note that the description in this embodiment described above is an example of a suitable image processing apparatus according to the present invention, and the present invention is not limited to this.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (15)

被検体の第1の画像を取得する画像取得手段と、
前記被検体の変形情報を取得する変形情報取得手段と、
前記第1の画像の解像度と前記変形情報とに基づいて、前記第1の画像を変形した第2の画像の解像度を導出する導出手段と、
前記導出された解像度で前記第2の画像を生成する生成手段と
を備えることを特徴とする画像処理装置。
Image acquisition means for acquiring a first image of the subject;
Deformation information acquisition means for acquiring deformation information of the subject;
Derivation means for deriving the resolution of the second image obtained by deforming the first image based on the resolution of the first image and the deformation information;
An image processing apparatus comprising: generating means for generating the second image at the derived resolution.
前記導出手段は、前記変形情報に基づいて前記被検体の圧縮または拡張に関する情報を導出し、当該情報に基づいて前記第2の画像の解像度を導出することを特徴とする請求項1に記載の画像処理装置。 It said deriving means derives information on compression or expansion of the object based on the deformation information, in claim 1, characterized in that to derive the resolution of the second image based on the information The image processing apparatus described. 前記導出手段は、前記変形情報に基づいて前記被検体の前記第1の画像を構成する個々の局所領域に対し局所的な圧縮率または拡張率を導出し、当該圧縮率または拡張率に基づいて前記第2の画像の解像度を導出することを特徴とする請求項1または2に記載の画像処理装置。 The derivation means derives a local compression rate or expansion rate for each local region constituting the first image of the subject based on the deformation information, and based on the compression rate or expansion rate the image processing apparatus according to claim 1 or 2, characterized in that to derive the resolution of the second image. 前記導出手段は、前記変形情報に基づいて前記被検体の前記第1の画像を構成する個々の局所領域に対し局所的な圧縮率または拡張率を導出し、当該導出された最大の圧縮率または拡張率に基づいて前記第2の画像の解像度を導出することを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。 The derivation means derives a local compression rate or expansion rate for each local region constituting the first image of the subject based on the deformation information, and the derived maximum compression rate or the image processing apparatus according to any one of claims 1 to 3, characterized in that to derive the resolution of the second image based on the extended rate. 前記導出手段は、前記変形情報に基づいて前記被検体の前記第1の画像を構成する個々の局所領域に対し局所的な圧縮率または拡張率を導出し、当該導出された圧縮率または拡張率の平均値または中央値に基づいて前記第2の画像の解像度を導出することを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。 The derivation means derives a local compression rate or expansion rate for each local region constituting the first image of the subject based on the deformation information, and the derived compression rate or expansion rate the image processing apparatus according to any one of claims 1 to 3 mean or on the basis of the median and wherein the deriving the resolution of the second image. 前記導出手段は、前記変形情報に基づいて前記被検体の前記第1の画像を構成する個々の局所領域に対し局所的な圧縮率または拡張率を導出してヒストグラムを生成し、当該ヒストグラムに基づいて前記第2の画像の解像度を導出することを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。 The derivation means derives a local compression rate or expansion rate for each local region constituting the first image of the subject based on the deformation information, generates a histogram, and based on the histogram the image processing apparatus according to any one of claims 1 to 3, characterized in that to derive the resolution of the second image Te. 前記導出手段は、前記変形情報に基づいて前記被検体の圧縮または拡張に関する情報を導出し、当該情報と前記第1の画像の輝度分布とに基づいて前記第2の画像の解像度を導出することを特徴とする請求項1乃至6の何れか1項に記載の画像処理装置。 Said deriving means, based on the deformation information to derive information about the compression or expansion of the subject, deriving resolution of the second image based on the luminance distribution of the with the information first image The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus. 前記被検体の前記第1の画像から注目領域を取得する注目領域取得手段をさらに備え、
前記導出手段は、前記第1の画像の解像度と前記注目領域における前記変形情報とに基づいて、前記被検体の第2の画像の解像度を導出することを特徴とする請求項1乃至7の何れか1項に記載の画像処理装置。
A region of interest acquisition means for acquiring a region of interest from the first image of the subject;
Said deriving means, on the basis of the said modified information in the resolution and the region of interest of the first image, the claims 1 to 7, characterized in that to derive the resolution of the second image of the object The image processing apparatus according to any one of the above.
前記注目領域取得手段は、前記第1の画像を画像処理することにより前記注目領域を取得することを特徴とする請求項8に記載の画像処理装置。   The image processing apparatus according to claim 8, wherein the attention area acquisition unit acquires the attention area by performing image processing on the first image. 前記第1の画像において前記注目領域の指定をユーザ操作に従って受け付ける操作入力手段をさらに備え、
前記注目領域取得手段は、前記ユーザ操作に従って前記注目領域を取得することを特徴とする請求項8に記載の画像処理装置。
An operation input means for receiving designation of the attention area in the first image according to a user operation;
The image processing apparatus according to claim 8, wherein the attention area acquisition unit acquires the attention area according to the user operation.
前記変形情報に基づいて、前記第1の画像および前記変形情報を回転変換する変換手段をさらに備え、
前記導出手段は、前記回転変換された変形情報に基づいて前記第2の画像の解像度を導出し、
前記生成手段は、前記回転変換された変形情報に基づき、前記導出された解像度で、前記回転変換された第1の画像から前記第2の画像を生成することを特徴とする請求項1乃至10の何れか1項に記載の画像処理装置。
Based on the deformation information, provided to the al converting means for rotational transform the first image and the deformation information,
The derivation means derives the resolution of the second image based on the rotation-transformed deformation information,
11. The generation unit according to claim 1, wherein the generation unit generates the second image from the rotation-converted first image at the derived resolution based on the rotation-transformed deformation information. The image processing apparatus according to any one of the above.
前記導出手段は、前記変形情報に基づいて前記被検体の前記第1の画像を構成する局所領域に対し局所的な圧縮率または拡張率を導出し、当該圧縮率または拡張率に基づいて前記第2の画像の解像度を前記局所領域ごとに導出することを特徴とする請求項1乃至11の何れか1項に記載の画像処理装置。 The derivation means derives a local compression rate or expansion rate for a local region constituting the first image of the subject based on the deformation information, and based on the compression rate or expansion rate, the image processing apparatus according to resolution of the second image to any one of claims 1 to 11, wherein the deriving for each of the local region. 前記生成手段により生成された前記第2の画像を表示装置に表示させる表示制御手段をさらに備えることを特徴とする請求項1乃至12の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a display control unit that causes the display device to display the second image generated by the generation unit. 像処理方法であって、
検体の第1の画像を取得する工程と、
記被検体の変形情報を取得する工程と、
記第1の画像の解像度と前記変形情報とに基づいて、前記第1の画像を変形した第2の画像の解像度を導出する工程と、
記導出された解像度で前記第2の画像を生成する工程と
を有することを特徴とする画像処理方法。
A picture Zosho sense how,
Obtaining a first image of a subject ;
A step of acquiring a deformation information before Symbol subject,
And deriving the previous SL on the basis of the resolution and the deformation information of the first image, the resolution of the second image obtained by modifying the first image,
Image processing how, characterized in that in front Symbol derived resolution and a step of generating said second image.
請求項14に記載の画像処理方法の各工程をコンピュータに実行させるためのプログラム。 Program for executing the respective steps of the image processing how according to the computer to claim 14.
JP2013192367A 2013-09-17 2013-09-17 Image processing apparatus, image processing method, and program Active JP6202960B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013192367A JP6202960B2 (en) 2013-09-17 2013-09-17 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013192367A JP6202960B2 (en) 2013-09-17 2013-09-17 Image processing apparatus, image processing method, and program

Publications (3)

Publication Number Publication Date
JP2015058067A JP2015058067A (en) 2015-03-30
JP2015058067A5 JP2015058067A5 (en) 2016-10-27
JP6202960B2 true JP6202960B2 (en) 2017-09-27

Family

ID=52816102

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013192367A Active JP6202960B2 (en) 2013-09-17 2013-09-17 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6202960B2 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0006598D0 (en) * 2000-03-17 2000-05-10 Isis Innovation Three-dimensional reconstructions from images
JP2008073305A (en) * 2006-09-22 2008-04-03 Gifu Univ Ultrasonic breast diagnostic system
JP5322662B2 (en) * 2009-01-08 2013-10-23 株式会社東芝 Image processing device
JP5586917B2 (en) * 2009-10-27 2014-09-10 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP5546230B2 (en) * 2009-12-10 2014-07-09 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP5234671B2 (en) * 2010-05-19 2013-07-10 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー Ultrasonic diagnostic equipment

Also Published As

Publication number Publication date
JP2015058067A (en) 2015-03-30

Similar Documents

Publication Publication Date Title
JP5318877B2 (en) Method and apparatus for volume rendering of datasets
US7693349B2 (en) Systems and methods for interactive image registration
US20110262015A1 (en) Image processing apparatus, image processing method, and storage medium
JP5992819B2 (en) Image processing apparatus, medical image diagnostic apparatus, image processing method, and image processing program
Dai et al. Real-time visualized freehand 3D ultrasound reconstruction based on GPU
JP5822554B2 (en) Image processing apparatus, image processing method, photographing system, and program
US11468589B2 (en) Image processing apparatus, image processing method, and program
JP2007537770A (en) A dynamic crop box determination method for display optimization of luminal structures in endoscopic images
CN102727258A (en) Image processing apparatus, ultrasonic photographing system, and image processing method
JP5194138B2 (en) Image diagnosis support apparatus, operation method thereof, and image diagnosis support program
JP6383182B2 (en) Image processing apparatus, image processing system, image processing method, and program
Tran et al. A research on 3D model construction from 2D DICOM
JP2017127623A (en) Image processor, image processing method, and program
US10922853B2 (en) Reformatting while taking the anatomy of an object to be examined into consideration
US9035945B1 (en) Spatial derivative-based ray tracing for volume rendering
KR20130016942A (en) Method and apparatus for generating 3d volume panorama
JP5458413B2 (en) Image processing apparatus, image processing method, and image processing program
WO2009122724A1 (en) Image processing device and method, and program
JP6995535B2 (en) Image processing equipment, image processing methods and programs
JP5695566B2 (en) Automated CPR generation defined by anatomical structures
JP2008067915A (en) Medical picture display
JP6202960B2 (en) Image processing apparatus, image processing method, and program
KR100466409B1 (en) System and method for displaying a virtual endoscopy and computer-readable recording medium having virtual endoscopy displaying program recorded thereon
EP3440632B1 (en) Imaging system and method
JP7387280B2 (en) Image processing device, image processing method and program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160908

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160908

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170731

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170829

R151 Written notification of patent or utility model registration

Ref document number: 6202960

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151