JP5100041B2 - Image processing apparatus and image processing program - Google Patents

Image processing apparatus and image processing program Download PDF

Info

Publication number
JP5100041B2
JP5100041B2 JP2006166017A JP2006166017A JP5100041B2 JP 5100041 B2 JP5100041 B2 JP 5100041B2 JP 2006166017 A JP2006166017 A JP 2006166017A JP 2006166017 A JP2006166017 A JP 2006166017A JP 5100041 B2 JP5100041 B2 JP 5100041B2
Authority
JP
Japan
Prior art keywords
image
volume data
processing apparatus
superimposed
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006166017A
Other languages
Japanese (ja)
Other versions
JP2007021193A (en
Inventor
直樹 杉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp filed Critical Toshiba Corp
Priority to JP2006166017A priority Critical patent/JP5100041B2/en
Publication of JP2007021193A publication Critical patent/JP2007021193A/en
Application granted granted Critical
Publication of JP5100041B2 publication Critical patent/JP5100041B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、同一の又は異なるモダリティによって取得されたボリュームデータ間の位置合わせを好適に実行することができる画像処理装置及び画像処理プログラムに関する。   The present invention relates to an image processing apparatus and an image processing program that can suitably execute alignment between volume data acquired by the same or different modalities.

近年の医療用画像分野で使用される画像処理装置は、超音波診断装置、X線CTスキャン、磁気共鳴イメージング装置等の医療用画像機器と組み合わせて使用され、多くの病院、検査機関等で広く利用されている。この画像処理装置は、画像処理の高速化や解像度の向上が進み、臨床情報として有用な種々の画像を提供でき、例えば手術前のシミュレーション等において、血管の走行、消化管の腫瘍、プラーク(斑点)の形成、狭搾症等の原因を調べる際に行う消化管腔の画像化等に利用されている。   An image processing apparatus used in the medical image field in recent years is used in combination with medical imaging equipment such as an ultrasonic diagnostic apparatus, an X-ray CT scan, and a magnetic resonance imaging apparatus, and is widely used in many hospitals and examination institutions. It's being used. This image processing apparatus is capable of providing various images useful as clinical information as the speed of image processing increases and the resolution is improved. For example, in a simulation before surgery, blood vessel running, gastrointestinal tumor, plaque (spots) ), And imaging of the digestive tract cavity when examining the cause of stenosis, etc.

この様な画像処理装置を利用した画像診断において、異なるタイミング(時期)や異なるモダリティで収集された画像群(複数の二次元画像データから構成されるもの。ボリュームデータとも呼ばれる。)同士を比較し、患部の時間的経過等を観察する場合がある。この様な場合には、画像群の間の対応付け(例えば、位置合わせ等)を行う必要がある。従来においては、例えば、1枚の特定画像(ディジタル画像)の一部分である診断領域と、この診断領域と対応する他の画像の一部分である対応領域の局所画像との、差分処理を行った局所差分画像を作成することで、読影者が診断領域の経時的変化又は正常との相違を確認しながら読影できもの(例えば、特許文献1参照)、撮影時期の異なる第1の画像セット、第2の画像セットのそれぞれに対してMPR処理を行い、MPR画像を用いて位置合せを行うもの(例えば、特許文献2参照)等を実現する画像処理装置が存在する。
特開平7−37074号公報 特開2004−96417号公報
In image diagnosis using such an image processing apparatus, image groups (consisting of a plurality of two-dimensional image data, also referred to as volume data) collected at different timings (time periods) and different modalities are compared. In some cases, the time course of the affected area is observed. In such a case, it is necessary to perform association (for example, alignment) between the image groups. Conventionally, for example, a local area obtained by performing a difference process between a diagnostic area that is a part of one specific image (digital image) and a local image of a corresponding area that is a part of another image corresponding to the diagnostic area. By creating a difference image, an interpreter can interpret images while confirming a temporal change in the diagnosis area or a difference from normal (for example, see Patent Document 1), a first image set having a different imaging time, a second image set, and the like. There is an image processing apparatus that realizes an apparatus that performs MPR processing on each of the image sets and performs alignment using MPR images (see, for example, Patent Document 2).
JP-A-7-37074 JP 2004-96417 A

しかしながら、従来の画像処理装置においては、原則として画像一枚ずつの位置合わせが必要とされる。従って、従来の手法にて複数の画像データから構成される画像群同士、特にボリュームデータ同士での対応付けを行うとすれば、原則としてボリュームデータを構成する全ての画像を確認し位置合わせを行う必要があり、操作者に多大な作業負担を与えることになる。   However, in the conventional image processing apparatus, in principle, alignment of each image is required. Therefore, if image groups composed of a plurality of image data, particularly volume data, are associated with each other by the conventional method, in principle, all the images constituting the volume data are confirmed and aligned. This is necessary and puts a great burden on the operator.

また、MPR像を用いて複数の画像から構成される画像セット同士の対応付けを行う場合、MPR像は任意の切り口を示すものであるから、当該切り口に存在しない特徴のある部位がMPR対象範囲外に存在する場合、精度上十分なものとは言えない場合がある。   In addition, when the image sets composed of a plurality of images are associated with each other using the MPR image, the MPR image indicates an arbitrary cut end, and thus a characteristic part that does not exist in the cut end is an MPR target range. If it exists outside, it may not be sufficient in accuracy.

なお、本願に関連する公知文献としては、例えば次のようなものがある。   In addition, as a well-known document relevant to this application, there exist the following, for example.

本発明は、上記事情を鑑みてなされたもので、従来に比して簡単且つ好適に画像群同士の対応付けを実行することができる画像処理装置及び画像処理プログラムを提供することを目的としている。   The present invention has been made in view of the above circumstances, and an object thereof is to provide an image processing apparatus and an image processing program capable of executing association between image groups more easily and preferably than in the past. .

本発明は、上記目的を達成するため、次のような手段を講じている。   In order to achieve the above object, the present invention takes the following measures.

一実施形態に係る画像処理装置は、第1のボリュームデータと第2のボリュームデータとを記憶する記憶ユニットと、前記第1のボリュームデータと前記第2のボリュームデータとのそれぞれについて、第1の基準方向に沿ってボリュームデータが有する情報を重ね合わせた二次元画像である第1の重ね合わせ画像を生成する第1の画像生成ユニットと、前記第1の重ね合わせ画像を用いて、前記第1のボリュームデータと前記第2のボリュームデータとを近似させるための変形パターンを生成する対応付けユニットと、前記第1のボリュームデータに設定された第1の領域に対応する前記第2のボリュームデータ上の第2の領域を、前記変形パターンを用いて決定し、前記第2のボリュームデータを用いて前記第2の領域に対応する画像を生成する第2の画像生成ユニットと、生成された前記画像を表示する表示ユニットと、を具備するものである。
一実施形態に係る画像処理プログラムは、コンピュータに、第1のボリュームデータと第2のボリュームデータとのそれぞれについて、第1の基準方向に沿ってボリュームデータが有する情報を重ね合わせた二次元画像である第1の重ね合わせ画像を生成させる第1の画像生成機能と、前記各第1の重ね合わせ画像を用いて、前記第1のボリュームデータと前記第2のボリュームデータとを近似させるための変形パターンを生成させる対応付け機能と、前記第1のボリュームデータに設定された第1の領域に対応する前記第2のボリュームデータ上の第2の領域を、前記変形パターンを用いて決定させ、前記第2のボリュームデータを用いて前記第2の領域に対応する画像を生成させる第2の画像生成機能と、生成された前記画像を表示させる表示機能と、を実現させるものである。
An image processing apparatus according to an embodiment includes a storage unit that stores first volume data and second volume data, and a first unit for each of the first volume data and the second volume data . a first image generation unit for generating a first superimposed image is a two-dimensional image obtained by superposing information included in the volume data along the reference direction, using said respective first superimposed image, wherein the An association unit that generates a deformation pattern for approximating one volume data and the second volume data; and the second volume data corresponding to the first area set in the first volume data a second region of the upper, determined using the modified pattern, corresponding to the second area using the second volume data image A second image generation unit for generating a display unit for displaying the generated image, and comprising a.
An image processing program according to an embodiment is a two-dimensional image obtained by superimposing information included in volume data along a first reference direction for each of first volume data and second volume data on a computer. A first image generation function for generating a first superimposed image, and a modification for approximating the first volume data and the second volume data using the first superimposed images. A matching function for generating a pattern, and a second area on the second volume data corresponding to the first area set in the first volume data is determined using the deformation pattern, and A second image generation function for generating an image corresponding to the second area using the second volume data; and displaying the generated image. It is used for realizing a display function.

以上本発明によれば、従来に比して簡単且つ好適に画像群同士の対応付けを実行することができる画像処理装置及び画像処理プログラムを実現することができる。   As described above, according to the present invention, it is possible to realize an image processing apparatus and an image processing program capable of executing association between image groups more easily and preferably than in the past.

以下、本発明の第1実施形態及び第2実施形態を図面に従って説明する。なお、以下の説明において、略同一の機能及び構成を有する構成要素については、同一符号を付し、重複説明は必要な場合にのみ行う。   Hereinafter, first and second embodiments of the present invention will be described with reference to the drawings. In the following description, components having substantially the same function and configuration are denoted by the same reference numerals, and redundant description will be given only when necessary.

また、本実施形態においては、ネットワークを介して医療用画像機器や画像サーバと接続される単体装置としての画像処理装置を例に説明する。しかしながら、これに拘泥されず、本発明の技術的思想は、当該画像処理装置を内蔵する(又は、当該画像処理装置と同様の機能を実現する)医療用画像機器(例えば、X線コンピュータ断層撮影装置、磁気共鳴イメージング装置、超音波診断装置、X線診断装置、核医学診断装置等)によって実現してもよい。また、医療用ワークステーション等のコンピュータに、当該画像処理装置と同様の機能を実行させるプログラムをインストールし、これらをメモリ上で展開することによっても実現することができる。このとき、コンピュータに当該手法を実行させることのできるプログラムは、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスクなど)、光ディスク(CD−ROM、DVDなど)、半導体メモリなどの記録媒体に格納して頒布することも可能である。   In the present embodiment, an image processing apparatus will be described as an example of a single apparatus connected to a medical image device or an image server via a network. However, regardless of this, the technical idea of the present invention is a medical imaging apparatus (for example, X-ray computed tomography) that incorporates the image processing apparatus (or that realizes the same function as the image processing apparatus). Apparatus, magnetic resonance imaging apparatus, ultrasonic diagnostic apparatus, X-ray diagnostic apparatus, nuclear medicine diagnostic apparatus, etc.). It can also be realized by installing a program for executing the same function as that of the image processing apparatus in a computer such as a medical workstation and developing these on a memory. At this time, a program capable of causing the computer to execute the technique is stored in a recording medium such as a magnetic disk (floppy (registered trademark) disk, hard disk, etc.), an optical disk (CD-ROM, DVD, etc.), or a semiconductor memory. It can also be distributed.

(第1実施形態)
図1は、第1実施形態に係る画像処理装置1の構成を示したブロック図を示している。同図に示すように、本画像処理装置1は、操作部2、表示部3、送受信部4、制御部5、画像データ記憶部6、画像処理部7を具備している。
(First embodiment)
FIG. 1 is a block diagram showing the configuration of the image processing apparatus 1 according to the first embodiment. As shown in FIG. 1, the image processing apparatus 1 includes an operation unit 2, a display unit 3, a transmission / reception unit 4, a control unit 5, an image data storage unit 6, and an image processing unit 7.

操作部2は、操作者からの各種指示、条件、等を当該装置1にとりこむためのトラックボール、各種スイッチ、マウス、キーボード等を有している。   The operation unit 2 includes a trackball, various switches, a mouse, a keyboard, and the like for incorporating various instructions, conditions, and the like from the operator into the apparatus 1.

表示部3は、画像、所定の操作を行うための入力画面等を所定の形態にて表示する。   The display unit 3 displays an image, an input screen for performing a predetermined operation, and the like in a predetermined form.

送受信部4は、ネットワークを介して他の装置と画像データを含む情報の送受信を行う。   The transmission / reception unit 4 transmits / receives information including image data to / from other devices via a network.

制御部5は、当該画像処理装置1を構成する各ユニットを動的又は静的に制御する。特に、制御部5は、後述する画像データ対応付け処理において、画像データ記憶部6、画像処理部7、操作部2、表示部3等を統括的に制御する。また、制御部5は、所定のプログラムに従って、複数の画像の並列表示、重畳表示、フュージョン画像表示するための合成画像等を生成する。   The control unit 5 dynamically or statically controls each unit constituting the image processing apparatus 1. In particular, the control unit 5 controls the image data storage unit 6, the image processing unit 7, the operation unit 2, the display unit 3, and the like in an image data association process described later. In addition, the control unit 5 generates a composite image or the like for displaying a plurality of images in parallel, superimposed display, and fusion image according to a predetermined program.

画像データ記憶部6は、送受信部4によってネットワークを介して取得された複数のボリュームデータを記憶する。この複数のボリュームデータは、同一又は異なる医用画像機器(同一モダリティ/同種モダリティ/異種モダリティのいずれであってもよい。)によって取得されたものである。また、各ボリュームデータは、必ずしも同一被検体に関するものである必要はなく、異なる被検体に関するものであってもよい。   The image data storage unit 6 stores a plurality of volume data acquired by the transmission / reception unit 4 via the network. The plurality of volume data is acquired by the same or different medical image devices (which may be the same modality, the same type modality, or the different type modality). In addition, each volume data is not necessarily related to the same subject, and may be related to different subjects.

画像処理部7は、種々の画像処理、特に後述する画像データ対応付け処理を実行するものであり、重ね合わせ画像生成部71、対応付け処理部72を有する。   The image processing unit 7 executes various image processing, particularly image data association processing described later, and includes a superimposed image generation unit 71 and an association processing unit 72.

重ね合わせ画像生成部71は、ボリュームデータ毎に当該ボリュームデータを利用した重ね合わせ画像を生成する。   The superimposed image generation unit 71 generates a superimposed image using the volume data for each volume data.

対応付け処理部72は、重ね合わせ画像生成部71によって生成されたボリュームデータ毎の重ね合わせ画像を用いて、異なるボリュームデータ間の空間的対応付け(位置合わせ)を行う。   The association processing unit 72 performs spatial association (positioning) between different volume data using the superimposed image for each volume data generated by the superimposed image generation unit 71.

(画像データ対応付け機能)
次に、本画像処理装置1が有する画像データ対応付け機能について説明する。この機能は、対応付け対象となる各ボリュームデータが有する情報を所定の方向に沿って重ね合わせた二次元画像である重ね合わせ画像を生成し、これを用いて異なるボリュームデータ間の空間的対応付けを行うものである。
(Image data association function)
Next, the image data association function of the image processing apparatus 1 will be described. This function generates a superimposed image, which is a two-dimensional image in which information of each volume data to be matched is superimposed along a predetermined direction, and uses this to spatially associate different volume data Is to do.

図2A、図2B及び図3A、図3Bは、本画像処理装置1が有する画像データ対応付け機能の概念を説明するための図である。図2Aは、被検体Aを医用画像機器Aで撮影することにより取得されたボリュームデータAを、図2Bは、被検体Bを医用画像機器Bで撮影することにより取得されたボリュームデータBを、それぞれ模式的に示している。なお、ボリュームデータAとボリュームデータBとが物理的に異なる画像データであれば、その他特に限定はない。従って、例えば、被検体Aと被検体Bとは同人でも別人でもよく、また、医用画像機器Aと医用画像機器Bとは、同一、同種、異種のいずれであってもよい。さらに、撮影における造影剤使用の有無にも拘泥されない。   2A, 2B, 3A, and 3B are diagrams for explaining the concept of the image data association function of the image processing apparatus 1. FIG. 2A shows volume data A acquired by imaging the subject A with the medical imaging device A, and FIG. 2B shows volume data B acquired by imaging the subject B with the medical imaging device B. Each is shown schematically. Note that there is no particular limitation as long as volume data A and volume data B are physically different image data. Therefore, for example, the subject A and the subject B may be the same person or different persons, and the medical image device A and the medical image device B may be the same, the same type, or different types. Furthermore, it is not restricted by the presence or absence of the use of a contrast medium in imaging.

本画像データ対応付け機能では、まず、各ボリュームデータA、Bが有する情報を基準方向に沿って重ね合わせた重ね合わせ画像を生成する。ここで、当該重ね合わせ画像の生成に用いる基準方向は、診断において最終的に利用される画像(診断画像)のスライス方向と垂直になるように選択される。例えば、診断画像がアキシャル画像である場合には、そのスライス方向は体軸(z軸)方向となるため、基準方向は体軸に垂直な方向(すなわち、x軸方向又はy方向)となる。   In the present image data association function, first, a superimposed image is generated by superimposing information held by the volume data A and B along the reference direction. Here, the reference direction used to generate the superimposed image is selected to be perpendicular to the slice direction of an image (diagnostic image) that is finally used in diagnosis. For example, when the diagnostic image is an axial image, the slice direction is the body axis (z-axis) direction, so the reference direction is a direction perpendicular to the body axis (that is, the x-axis direction or the y-direction).

なお、本実施形態では、説明を具体的にするため、診断画像はアキシャル画像であり、基準方向はy軸方向であるもとする。従って、各ボリュームデータA、Bが有する情報をy軸方向(基準方向)に沿って重ね合わせて生成される重ね合わせ画像は、コロナル画像となる。しかしながら、これに拘泥されず、例えば基準方向をx軸方向として、サジタル画像としての重ね合わせ画像を生成してもよい。   In the present embodiment, for the sake of specific explanation, it is assumed that the diagnostic image is an axial image and the reference direction is the y-axis direction. Therefore, a superimposed image generated by superimposing information included in the volume data A and B along the y-axis direction (reference direction) is a coronal image. However, without being limited to this, for example, a superimposed image as a sagittal image may be generated with the reference direction as the x-axis direction.

また、基準方向に関する重ね合わせ画像を生成する手法としては、例えば、最大値MIP処理、最小値MIP処理、ボクセルデータに関する平均値演算等を採用することができる。また、重ね合わせ画像を生成する際、必ずしもボクセルデータの全てを使用する必要はなく、例えば、基準方向を厚み方向として切り出された一部のボリュームデータ(スラブ)を用いる構成であってもよい。   As a method for generating a superimposed image related to the reference direction, for example, maximum value MIP processing, minimum value MIP processing, average value calculation regarding voxel data, and the like can be employed. Further, when generating a superimposed image, it is not always necessary to use all of the voxel data. For example, a configuration using a part of volume data (slab) cut out with the reference direction as the thickness direction may be used.

次に、各ボリュームデータA、Bに関する重ね合わせ画像を用いて、ボリュームデータ間の位置合わせを行う。図3Aは、ボリュームデータAに関する重ね合わせ画像a1を、図3Bは、ボリュームデータBに関する重ね合わせ画像b1を、それぞれ模式的に示している。同図に示すように、重ね合わせ画像a1と重ね合わせ画像b1とは位置が対応しておらず、従ってボリュームデータAとボリュームデータBとは位置が対応していない。従って、重ね合わせ画像a1と重ね合わせ画像b1との間の位置関係を基準として、ボリュームデータAとボリュームデータBとの間の位置合わせを実現する。   Next, alignment between the volume data is performed using the superimposed images related to the volume data A and B. 3A schematically shows a superimposed image a1 related to the volume data A, and FIG. 3B schematically shows a superimposed image b1 related to the volume data B. As shown in the figure, the positions of the superimposed image a1 and the superimposed image b1 do not correspond to each other, and therefore the positions of the volume data A and the volume data B do not correspond. Therefore, alignment between the volume data A and the volume data B is realized based on the positional relationship between the superimposed image a1 and the superimposed image b1.

すなわち、重ね合わせ画像a1と重ね合わせ画像b1とを比較し、例えば、各ボリュームデータに含まれる特徴的な部分の少なくとも一つを各重ね合わせ画像で検出し、これらの位置が対応するような移動量又は変換式を算出する。これを用いてボリュームデータA及びボリュームデータBの少なくとも一方を移動又は変換させることで、両者の間の空間的対応付けを実現することができる。   That is, the superimposed image a1 and the superimposed image b1 are compared, and, for example, at least one characteristic part included in each volume data is detected in each superimposed image, and the movements corresponding to these positions are detected. A quantity or conversion formula is calculated. By using this to move or convert at least one of the volume data A and the volume data B, a spatial association between the two can be realized.

移動量又は変換式の算出の際に用いる特徴的な部分としては、例えば、頭の頂上、肩先、肺の先端、肺の下端、心臓の上端等を採用することができる。基準とする特徴的な部分の数には限定はなく、なるべく多くの部分を基準に用いることで、より高精度な位置合わせや微調整が可能となる。また、この特徴量を基準とするボリュームデータ同士の対応付けは、対応付け処理部72における自動的処理の他、操作部2を介して実行されるマニュアル操作によって実現するようにしてもよい。また、対応付け処理部72の自動的処理による対応付けとマニュアル操作による対応付けとを組み合わせる構成であってもよい。係る場合には、例えば自動的処理による対応付けの後、手動で微調整する等、ボリュームデータ同士の対応付けにおける作業の自由度を拡張することができる。   For example, the top of the head, the tip of the shoulder, the tip of the lung, the lower end of the lung, the upper end of the heart, or the like can be adopted as the characteristic part used when calculating the movement amount or the conversion formula. There is no limitation on the number of characteristic parts to be used as a reference. By using as many parts as possible as a reference, it is possible to perform more accurate alignment and fine adjustment. Further, the association between the volume data based on the feature amount may be realized by a manual operation executed via the operation unit 2 in addition to the automatic processing in the association processing unit 72. Moreover, the structure which combines the matching by the automatic process of the matching process part 72 and the matching by manual operation may be sufficient. In such a case, for example, after the association by the automatic processing, the degree of freedom of work in the association between the volume data can be expanded by performing fine adjustment manually.

本機能により空間的な対応付けが実行されると、一方のボリュームデータにおいて選択された画像と対応する位置の画像を、他方のボリュームデータから自動的に選択することができる。例えば、空間的な対応付けの後、操作部2からの所定の操作により、ボリュームデータAを構成する二次元画像の中から所望の画像(選択画像)を選択したとする。制御部5は、この選択操作を受けて、ボリュームBを構成する二次元画像の中から、選択画像とその位置が対応する画像(対応画像)を自動選択する。当該選択画像と対応画像とは、所定の形態で表示部3に表示される。   When spatial association is executed by this function, an image at a position corresponding to an image selected in one volume data can be automatically selected from the other volume data. For example, it is assumed that a desired image (selected image) is selected from the two-dimensional images constituting the volume data A by a predetermined operation from the operation unit 2 after spatial association. In response to this selection operation, the control unit 5 automatically selects, from the two-dimensional images constituting the volume B, an image (corresponding image) corresponding to the selected image and its position. The selected image and the corresponding image are displayed on the display unit 3 in a predetermined form.

図4は、選択画像と対応画像とを並列表示した一例として、を並列表示したのを示した図である。選択画像と対応画像との表示形態は、図5の並列表示の例に拘泥されない。例えば、選択画像と対応画像とを位置を対応させ重畳表示するもの、重畳表示において画面手前側の画像を半透明とするもの、選択画像と対応画像とから生成される差分画像を表示するもの、重畳表示において指定する関心領域内のみ一方の画像(すなわち、選択画像又は選択画像)を表示するもの等、種々の表示形態を採用することができる。本画像処理装置1は、いずれかの表示形態を指示するためのI/Fが操作部2に設けられている。操作者は、所望のI/Fを操作することで、任意の表示方法を採用することができる。   FIG. 4 is a diagram showing parallel display as an example in which the selected image and the corresponding image are displayed in parallel. The display form of the selected image and the corresponding image is not limited to the parallel display example of FIG. For example, the selected image and the corresponding image are superimposed and displayed in correspondence with each other, the image on the near side of the screen in the superimposed display is made translucent, the difference image generated from the selected image and the corresponding image is displayed, Various display forms such as one that displays only one image (that is, a selected image or a selected image) within a region of interest designated in the superimposed display can be adopted. In the image processing apparatus 1, an I / F for instructing one of the display forms is provided in the operation unit 2. The operator can employ any display method by operating a desired I / F.

なお、この様な重ね合わせ画像a1と重ね合わせ画像b1との位置関係とを用いたボリューム間の空間対応付けにより、重ね合わせ画像a1、b1に垂直な方向(すなわち、基準方向)以外の2方向(図2の例ではx方向及びz方向。)については、ボリュームデータAとボリュームデータBとを空間的に正確に対応付けることができる。しかしながら、基準方向については、ボリュームデータA、Bの空間対応付けは、十分ではない場合がある。なぜなら、重ね合わせ画像a1、b1は、基準方向についての情報を一枚の画像に投影したものであるからである。係る場合には、例えば以下の二つの手法によって基準方向に関する対応付けを行うことができる。   Note that two directions other than the direction perpendicular to the superimposed images a1 and b1 (that is, the reference direction) are obtained by spatial correspondence between the volumes using the positional relationship between the superimposed image a1 and the superimposed image b1. As for (in the example of FIG. 2, the x direction and the z direction), the volume data A and the volume data B can be spatially accurately associated. However, with respect to the reference direction, the spatial correspondence between the volume data A and B may not be sufficient. This is because the superimposed images a1 and b1 are obtained by projecting information about the reference direction onto one image. In such a case, for example, the association with respect to the reference direction can be performed by the following two methods.

第1の手法は、重ね合わせ画像a1、b1の基準方向及びスライス方向とは異なる方向を基準方向とする重ね合わせ画像を生成し、これを用いて、ボリュームデータAとボリュームデータBとの基準方向についての空間的対応付けを実行するものである。すなわち、重ね合わせ画像a1、b1(コロナル像)はy軸方向を基準方向としている。従って、図5に示すように、y軸方向、及びスライス方向(z軸方向)とは異なるx軸方向を基準方向とする重ね合わせ画像(サジタル像)a2、b2を生成し、これを用いてさらにボリュームデータAとボリュームデータBとの空間的に対応付けする。これにより、ボリュームデータAとボリュームデータBとを、x,y,z軸の全ての方向についても正確に対応付けることができる。   The first method generates a superimposed image having a reference direction different from the reference direction and slice direction of the superimposed images a1 and b1, and uses this to generate a reference direction between the volume data A and the volume data B. To perform spatial mapping for. That is, the superimposed images a1 and b1 (coronal images) have the y-axis direction as the reference direction. Therefore, as shown in FIG. 5, superimposed images (sagittal images) a2 and b2 having a reference direction in the x-axis direction different from the y-axis direction and the slice direction (z-axis direction) are generated and used. Further, volume data A and volume data B are spatially associated with each other. As a result, the volume data A and the volume data B can be accurately associated in all directions of the x, y, and z axes.

第2の手法は、対応付けられた二次元画像間で、個々に基準方向についての空間的対応付けを実行するものである。例えば、並列表示(図4参照)された選択画像と対応画像との間に、上下方向にずれが存在する場合を想定する。この上下方向のずれは、基準方向のずれに対応している。係る場合には、操作部2を介したマニュアル操作により、又は自動的に、選択画像と対応画像との基準方向についての空間的対応付けを実行する。なお、この基準方向についての空間的対応付けを自動的に行う場合には、重ね合わせ画像a1と重ね合わせ画像b1との位置合わせに用いた既述の手法(図3参照)を利用することができる。   The second method is to execute spatial association for the reference direction individually between the associated two-dimensional images. For example, it is assumed that there is a deviation in the vertical direction between the selected image displayed in parallel (see FIG. 4) and the corresponding image. This vertical deviation corresponds to the deviation in the reference direction. In such a case, the spatial association in the reference direction between the selected image and the corresponding image is executed by a manual operation via the operation unit 2 or automatically. Note that, when the spatial association with respect to the reference direction is automatically performed, the above-described method (see FIG. 3) used for the alignment between the superimposed image a1 and the superimposed image b1 may be used. it can.

(動作)
次に、本画像処理装置1の画像データ対応付け機能を用いた処理(画像データ対応付け処理)における動作について説明する。
(Operation)
Next, an operation in processing (image data association processing) using the image data association function of the image processing apparatus 1 will be described.

図6は、第1実施形態に係る画像処理装置1の画像データ対応付け処理において実行される各処理の流れを示したフローチャートである。同図に示すように、まず、送受信部4は、ネットワークを介して同一又は異なる医用画像機器から、異なるボリュームデータA及びボリュームデータBを取得する。又は、操作部2からの選択操作に応答して、画像データ記憶部6からボリュームデータA及びボリュームデータBが読み出される(ステップS1)。   FIG. 6 is a flowchart showing the flow of each process executed in the image data association process of the image processing apparatus 1 according to the first embodiment. As shown in the figure, first, the transmission / reception unit 4 acquires different volume data A and volume data B from the same or different medical image devices via a network. Alternatively, in response to the selection operation from the operation unit 2, the volume data A and the volume data B are read from the image data storage unit 6 (step S1).

次に、重ね合わせ画像生成部71は、各ボリュームデータA、Bに関する重ね合わせ画像a1、Bを生成し(ステップS2)、対応付け処理部72は、重ね合わせ画像a1と重ね合わせ画像b1との間で特徴的な部分の位置が一致するように、例えばアフィン変換等の平行移動によりボリュームデータAとボリュームデータBとの間の位置合わせを行う(ステップS3)。   Next, the superimposed image generation unit 71 generates superimposed images a1 and B relating to the respective volume data A and B (step S2), and the association processing unit 72 determines whether the superimposed image a1 and the superimposed image b1 are the same. The volume data A and the volume data B are aligned by, for example, parallel movement such as affine transformation so that the positions of the characteristic portions coincide with each other (step S3).

次に、制御部5は、例えば操作部2からの操作者の指示に従って、ボリュームデータAとボリュームデータBとの間で同位置に対応する2つの二次元画像(アキシャル画像)を所定の形態で表示(例えば、並列表示、重畳表示、フュージョン画像表示等)する(ステップS4)。また、必要に応じて、制御部5は、ボリュームデータAとボリュームデータBとの間で同位置に対応する2つの二次元画像から差分画像を生成し、これを表示する。   Next, the control unit 5 generates two two-dimensional images (axial images) corresponding to the same position between the volume data A and the volume data B in a predetermined form, for example, in accordance with an operator instruction from the operation unit 2. Display (for example, parallel display, superimposed display, fusion image display, etc.) (step S4). Further, as necessary, the control unit 5 generates a difference image from two two-dimensional images corresponding to the same position between the volume data A and the volume data B, and displays this.

以上述べた構成によれば、以下の効果を得ることができる。   According to the configuration described above, the following effects can be obtained.

本画像処理装置によれば、重ね合わせ画像を用いてボリュームデータ間の位置合わせを行う。重ね合わせ画像は、当該重ね合わせ画像に用いたボリュームデータの全ての特徴を含むものであるから、当該重ね合わせ画像と用いたボリュームデータ間の位置合わせは、ボリュームデータの全ての位置情報を用いた間接的な位置合わせと同等であると言うことができる。従って、(重ね合わせ画像ではない)一断面のみを用いる従来の手法に比して、より精度の高いボリュームデータ間の位置合わせを実現することができる。   According to this image processing apparatus, alignment between volume data is performed using a superimposed image. Since the superimposed image includes all the features of the volume data used in the superimposed image, the alignment between the superimposed image and the volume data used is indirect using all the positional information of the volume data. It can be said that this is equivalent to proper alignment. Therefore, more accurate alignment between volume data can be realized as compared with the conventional method using only one cross section (not a superimposed image).

また、本画像処理装置によれは、重ね合わせ画像による位置合わせを行うことで、異なるボリュームデータの位置合わせを行うことができる。従って、ボリュームデータを構成する二次元画像のそれぞれについて位置合わせを行う必要がなく、簡単な操作によってボリュームデータ間の位置合わせを実現することができる。   Further, according to the present image processing apparatus, it is possible to perform alignment of different volume data by performing alignment using a superimposed image. Therefore, it is not necessary to perform alignment for each of the two-dimensional images constituting the volume data, and alignment between the volume data can be realized by a simple operation.

また、本画像処理装置の画像データ対応付け機能を用いて、例えば現在取得した所定患者の所定部位に関するボリュームデータと、過去に取得された同一患者の同一患部に関するボリュームデータとを対応付けし、両ボリュームデータ間で位置が対応する画像を同時又は所定の形態にて表示することで、当該患部の時間的経緯を高精度で視認することができる。従って、医師等の観察者は、同時に表示された画像を観察することで、当該患部の経時的変化を容易に観察することができる。   Further, by using the image data association function of the image processing apparatus, for example, volume data relating to a predetermined part of a predetermined patient currently acquired is associated with volume data relating to the same affected part of the same patient acquired in the past. By displaying images corresponding to positions between volume data simultaneously or in a predetermined form, the time course of the affected area can be visually recognized with high accuracy. Therefore, an observer such as a doctor can easily observe the temporal change of the affected area by observing the images displayed at the same time.

なお、一般に、異なるボリュームデータを比較した場合、それぞれを構成する断層画像のスライス幅が一致するとは限らない。従って、上記各実施形態において、例えばボリュームデータAを構成する断層画像のスライス幅とボリュームデータBを構成する断層画像のスライス幅とが異なる場合もあり得る。しかしながら、係る場合においても、特徴的部位の位置は各ボリュームデータのスライス幅に関わらず特定することができる。そのため、本手法によれば、各ボリュームデータを構成する断層画像のスライス幅に左右されず、常に画像データの対応付けを実現することができる。   In general, when different volume data are compared, the slice widths of the tomographic images constituting each of them do not always match. Therefore, in the above embodiments, for example, the slice width of the tomographic image constituting the volume data A may differ from the slice width of the tomographic image constituting the volume data B. However, even in such a case, the position of the characteristic part can be specified regardless of the slice width of each volume data. Therefore, according to this method, it is possible to always associate image data without depending on the slice width of the tomographic image constituting each volume data.

(第2実施形態)
次に、本発明の第2実施形態について説明する。本実施形態は、重ね合わせ画像に基づいて変形パターンを生成し、これを用いて一方のボリュームデータの所定位置又は所定領域における断層画像を、他方のボリュームデータの対応する位置又は領域における断層画像にできる限り近似させるものである。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. In the present embodiment, a deformation pattern is generated based on the superimposed image, and a tomographic image at a predetermined position or region of one volume data is used as a tomographic image at a corresponding position or region of the other volume data. It approximates as much as possible.

図7は、第2実施形態に係る画像処理装置1の構成を示したブロック図を示している。同図に示した画像処理装置1と図1に示した画像処理装置1とを比較した場合、画像処理部7において変形パターン算出部73、近似画像生成部74をさらに具備する点が異なる。   FIG. 7 is a block diagram showing the configuration of the image processing apparatus 1 according to the second embodiment. When the image processing apparatus 1 shown in the figure is compared with the image processing apparatus 1 shown in FIG. 1, the difference is that the image processing unit 7 further includes a deformation pattern calculation unit 73 and an approximate image generation unit 74.

変形パターン算出部73は、例えば第1実施形態に係る画像データ対応付け処理によって対応付けされた重ね合わせ画像同士を比較して、一方のボリュームデータ(後述する近似画像生成において基準とされるデータ)を他方のボリュームデータ(近似画像生成のために変形処理を受けるデータ)にできるだけ近似させるための変形パターンを算出する。この変形パターンは、例えば各重ね合わせ画像を同一パターンの小領域に分割し、対応する小領域同士を対応させるための線形変換式又は非線形変換式を算出することで生成される。また、例えばパターンマッチング等の技術を用いて、一方の重ね合わせ画像を他方の重ね合わせ画像に近似させるためのピクセル毎の移動用マップ(移動パターンの雛形)を生成すること等によっても実現することができる。   For example, the deformation pattern calculation unit 73 compares the superimposed images associated by the image data association processing according to the first embodiment, and sets one volume data (data to be used as a reference in the approximate image generation described later). Is calculated as close as possible to the other volume data (data subjected to deformation processing for generating an approximate image). This deformation pattern is generated, for example, by dividing each superimposed image into small regions of the same pattern and calculating a linear transformation equation or a nonlinear transformation equation for making the corresponding small regions correspond to each other. It can also be realized by, for example, generating a movement map for each pixel (model of movement pattern) for approximating one superimposed image to the other superimposed image using a technique such as pattern matching. Can do.

なお、本実施形態では、説明を具体的にするため、近似画像生成において基準とされるデータをボリュームデータAとし、近似画像生成のために変形処理を受けるデータをボリュームデータBとする。従って、この場合の変形パターンは、重ね合わせ画像b1を重ね合わせ画像a1に近似させるための変換式計算又は移動パターンの雛形生成によって取得される。   In the present embodiment, for the sake of specific description, the data used as a reference in the approximate image generation is referred to as volume data A, and the data subjected to the deformation process for generating the approximate image is referred to as volume data B. Therefore, the deformation pattern in this case is acquired by conversion formula calculation for approximating the superimposed image b1 to the superimposed image a1 or by generating a template of the movement pattern.

近似画像生成部74は、変形パターン算出部73において算出された変形パターンとボリュームデータの所定位置又は所定領域に関する画像とを用いて、近似画像を生成する。   The approximate image generation unit 74 generates an approximate image using the deformation pattern calculated by the deformation pattern calculation unit 73 and an image related to a predetermined position or predetermined area of the volume data.

(近似画像生成機能)
次に、本画像処理装置1が有する近似画像生成機能について説明する。
(Approximate image generation function)
Next, the approximate image generation function of the image processing apparatus 1 will be described.

図8は、第2実施形態に係る画像処理装置1が有する近似画像生成機能の概念を説明するための図である。同図に示すように、重ね合わせ画像b1を重ね合わせ画像a1にできるだけ近似させるための変形パターンCを、変換式計算等によって生成する。生成された変形パターンCは、例えばボリュームデータA及び重ね合わせ画像a1上において診断画像が指定された場合、重ね合わせ画像b1及びボリュームデータB上において診断画像と対応する位置(図8では曲線b)を、変形パターンCを用いて特定するために用いられる。また、近似画像は、ボリュームデータBのうち特定された対応位置のデータを用いて生成される。   FIG. 8 is a diagram for explaining the concept of the approximate image generation function of the image processing apparatus 1 according to the second embodiment. As shown in the figure, a deformation pattern C for approximating the superimposed image b1 to the superimposed image a1 as much as possible is generated by conversion equation calculation or the like. For example, when a diagnostic image is designated on the volume data A and the superimposed image a1, the generated deformation pattern C is a position corresponding to the diagnostic image on the superimposed image b1 and the volume data B (curve b in FIG. 8). Is specified using the deformation pattern C. Further, the approximate image is generated using data of the corresponding position specified in the volume data B.

なお、ボリュームデータA上において指定されたアキシャル像に対応し、且つボリュームデータBから作成された重ね合わせ画像b1上の位置データが曲線bの様に(直線ではなく)曲線となる場合がある。係る場合には、近似画像はCurved MPR画像として作成される。   In some cases, the position data on the superimposed image b1 corresponding to the axial image specified on the volume data A and created from the volume data B is a curve (not a straight line) like the curve b. In such a case, the approximate image is created as a Curved MPR image.

図9は、本近似画像生成機能を用いた処理(近似画像生成処理)の流れを説明するためのフローチャートである。同図において、まず、操作部2からの入力に応答して、表示部2は、ボリュームデータAを用いた所定の断層像(例えば、アキシャル像A)を表示する(ステップS11)。なお、ボリュームデータAとボリュームデータBとは空間対応付け処理がなされているものとする。   FIG. 9 is a flowchart for explaining the flow of processing using this approximate image generation function (approximate image generation processing). In the figure, first, in response to an input from the operation unit 2, the display unit 2 displays a predetermined tomographic image (for example, an axial image A) using the volume data A (step S11). It is assumed that volume data A and volume data B have been subjected to space association processing.

次に、対応付け処理部72は、アキシャル像Aに対応する位置(例えば直線a)を、ボリュームデータAを重ね合わせた重ね合わせ画像a1(コロナル像)上にて決定し(ステップS12)、さらに重ね合わせ画像b1上の直線aに対応する曲線bを、変形パターンC上の直線aに対応する断面Dにおいて定義された情報(例えば、小領域毎の変換式、変換テーブル等)を用いて決定する(ステップS13)。   Next, the association processing unit 72 determines a position (for example, a straight line a) corresponding to the axial image A on the superimposed image a1 (coronal image) obtained by superimposing the volume data A (step S12), and further The curve b corresponding to the straight line a on the superimposed image b1 is determined using information defined in the cross section D corresponding to the straight line a on the deformation pattern C (for example, conversion formula for each small region, conversion table, etc.). (Step S13).

次に、近似画像生成部74は、重ね合わせ画像b1に重ね合わせたボリュームデータBから曲線bに沿ったデータを抽出し、これを用いて近似画像を生成する(ステップS14)。   Next, the approximate image generation unit 74 extracts data along the curve b from the volume data B superimposed on the superimposed image b1, and uses this to generate an approximate image (step S14).

なお、上記近似画像生成処理においては、曲線bに対応するデータは、近似画像生成部74によってボリュームデータB上の対応する位置が自動的に特定され収集される。しかしながら、ボリュームデータB上の対応する位置の特定は、自動的処理の他、操作部2を介して実行されるマニュアル操作によって実現するようにしてもよい。また、対応付け処理部72の自動的処理による対応付けとマニュアル操作による対応付けとを組み合わせる構成であってもよい。係る場合には、例えば自動的処理による対応付けの後、手動で微調整する等、ボリュームデータ同士の対応付けにおける作業の自由度を拡張することができる。   In the approximate image generation process, the corresponding position on the volume data B is automatically specified and collected by the approximate image generation unit 74 for the data corresponding to the curve b. However, the identification of the corresponding position on the volume data B may be realized by manual operation executed via the operation unit 2 in addition to automatic processing. Moreover, the structure which combines the matching by the automatic process of the matching process part 72 and the matching by manual operation may be sufficient. In such a case, for example, after the association by the automatic processing, the degree of freedom of work in the association between the volume data can be expanded by performing fine adjustment manually.

(動作)
次に、本画像処理装置1の近似画像生成機能を用いた処理(近似画像生成処理)における動作について説明する。
(Operation)
Next, an operation in processing (approximate image generation processing) using the approximate image generation function of the image processing apparatus 1 will be described.

図10は、第2実施形態に係る画像処理装置1の近似画像生成処理において実行される各処理の流れを示したフローチャートである。なお、同図において、ステップS1〜ステップS4は、図6において示した内容と略同様である。   FIG. 10 is a flowchart showing the flow of each process executed in the approximate image generation process of the image processing apparatus 1 according to the second embodiment. In the figure, Steps S1 to S4 are substantially the same as the contents shown in FIG.

次に、変形パターン算出部73は、重ね合わせ画像a1と重ね合わせ画像b1とに基づいて、変形パターンを生成する(ステップS5)。   Next, the deformation pattern calculation unit 73 generates a deformation pattern based on the superimposed image a1 and the superimposed image b1 (step S5).

近似画像生成部74は、操作部2を介して指定されたボリュームデータAの所定位置に関する断層画像に近似する近似画像を、変形パターン及びボリュームデータBを用いて生成する(ステップS6)。なお、当該ステップにおける具体的処理は、図9のステップS11〜S14に示した通りである。   The approximate image generation unit 74 generates an approximate image that approximates a tomographic image relating to a predetermined position of the volume data A designated through the operation unit 2 using the deformation pattern and the volume data B (step S6). The specific process in this step is as shown in steps S11 to S14 in FIG.

次に、制御部5は、例えば操作部2からの操作者の指示に従って、ボリュームデータAの所定位置に関するアキシャル像Aとこれに関する近似画像とを、所定の形態で表示(例えば、並列表示、重畳表示、フュージョン画像表示等)する(ステップS7)。また、必要に応じて、制御部5は、アキシャル像Aとこれに関する近似画像とから差分画像を生成し、これを表示する。   Next, the control unit 5 displays the axial image A related to a predetermined position of the volume data A and the approximate image related thereto in a predetermined form (for example, parallel display, superimposition) in accordance with an operator instruction from the operation unit 2, for example. Display, fusion image display, etc.) (step S7). Moreover, the control part 5 produces | generates a difference image from the axial image A and the approximate image regarding this, and displays this as needed.

以上述べた構成によれば、本画像処理装置の近似画像生成機能を用いて、一方のボリュームデータの所定位置における断層画像を、他方のボリュームデータの対応する位置における断層画像から近似画像を生成することができる。従って、例えば現在取得した所定患者の所定位置又は所定領域における断層画像と、過去に取得された同一患者のボリュームデータの対応する位置又は領域における断層画像を用いた近似画像とを同時に表示等することで、当該患部の時間的経緯を高精度で視認することができる。従って、医師等の観察者は、近似画像を利用して、当該患部の経時的変化をより簡単且つ明確に観察することができる。   According to the configuration described above, the approximate image generation function of the image processing apparatus is used to generate a tomographic image at a predetermined position of one volume data and an approximate image from the tomographic image at a corresponding position of the other volume data. be able to. Therefore, for example, simultaneously displaying a tomographic image at a predetermined position or region of a predetermined patient currently acquired and an approximate image using a tomographic image at a corresponding position or region of volume data of the same patient acquired in the past, etc. Thus, the time course of the affected area can be visually recognized with high accuracy. Therefore, an observer such as a doctor can more easily and clearly observe the temporal change of the affected area using the approximate image.

なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。具体的な変形例としては、例えば次のようなものがある。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. Specific examples of modifications are as follows.

(1)上記各実施形態で述べた空間的対応付け処理の前に、ボリューム間の画素サイズ、画素ピッチを対応させるためのサイズ対応付け処理を行う様にしてもよい。例えば、X線コンピュータ断層撮影装置で取得されたボリュームデータAが、512画素×512画素の二次元画像データにより、画素ピッチL1で構成されており、一方、磁気共鳴イメージング装置で取得されたボリュームデータBが256画素×256画素の二次元画像データにより、画素ピッチL2で構成されているとする。係る場合、例えば対応付け処理部72が、ボリュームデータBに対してアフィン変換等の所定の計算処理を行うことにより、その画素サイズ及び画素ピッチをボリュームデータAと同じにすることができる。この様なボリュームデータ間のサイズ対応付け処理を行うことにより、より正確な空間対応付けを行うことができる。   (1) Before the spatial association process described in each of the above embodiments, a size association process for associating pixel sizes and pixel pitches between volumes may be performed. For example, the volume data A acquired by the X-ray computed tomography apparatus is configured by the pixel pitch L1 by the two-dimensional image data of 512 pixels × 512 pixels, while the volume data acquired by the magnetic resonance imaging apparatus. It is assumed that B is constituted by a pixel pitch L2 by two-dimensional image data of 256 pixels × 256 pixels. In this case, for example, the association processing unit 72 performs a predetermined calculation process such as affine transformation on the volume data B, so that the pixel size and the pixel pitch can be made the same as those of the volume data A. By performing such size association processing between volume data, more accurate spatial association can be performed.

(2)上記各実施形態においては、ボリュームデータAとボリュームデータBとの間の空間的対応付けを例に説明した。しかしながら、対応付けの対象とするボリュームデータ数は2つに限定されず、さらに多くの数のボリュームデータの間で上記空間的対応付け処理を行うようにしてもよい。   (2) In the above embodiments, the spatial association between the volume data A and the volume data B has been described as an example. However, the number of volume data to be associated is not limited to two, and the spatial association process may be performed between a larger number of volume data.

また、複数のボリュームデータが存在する場合には、各処理を直接的又は間接的に行うことも可能である。例えば、ボリュームデータE1、E2、F1、F2の計4つのボリュームデータ間での空間的対応付けを行う場合を想定する。ここで、ボリュームデータE1は磁気共鳴イメージング装置Eによって取得されたT1強調画像から構成されるものであり、ボリュームデータE2はモダリティEを用いたfMRI(functional MRI)撮影によって取得されたものである。また、ボリュームデータF1はモダリティFによって取得されたT1強調画像から構成されるものであり、ボリュームデータF2は磁気共鳴イメージング装置Eを用いたfMRI撮影によって取得されたものである。   Further, when there are a plurality of volume data, it is possible to directly or indirectly perform each process. For example, a case is assumed in which spatial association is performed between a total of four volume data, ie, volume data E1, E2, F1, and F2. Here, the volume data E1 is composed of T1-weighted images acquired by the magnetic resonance imaging apparatus E, and the volume data E2 is acquired by fMRI (functional MRI) imaging using the modality E. The volume data F1 is composed of T1-weighted images acquired by the modality F, and the volume data F2 is acquired by fMRI imaging using the magnetic resonance imaging apparatus E.

係る場合、ボリュームデータE1とボリュームデータE2(又はボリュームデータF1とボリュームデータF2)とは、同一装置によって取得されたものであるから、その間で空間的対応付けはなされている。従って、例えばボリュームデータE1とボリュームデータF1との間で空間的対応付けを実行することで、ボリュームデータE1、E2、F1、F2の間の空間的対応付けを、直接的又は間接的に行うことができる。   In such a case, the volume data E1 and the volume data E2 (or the volume data F1 and the volume data F2) are acquired by the same device, and thus spatial correspondence is made between them. Therefore, for example, by executing spatial association between the volume data E1 and the volume data F1, the spatial association between the volume data E1, E2, F1, and F2 is performed directly or indirectly. Can do.

(3)二つ以上のボリュームデータの間で、第1の実施形態において述べた空間的な対応付け処理、第2の実施形態で述べた近似画像生成処理、上記(1)で述べたサイズ対応付け処理等を行うとき、いずれかのボリュームデータを基準ボリュームデータとし、基準ボリュームデータに合うように他のボリュームデータ(基準ボリュームデータ以外のボリュームデータ)に対してのみ変換等を実行する場合がある。係る場合、制御部5は、基準ボリュームデータを例えば次のような手法により決定する。   (3) Spatial association processing described in the first embodiment, approximate image generation processing described in the second embodiment, and size correspondence described in (1) above between two or more volume data When performing attachment processing, etc., one of the volume data may be used as reference volume data, and conversion or the like may be executed only for other volume data (volume data other than the reference volume data) so as to match the reference volume data. . In such a case, the control unit 5 determines the reference volume data by the following method, for example.

第1の手法は、時間軸に基づいて基準ボリュームデータを決定するものである。係る手法においては、例えば、時間的に最も新しい(又は古い)ボリュームデータを基準ボリュームデータとし、これに合うように、他のボリュームデータに対して各種処理が実行される。   The first method is to determine reference volume data based on a time axis. In such a method, for example, the latest (or oldest) volume data in time is set as the reference volume data, and various processes are executed on the other volume data so as to match this.

第2の手法は、画像の種類に基づいて基準ボリュームデータを決定するものである。係る手法においては、例えばT1強調画像に関するボリュームデータとfMRI撮影によって取得されたボリュームデータとの間で位置合わせ処理を行う場合には、T1強調画像に関するボリュームデータの画素サイズ及び画素ピッチに合うように、fMRI撮影によって取得されたボリュームデータに対して前処理が実行される。   The second method determines reference volume data based on the type of image. In such a method, for example, when performing alignment processing between volume data related to a T1-weighted image and volume data acquired by fMRI imaging, the pixel size and pixel pitch of the volume data related to the T1-weighted image are matched. , Pre-processing is performed on the volume data acquired by fMRI imaging.

第3の手法は、標準画像(例えば解剖学的見地から標準的とされる模式的な画像)に関するボリュームデータを基準ボリュームとするものである。係る手法においては、撮影によって取得されたボリュームデータを、当該標準画像に関するボリュームデータに合うように、各種処理が実行される。   The third method uses volume data relating to a standard image (for example, a schematic image standardized from an anatomical viewpoint) as a reference volume. In such a method, various processes are executed so that the volume data acquired by photographing matches the volume data related to the standard image.

(4)上記各実施形態においては、空間的に対応付けされた各ボリュームデータから同じ位置のアキシャル像を切り出し、これを用いて画像診断する場合を例とした。しかしながら、空間的に対応付けされた各ボリュームデータの利用形態をこれに限定する趣旨ではなく、例えば各ボリュームデータを用いてMPR像、ボリュームレンダリング画像等を生成し観察するようにしてもよい。   (4) In each of the above-described embodiments, an example is described in which an axial image at the same position is cut out from each spatially correlated volume data and image diagnosis is performed using this. However, the usage form of each volume data associated spatially is not limited to this. For example, an MPR image, a volume rendering image, and the like may be generated and observed using each volume data.

(5)上記各実施形態においては、診断画像のスライス方向と画像データ対応付け処理に用いる基準方向とが垂直になる例を説明した。しかしながら、これに拘泥されることなく、診断画像のスライス方向と上記基準方向とが垂直でない場合であっても、本発明の技術的思想は適用可能である。   (5) In each of the above embodiments, the example in which the slice direction of the diagnostic image is perpendicular to the reference direction used for the image data association processing has been described. However, the technical idea of the present invention is applicable even when the slice direction of the diagnostic image and the reference direction are not perpendicular to each other without being bound by this.

また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

以上本発明によれば、従来に比して簡単且つ好適に画像群同士の対応付けを実行することができる画像処理装置及び画像処理プログラムを実現することができる。   As described above, according to the present invention, it is possible to realize an image processing apparatus and an image processing program capable of executing association between image groups more easily and preferably than in the past.

図1は、第1実施形態に係る画像処理装置1の構成を示したブロック図を示している。FIG. 1 is a block diagram showing the configuration of the image processing apparatus 1 according to the first embodiment. 図2Aは、第1実施形態に係る画像処理装置1が有する画像データ対応付け機能の概念を説明するための図である。FIG. 2A is a diagram for explaining the concept of the image data association function of the image processing apparatus 1 according to the first embodiment. 図2Bは、第1実施形態に係る画像処理装置1が有する画像データ対応付け機能の概念を説明するための図である。FIG. 2B is a diagram for explaining the concept of the image data association function of the image processing apparatus 1 according to the first embodiment. 図3A、Bは、第1実施形態に係る画像処理装置1が有する画像データ対応付け機能の概念を説明するための図である。3A and 3B are diagrams for explaining the concept of the image data association function of the image processing apparatus 1 according to the first embodiment. 図3Bは、第1実施形態に係る画像処理装置1が有する画像データ対応付け機能の概念を説明するための図である。FIG. 3B is a diagram for explaining the concept of the image data association function of the image processing apparatus 1 according to the first embodiment. 図4は、画像データ対応付け機能によって対応付けられた画像の表示形態の一例を示した図である。FIG. 4 is a diagram illustrating an example of a display form of images associated by the image data association function. 図5は、他の方向に関する重ね合わせ画像を用いた画像データ対応付けの一例を示した図である。FIG. 5 is a diagram illustrating an example of image data association using superimposed images in other directions. 図6は、第1実施形態に係る画像処理装置1の画像データ対応付け処理において実行される各処理の流れを示したフローチャートである。FIG. 6 is a flowchart showing the flow of each process executed in the image data association process of the image processing apparatus 1 according to the first embodiment. 図7は、第2実施形態に係る画像処理装置1の構成を示したブロック図を示している。FIG. 7 is a block diagram showing the configuration of the image processing apparatus 1 according to the second embodiment. 図8は、第2実施形態に係る画像処理装置1が有する近似画像生成機能の概念を説明するための図である。FIG. 8 is a diagram for explaining the concept of the approximate image generation function of the image processing apparatus 1 according to the second embodiment. 図9は、本近似画像生成機能を用いた処理(近似画像生成処理)の流れを説明するためのフローチャートである。FIG. 9 is a flowchart for explaining the flow of processing using this approximate image generation function (approximate image generation processing). 図10は、第2実施形態に係る画像処理装置1の近似画像生成処理において実行される各処理の流れを示したフローチャートである。FIG. 10 is a flowchart showing the flow of each process executed in the approximate image generation process of the image processing apparatus 1 according to the second embodiment.

符号の説明Explanation of symbols

1…画像処理装置、2…操作部、3…表示部、4…送受信部、5…制御部、6…画像データ記憶部、7…画像処理部、71…重ね合わせ画像生成部、72…対応付け処理部、73…変形パターン算出部、74…近似画像生成部 DESCRIPTION OF SYMBOLS 1 ... Image processing apparatus, 2 ... Operation part, 3 ... Display part, 4 ... Transmission / reception part, 5 ... Control part, 6 ... Image data storage part, 7 ... Image processing part, 71 ... Superimposed image generation part, 72 ... Correspondence Attaching processing unit, 73 ... deformation pattern calculating unit, 74 ... approximate image generating unit

Claims (17)

第1のボリュームデータと第2のボリュームデータとを記憶する記憶ユニットと、
前記第1のボリュームデータと前記第2のボリュームデータとのそれぞれについて、第1の基準方向に沿ってボリュームデータが有する情報を重ね合わせた二次元画像である第1の重ね合わせ画像を生成する第1の画像生成ユニットと、
前記第1の重ね合わせ画像を用いて、前記第1のボリュームデータと前記第2のボリュームデータとを近似させるための変形パターンを生成する対応付けユニットと、
前記第1のボリュームデータに設定された第1の領域に対応する前記第2のボリュームデータ上の第2の領域を、前記変形パターンを用いて決定し、前記第2のボリュームデータを用いて前記第2の領域に対応する画像を生成する第2の画像生成ユニットと、
生成された前記画像を表示する表示ユニットと、
を具備することを特徴とする画像処理装置。
A storage unit for storing the first volume data and the second volume data ;
For each of the first volume data and the second volume data, a first superimposed image that is a two-dimensional image in which information of the volume data is superimposed along a first reference direction is generated. One image generation unit;
An association unit that generates a deformation pattern for approximating the first volume data and the second volume data using each of the first superimposed images ;
A second area on the second volume data corresponding to the first area set in the first volume data is determined using the deformation pattern, and the second volume data is used to determine the second area. A second image generation unit for generating an image corresponding to the second region ;
A display unit for displaying the generated image;
An image processing apparatus comprising:
前記対応付けユニットは、前記各第1の重ね合わせ画像を用いて、前記少なくとも2つのボリュームデータ間の空間的対応付けを行うことを特徴とする請求項1記載の画像処理装置。  The image processing apparatus according to claim 1, wherein the association unit performs spatial association between the at least two volume data using the first superimposed images. 前記対応付けユニットは、前記各第1の重ね合わせ画像を小領域に分割し、当該小領域毎の変換を決定することで、前記変形パターンを生成することを特徴とする請求項1又は2記載の画像処理装置。  The said matching unit divides | segments each said 1st superimposed image into a small area | region, and determines the conversion for every said small area | region, The said deformation | transformation pattern is produced | generated, It is characterized by the above-mentioned. Image processing apparatus. 前記第1の画像生成ユニットは、  The first image generation unit includes:
前記第1の基準方向及び前記スライス方向とは異なる第2の基準方向に沿ってボリュームデータが有する情報を重ね合わせた二次元画像である第2の重ね合わせ画像をさらに生成し、  Further generating a second superimposed image, which is a two-dimensional image obtained by superimposing information contained in volume data along a second reference direction different from the first reference direction and the slice direction;
前記対応付けユニットは、前記第1の重ね合わせ画像及び前記第2の重ね合わせ画像を用いて、前記少なくとも2つのボリュームデータ間の空間的対応付けを行うこと、  The association unit performs spatial association between the at least two volume data using the first superimposed image and the second superimposed image;
を特徴とする請求項1乃至3のうちいずれか一項記載の画像処理装置。  The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
表示された前記画像に対して、前記第1の基準方向及び前記スライス方向とは異なる第2の基準方向に関する位置調整を行う位置調整ユニットをさらに具備することを特徴とする請求項1乃至4のうちいずれか一項記載の画像処理装置。  The position adjustment unit which performs position adjustment regarding the 2nd reference direction different from the said 1st reference direction and the said slice direction with respect to the displayed said image is further comprised, The further characterized by the above-mentioned. The image processing apparatus as described in any one of them. 前記第1の重ね合わせ画像は、最大値輝度投影像、最小値輝度投影像、前記ボリュームデータを構成するボクセルの平均値を用いる平均値画像のいずれかであることを特徴とする請求項1乃至5のうちいずれか一項記載の画像処理装置。  The first superimposed image is any one of a maximum brightness projection image, a minimum brightness projection image, and an average image using an average value of voxels constituting the volume data. The image processing apparatus according to claim 5. 前記第2の重ね合わせ画像は、最大値輝度投影像、最小値輝度投影像、前記ボリュームデータを構成するボクセルの平均値を用いる平均値画像のいずれかであることを特徴とする請求項4記載の画像処理装置。  5. The second superimposed image is any one of a maximum value luminance projection image, a minimum value luminance projection image, and an average value image using an average value of voxels constituting the volume data. Image processing apparatus. 前記第2の画像生成ユニットは、異なるボリュームデータ間で同じ位置又は同じ領域に対応する前記複数の画像に基づいて、フュージョン画像、重畳画像、差分画像を生成することを特徴とする請求項1乃至7のうちいずれか一項記載の画像処理装置。  The second image generation unit generates a fusion image, a superimposed image, and a difference image based on the plurality of images corresponding to the same position or the same region between different volume data. The image processing apparatus according to claim 1. 前記第1の重ね合わせ画像は、前記ボリュームデータの一部から作成したものであることを特徴とする請求項1乃至8のうちいずれか一項記載の画像処理装置。  The image processing apparatus according to claim 1, wherein the first superimposed image is created from a part of the volume data. 前記第2の重ね合わせ画像は、前記ボリュームデータの一部から作成したものであることを特徴とする請求項4記載の画像処理装置。  The image processing apparatus according to claim 4, wherein the second superimposed image is created from a part of the volume data. 前記スライス方向は、前記第1の基準方向に垂直な方向であることを特徴とする請求項1乃至10のうちいずれか一項記載の画像処理装置。  The image processing apparatus according to claim 1, wherein the slice direction is a direction perpendicular to the first reference direction. 前記スライス方向、前記第1の基準方向、前記第2の基準方向は互いに直交することを特徴とする請求項4記載の画像処理装置。  The image processing apparatus according to claim 4, wherein the slice direction, the first reference direction, and the second reference direction are orthogonal to each other. 前記対応付けユニットは、  The association unit is
前記少なくとも2つのボリュームデータ間の画素ピッチ及び画素サイズを対応付けるサイズ対応付け処理を実行し、  Performing a size association process for associating a pixel pitch and a pixel size between the at least two volume data;
前記サイズ対応付け処理が施されたボリュームデータを用いて、前記第1の重ね合わせ画像を生成すること、  Generating the first superimposed image using the volume data subjected to the size association processing;
を特徴とする請求項1乃至12のうちいずれか一項記載の画像処理装置。  The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記対応付けユニットは、  The association unit is
ボリュームデータが取得された時間に関する時間情報、又はボリュームデータを構成する画像の種類に基づいて、前記複数のボリュームデータから基準ボリュームデータを選択し、  Selecting reference volume data from the plurality of volume data based on the time information about the time when the volume data was acquired, or the type of image constituting the volume data;
前記基準ボリュームデータの画素サイズ及び画素ピッチに対応するように、他のボリュームデータに対して前記サイズ対応付け処理を実行すること、  Performing the size association processing on other volume data so as to correspond to the pixel size and pixel pitch of the reference volume data;
を特徴とする請求項13記載の画像処理装置。  The image processing apparatus according to claim 13.
前記対応付けユニットは、  The association unit is
ボリュームデータが取得された時間に関する時間情報、又はボリュームデータを構成する画像の種類に基づいて、前記複数のボリュームデータから基準ボリュームデータを選択し、  Selecting reference volume data from the plurality of volume data based on the time information about the time when the volume data was acquired, or the type of image constituting the volume data;
前記基準ボリュームデータに空間的に対応するように、他のボリュームデータに対して平行移動処理を実行すること、  Performing parallel movement processing on other volume data so as to spatially correspond to the reference volume data;
を特徴とする請求項1乃至14のうちいずれか一項記載の画像処理装置。  The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記記憶ユニットは、標準画像に関するボリュームデータを記憶し、  The storage unit stores volume data relating to a standard image,
前記第1の画像生成ユニットは、標準画像に関するボリュームデータが有する情報を重ね合わせた二次元画像である第3の重ね合わせ画像を生成し、  The first image generation unit generates a third superimposed image that is a two-dimensional image in which information included in volume data related to a standard image is superimposed;
前記対応付けユニットは、前記第1の重ね合わせ画像と前記第3の重ね合わせ画像とを用いて、前記ボリュームデータ間の空間的対応付けを実行すること、  The association unit performs spatial association between the volume data using the first superimposed image and the third superimposed image;
を特徴とする請求項1乃至15のうちいずれか一項記載の画像処理装置。  The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
コンピュータに、  On the computer,
第1のボリュームデータと第2のボリュームデータとのそれぞれについて、第1の基準方向に沿ってボリュームデータが有する情報を重ね合わせた二次元画像である第1の重ね合わせ画像を生成させる第1の画像生成機能と、  For each of the first volume data and the second volume data, a first superimposed image that is a two-dimensional image in which the information of the volume data is superimposed along the first reference direction is generated. Image generation function,
前記各第1の重ね合わせ画像を用いて、前記第1のボリュームデータと前記第2のボリュームデータとを近似させるための変形パターンを生成させる対応付け機能と、  An association function for generating a deformation pattern for approximating the first volume data and the second volume data using each first superimposed image;
前記第1のボリュームデータに設定された第1の領域に対応する前記第2のボリュームデータ上の第2の領域を、前記変形パターンを用いて決定させ、前記第2のボリュームデータを用いて前記第2の領域に対応する画像を生成させる第2の画像生成機能と、  A second area on the second volume data corresponding to the first area set in the first volume data is determined using the deformation pattern, and the second volume data is used to determine the second area. A second image generation function for generating an image corresponding to the second region;
生成された前記画像を表示させる表示機能と、  A display function for displaying the generated image;
を実現させることを特徴とする画像処理プログラム。  An image processing program characterized by realizing the above.
JP2006166017A 2005-06-15 2006-06-15 Image processing apparatus and image processing program Active JP5100041B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006166017A JP5100041B2 (en) 2005-06-15 2006-06-15 Image processing apparatus and image processing program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2005175359 2005-06-15
JP2005175359 2005-06-15
JP2006166017A JP5100041B2 (en) 2005-06-15 2006-06-15 Image processing apparatus and image processing program

Publications (2)

Publication Number Publication Date
JP2007021193A JP2007021193A (en) 2007-02-01
JP5100041B2 true JP5100041B2 (en) 2012-12-19

Family

ID=37782691

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006166017A Active JP5100041B2 (en) 2005-06-15 2006-06-15 Image processing apparatus and image processing program

Country Status (1)

Country Link
JP (1) JP5100041B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4907381B2 (en) 2007-02-23 2012-03-28 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー Volume data association apparatus and method
US8290303B2 (en) * 2007-10-11 2012-10-16 General Electric Company Enhanced system and method for volume based registration
JP2011024763A (en) * 2009-07-24 2011-02-10 Hitachi Ltd Image processing method and image processor
US20130044927A1 (en) * 2011-08-15 2013-02-21 Ian Poole Image processing method and system
JP5745444B2 (en) 2012-03-05 2015-07-08 富士フイルム株式会社 MEDICAL IMAGE DISPLAY DEVICE, MEDICAL IMAGE DISPLAY METHOD, AND MEDICAL IMAGE DISPLAY PROGRAM

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08131403A (en) * 1994-11-09 1996-05-28 Toshiba Medical Eng Co Ltd Medical image processor
JP2000070252A (en) * 1998-08-27 2000-03-07 Hitachi Medical Corp X-ray image pickup device
JP2000333944A (en) * 1999-05-26 2000-12-05 Hitachi Medical Corp X-ray ct system and forming method of fluoroscopic image therefor
JP2001157675A (en) * 1999-12-02 2001-06-12 Fuji Photo Film Co Ltd Method and apparatus for displaying image
DE10136160A1 (en) * 2001-07-25 2003-02-13 Philips Corp Intellectual Pty Method and device for registering two 3D image data sets
JP3773111B2 (en) * 2002-07-16 2006-05-10 独立行政法人科学技術振興機構 Projection image alignment system for 3D objects
JP4493436B2 (en) * 2003-08-14 2010-06-30 富士フイルム株式会社 Image interpretation support method, apparatus and program
JP4317412B2 (en) * 2003-09-29 2009-08-19 株式会社日立製作所 Image processing method

Also Published As

Publication number Publication date
JP2007021193A (en) 2007-02-01

Similar Documents

Publication Publication Date Title
JP6768878B2 (en) How to generate an image display
US7676072B2 (en) Image processing apparatus and image processing method
JP5775244B2 (en) System and method for 3D graphical prescription of medical imaging volume
US9990744B2 (en) Image registration device, image registration method, and image registration program
US7467007B2 (en) Respiratory gated image fusion of computed tomography 3D images and live fluoroscopy images
RU2627147C2 (en) Real-time display of vasculature views for optimal device navigation
EP1719078B1 (en) Device and process for multimodal registration of images
JP5417609B2 (en) Medical diagnostic imaging equipment
RU2711140C2 (en) Editing medical images
US20100128963A1 (en) Image processing apparatus and image processing method
JP6768862B2 (en) Medical image processing method, medical image processing device, medical image processing system and medical image processing program
CN107847274B (en) Method and apparatus for providing updated patient images during robotic surgery
JP2011083591A (en) Diagnosis support system, diagnosis support program, and diagnosis support method
CN112740285A (en) Overlay and manipulation of medical images in a virtual environment
JP2011125568A (en) Image processor, image processing method, program and image processing system
JP2013153883A (en) Image processing apparatus, imaging system, and image processing method
KR20130018168A (en) Method and device for visualizing the registration quality of medical image data sets
WO2013125276A1 (en) X-ray ct device, image display device, and image display method
JP5323194B2 (en) Medical image processing apparatus and method
KR20170057141A (en) Locally applied transparency for a ct image
JP5415245B2 (en) MEDICAL IMAGE DISPLAY DEVICE, METHOD, AND PROGRAM
JP5100041B2 (en) Image processing apparatus and image processing program
JP5641707B2 (en) X-ray diagnostic equipment
JP2009022411A (en) Medical image processor
CN108430376B (en) Providing a projection data set

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090521

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120221

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120423

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20120529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120828

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120925

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151005

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5100041

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350