JP2002245449A - Adaptive nonlinear mapping device - Google Patents

Adaptive nonlinear mapping device

Info

Publication number
JP2002245449A
JP2002245449A JP2001041840A JP2001041840A JP2002245449A JP 2002245449 A JP2002245449 A JP 2002245449A JP 2001041840 A JP2001041840 A JP 2001041840A JP 2001041840 A JP2001041840 A JP 2001041840A JP 2002245449 A JP2002245449 A JP 2002245449A
Authority
JP
Japan
Prior art keywords
image
mapping
minute
potential
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001041840A
Other languages
Japanese (ja)
Inventor
Yukio Kosugi
幸夫 小杉
Masaru Hosoya
優 細谷
Kazuyuki Kudo
一幸 工藤
Yuri Nojima
ゆり 野島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NOU KINOU KENKYUSHO KK
Rikogaku Shinkokai
Original Assignee
NOU KINOU KENKYUSHO KK
Rikogaku Shinkokai
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NOU KINOU KENKYUSHO KK, Rikogaku Shinkokai filed Critical NOU KINOU KENKYUSHO KK
Priority to JP2001041840A priority Critical patent/JP2002245449A/en
Publication of JP2002245449A publication Critical patent/JP2002245449A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain an adaptive nonlinear mapping method that efficiently performs accurate mapping. SOLUTION: The images of a mapping source and a mapping destination are segmented, the original images and the segmented images are divided into very small areas, and the characteristic quantity of each of the areas is extracted. In the image of the mapping destination, potential is formed in each characteristic quantity, and a motion vectors are obtained by the very small areas of the image of the mapping source in a potential steepest direction. Next, the obtained motion vectors are made to cooperate with each other between adjacent very small areas. A vector group representing the mapping relation between the image of the mapping source and the image of the mapping destination is found out by repeating the motion vector acquisition and the cooperation operation, and more accurate and more efficient mapping is carried out by performing mapping on the basis of the vector group.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、医用画像、航空写
真、衛星画像等において、撮影条件、撮影時期等が異な
る2枚の画像間で、画像の正規化を行ったり変化域を抽
出したりするために重要な技術的要素である非線形写像
技術に関し、特に従来の手法を大幅に改善し、効果的な
非線形写像を形成するための適応的非線形写像方法に関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for normalizing an image or extracting a change area between two images having different photographing conditions and photographing times in medical images, aerial photographs, satellite images and the like. The present invention relates to a non-linear mapping technique, which is an important technical element for performing the above, and particularly to an adaptive non-linear mapping method for forming an effective non-linear mapping by greatly improving a conventional method.

【0002】[0002]

【従来の技術】医用画像、例えば脳のMR(Magne
tic Resonance)画像やCT(Compu
ted Tomography)画像等では、各画像そ
のものが重要な医療情報をもたらすが、撮影条件、撮影
時期等が異なる複数の画像を比較して変化域を正確に抽
出する事ができれば、さらに密度が高くかつ有用な医療
情報を得ることができる。例えば、脳の疾病診断では、
数年の時間差を置いて撮影した個人の脳のMR画像を比
較する事によって、疾病の種類、その進行状況を的確に
把握することができるが、MR画像は装置の経年変化等
により、しばしば異なった非線形ひずみを含んでいるた
め、この歪を吸収する写像が必要とされる。
2. Description of the Related Art Medical images such as MR (Magnet) of the brain
tic Resonance) images and CT (Compu)
In a ted Tomography image or the like, each image itself provides important medical information. However, if a plurality of images having different imaging conditions, imaging times, and the like can be compared and a change area can be accurately extracted, the density can be further increased. Useful medical information can be obtained. For example, in brain disease diagnosis,
By comparing MR images of the brain of an individual taken at a time interval of several years, the type of disease and its progress can be accurately grasped.However, MR images often differ due to aging of the device. Therefore, a mapping that absorbs this distortion is required.

【0003】また、患者の脳を標準脳と比較する場合、
あるいは多数の人間の脳を集団で比較する場合には、比
較する脳画像を正規化する必要があるが、非線形写像技
術はそのためにも有用な手段である。
When comparing a patient's brain with a standard brain,
Alternatively, when comparing a large number of human brains in a group, it is necessary to normalize the brain images to be compared, but the non-linear mapping technique is a useful means for that purpose.

【0004】[0004]

【発明が解決しようとする課題】このような写像技術の
一例として、本発明者等によって特許第2860048
号「非線形写像装置およびその方法」が提案されてい
る。この装置および方法では、写像元の画像を微小領域
に分割し、この微小領域を写像先の画像上にスライドさ
せて等しいピクセル値を有する部分を探索し、この作業
を全微小領域にわたって繰り返す事により写像を形成し
ている。ところがこの技術では、微小画像のピクセル
値、即ち白黒の情報のみに基づいて写像先を探索してい
るため、この微小領域が対応する可能性のある写像先の
画像上での領域の絞込みが難しく、その結果広範囲の領
域を全数探査によって探索する必要があった。そのた
め、写像のための計算量が膨大となり、特に大きな画像
を写像する場合には膨大な探査時間を要し、実質的に写
像が不可能となる欠点を有している。
As an example of such a mapping technique, the inventors of the present invention disclosed in Japanese Patent No. 2860048.
No. "Nonlinear mapping device and its method" has been proposed. In this apparatus and method, the image of the mapping source is divided into minute regions, the minute region is slid on the image of the mapping destination to search for a portion having the same pixel value, and this operation is repeated over all the minute regions. Forming a mapping. However, in this technique, since the mapping destination is searched based on only the pixel value of the minute image, that is, only the black and white information, it is difficult to narrow down the area on the image of the mapping destination to which this minute region may correspond. As a result, it was necessary to search a wide area by exhaustive search. Therefore, the amount of calculation for the mapping becomes enormous, and particularly when a large image is mapped, a huge search time is required, and there is a drawback that the mapping is practically impossible.

【0005】また、ピクセル値のみを照合基準として、
写像の対応部を探索するものであるため、2画像間に撮
影条件の微妙な差がある場合などでは、本来の対応点以
外の場所へ写像が形成されることや、対応する写像先が
見出せない等の問題が生じ、正確な写像が行えないこと
もあった。
[0005] Also, using only the pixel value as a reference,
Because the search for the corresponding part of the mapping is performed, when there is a slight difference in the shooting conditions between the two images, the mapping is formed in a place other than the original corresponding point, and the corresponding mapping destination can be found. In some cases, there was no problem, and accurate mapping could not be performed.

【0006】本発明は、従来の非線形写像技術の上記の
ような欠点を解決し、効率的でかつ正確な写像を行う事
が可能な、適応型非線形写像方法を得ることを目的とす
る。
SUMMARY OF THE INVENTION An object of the present invention is to solve the above-mentioned drawbacks of the conventional nonlinear mapping technology and to provide an adaptive nonlinear mapping method capable of performing efficient and accurate mapping.

【0007】[0007]

【課題を解決するための手段】本発明の第1の特徴で
は、2枚の画像間の写像を開始する前に、各々の画像
を、画像の構成属性(例えば、脳の断層像の場合には、
脳の灰白質、白質、脳脊髄液(CSF)等)にしたがっ
て領域分割(以下、セグメンテーション)する事を第1
の特徴とする。
According to a first feature of the present invention, before starting mapping between two images, each of the images is converted into a configuration attribute of the image (for example, in the case of a tomographic image of the brain, Is
Area segmentation (hereinafter, segmentation) according to brain gray matter, white matter, cerebrospinal fluid (CSF), etc.
The feature of.

【0008】セグメンテーションの一例としては、例え
ば遺伝的アルゴリズムとニューラルネットワークを組み
合わせて特徴量抽出を行い、抽出された特徴量に従って
セグメンテーションを実行するものが、本発明者等によ
って既に提案されている(特許第2873955号参
照)。このセグメンテーションでは、周囲の画像統計量
をも考慮した高度の画像認識系を利用する事ができ、撮
影条件の変化やノイズの影響を受けにくい利点を有して
いる。
As an example of the segmentation, the present inventors have already proposed a method in which a feature amount is extracted by combining a genetic algorithm and a neural network and the segmentation is executed in accordance with the extracted feature amount (Patent Document 1). No. 2873955). In this segmentation, an advanced image recognition system that also takes into account the surrounding image statistics can be used, and has the advantage of being less susceptible to changes in imaging conditions and noise.

【0009】従って、例えば特許第2873955号の
方法に従って原画像と写像先画像について各画像のセグ
メンテーションを行って、白質は白質に、というよう
に、同一の属性を有する画像域(セグメント)間で写像
を行う事により、組織と組織の境界部などが高い精度で
一致する、安定な写像系を構成する事ができる。
Accordingly, for example, segmentation of each image is performed on the original image and the destination image according to the method of Japanese Patent No. 2873955, so that white matter becomes white matter. By performing the above, it is possible to configure a stable mapping system in which the boundaries between tissues and the like match with high accuracy.

【0010】本発明の第2の特徴では、更に、写像形成
の際に、写像先あるいは写像元の各領域が有する属性を
ポテンシャル表現し、対応する属性を持つ写像元の各微
小領域をこのポテンシャルを頼りに勾配法によって対応
する写像先へ近接させることにより、効率的な非線形写
像を形成している。
According to a second feature of the present invention, at the time of forming a mapping, the attributes of each region of the mapping destination or the mapping source are represented by potentials, and each minute region of the mapping source having the corresponding attribute is represented by this potential. By using the gradient method to approach the corresponding mapping destination using the gradient method, an efficient nonlinear mapping is formed.

【0011】人間の脳内の神経伝導路形成過程では、標
的となる細胞から、NGF(nerve growth
factor)と呼ばれる神経誘引物質が放出され、
成長期の神経軸索は、このNGFの濃度勾配を頼りに標
的細胞へと到達する。従って本発明の第2の特徴では、
写像形成の際に、写像先の画像上を全方向に渡って探索
するかわりに、NGF勾配に相当するポテンシャルを人
工的に生成し、写像元から写像先へのルートをこのポテ
ンシャルに沿って形成することで、不必要な方向に向か
った領域内での探査を省き、短時間で本来の写像先を見
つけ出す事ができるようにしている。
In the process of forming nerve conduction pathways in the human brain, NGF (never growth) is obtained from target cells.
a nerve attractant called factor) is released,
The growing nerve axon reaches the target cell depending on the concentration gradient of NGF. Therefore, in the second aspect of the present invention,
When forming a mapping, instead of searching in all directions on the image of the mapping destination, a potential corresponding to the NGF gradient is artificially generated, and a route from the mapping source to the mapping destination is formed along this potential. By doing so, exploration in an area directed to an unnecessary direction is omitted, and the original mapping destination can be found in a short time.

【0012】すなわち、上記の課題は、画像Aを画像B
に写像する適応的非線形写像方法において、前記画像A
およびBを該両画像の構成属性に基づいてセグメンテー
ションを実行するセグメンテーションステップと、前記
画像A、画像Bおよびこれらのセグメンテーション後の
画像A’、画像B’を微小領域に分割する分割ステップ
と、前記分割された微小領域の特徴量を抽出する特徴量
抽出ステップと、前記画像Bの前記抽出された特徴量毎
にポテンシャルを形成するステップと、前記画像Bのポ
テンシャル最急方向に画像Aの前記微小領域を移動させ
る移動ステップと、前記画像Aの前記移動に際しての移
動ベクトルを前記画像A内の隣接微小領域間で協調させ
る協調ステップと、前記移動ステップと前記協調ステッ
プを交互に繰り返し、画像Aと画像Bの写像関係を表す
ベクトル群を求めるステップと、前記求めたベクトル群
に基づいて画像Aの画像Bに対する写像を実行するステ
ップ、を備える、適応的非線形写像方法によって解決す
ることができる。
That is, the above-mentioned problem is solved by converting the image A into the image B
An adaptive non-linear mapping method for mapping to the image A
A segmentation step of performing segmentation of the images A and B based on the configuration attributes of the two images; and a division step of dividing the images A and B and the image A ′ and the image B ′ after the segmentation into minute regions. A feature amount extracting step of extracting a feature amount of the divided minute region, a step of forming a potential for each of the extracted feature amounts of the image B, and a step of forming the potential of the image A in the steepest potential direction of the image B. A moving step of moving an area, a coordinating step of coordinating a moving vector at the time of the moving of the image A between adjacent minute regions in the image A, and the moving step and the coordinating step are alternately repeated, and Obtaining a group of vectors representing the mapping relationship of the image B; and Comprising the step of performing a mapping to the image B, it is possible to solve the adaptive nonlinear mapping method.

【0013】上記課題はまた、画像Aを画像Bに写像す
る適応的非線形写像方法において、前記画像AおよびB
を該両画像の構成属性に基づいてセグメンテーションを
実行するセグメンテーションステップと、前記画像A、
画像Bおよびこれらのセグメンテーション後の画像
A’、画像B’を微小領域に分割する分割ステップと、
前記分割された微小領域の特徴量を抽出する特徴量抽出
ステップと、前記画像Aの前記抽出された特徴量毎にポ
テンシャルを形成するステップと、前記画像Aのポテン
シャル最急方向に画像Bの前記微小領域を移動させる移
動ステップと、前記画像Bの前記移動に際しての移動ベ
クトルを前記画像B内の隣接微小領域間で協調させる協
調ステップと、前記移動ステップと前記協調ステップを
交互に繰り返し、画像Aと画像Bの写像関係を表すベク
トル群を求めるステップと、前記求めたベクトル群に基
づいて画像Aの画像Bに対する写像を実行するステッ
プ、を備える、適応的非線形写像方法によって解決する
ことができる。
The above object is also achieved in an adaptive nonlinear mapping method for mapping an image A to an image B, wherein the images A and B
A segmentation step of performing segmentation based on the configuration attributes of the two images,
A dividing step of dividing the image B and the image A ′ and the image B ′ after the segmentation into minute regions;
A feature value extracting step of extracting a feature value of the divided small area; a step of forming a potential for each of the extracted feature values of the image A; A moving step of moving the minute area, a coordinating step of coordinating a moving vector at the time of the movement of the image B between adjacent minute areas in the image B, and the moving step and the coordinating step are alternately repeated to obtain the image A. And a step of calculating a vector group representing a mapping relationship between the image A and the image B, and a step of executing mapping of the image A to the image B based on the determined vector group.

【0014】上記課題は更に、画像Aを画像Bに写像す
る適応的非線形写像方法において、前記画像A、画像B
を微小領域に分割する分割ステップと、前記分割された
微小領域の特徴量を抽出する特徴量抽出ステップと、前
記画像Bの前記抽出された特徴量毎にポテンシャルを形
成するステップと、前記画像Bのポテンシャル最急方向
に画像Aの前記微小領域を移動させる移動ステップと、
前記画像Aの前記移動に際しての移動ベクトルを前記画
像A内の隣接微小領域間で協調させる協調ステップと、
前記移動ステップと前記協調ステップを交互に繰り返し
画像Aと画像Bの写像関係を表すベクトル群を求めるス
テップと、前記求めたベクトル群に基づいて画像Aの画
像Bへの写像を実行するステップ、を備える、適応的非
線形写像方法によって解決される。
The above object is further achieved by an adaptive nonlinear mapping method for mapping an image A to an image B.
Dividing the image B into minute regions; extracting a characteristic amount of the divided minute regions; forming a potential for each of the extracted characteristic amounts of the image B; Moving the minute area of the image A in the steepest potential direction;
A coordination step of coordinating a movement vector during the movement of the image A between adjacent micro regions in the image A;
A step of alternately repeating the moving step and the coordination step to obtain a vector group representing a mapping relationship between the image A and the image B, and a step of executing the mapping of the image A to the image B based on the obtained vector group. The problem is solved by an adaptive nonlinear mapping method comprising:

【0015】上記課題は更に、画像Aを画像Bに写像す
る適応的非線形写像方法において、前記画像AおよびB
を該両画像の構成属性に基づいてセグメンテーションを
実行するセグメンテーションステップと、前記画像A、
画像Bおよびこれらのセグメンテーション後の画像
A’、画像B’を微小領域に分割する分割ステップと、
前記分割された各微小領域の特徴量を抽出する特徴量抽
出ステップと、前記抽出された特徴量に基づいて前記微
小領域の移動ベクトルを計算する移動ベクトル計算ステ
ップと、前記移動ベクトル計算ステップで求めた移動ベ
クトルを前記画像A内の隣接微小領域間で協調させる協
調ステップと、前記移動ベクトル計算ステップと前記協
調ステップを交互にくり返して画像Aと画像Bの写像関
係を表すベクトル群を求めるステップと、前記求めたベ
クトル群に基づいて画像Aの画像Bへの写像を実行する
ステップ、を備える、適応的非線形写像方法によって解
決される。
The above object is further achieved by an adaptive non-linear mapping method for mapping an image A to an image B.
A segmentation step of performing segmentation based on the configuration attributes of the two images;
A dividing step of dividing the image B and the image A ′ and the image B ′ after these segmentation into minute regions;
A feature value extraction step of extracting a feature value of each of the divided minute regions; a movement vector calculation step of calculating a movement vector of the minute region based on the extracted feature values; and a movement vector calculation step. A step of coordinating the obtained motion vector between adjacent minute regions in the image A; and a step of repeatedly repeating the motion vector calculation step and the coordination step to obtain a vector group representing a mapping relationship between the image A and the image B. Performing the mapping of image A to image B based on the determined vector group.

【0016】[0016]

【発明の実施の形態】以下に、本発明の適応的非線形写
像方法を実施形態を示して詳細に説明する。図1は、本
発明の第1の実施形態を示すフローチャートである。本
実施形態では、例えば脳のMR断層画像Aを、画像Aと
は異なった時点で撮影された同一人の脳のMR断層画像
Bに、各微小構造が一致し、しかも全体として不連続部
の生じない非線形写像を行うことを目的としている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The adaptive nonlinear mapping method of the present invention will be described below in detail with reference to embodiments. FIG. 1 is a flowchart showing the first embodiment of the present invention. In the present embodiment, for example, the MR tomographic image A of the brain matches each of the microstructures with the MR tomographic image B of the same person's brain taken at a different time from the image A. The purpose is to perform a non-linear mapping that does not occur.

【0017】図1において、まず、ステップ1A、1B
で、写像元の画像Aおよび写像先の画像Bを入力する。
次にステップ2A、2Bにおいて、入力画像AおよびB
のそれぞれを、画像のピクセル値や、周囲との関係で規
定される各種統計量、および対象画像に関する大域的先
験情報(例えば、頭部を構成する筋肉層・頭蓋骨・灰白
質・白質の各層の隣接順序関係)などに基づいて、複数
の要素(特徴)にセグメンテーション(領域分割)す
る。
In FIG. 1, first, steps 1A and 1B
Then, the image A of the mapping source and the image B of the mapping destination are input.
Next, in steps 2A and 2B, the input images A and B
Each of the pixel values of the image, various statistics defined in relation to the surroundings, and global a priori information on the target image (for example, each layer of the muscle layer constituting the head, skull, gray matter, white matter Segmentation (region division) into a plurality of elements (features) based on, for example, the adjacency order relationship of the elements.

【0018】次のステップ3A、3Bにおいて、原画像
A、Bおよびセグメンテーションされた画像A’、B’
を微小領域(例えば格子状領域)に分割する。分割され
た各微小領域には、複数の要素(例えば白質と灰白質)
が含まれる場合、あるいは単一の要素しか含まれない場
合もあるが、この構成要素パターンや、画像全体の中で
各微小領域の置かれている大域的位置関係などを基に、
各微小領域の特徴量を抽出する(ステップ4A、4
B)。なお、原画像A、Bから得た微小領域からはピク
セル値が特徴量として得られる。
In the next steps 3A, 3B, the original images A, B and the segmented images A ', B'
Is divided into minute regions (for example, lattice regions). Each divided small area contains multiple elements (for example, white matter and gray matter)
May be included or only a single element may be included, but based on this component pattern and the global positional relationship where each minute area is placed in the entire image,
The feature amount of each minute area is extracted (steps 4A and 4A).
B). It should be noted that pixel values are obtained as feature values from the minute regions obtained from the original images A and B.

【0019】次に、画像B側のチャンネルでは、上記で
得られた特徴量毎に、その微小領域の周辺にポテンシャ
ルを形成する(ステップ5B)。このポテンシャルは、
微小領域からの距離をxとした場合、xに関して単調減
少、若しくは単調増加するように定義する。
Next, in the channel on the image B side, a potential is formed around the minute area for each feature amount obtained above (step 5B). This potential is
Assuming that the distance from the minute region is x, it is defined that x monotonically decreases or monotonically increases.

【0020】次に、ステップ6において、画像Aの各微
小領域を、それぞれの特徴量について、画像Bの対応す
る特徴量が形成するポテンシャルの最急方向にわずかず
つ移動させる。この時、ステップ7に示すように、画像
Aの各微小領域は、移動に際しての移動ベクトルに対し
て周囲の微小領域の移動予定方向との協調をはかり、画
像全体の断裂を回避する。
Next, in step 6, each minute area of the image A is slightly moved in the steepest direction of the potential formed by the corresponding feature of the image B for each feature. At this time, as shown in step 7, each minute area of the image A cooperates with the movement direction of the surrounding minute area with respect to the movement vector at the time of movement to avoid tearing of the entire image.

【0021】ポテンシャルの傾斜に沿った画像Aの微小
領域の移動、周囲の移動ベクトルとの協調動作、即ちス
テップ6および7は、画像Aと画像Bの整合度(例えば
ピクセル値についての2乗誤差の総和)が予め設定した
閾値よりも小さくなるまで、若しくは、予め設定したル
ープの周回数に達するまで、数回〜数十回続けられ(ス
テップ8)、最終的に画像Aの画像Bへの写像が実現さ
れる(ステップ9)。
The movement of the minute area of the image A along the gradient of the potential and the cooperative operation with the surrounding movement vector, that is, steps 6 and 7, are based on the degree of matching between the image A and the image B (for example, the square error of the pixel value). Is continued several times to several tens of times (step 8) until the sum of the two becomes smaller than a preset threshold value or the preset number of rounds of the loop is reached (Step 8). The mapping is realized (step 9).

【0022】上記第1の実施形態は、2次元画像につい
て説明しているが、脳のMRデータなどの3次元空間内
のボクセル値(Voxel値)で定義される3次元データに
ついても、同様の手順が適用できることは明らかであ
る。
Although the first embodiment describes a two-dimensional image, the same applies to three-dimensional data defined by voxel values (Voxel values) in a three-dimensional space such as brain MR data. Obviously the procedure is applicable.

【0023】上記第1の実施形態では、対象画像に対し
てまずセグメンテーションを実施してその後ポテンシャ
ル形成による微小領域の移動を行っている。しかしなが
ら、対象とする画像の種類、品質によっては、処理前半
のセグメンテーションの部分を省略し、直接写像元の画
像から画像の特徴量(例えばピクセル値)を抽出し、そ
の特徴量に従ってポテンシャルを形成し、ポテンシャル
の勾配に沿って微小領域を移動させることも可能であ
る。なお、この実施形態については、本発明の第3の実
施形態の説明の項で詳細に説明する。
In the first embodiment, segmentation is first performed on a target image, and then a minute area is moved by potential formation. However, depending on the type and quality of the target image, the segmentation part in the first half of the processing is omitted, the feature amount (for example, pixel value) of the image is directly extracted from the original image, and the potential is formed according to the feature amount. It is also possible to move the minute area along the potential gradient. This embodiment will be described in detail in the description of the third embodiment of the present invention.

【0024】さらには、画像Aおよび画像B間の非線形
性が少ない場合(すなわち必要とされる微小領域の移動
量が十分少ない場合)には、図1の処理の後半部の「ポ
テンシャル形成・勾配による移動」の代わりに従来法
(例えば、特許第2860048号に開示の技術)で用
いられている、ピクセル値による探索、若しくは、ピク
セル値とセグメンテーションの結果から形成されるベク
トルのノルムをもって微小画像間の照合・探索を行う事
も可能である。なお、この実施形態については、本発明
の第4の実施形態の説明の項で詳細に説明する。
Further, when the nonlinearity between the image A and the image B is small (that is, when the required movement amount of the minute area is sufficiently small), the "potential formation / gradient" in the latter half of the processing of FIG. Instead of “movement by pixel”, a search between pixel values or a norm of a vector formed from the result of pixel value and segmentation, which is used in a conventional method (for example, a technique disclosed in Japanese Patent No. 2860048) It is also possible to collate and search for. This embodiment will be described in detail in the description of the fourth embodiment of the present invention.

【0025】以下に、上記セグメンテーションおよびポ
テンシャル形成に基づいた写像の実行について、その実
施例を示してさらに詳細に説明する。以下では、類似し
たA,B2枚の画像間の非線型写像(画像Aから画像
B)を実現する際のマルチポテンシャル法の動作例につ
いて述べる。
Hereinafter, the execution of the mapping based on the above-described segmentation and potential formation will be described in more detail with reference to an embodiment. In the following, an operation example of the multi-potential method for realizing a non-linear mapping (image A to image B) between two similar images A and B will be described.

【0026】先ず、画像Bを格子状にM×Nの領域に細
分化し、得られた各微小領域毎にその微小画像の持つ特
徴量を抽出する。以下の例では、説明を簡単にするため
に単純な2値画像を扱い、図2に示すように各微小領域
のサイズは2×2ピクセルとする。従って、特徴量の集
約を行わない場合、24=16個の画像要素(特徴量)
を持ち得ることになる。なお、これらの要素の例を図2
に示している。
First, the image B is subdivided into an M × N area in a grid pattern, and for each of the obtained micro areas, the characteristic amount of the micro image is extracted. In the following example, a simple binary image is used for simplicity of description, and the size of each minute region is 2 × 2 pixels as shown in FIG. Therefore, when the feature amounts are not aggregated, 2 4 = 16 image elements (feature amounts)
Can be held. Examples of these elements are shown in FIG.
Is shown in

【0027】画像B上のこれらの画像要素は、それぞれ
固有のポテンシャルを画像全面にわたって形成するもの
とするが、この時、各画像要素の中心から距離xだけ離
れた点でのポテンシャルはその距離の二乗に反比例する
スカラー量を持つものとする。すなわち、η番目の画像
要素が作るポテンシャルφηは、Kηを正の定数とし
て、次式で表わされる。
Each of these image elements on the image B forms a unique potential over the entire image. At this time, the potential at a point at a distance x from the center of each image element is equal to that distance. It has a scalar quantity that is inversely proportional to the square. That is, the potential φη created by the ηth image element is expressed by the following equation, where Kη is a positive constant.

【0028】φη= Kη/2x2 Φη = Kη / 2 × 2

【0029】また、このポテンシャルの距離xの地点で
の最大勾配は、上式をxについて微分して、 fη =−Kη/x3 となる。
The maximum gradient at the point of the distance x of this potential is obtained by differentiating the above equation with respect to x, and fη = −Kη / x 3 .

【0030】他方、画像Aについても、同様に微小領域
に細分化され、各画像要素の属性ηが賦与される。A側
の各画像要素は、対応する属性のポテンシャルφηのみ
を感知するものとし、ポテンシャルの傾きの最大方向に
僅かずつ移動する。この移動の様子を図3に示す。この
図では、二つの画像要素の移動軌跡を表示している。
On the other hand, the image A is similarly subdivided into minute regions, and the attribute η of each image element is given. Each image element on the A side senses only the potential φη of the corresponding attribute, and moves slightly in the maximum direction of the potential gradient. This movement is shown in FIG. In this figure, the movement trajectories of two image elements are displayed.

【0031】上記の例では、1回の移動量を隣接するピ
クセル迄と制限しているため、移動方向は水平と45度
方向にのみ限定されているが、一般にはポテンシャル勾
配の最大方向に動くものとする。また、各画像要素がバ
ラバラに移動することで、位相構造が乱れるのを防ぐた
め、各移動に際しては、移動ベクトル間の協調動作を実
行する。この方法には、例えば平均値をとる方法、メデ
ィアン(中央値)をとる方法などがある。
In the above example, since the amount of one movement is limited to adjacent pixels, the movement direction is limited to only the horizontal and 45 degrees directions, but generally moves in the maximum potential gradient direction. Shall be. In addition, in order to prevent the phase structure from being disturbed due to the individual movement of the image elements, a cooperative operation between the movement vectors is performed at each movement. This method includes, for example, a method of obtaining an average value and a method of obtaining a median (median value).

【0032】画像Bを構成する各微小領域が生成するポ
テンシャルは、画像が単純な場合や、各微小領域に定義
される特徴量の種類が少ない場合、画像Bの複数の点か
ら同一属性のポテンシャルが生成されてしまう場合も生
じる。このような複数の発生源を持つポテンシャルに導
かれて微小画像を移動した場合、1:1の写像関係が保
たれない場所も生じる(図4参照)。
The potential generated by each of the minute regions constituting the image B is the same as the potential of the same attribute from a plurality of points of the image B when the image is simple or when the type of the feature amount defined in each minute region is small. May be generated. When a small image is moved by being guided by such a potential having a plurality of sources, there are places where the 1: 1 mapping relationship cannot be maintained (see FIG. 4).

【0033】このような場合、特徴量の種類を増大す
る、または各画像内での相対的位置関係をも特徴量の一
部として加味するなどの改善策が必要である。また、微
小領域の切り方の差によって、対応する画像要素が見出
せない場合を避けるために、B側は格子を、縦・横にず
らしたものについてもポテンシャルを作製し、これらの
場合の合計でポテンシャルを作製する。
In such a case, it is necessary to take measures such as increasing the types of the feature values or taking into account the relative positional relationship in each image as a part of the feature value. Also, in order to avoid the case where the corresponding image element cannot be found due to the difference in the way of cutting the minute area, the B side creates a potential even when the grid is shifted vertically and horizontally, and the sum of these cases is calculated. Create a potential.

【0034】本ポテンシャル法による写像方法は、片方
の画像が大きく歪んでいて、大きな移動量が必要な写像
を実現する際に特に有効である。例えば、画像上A,B
間の位置がnピクセル離れた位置にある場合を想定する
と、従来法による2次元上の探索範囲は、A点を中心と
した正方領域、すなわち2n2ピクセルのオーダの探索
を行う必要があるが、本方法では、最も手数の多い隣接
ピクセルへの移動の繰り返しを用いた場合でも、8nオ
ーダの探索回数でB点に到達することができる。両者の
手数の比はn=100とした場合で、n/4=25とな
り、およそ25分の1の手数で微小領域をAからBへ移
動することが可能である。さらに、各ポテンシャルの勾
配に対して最急降下法などの手法を適用した場合には、
一層の高速化が可能になる。
The mapping method according to the present potential method is particularly effective when realizing a mapping in which one image is greatly distorted and a large moving amount is required. For example, A, B on the image
Assuming that the position between them is n pixels away, the conventional two-dimensional search range needs to search for a square area centered on point A, that is, an order of 2n 2 pixels. In this method, even when repetition of movement to an adjacent pixel having the largest number of steps is used, point B can be reached with the number of searches on the order of 8n. When the ratio of the number of steps is n = 100, n / 4 = 25, and the minute area can be moved from A to B with about 1/25 steps. Furthermore, when a method such as the steepest descent method is applied to the gradient of each potential,
Further higher speed is possible.

【0035】次に、セグメンテーション結果を用いた写
像について説明する。この実施例では、図5(a)の脳
MR画像Aを、図5(b)の基準画像Bに合うように非
線形写像することを目的とする。本実施例では、両画像
A、Bを先ず、脳実質、筋肉および頭蓋骨、髄液部の3
つのカテゴリーに分けるセグメンテーションを実施す
る。この分類結果にもとづき、各ピクセルはその属性を
表す離散値sで特徴づけられるが、この値と、もともと
のピクセル値pをベクトル的に合成したベクトルxを、
この点の特徴ベクトルと定義する。すなわちi,jを互
いに直交する単位ベクトル、α、βを正の実定数とし
て、次式で特徴を表す。
Next, the mapping using the segmentation result will be described. The purpose of this embodiment is to perform non-linear mapping of the brain MR image A in FIG. 5A so as to match the reference image B in FIG. 5B. In the present embodiment, the two images A and B are firstly classified into the brain parenchyma, muscle and skull, and cerebrospinal fluid.
Implement segmentation into two categories. Based on this classification result, each pixel is characterized by a discrete value s representing its attribute, and this value is combined with a vector x obtained by vectorially combining the original pixel value p.
This point is defined as a feature vector. That is, i and j are unit vectors orthogonal to each other, and α and β are positive real constants.

【0036】x=αpi + βsj また、A, B二つの画像の微小領域のマッチングの良
否を判定するのには、下記のように、両者のベクトルの
差のノルムεを評価するものとする。 ε = ‖xA − xB
X = αpi + βsj Further, in order to judge the quality of the matching of the small areas of the two images A and B, the norm ε of the difference between the two vectors is evaluated as follows. ε = ‖x A - x B ||

【0037】図6に、セグメンテーション結果である離
散値sとピクセル値pで表した合成ベクトルxを示す。
画像Aと画像Bのマッチングは、図6のεが最小となる
ものを選んで実行する。
FIG. 6 shows a composite vector x represented by a discrete value s and a pixel value p, which are the segmentation results.
The matching between the image A and the image B is executed by selecting an image having the minimum ε in FIG.

【0038】すなわち、ε=0は、二つの微小領域のピ
クセル値およびセグメンテーション結果が完全に一致し
たことを意味する。
That is, ε = 0 means that the pixel values and the segmentation results of the two minute regions completely match.

【0039】上記のマッチングスコア判定基準を用い
て、本方法による写像(a)から(b)を実行した結果
が図5の(c)で、ほぼ、図(c)では図(b)にほぼ
合致した画像が得られているのが分かる。なお、図内に
白線でマークした脳実質の輪郭は(b)の脳実質の輪郭
を表している。従って、このマークと画像上の脳実質の
輪郭一致が、写像の完全さを表している。これに対し
て、ピクセル値だけを用いた従来法では、図(a)の脳
実質が十分に移動できず、不完全な写像しか実現できて
いないことが分かる(図5(d)参照)。
FIG. 5 (c) shows the result of executing the mappings (a) to (b) according to the present method using the above-mentioned matching score criterion, and FIG. 5 (c) shows almost the same as FIG. It can be seen that a matched image has been obtained. The outline of the brain parenchyma marked with a white line in the figure represents the outline of the brain parenchyma in (b). Therefore, the contour coincidence between the mark and the brain substance on the image indicates the completeness of the mapping. On the other hand, in the conventional method using only pixel values, it can be seen that the brain parenchyma in FIG. 5A cannot move sufficiently and only an incomplete mapping can be realized (see FIG. 5D).

【0040】図7は、本発明の第2の実施形態の処理の
流れを示すフローチャートである。本実施形態では、ポ
テンシャルを写像先に形成する代わりに、写像元側でポ
テンシャル形成を行い、写像先の各微小領域は、写像元
のどこからの写像を受け取るかを、対応するポテンシャ
ルの最大傾斜方向へ遡り、対応する写像元を見つけ出す
ことを特徴としている。より具体的には、写像元と写像
先の画像を適当に領域分割し、写像元の領域毎に写像先
の各領域との相関度を評価する。このようにして求めら
れた相関度分布を第1の実施形態で示したポテンシャル
と同様に利用する。この際、写像元の分割領域同士の相
関性を評価して、相関性の高い分割領域を多く持つ、つ
まり個性のない分割領域を探索処理の対象から除外する
ことで処理時間の短縮を実現する。
FIG. 7 is a flowchart showing the flow of processing according to the second embodiment of the present invention. In the present embodiment, instead of forming a potential on the mapping destination, a potential is formed on the mapping source side, and each minute area of the mapping destination determines from which source of the mapping source the mapping is received, based on the maximum inclination direction of the corresponding potential. It is characterized by going back to finding the corresponding mapping source. More specifically, the image of the mapping source and the image of the mapping destination are appropriately divided into regions, and the degree of correlation between each region of the mapping source and each region of the mapping destination is evaluated. The correlation distribution thus obtained is used in the same manner as the potential shown in the first embodiment. At this time, the processing time is reduced by evaluating the correlation between the divided regions of the mapping source and excluding the divided regions having many highly correlated divided regions, that is, the divided regions having no individuality from the search processing. .

【0041】次に、図7のフローチャートに従って、本
第2の実施形態の動作を説明する。まず、写像元画像A
及び写像先画像Bを入力し(ステップ11A、11
B)、画像A、Bともに組織や画像属性にもとづきセグ
メンテーションを行い(ステップ12A、12B)、つ
いで例えば碁盤の目のように微小領域に分割する(ステ
ップ13A、13B)。
Next, the operation of the second embodiment will be described with reference to the flowchart of FIG. First, the mapping source image A
And the destination image B (steps 11A and 11A).
B) For both images A and B, segmentation is performed based on the organization and image attributes (steps 12A and 12B), and then divided into minute regions like a grid (steps 13A and 13B).

【0042】次に、ステップ14A、14Bにおいて、
画像AおよびBの各微小領域毎に画像特徴量を抽出す
る。この特徴量としては、例えば、ピクセル値とセグメ
ンテーション結果を示す離散値をベクトル的に合成した
ものなどが使用される。特に、画像Aについては、画像
A内の各微小領域毎に算出された特徴量が、多数の重複
を持つ場合(すなわち多数の微小領域がほぼ同一の特徴
ベクトルを持つ場合)、写像形成のために有効な特徴量
とはみなしがたいため、これらの微小領域に関する特徴
量は棄却する(ステップ15A、有効特徴量の選択)。
Next, in steps 14A and 14B,
The image feature amount is extracted for each minute area of the images A and B. As the feature amount, for example, a value obtained by combining a pixel value and a discrete value indicating a segmentation result in a vector manner is used. In particular, for the image A, when the feature amounts calculated for each minute region in the image A have a large number of overlaps (that is, a large number of minute regions have substantially the same feature vector), Since it is difficult to regard the feature amount as an effective feature amount, the feature amount relating to these minute regions is rejected (step 15A, selection of effective feature amount).

【0043】次に、棄却を免れた特徴量を「有効特徴
量」として、この特徴量を持つ画像Aの微小領域の周囲
に、距離に対して単調減少するポテンシャルを形成する
(ステップ16A)。
Next, a feature amount that has been avoided is set as an "effective feature amount", and a potential that monotonically decreases with respect to the distance is formed around a minute area of the image A having this feature amount (step 16A).

【0044】次に、画像Bの各微小領域は、画像Aのど
の微小領域から写像を得るのかを探索する。この探索
は、各特徴量に対応する画像A上のポテンシャルを、最
急勾配を遡るようにして写像元の画像要素を取りに行く
ように行われる(ステップ17、受入対象領域の探
索)。
Next, for each minute area of the image B, a search is made for which minute area of the image A is to be mapped. This search is performed in such a manner that the potential on the image A corresponding to each feature amount is traced back to the steepest gradient to obtain the image element of the mapping source (step 17, search for the receiving target area).

【0045】画像B上で隣接する各点は、画像A上でも
互いに隣接した領域を「受入対象領域」とすべきである
という連続写像の条件より、近傍関係にある受け入れベ
クトル(=移動ベクトル)相互では、中央値演算もしく
は、平均値算出による協調動作を行う(ステップ1
8)。
The points adjacent to each other on the image B are defined as receiving vectors (= movement vectors) having a close relationship based on the condition of continuous mapping that the areas adjacent to each other on the image A should be regarded as "accepting areas". A mutual operation is performed by a median value calculation or an average value calculation (Step 1).
8).

【0046】上記のポテンシャルに基づく移動(ステッ
プ17)と受入ベクトル間の協調(ステップ18)は写
像関係を表すベクトル群が得られるまで交互に繰り返さ
れ(ステップ19)、画像Aと画像B間の写像関係を表
すベクトル群が得られる。したがってこのベクトル群に
基づいて、ステップ20において写像が実行される。
The above-described movement based on the potential (step 17) and the cooperation between the receiving vectors (step 18) are alternately repeated until a group of vectors representing a mapping relationship is obtained (step 19). A vector group representing a mapping relationship is obtained. Therefore, a mapping is performed in step 20 based on this vector group.

【0047】有効特徴量を持たないために、対応関係の
見出せない画像要素については、周囲の有効特徴量を持
つ移動ベクトルとの協調動作と補間操作により連続写像
が形成される。
For an image element for which no correspondence is found because it does not have an effective feature, a continuous mapping is formed by a cooperative operation and an interpolation operation with surrounding motion vectors having an effective feature.

【0048】なお、前述した第1の実施形態と同様に、
有効特徴量の数が極端に少ない場合には、従来法(特許
2860048)において、人間が介入して少数の対応
点(マーカ)を指定する部分の自動化に本発明の方法を
用い、最後の写像形成は従来法のようにピクセル値を用
いた探索法を用いるというハイブリッド法によっても実
現でき、全体のシステムとしては、人間の介入なしに極
めて精度の高い写像系を実現することができる。
As in the first embodiment described above,
When the number of effective feature values is extremely small, the method according to the present invention is used in the conventional method (Japanese Patent No. 2860048) to automate the part where a small number of corresponding points (markers) are designated by human intervention and the last mapping. The formation can also be realized by a hybrid method using a search method using pixel values as in the conventional method, and as a whole system, an extremely accurate mapping system can be realized without human intervention.

【0049】図8は、本発明の第3の実施形態を示すフ
ローチャートである。この実施形態は、写像元の画像に
ついてセグメンテーションを行わず、ピクセル値に基づ
いて特徴を算出した後、ポテンシャル法を利用して移動
ベクトルを求め写像を実行することを特徴としている。
FIG. 8 is a flowchart showing a third embodiment of the present invention. This embodiment is characterized in that a segmentation is not performed on an image of a mapping source, a feature is calculated based on a pixel value, and then a movement vector is obtained by using a potential method and mapping is executed.

【0050】まず、ステップ21A、21Bにおいて、
写像元の画像Aと写像先の画像Bを入力する。これらの
画像A、Bは、ステップ22A、22Bにおいて、微小
領域に分割され、各微小領域毎に特徴量の抽出が行われ
る(ステップ23A、23B)。
First, in steps 21A and 21B,
A source image A and a destination image B are input. These images A and B are divided into minute regions in steps 22A and 22B, and a feature amount is extracted for each minute region (steps 23A and 23B).

【0051】画像Bについては、ステップ24Bにおい
て特徴量毎にポテンシャルを形成し、ステップ25にお
いて、画像Aの微小領域を画像Bのポテンシャル最急方
向に移動させて移動ベクトルを得る。この移動ベクトル
は、画像A内の隣接微小領域間で移動ベクトルの協調が
行われる(ステップ26)。ステップ25,26の操作
を、交互に繰り返して(ステップ27)画像Aと画像B
間の写像関係を表すベクトル群を形成する。この後、形
成された移動ベクトル群に基づいて写像を実行する(ス
テップ28)。
With respect to the image B, a potential is formed for each feature in step 24B, and in step 25, a minute area of the image A is moved in the steepest direction of the image B to obtain a movement vector. The movement vectors are coordinated between adjacent minute areas in the image A (step 26). The operations of steps 25 and 26 are alternately repeated (step 27).
A group of vectors representing the mapping relationship between them is formed. Thereafter, mapping is executed based on the formed movement vector group (step 28).

【0052】なお、本第3の実施形態において、第2の
実施形態の場合と同様に、ポテンシャルを写像先画像B
に形成する変わりに、写像元画像Aで形成することも考
えられる。この場合は、図8のフローチャートにおい
て、ステップ23Aで画像Aの微小領域毎に特徴量を抽
出した後、この特徴量についてポテンシャルを形成し、
以下図7のフローチャートに示すステップ17,18,
19を実行して写像結果を得る。
In the third embodiment, as in the second embodiment, the potential is set to the destination image B.
Instead of forming the image, it is conceivable to form the original image A. In this case, in the flowchart of FIG. 8, after extracting a feature amount for each minute region of the image A in step 23A, a potential is formed for this feature amount,
Steps 17 and 18 shown in the flowchart of FIG.
19 to obtain a mapping result.

【0053】図9は、本発明の第4の実施形態を示すフ
ローチャートである。本実施形態では、画像Aおよび画
像B間の非線形性が少ない場合(すなわち必要とされる
微小領域の移動量が十分少ない場合)に対処するための
実施形態であり、図1または図7に示す本発明の第1、
第2の実施形態の後半処理を、ポテンシャル法に代えて
従来法による手法に置き換えたことを特徴としている。
FIG. 9 is a flowchart showing a fourth embodiment of the present invention. The present embodiment is an embodiment for coping with a case where the non-linearity between the image A and the image B is small (that is, a case where the required movement amount of the minute area is sufficiently small), and is shown in FIG. 1 or FIG. The first of the present invention,
The second embodiment is characterized in that the latter half of the processing is replaced by a conventional method instead of the potential method.

【0054】まず、本発明の第1、第2の実施形態と同
様にして、ステップ30において写像元画像Aと写像先
画像Bにセグメンテーションを実行し、セグメンテーシ
ョン後の画像A’、B’を得て、これら4枚の画像A、
B、A’、B’を入力画像とする。
First, similarly to the first and second embodiments of the present invention, in step 30, segmentation is performed on the mapping source image A and the mapping destination image B to obtain the segmented images A 'and B'. And these four images A,
B, A ′, and B ′ are input images.

【0055】次に、移動ベクトル探索ステップ40にお
いて、以下の操作を行う。まず、(1)画像A、A’、
B、B’を微小領域に分割し、各微小領域毎に特徴量を
抽出する。画像A、Bの各微小領域からは、特徴量とし
てピクセル値pが抽出される。画像A’、B’の各微小
領域からはセグメンテーション結果を表す離散値sが得
られる。
Next, in the movement vector search step 40, the following operation is performed. First, (1) images A, A ′,
B and B ′ are divided into minute regions, and a feature amount is extracted for each minute region. A pixel value p is extracted from each minute area of the images A and B as a feature amount. From each minute area of the images A ′ and B ′, a discrete value s representing the segmentation result is obtained.

【0056】次に、(2)得られた特徴量に基づいて移
動ベクトルの計算(競合)が行われる。移動ベクトルの
計算(競合)については、図6を参照してすでに説明さ
れているので、ここでは重複した説明は行わない。
Next, (2) calculation (competition) of the movement vector is performed based on the obtained feature amount. Since the calculation (competition) of the movement vector has already been described with reference to FIG. 6, a duplicate description will not be given here.

【0057】このようにして一つの微小領域に関して移
動ベクトルの計算が行われると、次に、(3)このベク
トルを隣接する微小領域のベクトルと協調させる操作が
行われる。協調は、中央値演算(メディアン処理)また
は平均化処理によって実行される。
When the movement vector is calculated for one micro area in this way, then (3) an operation for coordinating this vector with the vector of the adjacent micro area is performed. Cooperation is performed by a median operation (median process) or an averaging process.

【0058】上記操作(2)および(3)を微小領域の
すべてに対して繰り返し、画像Aの各微小領域に対する
移動ベクトル群を得た後、ステップ50においてこの移
動ベクトル群に基づいて、画像Aの画像Bに対する写像
を実行する。
The above operations (2) and (3) are repeated for all of the minute regions to obtain a group of movement vectors for each minute region of the image A. Of the image B is executed.

【0059】[0059]

【発明の効果】従来例の説明の項でも述べたように、ピ
クセル値のみを頼りに行っていた従来の写像方法では、
本来の写像に至る前に、ノイズなどによって生じたロー
カルミニマに捕捉され、100%の移動が行われないケ
ースが多かった(たとえば、桑谷、佐瀬、小杉他「移動
ベクトル間の競合と協調による医用画像のなめらかな変
形」、電子情報通信学会論文誌D−II、Vol.J7
6−D−II,No.2,296−303(1993)
参照)。
As described in the description of the conventional example, in the conventional mapping method that relies only on pixel values,
Before reaching the original mapping, there were many cases in which local minima caused by noise or the like were captured and 100% movement was not performed (for example, Kuwatani, Sase, Kosugi et al. Smooth Deformation of Image ”, IEICE Transactions D-II, Vol.
6-D-II, no. 2, 296-303 (1993)
reference).

【0060】ところが本発明では、原画像のセグメンテ
ーションを行ってから、その結果に基づいて写像を行っ
ているので、対象とする画像に付随した先験的情報に基
づいてノイズが十分に除去され、ローカルミニマに捕捉
される可能性が低くなり、各微小画像のより完全な移動
が実現され、結果として十分な写像能力が得られる。
However, in the present invention, since the original image is segmented and then mapped based on the result, noise is sufficiently removed based on a priori information attached to the target image. There is less likelihood of being captured by local minima, and more complete movement of each micro-image is achieved, resulting in sufficient mapping capability.

【0061】また、従来の写像方式では、一方の画像の
微小領域が対応する可能性のある他方の画像上で、広範
囲の領域に亘って全数探査する必要があったため、探索
に多大な時間を要していたが、本発明ではポテンシャル
の導入により、ポテンシャルの最急方向として移動の方
向が自明に与えられるため、計算時間が飛躍的に短くな
る利点を有している。
Further, in the conventional mapping method, it is necessary to perform an exhaustive search over a wide area on the other image where a minute area of one image may correspond to the other image. Although it is necessary, the present invention has an advantage that the calculation time is drastically shortened because the direction of movement is obviously given as the steepest direction of the potential by introducing the potential.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施形態の処理の流れを示す図
である。
FIG. 1 is a diagram showing a processing flow of a first embodiment of the present invention.

【図2】ポテンシャル法の説明に供する図。FIG. 2 is a diagram for describing a potential method.

【図3】ポテンシャル法の説明に供する図。FIG. 3 is a diagram for describing a potential method.

【図4】ポテンシャル法の説明に供する図。FIG. 4 is a diagram for describing a potential method.

【図5】セグメンテーション結果を示す図。FIG. 5 is a diagram showing a segmentation result.

【図6】セグメンテーション法の説明に供する図。FIG. 6 is a diagram provided for description of a segmentation method.

【図7】本発明の第2の実施形態の処理の流れを示す
図。
FIG. 7 is a diagram showing a flow of processing according to a second embodiment of the present invention.

【図8】本発明の第3の実施形態の処理の流れを示す
図。
FIG. 8 is a diagram showing a flow of processing according to a third embodiment of the present invention.

【図9】本発明の第4の実施形態の処理の流れを示す
図。
FIG. 9 is a diagram showing a flow of processing according to a fourth embodiment of the present invention.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 細谷 優 神奈川県川崎市高津区坂戸3−2−1 K SP東棟211 株式会社脳機能研究所内 (72)発明者 工藤 一幸 神奈川県横浜市緑区長津田町4259 東京工 業大学内 (72)発明者 野島 ゆり 神奈川県横浜市緑区長津田町4259 東京工 業大学内 Fターム(参考) 4C096 AA20 AB50 AC01 AD14 DC18 DC21 DC33 DC40 5B057 AA07 BA06 CA08 CA12 CA16 CB08 CB12 CB16 CC02 CD11 DA07 DA08 DB02 DB09 DC03 DC08 DC30 DC32 DC36 5L096 BA13 DA01 FA01 FA67 GA19 HA04  ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor: Yu Hosoya 3-2-1 Sakado, Takatsu-ku, Kawasaki-shi, Kanagawa 211 KSP East Wing Inside Brain Research Institute, Inc. (72) Inventor: Kazuyuki Kudo Midori-ku, Yokohama-shi, Kanagawa 4259 Nagatsutacho Tokyo Institute of Technology (72) Yuri Nojima Inventor 4259 Nagatsutacho, Midori-ku, Yokohama-shi, Kanagawa Prefecture F-term (reference) 4C096 AA20 AB50 AC01 AD14 DC18 DC21 DC33 DC40 5B057 AA07 BA06 CA08 CA12 CA16 CB08 CB12 CB16 CC02 CD11 DA07 DA08 DB02 DB09 DC03 DC08 DC30 DC32 DC36 5L096 BA13 DA01 FA01 FA67 GA19 HA04

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 画像Aを画像Bに写像する適応的非線形
写像方法において、 前記画像AおよびBを該両画像の構成属性に基づいてセ
グメンテーションを実行するセグメンテーションステッ
プと、 前記画像A、画像Bおよびこれらのセグメンテーション
後の画像A’、画像B’を微小領域に分割する分割ステ
ップと、 前記分割された微小領域の特徴量を抽出する特徴量抽出
ステップと、 前記画像Bの前記抽出された特徴量毎にポテンシャルを
形成するステップと、 前記画像Bのポテンシャル最急方向に画像Aの前記微小
領域を移動させる移動ステップと、 前記画像Aの前記移動に際しての移動ベクトルを前記画
像A内の隣接微小領域間で協調させる協調ステップと、 前記移動ステップと前記協調ステップを交互に繰り返
し、画像Aと画像Bの写像関係を表すベクトル群を求め
るステップと、 前記求めたベクトル群に基づいて画像Aの画像Bに対す
る写像を実行するステップ、 を備える、適応的非線形写像方法。
1. An adaptive nonlinear mapping method for mapping an image A to an image B, wherein the image A and the image B are subjected to a segmentation step based on a configuration attribute of the two images; A dividing step of dividing the image A ′ and the image B ′ after these segmentation into minute regions; a feature amount extracting step of extracting a feature amount of the divided minute regions; and the extracted feature amount of the image B. Forming a potential every time; moving the minute area of the image A in the steepest potential direction of the image B; And the moving step and the coordinating step are alternately repeated so that the images A and B are copied. An adaptive nonlinear mapping method, comprising: obtaining a vector group representing an image relationship; and performing a mapping of an image A to an image B based on the obtained vector group.
【請求項2】 画像Aを画像Bに写像する適応的非線形
写像方法において、 前記画像AおよびBを該両画像の構成属性に基づいてセ
グメンテーションを実行するセグメンテーションステッ
プと、 前記画像A、画像Bおよびこれらのセグメンテーション
後の画像A’、画像B’を微小領域に分割する分割ステ
ップと、 前記分割された微小領域の特徴量を抽出する特徴量抽出
ステップと、 前記画像Aの前記抽出された特徴量毎にポテンシャルを
形成するステップと、 前記画像Aのポテンシャル最急方向に画像Bの前記微小
領域を移動させる移動ステップと、 前記画像Bの前記移動に際しての移動ベクトルを前記画
像B内の隣接微小領域間で協調させる協調ステップと、 前記移動ステップと前記協調ステップを交互に繰り返
し、画像Aと画像Bの写像関係を表すベクトル群を求め
るステップと、 前記求めたベクトル群に基づいて画像Aの画像Bに対す
る写像を実行するステップ、 を備える、適応的非線形写像方法。
2. An adaptive non-linear mapping method for mapping an image A to an image B, wherein the image A and the image B are subjected to a segmentation based on a configuration attribute of the two images; A dividing step of dividing the image A ′ and the image B ′ after the segmentation into minute regions; a feature amount extracting step of extracting feature amounts of the divided minute regions; and the extracted feature amount of the image A. Forming a potential every time; moving the minute area of the image B in the steepest potential direction of the image A; and moving the movement vector in the movement of the image B to an adjacent minute area in the image B. And the moving step and the coordinating step are alternately repeated so that the images A and B are copied. An adaptive nonlinear mapping method, comprising: obtaining a vector group representing an image relationship; and performing a mapping of an image A to an image B based on the obtained vector group.
【請求項3】 画像Aを画像Bに写像する適応的非線形
写像方法において、 前記画像A、画像Bを微小領域に分割する分割ステップ
と、 前記分割された微小領域の特徴量を抽出する特徴量抽出
ステップと、 前記画像Bの前記抽出された特徴量毎にポテンシャルを
形成するステップと、 前記画像Bのポテンシャル最急方向に画像Aの前記微小
領域を移動させる移動ステップと、 前記画像Aの前記移動に際しての移動ベクトルを前記画
像A内の隣接微小領域間で協調させる協調ステップと、 前記移動ステップと前記協調ステップを交互に繰り返し
画像Aと画像Bの写像関係を表すベクトル群を求めるス
テップと、 前記求めたベクトル群に基づいて画像Aの画像Bへの写
像を実行するステップ、 を備える、適応的非線形写像方法。
3. An adaptive nonlinear mapping method for mapping an image A onto an image B, comprising: a dividing step of dividing the images A and B into minute regions; and a feature amount extracting a feature amount of the divided minute regions. An extracting step; a step of forming a potential for each of the extracted feature amounts of the image B; a moving step of moving the minute area of the image A in the steepest potential direction of the image B; A coordination step of coordinating a movement vector at the time of movement between adjacent minute areas in the image A; and a step of repeatedly repeating the movement step and the coordination step to obtain a vector group representing a mapping relationship between the image A and the image B; Performing the mapping of the image A to the image B based on the determined vector group.
【請求項4】 画像Aを画像Bに写像する適応的非線形
写像方法において、 前記画像AおよびBを該両画像の構成属性に基づいてセ
グメンテーションを実行するセグメンテーションステッ
プと、 前記画像A、画像Bおよびこれらのセグメンテーション
後の画像A’、画像B’を微小領域に分割する分割ステ
ップと、 前記分割された各微小領域の特徴量を抽出する特徴量抽
出ステップと、 前記抽出された特徴量に基づいて前記微小領域の移動ベ
クトルを計算する移動ベクトル計算ステップと、 前記移動ベクトル計算ステップで求めた移動ベクトルを
前記画像A内の隣接微小領域間で協調させる協調ステッ
プと、 前記移動ベクトル計算ステップと前記協調ステップを交
互にくり返し画像Aと画像Bの写像関係を表すベクトル
群を求めるステップと、 前記求めたベクトル群に基づいて画像Aの画像Bへの写
像を実行するステップ、 を備える、適応的非線形写像方法。
4. An adaptive nonlinear mapping method for mapping an image A to an image B, wherein the image A and the image B are subjected to a segmentation step based on a configuration attribute of the two images; A dividing step of dividing the image A ′ and the image B ′ after these segmentation into minute regions, a feature amount extracting step of extracting a feature amount of each of the divided minute regions, and A movement vector calculation step of calculating a movement vector of the minute area; a coordination step of collaborating a movement vector obtained in the movement vector calculation step between adjacent minute areas in the image A; and the movement vector calculation step and the cooperation Obtaining a group of vectors representing the mapping relationship between the image A and the image B; Comprising the step of performing a mapping to the image B of the image A on the basis of the obtained vector group, an adaptive nonlinear mapping method.
JP2001041840A 2001-02-19 2001-02-19 Adaptive nonlinear mapping device Pending JP2002245449A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001041840A JP2002245449A (en) 2001-02-19 2001-02-19 Adaptive nonlinear mapping device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001041840A JP2002245449A (en) 2001-02-19 2001-02-19 Adaptive nonlinear mapping device

Publications (1)

Publication Number Publication Date
JP2002245449A true JP2002245449A (en) 2002-08-30

Family

ID=18904220

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001041840A Pending JP2002245449A (en) 2001-02-19 2001-02-19 Adaptive nonlinear mapping device

Country Status (1)

Country Link
JP (1) JP2002245449A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004174220A (en) * 2002-10-01 2004-06-24 Japan Science & Technology Agency Apparatus and method for processing image and recording medium for storing program used for causing computer to execute the method
JP2010172511A (en) * 2009-01-29 2010-08-12 Fujifilm Ri Pharma Co Ltd Apparatus and method for displaying organic surface image
JP4824034B2 (en) * 2004-12-23 2011-11-24 エレクタ、アクチボラグ Optimized image recording using composite recording vectors

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004174220A (en) * 2002-10-01 2004-06-24 Japan Science & Technology Agency Apparatus and method for processing image and recording medium for storing program used for causing computer to execute the method
JP4824034B2 (en) * 2004-12-23 2011-11-24 エレクタ、アクチボラグ Optimized image recording using composite recording vectors
JP2010172511A (en) * 2009-01-29 2010-08-12 Fujifilm Ri Pharma Co Ltd Apparatus and method for displaying organic surface image

Similar Documents

Publication Publication Date Title
CN105069746B (en) Video real-time face replacement method and its system based on local affine invariant and color transfer technology
Song et al. Road extraction using SVM and image segmentation
CN111310659B (en) Human body action recognition method based on enhanced graph convolution neural network
US7885463B2 (en) Image segmentation using spatial-color Gaussian mixture models
CN109740413A (en) Pedestrian recognition methods, device, computer equipment and computer storage medium again
WO2017181332A1 (en) Single image-based fully automatic 3d hair modeling method
CN107578376B (en) Image splicing method based on feature point clustering four-way division and local transformation matrix
CN111524170B (en) Pulmonary CT image registration method based on unsupervised deep learning
US20070003154A1 (en) Video object cut and paste
CN110428490B (en) Method and device for constructing model
JP2001034771A (en) Method and device for modeling desirable outline of image object, and method for tracing image object in sequence of frame and modeling desirable outline of image object
WO2019071976A1 (en) Panoramic image saliency detection method based on regional growth and eye movement model
CN113240691A (en) Medical image segmentation method based on U-shaped network
JP2006524394A (en) Delineation of human contours in images
JP2002525735A (en) Tracking semantic objects in vector image sequences
Bartesaghi et al. An energy-based three-dimensional segmentation approach for the quantitative interpretation of electron tomograms
CN107977660A (en) Region of interest area detecting method based on background priori and foreground node
WO2024021523A1 (en) Graph network-based method and system for fully automatic segmentation of cerebral cortex surface
CN109863547A (en) The equipment for constructing map for using machine learning and image procossing
KR100813168B1 (en) Method for extracting object in digital image with shape prior and system for executing the method
CN109800635A (en) A kind of limited local facial critical point detection and tracking based on optical flow method
CN108830222A (en) A kind of micro- expression recognition method based on informedness and representative Active Learning
CN115222884A (en) Space object analysis and modeling optimization method based on artificial intelligence
Lee et al. Visual compiler: synthesizing a scene-specific pedestrian detector and pose estimator
JP2002245449A (en) Adaptive nonlinear mapping device