JP2006031114A - Image division processing system - Google Patents
Image division processing system Download PDFInfo
- Publication number
- JP2006031114A JP2006031114A JP2004205120A JP2004205120A JP2006031114A JP 2006031114 A JP2006031114 A JP 2006031114A JP 2004205120 A JP2004205120 A JP 2004205120A JP 2004205120 A JP2004205120 A JP 2004205120A JP 2006031114 A JP2006031114 A JP 2006031114A
- Authority
- JP
- Japan
- Prior art keywords
- image
- processing system
- partial
- partial images
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、画像分割処理システムに関し、特に、画像の特徴量に基づいて複数の部分領域に分割するシステムに関するものである。 The present invention relates to an image division processing system, and more particularly to a system that divides a plurality of partial areas based on image feature amounts.
画像の中から対象物体を識別するための方法として、画像をその特徴量に基づいて複数の小さい部分領域に分割する方法がある。このような方法では、特徴量(の相関係数)が大きく変化する箇所を検出し、そこを部分領域間の境界と見なすことで領域の分割を行うことができる。ここで、特徴量とは、画像の各部分領域における構造を特徴付ける情報である。特徴量を抽出するには、平均輝度と分散を用いる方法、あるいはエッジ強度やテクスチャーなどの情報に基づいて抽出するヒューリスティックな方法などがある。例えば、特許文献1では、平均色、代表色または濃度という量を特徴量として使用している。ところが、このようにして抽出される特徴量が画像を領域分割するにあたって最適な基準となるかどうかは自明ではないので、客観的な評価に基づいて真に最適な特徴量を求めることが重要である。 As a method for identifying a target object from an image, there is a method of dividing an image into a plurality of small partial regions based on the feature amount. In such a method, it is possible to divide the region by detecting a portion where the feature amount (correlation coefficient thereof) greatly changes and regarding that as a boundary between the partial regions. Here, the feature amount is information that characterizes the structure in each partial region of the image. In order to extract a feature amount, there are a method using average luminance and variance, or a heuristic method for extracting based on information such as edge strength and texture. For example, in Patent Document 1, an amount of average color, representative color, or density is used as a feature amount. However, it is not obvious whether the feature quantity extracted in this way is the optimum standard for segmenting an image, so it is important to find the true optimum feature quantity based on objective evaluation. is there.
画像の中から対象物体を識別するプロセスにおいては、統計的手法によって有用な特徴量を抽出するアプローチが知られている。特に、画像から線形変換によって得られるような特徴量を抽出するものとして、(1)主成分分析(Principal Component Analysis;PCA)や重判別分析(Multiple Discriminant Analysis;MDA)を用いるものなどが一般的である。例えば、特許文献2には、MDAに基づく物体認識方法及び物体認識装置が記載されている。ところが、対象物体や背景(環境)の条件などによっては、線形性の仮定が成り立たないこともあり、画像からの線形変換によって常に領域分割に有用な特徴量が得られるとは限らない。このような場合に対処する方法としては、(2)ニューラルネットワークや非線形変換を行った後に主成分分析を行う方法がある。但し、これらの手法では、非線形変換の形を予め仮定する必要があるが、抽出すべき特徴量が予め仮定した非線形変換と異なる場合には、適切な特徴量を得ることができない。そこで、どのような非線形変換を行うかを予め仮定しない手法として、(3)自己組織化写像(Self-Organizing Maps;SOM)を用いる手法や、計量的多次元尺度構成法(Multi Dimensional Scaling;MDS)などを利用することができる。例えば、特許文献3には、SOMに基づいた画像検索装置が記載されており、特許文献4には、MDSに基づいた画像の類似尺度構成処理方法が記載されている。 In the process of identifying a target object from an image, an approach for extracting useful features by a statistical method is known. In particular, (1) Principal Component Analysis (PCA) or Multiple Discriminant Analysis (MDA) is generally used to extract feature values obtained by linear transformation from images. It is. For example, Patent Document 2 describes an object recognition method and an object recognition device based on MDA. However, depending on the conditions of the target object and the background (environment), the assumption of linearity may not be satisfied, and a feature quantity useful for region segmentation is not always obtained by linear transformation from an image. As a method for dealing with such a case, there are (2) a method of performing principal component analysis after performing a neural network or nonlinear transformation. However, in these methods, it is necessary to presuppose the shape of the nonlinear transformation in advance, but if the feature amount to be extracted is different from the nonlinear transformation assumed in advance, an appropriate feature amount cannot be obtained. Therefore, as a method that does not assume in advance what kind of nonlinear transformation is performed, (3) a method using a self-organizing map (SOM), a multi-dimensional scaling method (Multi Dimensional Scaling; MDS) ) Etc. can be used. For example, Patent Literature 3 describes an image search device based on SOM, and Patent Literature 4 describes an image similarity scale configuration processing method based on MDS.
まず、画像に関する統計的な特徴量の構成手法について全般的に言える問題は、統計的分析を行う前に、原始的な特徴量として平均輝度と分散、またはエッジやテクスチャー情報など、分析者がヒューリスティックに導入した特徴量を初期特徴量として抽出した後に、統計処理を行って、さらに統計的特徴量を抽出していることである。つまり、統計処理を行う以前に分析者がノイズであると判断した情報は取り除かれてしまうこととなる。ところが、実際にはどのような情報がノイズであるかを予め予測することはできない。また、特徴量として抽出された情報にもノイズが含まれている可能性がある。むしろ、従来の統計的特徴抽出方法は、ヒューリスティックに定義された特徴量に含まれているノイズを除去するためだけに統計分析を行うものであると言える。そうすると、統計分析によってノイズを排除し統計学的に真に意味のある特徴量を抽出するためには、画像から情報を切り落とすことなく統計分析を実行するのが望ましい。しかしながら、一般的に画像データは非常に次元が高いデータであり、そのような高次元のデータに対して判別分析などを行うに膨大な量の計算処理が必要となるため、画像から情報を切り落とすことなく統計分析を実行するのは実質的には困難である。このため、従来の手法では、まず分析者がヒューリスティックな特徴量を抽出し、こうして次元が下がったデータに対して統計分析を実行している。 First of all, the problem that can be generally said about the method of constructing statistical features related to images is that before the statistical analysis, the analyst heuristics such as average luminance and variance, or edge and texture information as primitive features. After extracting the feature quantity introduced in step 1 as the initial feature quantity, statistical processing is performed to further extract the statistical feature quantity. That is, information that the analyst determines as noise before performing statistical processing is removed. However, what information is actually noise cannot be predicted in advance. Further, there is a possibility that noise is included in the information extracted as the feature amount. Rather, it can be said that the conventional statistical feature extraction method performs a statistical analysis only to remove noise contained in the heuristically defined feature quantity. Then, in order to eliminate noise by statistical analysis and extract a statistically meaningful feature value, it is desirable to perform statistical analysis without cutting off information from the image. However, in general, image data is very high-dimensional data, and a huge amount of calculation processing is required to perform discriminant analysis on such high-dimensional data, so information is cut off from the image. It is practically difficult to perform statistical analysis without it. For this reason, in the conventional method, an analyst first extracts heuristic feature amounts, and thus performs statistical analysis on the data whose dimensions have been lowered.
従来技術(1)で説明した手法では、特徴量が画像情報に関する線形変換として与えられることを仮定しているが、そのような仮定が一般的に成り立つとは限らないので、適用できる対象が限られてしまうという問題がある。 In the method described in the prior art (1), it is assumed that the feature amount is given as a linear transformation related to image information. However, since such an assumption is not generally valid, the applicable objects are limited. There is a problem that it will be.
従来技術(2)で説明した手法では、非線形変換によって得られる特徴量を扱うためには、どのような非線形変換を行うかを予め決めておかなければならないが、これを予め決定できない場合には、適切な特徴量を得ることができないという問題がある。 In the method described in the prior art (2), in order to handle the feature amount obtained by the nonlinear transformation, it is necessary to determine in advance what kind of nonlinear transformation is performed. There is a problem that an appropriate feature amount cannot be obtained.
従来技術(3)で説明した手法では、非線形変換を予め仮定する必要はないが、特徴量の成す空間に計量を与えなければならず、解析結果はこの計量に大きく影響される。しかしながら、求めるべき特徴空間に計量をどのように与えれば良いかは自明ではないので、設定した計量が不適切であった場合には、精度が悪くなるという問題がある。さらに、SOMの場合には、特徴空間が離散的な格子によって表されるため、離散化に伴う誤差が大きく影響する可能性がある。 In the method described in the prior art (3), it is not necessary to presuppose nonlinear transformation in advance, but a metric must be given to the space formed by the feature quantity, and the analysis result is greatly influenced by this metric. However, since it is not self-evident how to provide the metric to the feature space to be obtained, there is a problem that accuracy is deteriorated when the set metric is inappropriate. Furthermore, in the case of SOM, since the feature space is represented by a discrete grid, errors due to discretization may greatly affect.
また、画像分割処理では、画像計測装置による解像度などの違い、対象物体の変化、オクルージョンや環境(背景)の突然の変化などによるノイズが発生するが、これらは統計的に扱うことは困難である。上記した従来技術はずれもデータを計量的に扱っているため、このようなノイズの発生に対するロバスト性が低いという問題がある。また、このような大きなノイズの影響を画像に対する前処理において十分に補正することも困難である場合が多い。 In image segmentation processing, noise is generated due to differences in resolution between image measurement devices, changes in target objects, sudden changes in occlusion and the environment (background), and these are difficult to handle statistically. . Since the above-described conventional technology handles data quantitatively, there is a problem that the robustness against such noise generation is low. In addition, it is often difficult to sufficiently correct the influence of such large noise in the preprocessing for the image.
さらに、MRI画像のような3次元画像に対して、従来の手法を適用する際には、特徴量を抽出するために、一度、2次元の断面画像を取ってから解析を行い、再度3次元の情報に組み直す必要性があるが、このような場合には、断面間のグローバルな特徴を抽出するのが困難である。また、近年のMRI画像計測技術の発展によって、テンソル値の3次元画像を取得することも出来るようになっているが、テンソル値(行列値)のデータは色相や輝度のようなデータとは異なり、各成分自体の値よりも、行列式、固有値およびトレースなどの量の方に本質的な意味があり、従来手法のような平均輝度やエッジ強度のような特徴量は有効な特徴量とはならない場合が多い。 Furthermore, when applying a conventional method to a three-dimensional image such as an MRI image, in order to extract a feature amount, a two-dimensional cross-sectional image is once taken and analyzed, and then again three-dimensional. However, in such a case, it is difficult to extract global features between cross sections. Also, recent developments in MRI image measurement technology have made it possible to acquire 3D images of tensor values, but tensor value (matrix value) data differs from data such as hue and brightness. The amount of determinants, eigenvalues, and traces is more meaningful than the value of each component itself, and features such as average luminance and edge strength as in the conventional method are effective features. Often not.
本発明は、このような従来技術における問題点に鑑みてなされたものであり、画像を複数の領域に分割処理するシステムであって、適切な特徴量をより客観的な規準によって抽出することにより、画像の解像度の違い、対象物体の変化、オクルージョンや環境の突然な変化などに対してロバストな領域分割を行うことができるシステムを提供しようとするものである。 The present invention has been made in view of such problems in the prior art, and is a system that divides an image into a plurality of regions by extracting an appropriate feature amount based on a more objective criterion. It is an object of the present invention to provide a system that can perform region segmentation that is robust against differences in image resolution, changes in target objects, occlusions, and sudden changes in the environment.
本発明者は、上記の課題を解決するために、まず画像の大きさに比べて十分に小さく予め定められた形状の領域(窓)を、この窓が画像全体を覆うように設定し(窓はお互いに重なりあっても良いし、重なりがないようにしても良い)、それぞれの窓から画像の小領域を切り出した部分画像の集合を作成し、切り出されたすべての部分画像同士の間にそれらの間の非類似度(あるいは類似度)に相当するような順序関係を定義し、この順序関係のみに基づいて各部分画像を任意の距離空間における点へと写像し、このようにして写像された距離空間における点の集合に関してクラスタリングを行い、各クラスタに属する点を逆写像して得られる部分画像を同じ領域に属するものとして再統合することで、画像を対象物体の領域と背景領域とに分割することに想到した。 In order to solve the above problem, the present inventor first sets an area (window) having a predetermined shape that is sufficiently smaller than the image size so that the window covers the entire image (window). May be overlapped with each other or may not overlap each other), and a set of partial images obtained by cutting out a small area of the image from each window is created, and between all the cut out partial images Define an order relationship that corresponds to the dissimilarity (or similarity) between them, and map each partial image to a point in an arbitrary metric space based on this order relationship. Clustering is performed on the set of points in the metric space, and the partial images obtained by reverse mapping the points belonging to each cluster are reintegrated as belonging to the same region, so that the image is divided into the target object region and the background region. In It was conceived to be split.
従来技術で説明した手法に比べ、本発明では、特に、従来技術(1)で説明した手法に比べ、写像元における非類似度あるいは類似度といった量の間の順序関係のみを使用すること、順序関係のみが大切なので、ノイズや環境の明るさの変動などに対してロバスト性が高いこと、先の非類似度あるいは類似度のスケールの選び方にも依存しないため、写像先の空間における距離スケールすなわち計量の定義に影響されずに、精度高く写像を構成することができること、かつ写像が非線形であっても適用することができること、さらに、従来技術(2)で説明した手法に比べ、予め非線形写像の形を決めておく必要がないため、任意の形の非線形写像を構成することができること、また、従来技術(3)で説明した手法に比べ、写像先の空間は連続空間として扱うことができ、自己組織化写像のように空間を離散化することによる写像の精度の悪化はないこと、かつ、距離スケールすなわち計量の定義に依存しないため、自己組織化写像及び計量的多次元尺度構成法のように精度良く写像を構成するためには、距離スケールを非常に正確に調整しなければならないというような問題に影響されなくなることに特徴を有している。 Compared to the method described in the prior art, the present invention uses only the order relationship between the quantities such as dissimilarity or similarity in the mapping source, especially in comparison with the method described in the prior art (1). Since only the relationship is important, it is highly robust against noise and fluctuations in the brightness of the environment, and it does not depend on how the dissimilarity or similarity scale is selected. The mapping can be constructed with high accuracy without being affected by the definition of the metric, and can be applied even when the mapping is nonlinear. Further, compared to the method described in the prior art (2), the nonlinear mapping is previously performed. Since it is not necessary to determine the shape of, it is possible to construct a non-linear mapping of an arbitrary shape, and compared to the method described in the prior art (3), the space of the mapping destination is Since it can be treated as a continuation space, there is no deterioration in the accuracy of mapping by discretizing the space as in the self-organizing mapping, and it does not depend on the definition of the distance scale, that is, the metric, so self-organizing mapping and metric In order to construct a mapping with high accuracy like the general multidimensional scaling method, it is characterized by being unaffected by the problem that the distance scale must be adjusted very accurately.
さらに、ノイズ削除、輝度補正、背景変動補正などの画像に対する前処理を実行しなくとも、これらの影響を受けずに処理を行うことが出来るため、計算コストを大きく削減することが可能であることにおいても特徴を有している。 Furthermore, the calculation cost can be greatly reduced because the processing can be performed without being affected by these effects without performing pre-processing on the image such as noise removal, brightness correction, and background fluctuation correction. Also has features.
さらに、MRI画像のような3次元画像に対しても、本発明では、3次元画像を2次元の断面に分割する必要性はなく、3次元画像のまま、解析を行うことが可能であり、また、近年のMRI画像計測技術の発展によって、テンソル値の3次元画像を取得することも出来るようになっているが、このようなテンソル値のデータであっても客観的に本質な特徴量を抽出することができるようになることにおいても特徴を有している。 Furthermore, even for a three-dimensional image such as an MRI image, in the present invention, it is not necessary to divide the three-dimensional image into two-dimensional cross sections, and it is possible to analyze the three-dimensional image as it is, In addition, with the recent development of MRI image measurement technology, it has become possible to acquire three-dimensional images of tensor values. Even with such tensor value data, objective feature values can be obtained objectively. It also has a feature in that it can be extracted.
以上のような特徴を実現するための手段として、本発明は、画像の分割対象領域に対して、該分割対象領域全体を覆うようにして所定形状の窓領域を複数個設定する窓領域設定手段と、前記各窓領域に含まれる部分画像の集合から、互いに異なる2つの部分画像の組を生成し、各組の部分画像間における類似度又は非類似度を、各部分画像から抽出される特徴量に基づいて計算する類似度計算手段と、前記類似度又は非類似度に基づいて前記各部分画像の組の間での順序関係を決定する順序関係決定手段と、前記各部分画像組の間で決定された順序関係が保存されるようにして、前記各部分画像を距離空間上に写像する写像手段と、前記距離空間上に写像された点を距離又は分布密度に基づいてクラスタを構成するクラスタリング手段と、各クラスタに属する点に対応する部分画像を前記写像の逆写像によって求め、これらの部分画像を1つの領域として統合する領域分割手段と、を含むことを特徴とする画像分割処理システムを提供するものである。 As means for realizing the above-described features, the present invention provides window area setting means for setting a plurality of window areas having a predetermined shape so as to cover the entire area to be divided with respect to the area to be divided. And a set of two different partial images from the set of partial images included in each window region, and the similarity or dissimilarity between the partial images of each set is extracted from each partial image A similarity calculation means for calculating based on a quantity, an order relation determining means for determining an order relation between each set of partial images based on the similarity or dissimilarity, and each partial image set The order relation determined in step (2) is saved, and mapping means for mapping the partial images on the metric space and the points mapped on the metric space form a cluster based on the distance or distribution density. Clustering means and each An image division processing system comprising: an area dividing unit that obtains a partial image corresponding to a point belonging to a raster by inverse mapping of the mapping and integrates the partial images as one area. is there.
本発明の画像分割処理システムにおいて、前記写像手段は、前記部分画像の組の間で決定された順序関係のみに基づいて写像を行うことを特徴とする。 In the image division processing system according to the present invention, the mapping means performs mapping based only on the order relationship determined between the sets of partial images.
本発明の画像分割処理システムにおいて、前記写像手段は、前記部分画像の組の間で決定された順序関係に基づいて各部分画像組に自然数による番号付けを行うとともに、前記部分画像集合から前記距離空間に写像される点の集合から、互いに異なる2点からなる組を生成し、それらの組に対して2点間の距離により順序関係を決定し、この順序関係に従ってそれらの組に自然数による番号付けを行い、前記部分画像の組に付けられた番号とそれらが前記距離空間に写像される点の組に付けられた番号との差の自乗を全ての前記部分画像の組について足し合わせた値が最小化されるようにして、写像を行うことを特徴とする。 In the image division processing system of the present invention, the mapping means performs natural numbering on each partial image set based on the order relationship determined between the partial image sets, and also sets the distance from the partial image set. A set of two different points is generated from a set of points mapped in the space, and the order relation is determined by the distance between the two points for those sets, and according to this order relation, a number by a natural number is assigned to these sets. A value obtained by adding the squares of the difference between the number assigned to the set of partial images and the number assigned to the set of points where they are mapped to the metric space for all the sets of partial images. The mapping is performed so that is minimized.
本発明の画像分割処理システムにおいて、前記写像手段は、前記部分画像の組が前記距離空間に写像される点の組の2点間距離を計算するとともに、前記写像される点の組において補助距離の大小関係によって定められる順序関係が、前記部分画像の組の間で決定される順序関係と一致するようにして、前記2点間距離の補助距離を計算し、前記写像される点の組における2点間距離と補助距離との差の自乗を全ての前記写像される点の組について足し合わせた値が最小化されるようにして、写像を行うことを特徴とする。 In the image division processing system of the present invention, the mapping means calculates a distance between two points of a set of points where the set of partial images is mapped to the metric space, and an auxiliary distance in the set of mapped points. The auxiliary distance of the distance between the two points is calculated so that the order relation determined by the magnitude relation of the two coincides with the order relation determined between the sets of partial images, and in the set of points to be mapped The mapping is performed such that the sum of the squares of the differences between the distances between the two points and the auxiliary distances is minimized for all the pairs of points to be mapped.
本発明の画像分割処理システムにおいて、各組の部分画像間における類似度又は非類似度は、各部分画像上の各画素の位置情報と、画素上の色相又は濃淡値(あるいはスカラー値)とを与える関数の汎関数として定義されていることを特徴とする。 In the image division processing system of the present invention, the similarity or dissimilarity between each set of partial images is obtained by calculating the positional information of each pixel on each partial image and the hue or gray value (or scalar value) on the pixel. It is defined as a functional of the given function.
本発明の画像分割処理システムにおいて、各組の部分画像間における類似度又は非類似度は、画像が画像間の差分又はマッチングによって生成された差分画像、オプティカルフロー画像、ステレオ画像のいずれかである場合には、各部分画像上の各画素の位置情報と、画素上の差分値、ベクトル値又は距離値とを与える関数の汎関数として定義されていることを特徴とする。ここで、差分とは色相の差分又は濃淡値の差分のことであり、負の値を取り得るものとする。また、オプティカルフローは速度場に相当し、2次元あるいは3次元のベクトルで表されるものである。 In the image division processing system of the present invention, the similarity or dissimilarity between each set of partial images is any one of a difference image, an optical flow image, and a stereo image generated by image difference or matching. In this case, it is defined as a functional of a function that gives position information of each pixel on each partial image and a difference value, vector value, or distance value on the pixel. Here, the difference is a difference in hue or a difference in gray value, and can assume a negative value. The optical flow corresponds to a velocity field and is represented by a two-dimensional or three-dimensional vector.
本発明の画像分割処理システムにおいて、各組の部分画像間における類似度又は非類似度は、各部分画像上の各画素の位置情報と、画素上の色相又は濃淡値とについてのヒストグラム関数の汎関数として定義されていることを特徴とする。 In the image division processing system according to the present invention, the similarity or dissimilarity between each set of partial images is a general function of the histogram function for the positional information of each pixel on each partial image and the hue or gray value on the pixel. It is defined as a function.
本発明の画像分割処理システムにおいて、各組の部分画像間における類似度又は非類似度は、各部分画像上の各画素の位置情報と、画素上の色相又は濃淡値とを与える関数に画像上の空間座標に関する微分演算子を作用させることで得られるベクトル値関数に関する汎関数として定義されていることを特徴とする。 In the image division processing system of the present invention, the degree of similarity or dissimilarity between each set of partial images is calculated by adding the positional information of each pixel on each partial image and the function that gives the hue or gray value on the pixel. It is defined as a functional related to a vector value function obtained by applying a differential operator related to the spatial coordinates of.
本発明の画像分割処理システムにおいて、各組の部分画像間における類似度又は非類似度は、各部分画像上の各画素の位置情報と、画素上の色相又は濃淡値とを与える関数に画像上の空間座標に関する積分演算子を作用させることで得られる関数に関する汎関数として定義されていることを特徴とする。 In the image division processing system of the present invention, the degree of similarity or dissimilarity between each set of partial images is calculated by adding the positional information of each pixel on each partial image and the function that gives the hue or gray value on the pixel. It is defined as a functional related to a function obtained by applying an integral operator related to the spatial coordinates of.
本発明の画像分割処理システムにおいて、各組の部分画像間における類似度又は非類似度は、各部分画像上の各画素の位置情報と、画素上の色相又は濃淡値とを与える関数に画像上の空間座標に関する微分演算子をさせることで得られるベクトル値関数を引数とする2階テンソル値関数に関して、その各成分に画像上の空間座標に関する積分演算子を作用させることで得られる2階テンソル値関数(構造テンソル)に関する汎関数として定義されていることを特徴とする。 In the image division processing system of the present invention, the degree of similarity or dissimilarity between each set of partial images is calculated by adding the positional information of each pixel on each partial image and the function that gives the hue or gray value on the pixel. A second-order tensor obtained by applying an integral operator related to the spatial coordinates on the image to each component of the second-order tensor value function that takes a vector value function obtained by performing a differential operator on the spatial coordinates of It is defined as a functional related to a value function (structure tensor).
本発明の画像分割処理システムにおいて、各組の部分画像間における類似度又は非類似度は、各部分画像上の各画素の位置情報と、画素上の色相又は白黒の濃淡値とを与える関数の自己相関関数に関する汎関数として定義されていることを特徴とする。 In the image division processing system of the present invention, the similarity or dissimilarity between each set of partial images is a function of giving positional information of each pixel on each partial image and hue or black and white gray value on the pixel. It is defined as a functional related to an autocorrelation function.
本発明の画像分割処理システムにおいて、各組の部分画像間における類似度又は非類似度は、各部分画像上の各画素の位置情報と、画素上の色相又は濃淡値とを与える関数に画像上の空間座標に関する微分演算子を作用させることで得られるベクトル値関数に関する自己相関関数に関する汎関数として定義されていることを特徴とする。 In the image division processing system of the present invention, the degree of similarity or dissimilarity between each set of partial images is calculated by adding the positional information of each pixel on each partial image and the function that gives the hue or gray value on the pixel. It is defined as a functional related to an autocorrelation function related to a vector value function obtained by applying a differential operator related to the spatial coordinates of
本発明の画像分割処理システムにおいて、前記クラスタリング手段は、全クラスタ数を予め指定せずにクラスタリング行うことを特徴とする。 In the image division processing system of the present invention, the clustering means performs clustering without specifying the total number of clusters in advance.
本発明の画像分割処理システムにおいて、前記クラスタリング手段は、混合確率分布を用いた尤度あるいは対数尤度最大化する処理、事後確率を最大化する処理、あるいは予め与えられた事前分布に基づく期待値を計算する処理のいずれかの処理を実行することを特徴とする。 In the image segmentation processing system of the present invention, the clustering means is a process for maximizing likelihood or log likelihood using a mixed probability distribution, a process for maximizing a posteriori probability, or an expected value based on a pre-distribution given in advance. Any one of the processes of calculating is performed.
本発明の画像分割処理システムにおいて、前記クラスタリング手段は、混合ガウス分布に関する最尤推定法、事後確率最大化法あるいはベイズ推定法を適用することによって定まる各ガウス成分が1つのクラスを表すとし、各部分画像が属するクラスタをその部分画像に対応する距離空間における点の各ガウス成分に関するマハラノビス距離が最小となるガウス成分として定めることを特徴とする。 In the image segmentation processing system according to the present invention, the clustering unit is configured such that each Gaussian component determined by applying a maximum likelihood estimation method, a posteriori probability maximization method, or a Bayesian estimation method for a mixed Gaussian distribution represents one class, The cluster to which the partial image belongs is defined as a Gaussian component that minimizes the Mahalanobis distance for each Gaussian component of the point in the metric space corresponding to the partial image.
本発明の画像分割処理システムにおいて、前記クラスタリング手段は、初期状態として全データを含む1つのクラスタから開始し、同じクラスタに属する2点間の距離が最大となる2点組を選択し、その距離が予め定められた閾値以上である場合に、そのクラスタを2分し、選択された2点をそれぞれのクラスタの種とし、同じクラスタに属していた全ての点に関して、これらのクラスタの種との間の距離を計算し、距離が小さい方のクラスタに属するように分類する処理を各クラスタにおけるクラスタ分割条件が満たされなくなるまで実行する分割クラスタリングを適用することを特徴とする。 In the image division processing system of the present invention, the clustering means selects a two-point set starting from one cluster including all data as an initial state, and having the maximum distance between two points belonging to the same cluster, and the distance. Is equal to or greater than a predetermined threshold, the cluster is divided into two, the selected two points are the seeds of each cluster, and all points belonging to the same cluster are It is characterized by applying division clustering that calculates the distance between them and executes the process of classifying them so as to belong to the cluster with the smaller distance until the cluster division condition in each cluster is not satisfied.
本発明の画像分割処理システムにおいて、前記クラスタリング手段は、全クラスタ数を予め指定して行うことを特徴とする。 In the image division processing system according to the present invention, the clustering means performs the process by specifying the total number of clusters in advance.
本発明の画像分割処理システムにおいて、前記クラスタリング手段は、K-最近接法又はK-平均法を実行するクラスタリングを行うことを特徴とする。 In the image segmentation processing system of the present invention, the clustering means performs clustering that executes a K-nearest neighbor method or a K-average method.
以上、説明したように、本発明の画像分割処理システムによれば、統計的な解析において、最も客観性の高い規準に従い、かつ画像における対象物体の違い、変化、オクルージョン及び環境の大きな変動に対してロバスト性が高い画像の領域分割において真に有益な特徴量を抽出することができ、しかも、この特徴量を用いることで、ロバスト性の高い対象物体の領域と背景領域との領域分割を行うことができるようになる。 As described above, according to the image segmentation processing system of the present invention, in statistical analysis, according to the most objective standard, and against the difference, change, occlusion, and large variation of the environment of the target object in the image. In addition, it is possible to extract truly useful features in image segmentation with high robustness, and by using these feature values, segment the target object region and background region with high robustness. Will be able to.
また、そのロバスト性の高さから、画像の解像度の違いや、各種の統計的または非統計的なノイズ、環境の状態の大きな変化があっても、特に特殊な前処理を行うことなく、領域の分割を行うことができ、適用できる問題の範囲が広がり、かつ、このような前処理のための処理時間を短縮することが可能となる。 In addition, because of its robustness, even if there are differences in image resolution, various statistical or non-statistical noises, and large changes in environmental conditions, the area can be processed without any special preprocessing. The range of applicable problems can be widened, and the processing time for such preprocessing can be shortened.
また、3次元以上の画像中における空間的な構造を特徴づける特徴量を抽出することができるようになる。さらには、テンソル値(行列値)の画像(2次元及び3次元以上)であっても、画像を特徴づける特徴量を抽出することができるようになる。 Further, it is possible to extract a feature amount that characterizes a spatial structure in a three-dimensional or higher image. Furthermore, even if the image is a tensor value (matrix value) (two-dimensional or three-dimensional or more), it is possible to extract a feature amount that characterizes the image.
以下、添付図面を参照しながら、本発明の画像分割処理システムを実施するための最良の形態を詳細に説明する。図1〜図5は、本発明の実施の形態を例示する図であり、これらの図において、同一の符号を付した部分は同一物を表わし、基本的な構成及び動作は同様であるものとする。 The best mode for carrying out the image division processing system of the present invention will be described below in detail with reference to the accompanying drawings. 1 to 5 are diagrams illustrating embodiments of the present invention. In these drawings, the same reference numerals denote the same components, and the basic configuration and operation are the same. To do.
図1は、本発明の一実施形態として構築される画像分割処理システムの内部構成を概略的に示す機能ブロック図である。この画像分割処理システムは、画像データを保存する記録装置100、ユーザに対するインタフェース画面や画像データを分割処理した結果などを表示するための表示装置101、ユーザからの操作入力を受け付けるためのキーボード102とマウスなどのポインティングデバイス103、画像分割処理に必要な演算処理、制御処理等を行う中央処理装置104、画像分割処理に必要なプログラムを格納するプログラムメモリ105、画像分割処理の対象となる画像データ110を格納するデータメモリ106を備えている。
FIG. 1 is a functional block diagram schematically showing an internal configuration of an image division processing system constructed as an embodiment of the present invention. The image division processing system includes a
図2は、図1に示す画像分割処理システムのプログラムメモリ105に含まれる各種の処理プログラムを概略的に示す機能ブロック図である。図2において、プログラムメモリ105には、画像入力処理部B1、画像処理部B2、部分画像構成処理部B3、初期特徴量計算処理部B4、非類似度計算処理部B5、順序関係保存特徴写像構成処理部B6、クラスタリング処理部B7、画像領域分割処理部B8、領域演算処理部B9、領域分割画像出力処理部B10が含まれている。以下において、これらの処理部における処理を詳細に説明する。
FIG. 2 is a functional block diagram schematically showing various processing programs included in the
画像入力処理部B1は、記録装置100などから分割対象となる画像データをメモリ106に取得する。以下においては、2次元画像を分割する場合について説明するが、本発明の画像分割処理システムは3次元画像であっても同様に分割処理を実行することができる。
The image input processing unit B1 acquires image data to be divided from the
画像処理部B2は、取得した対象画像がカラー画像である場合には、グレースケール画像への変換、輝度正規化、ヒストグラム平滑化、サイズ変更、ノイズ低減などの各種フィルタリング処理を行うものとする。但し、これらの画像処理は必ずしも行う必要があるものではなく、画像入力処理部B1により取得した画像データをそのまま用いて以下の処理を行ってもよい。従来技術では、ここで輝度の正規化処理などを行わないと以下の処理に重大な影響を与えることとなるが、本発明の画像分割処理システムは、ここで輝度の正規化処理を行わなくとも以下の処理に問題が生じないという点でロバスト性が高いシステムである。ここでは、取得した画像データはRGB値で表されるカラー画像データであり、画像処理部B2では特に上記したような画像処理を行わないものとする。 When the acquired target image is a color image, the image processing unit B2 performs various filtering processes such as conversion to a gray scale image, luminance normalization, histogram smoothing, size change, and noise reduction. However, these image processes are not necessarily performed, and the following process may be performed using the image data acquired by the image input processing unit B1 as it is. In the prior art, if the luminance normalization processing is not performed here, the following processing will be seriously affected. However, the image division processing system of the present invention does not perform the luminance normalization processing here. The system is highly robust in that no problems occur in the following processing. Here, the acquired image data is color image data represented by RGB values, and the image processing unit B2 does not perform the above-described image processing.
部分画像構成処理部B3は、画像データ全体を覆うように窓を設定して、複数の部分画像を構成する。ここで、画像データに対する窓の設定方法を図3に示す。図3に示す窓の設定方法は、注目領域が画像全体であり窓が矩形である場合の例であり、図3(a)に示すように窓はお互いに交差しないように設定されていても良く、あるいは図3(b)に示すようにお互いに交差するものがあるように設定されていても良い。また、窓の形も図3のような矩形ではなくても、注目領域全体を覆うことができるようになっていれば、形は任意で構わない。以下の処理では、図3(a)に示すような窓の設定方法を採用するが、部分画像の大きさは原理的にはかならずしも全て同じではなくても良い。 The partial image configuration processing unit B3 configures a plurality of partial images by setting a window so as to cover the entire image data. A window setting method for image data is shown in FIG. The window setting method shown in FIG. 3 is an example in which the region of interest is the entire image and the window is rectangular. Even if the windows are set so as not to cross each other as shown in FIG. Alternatively, it may be set so that there are those that cross each other as shown in FIG. Further, even if the shape of the window is not a rectangle as shown in FIG. 3, the shape may be arbitrary as long as it can cover the entire region of interest. In the following processing, the window setting method as shown in FIG. 3A is adopted, but the sizes of the partial images are not necessarily the same in principle.
初期特徴量計算処理部B4は、構成された各部分画像からヒストグラムやエッジ強度などの初期特徴量を抽出する。但し、特に特徴抽出せずに、与えられた部分画像そのものを特別な場合における特徴量として使用してもよい。ここでは、初期特徴抽出において、有益な情報を一切失わないようにするため、与えられた部分画像をそのまま初期特徴量として、以下の処理を行うものとする。 The initial feature quantity calculation processing unit B4 extracts initial feature quantities such as histograms and edge strengths from the configured partial images. However, the given partial image itself may be used as a feature amount in a special case without performing feature extraction. Here, in order to avoid losing any useful information in the initial feature extraction, it is assumed that the following processing is performed using the given partial image as an initial feature amount as it is.
非類似度計算処理部B5は、お互いに異なるように選ばれた2つの部分画像からなる組全体について、各組に属する2つの部分画像間の非類似度を計算する。非類似度としては、部分画像組全体から順序集合上への任意の写像を使用することができる。対象画像に応じて、適切な非類似度が与えられれば良い。以下の説明では、順序集合として、特に、実数を使用するものとする。今、各部分画像をCi (i=1,2,...,N) と表す。Nは部分画像構成処理部B3において、切り出された部分画像の数(すなわち設定された窓の数)を表す。部分画像Ciに属する画素をkと表し、部分画像Cj に属する画素をlと表し、画素kにおけるRGBの値をそれぞれRk 、Gk、Bk と表すことにする。非類似度としては、2つの部分画像それぞれに属する画素値すべてから実数への任意の関数が使用できる。例えば、画像の領域の平行移動や回転に対して不変性が高い非類似度の与え方としては、(1)式に示すような関数dが使用できる。 The dissimilarity calculation processing unit B5 calculates the dissimilarity between two partial images belonging to each group for the entire group composed of two partial images selected so as to be different from each other. As the dissimilarity, any mapping from the entire partial image set onto the ordered set can be used. An appropriate dissimilarity may be given according to the target image. In the following description, it is assumed that real numbers are used as the ordered set. Now, each partial image is represented as C i (i = 1, 2,..., N). N represents the number of partial images cut out (that is, the number of windows set) in the partial image configuration processing unit B3. A pixel belonging to the partial image C i is represented by k, a pixel belonging to the partial image C j is represented by l, and RGB values at the pixel k are represented by R k , G k , and B k , respectively. As the dissimilarity, any function from all the pixel values belonging to each of the two partial images to a real number can be used. For example, as a method of giving a dissimilarity that is highly invariant with respect to translation and rotation of an image area, a function d as shown in equation (1) can be used.
または、カラーヒストグラムインターセクションのような量も非類似度として良く使用される。このようにして与えられた非類似度に基づいて、部分画像組全体からなる集合の上に順序関係が、非類似度が写像する順序集合上において定義されている順序関係によって自然に定義される。このように、非類似度計算処理部B5では、各部分画像の組の間に順序関係が定義される。この順序関係を与える順序関数δを(2)式のように表す。 Alternatively, quantities such as color histogram intersection are often used as dissimilarities. Based on the dissimilarity given in this way, the order relationship is naturally defined by the order relationship defined on the ordered set to which the dissimilarity is mapped on the set of the entire partial image set. . As described above, in the dissimilarity calculation processing unit B5, an order relationship is defined between sets of partial images. An order function δ that gives this order relationship is expressed as in equation (2).
順序関数は(3)式のような関係を満たすものである。 The order function satisfies the relationship as shown in equation (3).
このように任意の2つのお互いに異なる部分画像の組の間に順序関係が定義された部分画像の集合は、順序関係保存特徴写像構成処理部B6において写像処理されることとなる。 Thus, a set of partial images in which an order relationship is defined between any two sets of different partial images is subjected to mapping processing in the order relationship preserving feature mapping configuration processing unit B6.
順序関係保存特徴写像構成処理部B6は、部分画像の集合をある距離空間の点の集合に1対1で写像する。ここで写像に関しては、写像によって写される距離空間上の点全体からなる集合から選ばれるお互いに異なる2点の組合せ全体がなす集合上に、2点間の距離に基づいて与えられる、お互いに異なる2点の組の全体からなる集合上に定義される順序関係が、写像元の部分画像のお互いに異なる2つの部分画像の組全体からなる集合対して、非類似度計算処理部B5において計算される順序関係と一致するように選ばれていれば、任意の写像を使用することができる。以下では、このような写像を「特徴写像」と呼ぶ。例えば、非計量多次元尺度構成法を用いて、このような写像の一つを構成することができる。特に、以下の処理では、非計量的多次元尺度構成法を部分画像の全体からなる集合上から選ばれたお互いに異なる2つの部分画像の組合せ全体からなる集合上に定義される順序関係のみを用いて特徴写像を構成する方法(非特許文献1参照)に従う。 The order relationship preserving feature mapping configuration processing unit B6 maps a set of partial images to a set of points in a certain metric space on a one-to-one basis. Here, regarding the mapping, given to the set formed by the whole combination of two different points selected from the set consisting of the entire points in the metric space mapped by the mapping, given based on the distance between the two points, The dissimilarity calculation processing unit B5 calculates the order relationship defined on the set consisting of two different sets of points for the set consisting of two sets of different partial images of the mapping source partial image. Any mapping can be used as long as it is chosen to match the ordering relationship being made. Hereinafter, such a map is referred to as a “feature map”. For example, one such map can be constructed using non-metric multidimensional scaling. In particular, in the following processing, only the order relationship defined on the set consisting of the combination of two different partial images selected from the set consisting of the entire partial images is applied to the non-metric multidimensional scaling method. It follows the method of using the feature map to construct (see Non-Patent Document 1).
特徴写像を構成するために、まず、部分画像Ci が写される距離空間上の点の位置座標をランダムに初期状態として選び、ベクトル To construct a feature map, first, the position coordinates of a point on the metric space where the partial image C i is mapped are randomly selected as the initial state,
(ア)以下の(7)式に定義する行列の成分を対角成分以外のすべてについて計算する。(対角成分はすべて0と置いても良い。)ここで、mは部分画像の組(Ci, Cj)の順位を表し、Tm は(6)式で定義される位置ベクトルの組 (A) The matrix components defined in the following equation (7) are calculated for all components other than the diagonal components. (All the diagonal components may be set to 0.) Here, m represents the order of the set of partial images (C i , C j ), and T m is a set of position vectors defined by equation (6).
(イ)位置ベクトル
(ウ)手順(イ)で求めた差分ベクトルによって、位置ベクトルを以下の(9)式のように更新する。 (C) The position vector is updated according to the following equation (9) with the difference vector obtained in the procedure (a).
(エ)更新された位置ベクトル
(オ)手順(ア)〜(エ)を終了条件が満たされるまで繰返し行う。例えば、(7)式で与えられる行列Di,j の全ての非対角成分がすべて0となるか、予め決めた最大繰返し数に達するまで繰り返す。 (E) Repeat steps (a) to (d) until the end condition is satisfied. For example, the processing is repeated until all the off-diagonal components of the matrix D i, j given by the equation (7) are all 0 or a predetermined maximum number of repetitions is reached.
以上のようにして、順序関係保存特徴写像構成処理部B6において特徴写像が構成される。この処理の様子を図4に示す。図4は、2次元のユークリッド空間に写像する特徴写像の例である。ある領域に属する部分画像は同じ領域に属する部分画像とは非類似度が小さく、他の流域に属する部分画像とは非類似度が大きいので、同一の領域に属する部分画像同士は写像先の距離空間では近くの点に写像され、他の領域に属する部分画像に対応する点からは離れている。部分画像の集合及び特徴写像によって写像される距離空間上の点の集合は、クラスタリング処理部B7によってさらに処理される。 As described above, the feature map is configured in the order relation storage feature map configuration processing unit B6. The state of this process is shown in FIG. FIG. 4 is an example of a feature map that maps to a two-dimensional Euclidean space. Partial images belonging to a certain area have a low degree of dissimilarity with partial images belonging to the same area, and a large degree of dissimilarity with partial images belonging to other basins. In space, it is mapped to a nearby point and is away from points corresponding to partial images belonging to other areas. The set of partial images and the set of points on the metric space mapped by the feature map are further processed by the clustering processing unit B7.
クラスタリング処理部B7は、順序関係保存特徴写像構成処理部B6で計算された特徴写像による部分画像全体の像である位置ベクトル The clustering processing unit B7 is a position vector that is an image of the entire partial image based on the feature map calculated by the order relation preserving feature map configuration processing unit B6.
混合ガウス分布を使用する場合には、位置ベクトルの配置
図5(a)に、混合ガウス分布によるクラスタリング結果の例を表す。楕円は同一のクラスタに属する点を囲んでいる。 FIG. 5A shows an example of the clustering result by the mixed Gaussian distribution. Ellipses enclose points that belong to the same cluster.
以上のようにして、クラスタリング処理部B7では、順序関係保存特徴写像構成処理部B6で計算された特徴写像による部分画像全体の像である位置ベクトル As described above, in the clustering processing unit B7, a position vector that is an image of the entire partial image based on the feature map calculated by the order relation preserving feature map configuration processing unit B6.
画像領域分割処理部B8では、クラスタリング処理部B7により構成されたリストに基づいて、各クラスタについて、そのクラスタに属する位置ベクトルの特徴写像による逆写像の像である部分画像を切り出す際に使用した窓の領域を計算する。このようにして計算された窓領域の集合和を計算し、そのクラスタに対応する領域とする。このようにして、各クラスタに属する領域を計算することができる。このとき、窓領域に重なりがある場合には、以下の領域演算処理部B9により窓領域の重なりを領域演算し、その重なり領域を再分類する。 In the image area division processing unit B8, based on the list configured by the clustering processing unit B7, for each cluster, a window used for cutting out a partial image that is a reverse mapping image by a feature mapping of position vectors belonging to the cluster Calculate the area of. The set sum of the window areas calculated in this way is calculated and set as an area corresponding to the cluster. In this way, the area belonging to each cluster can be calculated. At this time, if there is an overlap in the window area, the following area calculation processing unit B9 calculates the overlap of the window areas and reclassifies the overlap area.
領域演算処理部B9は、窓領域に重なりがある場合に、重なり領域を計算するための処理を行う部分である。一般的には、窓の重なりがある領域では、まず、重なっている窓がどの分割領域に属すると判定されたかを、その窓領域の大きさで重み付けして投票し、もっとも多く投票された分割領域に属すると判定する方法をとる。このような投票において、同じ値となる分割領域が複数現れた場合には、それらの中から一様かつランダムに一つと選択するか、または、判定不可能領域という特別な分割領域を一つ追加し、その分割領域に属するものとする。尚、重なりがない窓領域を使用する場合には、領域演算処理部B9による処理は省略することができる。 The area calculation processing unit B9 is a part that performs processing for calculating an overlapping area when there is an overlapping window area. In general, in an area with overlapping windows, first, the divided areas that have been voted the most are voted by weighting the size of the window area to which the overlapping window is determined to belong. A method of determining that the image belongs to the area is taken. In such voting, when multiple divided areas with the same value appear, select one uniformly and randomly from them, or add one special divided area, which is an undecidable area And belong to the divided area. In addition, when using the window area | region which does not overlap, the process by area | region calculation process part B9 can be abbreviate | omitted.
領域分割画像出力処理部B10では、画像領域分割処理部B8によるクラスタリング結果又は領域演算処理部B9による再分類結果に基づいて、各クラスタに属する領域を統合し、対象画像の領域分割結果の表示データを生成して出力する。このようにして、画像分割処理システムの表示装置101には、画像データを領域分割した結果が図5(b)のようにして表示されることとなる。
The area division image output processing unit B10 integrates the areas belonging to each cluster based on the clustering result by the image area division processing part B8 or the reclassification result by the area calculation processing part B9, and displays display data of the area division result of the target image Is generated and output. In this way, the
以上、本発明の画像分割処理システムについて、具体的な実施の形態を示して説明したが、本発明はこれらに限定されるものではない。当業者であれば、本発明の要旨を逸脱しない範囲内において、上記各実施形態又は他の実施形態にかかる発明の構成及び機能に様々な変更・改良を加えることが可能である。 While the image division processing system of the present invention has been described with reference to specific embodiments, the present invention is not limited to these. A person skilled in the art can make various changes and improvements to the configurations and functions of the invention according to the above-described embodiments or other embodiments without departing from the gist of the present invention.
本発明の画像分割処理システムは、医療システム、監視システム、検査システムおよび高度道路交通システム(Intelligent Transportation Systems;ITS)などにおいて、計測された画像を領域分割することにより画像中の物体を検出及び認識するシステムとして利用可能である。 The image segmentation processing system of the present invention detects and recognizes an object in an image by segmenting the measured image in a medical system, a monitoring system, an inspection system, an intelligent transportation system (ITS), and the like. It can be used as a system.
100 記録装置
101 表示装置
102 キーボード
103 ポインティングデバイス
104 中央処理装置
105 プログラムメモリ
106 データメモリ
110 画像データ
DESCRIPTION OF
Claims (19)
前記各窓領域に含まれる部分画像の集合から、互いに異なる2つの部分画像の組を生成し、各組の部分画像間における類似度又は非類似度を、各部分画像から抽出される特徴量に基づいて計算する類似度計算手段と、
前記類似度又は非類似度に基づいて前記各部分画像の組の間での順序関係を決定する順序関係決定手段と、
前記各部分画像組の間で決定された順序関係が保存されるようにして、前記各部分画像を距離空間上に写像する写像手段と、
前記距離空間上に写像された点を距離又は分布密度に基づいてクラスタを構成するクラスタリング手段と、
各クラスタに属する点に対応する部分画像を前記写像の逆写像によって求め、これらの部分画像を1つの領域として統合する領域分割手段と、を含むことを特徴とする画像分割処理システム。 A window area setting means for setting a plurality of window areas having a predetermined shape so as to cover the entire area to be divided with respect to the area to be divided of the image;
A set of two different partial images is generated from the set of partial images included in each window region, and the similarity or dissimilarity between the partial images of each set is used as a feature amount extracted from each partial image. Similarity calculation means for calculating based on;
Order relation determining means for determining an order relation between the sets of partial images based on the similarity or dissimilarity;
Mapping means for mapping each partial image on a metric space in such a manner that the order relationship determined between the partial image sets is stored;
Clustering means for forming a cluster based on the distance or distribution density of the points mapped on the metric space;
An image division processing system comprising: an area dividing unit that obtains partial images corresponding to points belonging to each cluster by inverse mapping of the mapping, and integrates the partial images as one area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004205120A JP4477439B2 (en) | 2004-07-12 | 2004-07-12 | Image segmentation system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004205120A JP4477439B2 (en) | 2004-07-12 | 2004-07-12 | Image segmentation system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006031114A true JP2006031114A (en) | 2006-02-02 |
JP4477439B2 JP4477439B2 (en) | 2010-06-09 |
Family
ID=35897427
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004205120A Expired - Fee Related JP4477439B2 (en) | 2004-07-12 | 2004-07-12 | Image segmentation system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4477439B2 (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010079556A1 (en) | 2009-01-09 | 2010-07-15 | パナソニック株式会社 | Moving object detection method and moving object detection apparatus |
WO2011013281A1 (en) | 2009-07-29 | 2011-02-03 | パナソニック株式会社 | Mobile body detection method and mobile body detection apparatus |
US8068701B2 (en) | 2006-08-31 | 2011-11-29 | Sony Corporation | Image-processing apparatus, image-processing method and image-processing program |
JP2011529349A (en) * | 2008-05-23 | 2011-12-08 | ロンゴーニ,サルヴァトーレ | Method for designing and / or selecting a device and / or material to be implanted in a human or animal body tissue and device and / or material according to that method |
CN102741884A (en) * | 2010-07-27 | 2012-10-17 | 松下电器产业株式会社 | Mobile body detection device and mobile body detection method |
US8401243B2 (en) | 2009-12-28 | 2013-03-19 | Panasonic Corporation | Articulated object region detection apparatus and method of the same |
US8560488B2 (en) | 2008-08-08 | 2013-10-15 | Nec Corporation | Pattern determination devices, methods, and programs |
KR101507732B1 (en) | 2013-07-30 | 2015-04-07 | 국방과학연구소 | Method for segmenting aerial images based region and Computer readable storage medium for storing program code executing the same |
JP2022116080A (en) * | 2016-09-05 | 2022-08-09 | ケイロン メディカル テクノロジーズ リミテッド | Multi-modal medical image processing |
-
2004
- 2004-07-12 JP JP2004205120A patent/JP4477439B2/en not_active Expired - Fee Related
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8068701B2 (en) | 2006-08-31 | 2011-11-29 | Sony Corporation | Image-processing apparatus, image-processing method and image-processing program |
JP2011529349A (en) * | 2008-05-23 | 2011-12-08 | ロンゴーニ,サルヴァトーレ | Method for designing and / or selecting a device and / or material to be implanted in a human or animal body tissue and device and / or material according to that method |
US8560488B2 (en) | 2008-08-08 | 2013-10-15 | Nec Corporation | Pattern determination devices, methods, and programs |
WO2010079556A1 (en) | 2009-01-09 | 2010-07-15 | パナソニック株式会社 | Moving object detection method and moving object detection apparatus |
US8213681B2 (en) | 2009-01-09 | 2012-07-03 | Panasonic Corporation | Moving object detection method and moving object detection apparatus |
WO2011013281A1 (en) | 2009-07-29 | 2011-02-03 | パナソニック株式会社 | Mobile body detection method and mobile body detection apparatus |
US8363902B2 (en) | 2009-07-29 | 2013-01-29 | Panasonic Corporation | Moving object detection method and moving object detection apparatus |
US8401243B2 (en) | 2009-12-28 | 2013-03-19 | Panasonic Corporation | Articulated object region detection apparatus and method of the same |
CN102741884A (en) * | 2010-07-27 | 2012-10-17 | 松下电器产业株式会社 | Mobile body detection device and mobile body detection method |
US8599252B2 (en) | 2010-07-27 | 2013-12-03 | Panasonic Corporation | Moving object detection apparatus and moving object detection method |
KR101507732B1 (en) | 2013-07-30 | 2015-04-07 | 국방과학연구소 | Method for segmenting aerial images based region and Computer readable storage medium for storing program code executing the same |
JP2022116080A (en) * | 2016-09-05 | 2022-08-09 | ケイロン メディカル テクノロジーズ リミテッド | Multi-modal medical image processing |
Also Published As
Publication number | Publication date |
---|---|
JP4477439B2 (en) | 2010-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4376145B2 (en) | Image classification learning processing system and image identification processing system | |
US8345974B2 (en) | Hierarchical recursive image segmentation | |
US10346728B2 (en) | Nodule detection with false positive reduction | |
EP2701098B1 (en) | Region refocusing for data-driven object localization | |
EP1296279B1 (en) | Method and computer program product for locating facial features | |
KR101548928B1 (en) | Invariant visual scene and object recognition | |
JP4545641B2 (en) | Similar image retrieval method, similar image retrieval system, similar image retrieval program, and recording medium | |
US20110158535A1 (en) | Image processing apparatus and image processing method | |
US20100215269A1 (en) | Iterative fisher linear discriminant analysis | |
JP4588575B2 (en) | Method, apparatus and program for detecting multiple objects in digital image | |
US9449395B2 (en) | Methods and systems for image matting and foreground estimation based on hierarchical graphs | |
TWI701608B (en) | Neural network system, method and device for image matching and positioning | |
KR101618996B1 (en) | Sampling method and image processing apparatus for estimating homography | |
Spiclin et al. | Groupwise registration of multimodal images by an efficient joint entropy minimization scheme | |
Limper et al. | Mesh Saliency Analysis via Local Curvature Entropy. | |
US20230144724A1 (en) | Method for Finding Image Regions that Significantly Influence Classification in a Tool for Pathology Classification in a Medical Image | |
US20050105794A1 (en) | Greedy support vector machine classification for feature selection applied to the nodule detection problem | |
JP4477439B2 (en) | Image segmentation system | |
JP4434868B2 (en) | Image segmentation system | |
Khoder et al. | Multicriteria classification method for dimensionality reduction adapted to hyperspectral images | |
US20110150344A1 (en) | Content based image retrieval apparatus and method | |
KR102405168B1 (en) | Method and apparatus for generating of data set, computer-readable storage medium and computer program | |
EP4091093A1 (en) | Shift invariant loss for deep learning based image segmentation | |
Kanjanawattana et al. | Extraction and identification of bar graph components by automatic epsilon estimation | |
Zou et al. | A Dirichlet Process Mixture Model for Directional-Linear Data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070115 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091208 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100204 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100302 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100311 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4477439 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130319 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130319 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130319 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130319 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140319 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |