JP2010211757A - Apparatus, method, and program for processing image - Google Patents

Apparatus, method, and program for processing image Download PDF

Info

Publication number
JP2010211757A
JP2010211757A JP2009060044A JP2009060044A JP2010211757A JP 2010211757 A JP2010211757 A JP 2010211757A JP 2009060044 A JP2009060044 A JP 2009060044A JP 2009060044 A JP2009060044 A JP 2009060044A JP 2010211757 A JP2010211757 A JP 2010211757A
Authority
JP
Japan
Prior art keywords
image
matrix
processing apparatus
image matrix
smoothing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009060044A
Other languages
Japanese (ja)
Inventor
Kazuhiko Amano
和彦 天野
Koichi Shimizu
孝一 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hokkaido University NUC
Seiko Epson Corp
Original Assignee
Hokkaido University NUC
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hokkaido University NUC, Seiko Epson Corp filed Critical Hokkaido University NUC
Priority to JP2009060044A priority Critical patent/JP2010211757A/en
Publication of JP2010211757A publication Critical patent/JP2010211757A/en
Pending legal-status Critical Current

Links

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To remove the non-uniformity of a luminance value in a processing object image with high precision without using the determination of a weighting factor. <P>SOLUTION: A matrix conversion part 12 converts a processing object image into an image matrix with the luminance value of each pixel of the processing object image as elements. Also, a smoothing part 13 performs the convolution of a smoothed matrix with respect to the image matrix converted by the matrix conversion part 12, and generates a smoothed image matrix with the luminance value of each pixel of the smoothed image obtained by smoothing the processing object image as elements. A division part 16 calculates a division processing matrix by performing the division processing to the image matrix by the smoothed image matrix, and an image conversion part 19 converts the division processing matrix calculated by the division part 16 into an matrix. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明のいくつかの態様は、処理対象画像から空間周波数の低い輝度値のムラを除去し、所定の抽出対象を抽出する画像処理装置、画像処理方法及びプログラムに関する。   Some embodiments of the present invention relate to an image processing apparatus, an image processing method, and a program for removing unevenness of a luminance value having a low spatial frequency from a processing target image and extracting a predetermined extraction target.

近年、セキュリティーに対する要求の高まりを受けて、個人の認証についての重要性が急速に増大している。中でも指紋、虹彩、静脈等本人固有の身体的な特徴を利用したバイオメトリクス認証が実用化されている。
そして、身に着けた認証センサーをトランスポンダーとして利用することにより、ユーザーによる特別な認証動作を行わずに個人認証を行うことができる。このような次世代個人認証を行うために、常時装着可能な静脈認証センサーの開発が求められている。
また、医療分野では、下肢に多く見られる静脈瘤の診断などに用いる静脈血管周辺組織の観察の手段として携帯型の静脈透視技術が求められている。
In recent years, with the increasing demand for security, the importance of personal authentication is rapidly increasing. In particular, biometrics authentication using physical characteristics unique to the person such as fingerprints, irises, veins, etc. has been put into practical use.
By using the worn authentication sensor as a transponder, personal authentication can be performed without performing a special authentication operation by the user. In order to perform such next-generation personal authentication, development of a vein authentication sensor that can be always worn is required.
Further, in the medical field, a portable vein fluoroscopy technique is required as a means for observing a tissue around a venous blood vessel used for diagnosis of varicose veins often found in the lower limbs.

従来、静脈認証センサーは、光を体内に入射し、体内で透過または反射した光を集光することで、静脈像を取得している。しかし、この方法によって透視画像を撮影すると、例えば腱や骨等の血管以外の生体構造等によって観測域内の光強度分布が局所的に不均一となり、生成した透視画像に輝度値のムラが生じるため、明瞭な静脈像を取得することができない。   Conventionally, a vein authentication sensor acquires a vein image by entering light into the body and collecting the light transmitted or reflected in the body. However, when a fluoroscopic image is taken by this method, for example, the light intensity distribution in the observation area is locally non-uniform due to a living body structure other than a blood vessel such as a tendon or a bone, and the generated fluoroscopic image has uneven brightness values Unable to obtain a clear vein image.

従来は、認証に利用する静脈像の空間周波数成分以外を減算処理によって除去することで上述した問題を解決していた(例えば、非特許文献1を参照)。
つまり、撮影した透視画像(原画像)に対し、所定ピクセル数の低域通過フィルターを作用させ、原画像を平滑化する。次に、原画像と平滑化された画像との差分を画素毎にとることで低周波成分を抑制し、輝度値のムラを抑制した静脈像を得ることができる。このとき、平滑化された画像に補正割合として適当な重み係数を乗じてから減算を行うことで、より明瞭な静脈像を得ることができる。
このような画像ムラ除去方法は式(1)のように表せる。
Conventionally, the above-described problem has been solved by removing by subtraction processing other than the spatial frequency component of the vein image used for authentication (see Non-Patent Document 1, for example).
That is, a low-pass filter having a predetermined number of pixels is applied to the photographed fluoroscopic image (original image) to smooth the original image. Next, by taking the difference between the original image and the smoothed image for each pixel, it is possible to obtain a vein image that suppresses low-frequency components and suppresses unevenness in luminance values. At this time, a more clear vein image can be obtained by performing the subtraction after multiplying the smoothed image by an appropriate weighting factor as a correction ratio.
Such an image unevenness removal method can be expressed as shown in Equation (1).

ただし、forig(x,y)、fLPF(x,y)、及びfsub(x,y)は、それぞれ原画像、低域通過フィルターによって平滑化された画像、及び差分処理画像においてx座標の値がx、y座標の値がyである画素の輝度値を示す離散変数x、yの関数を示すものである。
また、αは差分の重み係数である。
However, f orig (x, y), f LPF (x, y), and f sub (x, y) are the x coordinate in the original image, the image smoothed by the low-pass filter, and the difference processing image, respectively. Is a function of discrete variables x and y indicating the luminance value of a pixel whose value is x and whose y coordinate value is y.
Α is a difference weighting coefficient.

Miyuki Kono, Hironori Ueki, and Shin-ichiro Uemura, “Near-infrared finger vein patterns for personal identification,” Applied Optics, Vol. 41, Issue 35, pp. 7429-7436Miyuki Kono, Hironori Ueki, and Shin-ichiro Uemura, “Near-infrared finger vein patterns for personal identification,” Applied Optics, Vol. 41, Issue 35, pp. 7429-7436

しかしながら、従来の画像ムラ除去方法では、原画像毎に重み係数αの適切な値が異なるため、画像毎に重み係数αの適切な値を検出する必要があった。重み係数αの検出を人手によって行う場合、静脈認証センサーによる自動的な認証ができなくなってしまい、また重み係数αの検出に多大な労力を費やさなければならないという問題があった。また、重み係数αを固定値として計算することもできるが、その場合、画像毎に抽出する静脈像の明瞭度が異なってしまうという問題があった。
本発明は上記の点に鑑みてなされたものであり、その目的は、重み係数の決定を用いることなく精度よく処理対象画像における輝度値のムラを除去する画像処理装置、画像処理方法及びプログラムを提供することにある。
However, in the conventional image unevenness removal method, since an appropriate value of the weighting factor α is different for each original image, it is necessary to detect an appropriate value of the weighting factor α for each image. When the weighting factor α is detected manually, there is a problem that automatic authentication by the vein authentication sensor cannot be performed, and a great deal of labor must be spent on detecting the weighting factor α. Further, although the weighting factor α can be calculated as a fixed value, there has been a problem in that the clarity of the vein image extracted for each image differs.
The present invention has been made in view of the above points, and an object of the present invention is to provide an image processing apparatus, an image processing method, and a program for accurately removing luminance value unevenness in a processing target image without using determination of a weighting factor. It is to provide.

本発明のいくつかの態様は上記の課題を解決するためになされたものであり、複数の画素に対する第1の画像行列を生成する第1の画像行列生成手段と、前記複数の画素が表示する処理対象画像に対して平滑化を行うことにより得られる第1の平滑化画像に対する第2の画像行列を生成する第2の画像行列生成手段と、前記第1の画像行列の第1の部分を前記第1の部分に対応する前記第2の画像行列の第2の部分により除算する除算手段と、前記除算手段により算出された第3の画像行列を変換する画像変換手段と、を備え、前記第1の画像行列は、前記複数の画素の各々に対して設定された輝度値を要素としている、ことを特徴とする画像処理装置である。すなわち、前記画像処理装置は、処理対象画像と平滑化した処理対象画像の各画素間の変化率を画像に出力することでムラの除去を行う。したがって、補正割合を示す重み係数を用いることなく処理対象画像における輝度値のムラを除去することができる。   Some aspects of the present invention have been made to solve the above-described problem, and a first image matrix generation unit that generates a first image matrix for a plurality of pixels, and the plurality of pixels display the first image matrix generation unit. Second image matrix generation means for generating a second image matrix for the first smoothed image obtained by performing smoothing on the processing target image; and a first portion of the first image matrix. Division means for dividing by a second part of the second image matrix corresponding to the first part, and image conversion means for converting a third image matrix calculated by the division means, The first image matrix is an image processing apparatus characterized in that a luminance value set for each of the plurality of pixels is used as an element. That is, the image processing apparatus removes unevenness by outputting a change rate between each pixel of the processing target image and the smoothed processing target image to the image. Therefore, it is possible to remove unevenness of the luminance value in the processing target image without using a weighting factor indicating the correction ratio.

また、本発明のいくつかの態様は、前記第3の画像行列に対して平滑化を行い、第4の画像行列を生成する第4の画像行列生成手段をさらに備える、ことを特徴とする。これにより、画像変換手段は高周波ノイズを除去した画像を出力することができる。   In addition, some aspects of the present invention are characterized by further comprising fourth image matrix generation means for performing smoothing on the third image matrix and generating a fourth image matrix. As a result, the image conversion means can output an image from which high-frequency noise has been removed.

また、本発明のいくつかの態様は、前記平滑化が前記処理対象画像から所定の抽出対象の空間周波数以上の周波数成分を除去することによって行われる、ことを特徴とする。これにより、除算手段は、抽出対象の空間周波数より低い空間周波数成分を除去することができる。   Further, some aspects of the present invention are characterized in that the smoothing is performed by removing frequency components equal to or higher than a predetermined extraction target spatial frequency from the processing target image. Thereby, the dividing means can remove a spatial frequency component lower than the spatial frequency to be extracted.

また、本発明のいくつかの態様は、前記平滑化が前記処理対象画像から前記抽出対象の空間周波数の3倍乃至6倍の平滑化であることが望ましい。   In some embodiments of the present invention, it is desirable that the smoothing is smoothing that is 3 to 6 times the spatial frequency of the extraction target from the processing target image.

また、本発明のいくつかの態様は、前記第2の画像行列生成手段は、前記処理対象画像の各画素の輝度値を要素とする画像行列と全ての要素の値が等しい正方行列との畳み込み演算を行うことで前記第2の画像行列を生成する、ことを特徴とする。   Further, in some aspects of the present invention, the second image matrix generation unit convolves an image matrix having a luminance value of each pixel of the processing target image with a square matrix in which all the element values are equal. The second image matrix is generated by performing an operation.

また、本発明のいくつかの態様は、前記処理対象画像が血管透視画像であり、抽出対象が血管像である、ことを特徴とする。すなわち、前記画像ムラ除去装置を血管透視画像に対して用いることで、血管透視画像における輝度値のムラを除去し、血管像を鮮明にすることができる。   Also, some aspects of the present invention are characterized in that the processing target image is a blood vessel fluoroscopic image and the extraction target is a blood vessel image. That is, by using the image unevenness removal apparatus for a blood vessel fluoroscopic image, luminance value unevenness in the blood vessel fluoroscopic image can be removed and the blood vessel image can be made clear.

また、本発明のいくつかの態様は、前記画像変換手段は、前記第3の画像行列の要素の最小値と最大値とに基づいて相対的に画素の各々に対する輝度値を決定する、ことを特徴とする。これにより、前記画像変換手段が各要素の値をそのまま輝度値として画像に変換した場合と比較して、コントラストが高い画像を生成することができる。   Further, according to some aspects of the present invention, the image conversion unit relatively determines a luminance value for each of the pixels based on a minimum value and a maximum value of elements of the third image matrix. Features. As a result, it is possible to generate an image with high contrast as compared with the case where the image conversion means converts the value of each element into an image as it is as a luminance value.

また、本発明のいくつかの態様は、画像処理装置を用いた画像処理方法であって、第1の画像行列生成手段は、複数の画素の各々に対して設定された輝度値を要素とする第1の画像行列を生成し、第2の画像行列生成手段は、前記複数の画素が表示する処理対象画像に対して平滑化を行うことにより得られる第1の平滑化画像に対する第2の画像行列を生成し、除算手段は、前記第1の画像行列の第1の部分を前記第1の部分に対応する前記第2の画像行列の第2の部分により除算し、画像変換手段は、前記除算手段により算出された第3の画像行列を変換し、ことを特徴とする。   In addition, some aspects of the present invention are image processing methods using an image processing apparatus, wherein the first image matrix generation unit uses a luminance value set for each of a plurality of pixels as an element. The first image matrix is generated, and the second image matrix generation means is a second image for the first smoothed image obtained by smoothing the processing target image displayed by the plurality of pixels. Generating a matrix, and dividing means divides the first part of the first image matrix by the second part of the second image matrix corresponding to the first part; The third image matrix calculated by the dividing means is converted, and is characterized in that.

また、本発明のいくつかの態様は、処理対象画像における輝度値のムラを除去し、所定の抽出対象を抽出する画像ムラ除去装置を、複数の画素に対する第1の画像行列を生成する第1の画像行列生成手段、前記複数の画素が表示する処理対象画像に対して平滑化を行うことにより得られる第1の平滑化画像に対する第2の画像行列を生成する第2の画像行列生成手段、前記第1の画像行列の第1の部分を前記第1の部分に対応する前記第2の画像行列の第2の部分により除算する除算手段、前記除算手段により算出された第3の画像行列を変換する画像変換手段、として動作させ、前記第1の画像行列は、前記複数の画素の各々に対して設定された輝度値を要素としている、ことを特徴とするプログラムである。   According to some aspects of the present invention, an image unevenness removal apparatus that removes unevenness of luminance values in a processing target image and extracts a predetermined extraction target generates a first image matrix for a plurality of pixels. Image matrix generation means, second image matrix generation means for generating a second image matrix for the first smoothed image obtained by smoothing the processing target image displayed by the plurality of pixels, Dividing means for dividing the first part of the first image matrix by the second part of the second image matrix corresponding to the first part, and the third image matrix calculated by the dividing means The program is operated as an image conversion means for conversion, and the first image matrix has a luminance value set for each of the plurality of pixels as an element.

画像ムラ除去装置の構成を示す概略ブロック図である。It is a schematic block diagram which shows the structure of an image nonuniformity removal apparatus. 画像ムラ除去装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of an image nonuniformity removal apparatus. 各ステップにおける行列の内容を示す図である。It is a figure which shows the content of the matrix in each step. 従来の手法と本発明による手法とを比較する図である。It is a figure which compares the conventional method and the method by this invention.

以下、図面を参照しながら本発明の実施形態について詳しく説明する。
図1は、本発明の一実施形態による画像ムラ除去装置(画像処理装置)の構成を示す概略ブロック図である。
画像ムラ除去装置10は、対象画像記憶部11、行列変換部12(第1の画像行列生成手段)、平滑化部13(第2の画像行列生成手段)、行列抽出部14、15、除算部16(除算手段)、平滑化部17(第4の画像行列生成手段)、行列抽出部18、画像変換部19(画像変換手段)を備える。
処理対象画像記憶部11は、画像のムラを除去する対象となる処理対象画像を記憶する。本実施形態では、処理対象画像が血管透視画像であり、抽出対象が静脈像(血管像)である場合を説明する。
行列変換部12は、画像を行列に変換する。
平滑化部13、17は、入力された行列に対して所定の平滑化行列の畳み込み演算を行う。
行列抽出部14、15、18は、入力された行列から部分行列を抽出する。
除算部16は、行列の要素毎の除算を行う。
画像変換部19は、行列を画像に変換する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a schematic block diagram showing the configuration of an image unevenness removal apparatus (image processing apparatus) according to an embodiment of the present invention.
The image unevenness removal apparatus 10 includes a target image storage unit 11, a matrix conversion unit 12 (first image matrix generation unit), a smoothing unit 13 (second image matrix generation unit), matrix extraction units 14 and 15, and a division unit. 16 (dividing means), a smoothing section 17 (fourth image matrix generating means), a matrix extracting section 18 and an image converting section 19 (image converting means).
The processing target image storage unit 11 stores a processing target image that is a target for removing image unevenness. In the present embodiment, a case will be described in which the processing target image is a blood vessel fluoroscopic image and the extraction target is a vein image (blood vessel image).
The matrix conversion unit 12 converts an image into a matrix.
The smoothing units 13 and 17 perform a predetermined smoothing matrix convolution operation on the input matrix.
The matrix extraction units 14, 15, and 18 extract a partial matrix from the input matrix.
The division unit 16 performs division for each element of the matrix.
The image conversion unit 19 converts the matrix into an image.

そして、画像ムラ除去装置10において、行列変換部12は、処理対象画像を当該処理対象画像の各画素の輝度値を要素とする画像行列に変換し、平滑化部13は、行列変換部12が変換した画像行列に対して平滑化行列の畳み込み演算を行うことで、処理対象画像を平滑化した平滑化画像の各画素の輝度値を要素とする平滑化画像行列を生成し、除算部16は、画像行列を平滑化画像行列により除算処理した除算処理行列を算出し、画像変換部19は、除算部16が算出した除算処理行列を画像に変換する。
これにより、重み係数の決定を用いることなく処理対象画像における輝度値のムラを除去することができる。
In the image unevenness removal apparatus 10, the matrix conversion unit 12 converts the processing target image into an image matrix having the luminance value of each pixel of the processing target image as an element, and the smoothing unit 13 includes the matrix conversion unit 12. By performing a convolution operation of the smoothing matrix on the converted image matrix, a smoothed image matrix having the luminance value of each pixel of the smoothed image obtained by smoothing the processing target image as an element is generated. Then, the division processing matrix obtained by dividing the image matrix by the smoothed image matrix is calculated, and the image conversion unit 19 converts the division processing matrix calculated by the division unit 16 into an image.
Thereby, it is possible to remove unevenness of the luminance value in the processing target image without using the determination of the weight coefficient.

次に、画像ムラ除去装置10の動作を説明する。
図2は、画像ムラ除去装置10の動作を示すフローチャートである。
図3は、各ステップにおける行列の内容を示す図である。
なお、図3では、説明のため、各行列を画像に変換したものを示している。また、各画像は、行列の要素の最小値と最大値とに基づいて相対的に各画素の輝度値を決定している。
まず、画像ムラ除去装置10に接続された静脈認証センサー(図示せず)は、生体の透過画像を撮影すると、処理対象画像記憶部11に透過画像を処理対象画像として登録する。
行列変換部12は、処理対象画像記憶部11が記憶する処理対象画像を取得し、当該処理対象画像の各画素の輝度値を要素とするm×nの画像行列A(第1の画像行列)を生成する(ステップS1)。また、mは、処理対象画像のy軸方向の画素数を示し、nは、処理対象画像のx軸方向の画素数を示す。
図3(1)は、ステップS1で生成される画像行列Aを示している。図3(1)の画像は、処理対象画像と同一のものとなる。
Next, the operation of the image unevenness removal apparatus 10 will be described.
FIG. 2 is a flowchart showing the operation of the image unevenness removal apparatus 10.
FIG. 3 is a diagram showing the contents of the matrix at each step.
In FIG. 3, for the sake of explanation, each matrix is converted into an image. Each image relatively determines the luminance value of each pixel based on the minimum and maximum values of the elements of the matrix.
First, when a vein authentication sensor (not shown) connected to the image unevenness removal apparatus 10 captures a transparent image of a living body, it registers the transparent image as a processing target image in the processing target image storage unit 11.
Matrix conversion unit 12 obtains the processed image processed image storage unit 11 stores, m a × n a of the image matrix A (first image luminance value of each pixel of the processing target image and elements Matrix) is generated (step S1). Further, m a represents the number of pixels y-axis direction of the process target image, n a denotes the number of pixels x-axis direction of the process target image.
FIG. 3A shows the image matrix A generated in step S1. The image in FIG. 3A is the same as the processing target image.

行列変換部12が画像行列Aを生成すると、平滑化部13は、行列変換部12が変換した画像行列Aに対して平滑化行列Bの畳み込み演算を行うことで、平滑化画像行列C(第2の画像行列)を算出する(ステップS2)。
図3(2)は、平滑化行列Bを示している。
ここで、平滑化行列Bは、全ての要素の値が等しいm×nの行列である。また、m及びnは、奇数であり、静脈像(0.5mm〜5mm前後)の空間周波数より低い空間周波数に対応する要素数であり、静脈像の空間周波数の1/3倍〜1/6倍の空間周波数に対応する要素数であることが望ましい。ここで、空間周波数とは、単位長に含まれる構造の繰り返しの回数を示す。
なお、平滑化行列Bを予め定義し、平滑化部13の内部メモリ等に記憶させておき、平滑化部13は、内部メモリから平滑化行列Bを読み出して畳み込み演算を行うようにしても良い。
When the matrix conversion unit 12 generates the image matrix A, the smoothing unit 13 performs a convolution operation of the smoothing matrix B on the image matrix A converted by the matrix conversion unit 12 to thereby obtain a smoothed image matrix C (the first image matrix A). 2 image matrix) is calculated (step S2).
FIG. 3 (2) shows the smoothing matrix B.
Here, the smoothing matrix B is an m b × n b matrix in which all elements have the same value. Further, m b and n b is an odd number, a number of elements corresponding to lower spatial frequencies than the spatial frequencies of the vein image (before and after 0.5 mm to 5 mm), the spatial frequency of the vein image 1/3 to 1 It is desirable that the number of elements corresponds to a spatial frequency of / 6 times. Here, the spatial frequency indicates the number of repetitions of the structure included in the unit length.
The smoothing matrix B may be defined in advance and stored in the internal memory or the like of the smoothing unit 13, and the smoothing unit 13 may read the smoothing matrix B from the internal memory and perform a convolution operation. .

なお、平滑化画像行列Cは、処理対象画像を平滑化した平滑化画像の各画素の輝度値を要素とする行列と等価である。
このとき、畳み込み演算は、以下の式によって表せる。
The smoothed image matrix C is equivalent to a matrix having the luminance value of each pixel of the smoothed image obtained by smoothing the processing target image as an element.
At this time, the convolution operation can be expressed by the following equation.

ただし、f(m,n)、f(m,n)及びf(m,n)は、それぞれ画像行列A、平滑化行列B、及び平滑化画像行列Cのm行n列の要素を示す離散変数m、nの関数を示すものである。また、演算子*は畳み込み演算を示すものである。このとき、平滑化画像行列Cは、(m+m−1)×(n+n−1)の行列となる。
図3(3)は、ステップS2で算出される平滑化画像行列Cを示している。図3(3)の画像は、図3(1)の画像と比較して多少ぼやけた画像となっている。また、図3(3)の画像は、縁部の輝度値が低くなっている。これは、行列のエッジ部の畳み込み演算において行列の範囲外の値をゼロとして計算することとなり、平滑化画像行列Cのエッジ部はゼロを加えて畳み込み演算を行った値が含まれるためである。
However, f A (m, n), f B (m, n), and f C (m, n) are elements of m rows and n columns of the image matrix A, the smoothing matrix B, and the smoothed image matrix C, respectively. Is a function of discrete variables m and n. The operator * indicates a convolution operation. At this time, the smoothed image matrix C is a matrix of (m a + m b −1) × (n a + n b −1).
FIG. 3 (3) shows the smoothed image matrix C calculated in step S2. The image in FIG. 3 (3) is a slightly blurred image compared to the image in FIG. 3 (1). Further, the luminance value of the edge of the image in FIG. 3 (3) is low. This is because a value outside the matrix range is calculated as zero in the convolution calculation of the edge portion of the matrix, and the edge portion of the smoothed image matrix C includes a value obtained by performing the convolution operation by adding zero. .

平滑化部13が平滑化画像行列Cを算出すると、行列抽出部14は、平滑化画像行列Cから、エッジにゼロを加えずに畳み込み演算された部分行列を示す有効平滑化画像行列C´を抽出する(ステップS3)。以下に、この処理を行う理由を説明する。
行列のエッジ部における畳み込み演算は、行列の範囲外の値をゼロとして計算することとなるため、図3(3)に示すように、出力される平滑化画像行列Cのエッジ部には行列の範囲外の値によって畳み込み演算を行った値が含まれる。この部分を除去することで平滑化画像行列Cの要素のみを用いて畳み込み演算を行った行列を抽出することができる。
When the smoothing unit 13 calculates the smoothed image matrix C, the matrix extracting unit 14 calculates an effective smoothed image matrix C ′ indicating a submatrix that has been subjected to a convolution operation without adding zero to the edges from the smoothed image matrix C. Extract (step S3). The reason why this process is performed will be described below.
Since the convolution operation at the edge portion of the matrix is calculated assuming that the value outside the matrix range is zero, as shown in FIG. 3 (3), the edge portion of the output smoothed image matrix C has no matrix. A value obtained by performing a convolution operation with a value outside the range is included. By removing this portion, it is possible to extract a matrix obtained by performing a convolution operation using only elements of the smoothed image matrix C.

有効平滑化画像行列C´は、平滑化画像行列Cの第m行目〜第m行目、第n列目〜第n列目を抽出することで得られる。すなわち、有効平滑化画像行列C´は、(m−m+1)×(n−n+1)の行列となる。
図3(4)は、ステップS3で抽出される有効平滑化画像行列C´を示している。図3(4)の画像は、図3(3)に示す平滑化画像行列Cの縁部の輝度値が低い部分を除去したものとなっている。
Enable smoothed image matrix C'is the m b-th row, second m a row of the smoothed image matrix C, obtained by extracting the first n b th column, second n a-th column. That is, the effective smoothed image matrix C'is a matrix of (m a -m b +1) × (n a -n b +1).
FIG. 3 (4) shows the effective smoothed image matrix C ′ extracted in step S3. The image of FIG. 3 (4) is obtained by removing the low luminance value at the edge of the smoothed image matrix C shown in FIG. 3 (3).

行列抽出部14が有効平滑化画像行列C´を抽出すると、行列抽出部15は、画像行列Aから有効平滑化画像行列C´と同じ型の部分行列を示す有効画像行列A´を抽出する(ステップS4)。すなわち、有効画像行列A´は、(m−m+1)×(n−n+1)の行列となる。
図3(5)は、ステップS4で抽出される有効画像行列A´を示している。図3(5)の画像は、図3(4)の画像と同じ大きさとなっている。
有効画像行列A´は、画像行列Aの第(1+(m−1)/2)行目〜第(m−(m−1)/2)行目、第(1+(n−1)/2)列目〜第(n−(n−1)/2)列目を抽出することで得られる。これによって、行列抽出部15は、行列抽出部14が抽出した部分行列に相当する部分を抽出することができる。
When the matrix extraction unit 14 extracts the effective smoothed image matrix C ′, the matrix extraction unit 15 extracts an effective image matrix A ′ indicating a submatrix of the same type as the effective smoothed image matrix C ′ from the image matrix A ( Step S4). That is, the effective image matrix A ′ is a matrix of (m a −m b +1) × (n a −n b +1).
FIG. 3 (5) shows the effective image matrix A ′ extracted in step S4. The image of FIG. 3 (5) is the same size as the image of FIG. 3 (4).
The effective image matrix A ′ is the (1+ (m b −1) / 2) th to (m a − (m b −1) / 2) th row, the (1+ (n b −) of the image matrix A. It is obtained by extracting the 1) / 2) -th column to the (n a- (n b -1) / 2) -th column. Thereby, the matrix extraction unit 15 can extract a portion corresponding to the partial matrix extracted by the matrix extraction unit 14.

行列抽出部15が有効画像行列A´を抽出すると、除算部16は、行列抽出部15が抽出した有効画像行列A´の要素(第1の部分)を行列抽出部14が抽出した有効平滑化画像行列C´において有効画像行列A´の要素に対応する要素(第2の部分)により除算処理し、静脈像強調画像行列D(第3の画像行列)を算出する(ステップS5)。すなわち、式(3)による計算を実行する。   When the matrix extraction unit 15 extracts the effective image matrix A ′, the division unit 16 extracts the effective smoothing that the matrix extraction unit 14 extracts the element (first portion) of the effective image matrix A ′ extracted by the matrix extraction unit 15. In the image matrix C ′, division processing is performed by an element (second portion) corresponding to the element of the effective image matrix A ′ to calculate a vein image enhanced image matrix D (third image matrix) (step S5). That is, the calculation according to the equation (3) is executed.

ただし、fA´(m,n)、fC´(m,n)及びf(m,n)は、それぞれ有効画像行列A´、有効平滑化画像行列B´、及び静脈像強調画像行列Dのm行n列の要素を示す離散変数m、nの関数を示すものである。
なお、静脈像強調画像行列Dは、(m−m+1)×(n−n+1)の行列となる。また、静脈像強調画像行列Dは、有効平滑化画像行列C´や有効画像行列A´と比較して各要素の値が大きくなっている。これは、各要素を除算したためである。
However, f A (m, n), f C (m, n), and f D (m, n) are an effective image matrix A ′, an effective smoothed image matrix B ′, and a vein image enhanced image matrix, respectively. A function of discrete variables m and n indicating an element of m rows and n columns of D is shown.
The vein image enhanced image matrix D is a matrix of (m a −m b +1) × (n a −n b +1). Further, the vein image enhanced image matrix D has a larger value for each element than the effective smoothed image matrix C ′ and the effective image matrix A ′. This is because each element is divided.

図3(6)は、上述したステップS5で算出される静脈像強調画像行列Dを示している。図3(6)の画像は、図3(1)の画像と比較して輝度値のムラが少なく、静脈像が明瞭な画像となっている。しかし、図3(6)の画像には、静脈像より空間周波数が高い皮膚のしわ等の高周波ノイズが映りこんでいる。   FIG. 3 (6) shows the vein image enhanced image matrix D calculated in step S5 described above. The image of FIG. 3 (6) has a less uneven brightness value than the image of FIG. 3 (1), and the vein image is clear. However, the image of FIG. 3 (6) includes high-frequency noise such as skin wrinkles having a spatial frequency higher than that of the vein image.

そこで、除算部16が静脈像強調画像行列Dを算出すると、平滑化部17は、静脈像強調画像行列Dに対して平滑化行列Eの畳み込み演算を行い、静脈像行列F(第4の画像行列)を算出することで高周波ノイズの除去を行う。(ステップS6)。
図3(7)の画像は、平滑化行列Eを示している。
ここで、平滑化行列Eは、全ての要素が等しい値のm×nの行列である。なお、m及びnは、奇数であり、静脈像の空間周波数より高い空間周波数に対応する要素数である。なお、平滑化行列Eを予め定義し、平滑化部17の内部メモリ等に記憶させておき、平滑化部17は、内部メモリから平滑化行列Eを読み出して畳み込み演算を行うようにしても良い。また、平滑化行列Bと平滑化行列Eとは異なる行列であることが望ましい。
Therefore, when the dividing unit 16 calculates the vein image enhanced image matrix D, the smoothing unit 17 performs a convolution operation of the smoothing matrix E on the vein image enhanced image matrix D to obtain the vein image matrix F (fourth image). The high frequency noise is removed by calculating the matrix. (Step S6).
The image of FIG. 3 (7) shows the smoothing matrix E.
Here, the smoothing matrix E is a matrix of all elements equal to m e × n e. Note that me and ne are odd numbers and are the number of elements corresponding to a spatial frequency higher than the spatial frequency of the vein image. Note that the smoothing matrix E may be defined in advance and stored in an internal memory or the like of the smoothing unit 17, and the smoothing unit 17 may read the smoothing matrix E from the internal memory and perform a convolution operation. . Further, it is desirable that the smoothing matrix B and the smoothing matrix E are different matrices.

畳み込み演算は、式(2)と同様の手法によって行われる。このとき、静脈像行列Fは、(m−m+m)×(n−n+n)の行列となる。
図3(8)の画像は、ステップS6で算出される静脈像行列Fを示している。図3(8)の画像は、図3(6)の画像と比較して皮膚のしわ等のノイズが薄くなっている。また、図3(8)の画像は、上述した図3(3)と同様に、縁部の輝度値が低くなっている。
なお、図3(8)の画像は、説明のためコントラストを高くし、輝度値を低くしたものであり、実際は縁部以外の画素の輝度値が高く、全体的に白っぽい画像となる。これは、有効平滑化画像行列C´や有効画像行列A´と比較して各要素の値が大きい静脈像強調画像行列Dに対して畳み込み演算を行うために、静脈像行列Fは、縁部の要素の値が小さく、内部の要素の値が大きい行列となるためである。
The convolution operation is performed by the same method as that in Expression (2). At this time, the vein image matrix F is a matrix of (m a −m b + m e ) × (n a −n b + n e ).
The image in FIG. 3 (8) shows the vein image matrix F calculated in step S6. In the image of FIG. 3 (8), noise such as skin wrinkles is lighter than that of the image of FIG. 3 (6). In addition, in the image of FIG. 3 (8), the luminance value of the edge is low as in FIG. 3 (3) described above.
Note that the image in FIG. 3 (8) has a high contrast and a low brightness value for the sake of explanation. In fact, the brightness values of pixels other than the edges are high, and the whole image is whitish. This is because the convolution operation is performed on the vein image enhanced image matrix D having a larger value of each element compared to the effective smoothed image matrix C ′ and the effective image matrix A ′. This is because the matrix element has a small element value and a large internal element value.

平滑化部17が静脈像行列Fを算出すると、行列抽出部18は、静脈像行列Fから、エッジにゼロを加えずに畳み込み演算された部分行列を示す有効静脈像行列F´を抽出する(ステップS7)。有効静脈像行列F´は、静脈像行列Fの第m行目〜第(m−m+1)行目、第n列目〜第(n−n+1)列目を抽出することで得られる。すなわち、有効静脈像行列F´は、(m−m−m+2)×(n−n−n+2)の行列となる。
図3(9)の画像は、上述したステップS7で抽出される有効静脈像行列F´を示している。図3(9)の画像は静脈像行列Fの縁部の輝度値が低い部分を除去したものとなっている。
When the smoothing unit 17 calculates the vein image matrix F, the matrix extraction unit 18 extracts, from the vein image matrix F, an effective vein image matrix F ′ indicating a submatrix that has been subjected to a convolution operation without adding zero to the edges ( Step S7). Valid vein image matrix F'the extracted first m e th row, second vein image matrix F (m a -m b +1) th row, the first n e th column, second (n a -n b +1) th column It is obtained by doing. That is, the effective vein image matrix F ′ is a matrix of (m a −m b −m e +2) × (n a −n b −n e +2).
The image in FIG. 3 (9) shows the effective vein image matrix F ′ extracted in step S7 described above. The image of FIG. 3 (9) is obtained by removing the low luminance value at the edge of the vein image matrix F.

行列抽出部18が有効静脈像行列F´を抽出すると、画像変換部19は、有効静脈像行列F´を画像に変換する(ステップS8)。これにより、画像ムラ除去装置10は、処理対象画像における輝度値のムラを除去した画像を出力することができる。また、このとき、画像変換部19は、画像の各画素の輝度値を、有効静脈像行列F´の要素の最小値と最大値とに基づいて相対的に決定する。これにより、各要素の値をそのまま輝度値として画像に変換した場合と比較して、コントラストが高い画像を生成することができる。
また、当該画像は、静脈像強調画像行列Dを画像に変換したものを平滑化した画像と等価であり、静脈像強調画像行列Dを画像に変換したものから皮膚のしわ等の高周波ノイズを除去した画像となる。また、ステップS8で得られる画像は、図3(9)の画像と同一のものである。
When the matrix extraction unit 18 extracts the effective vein image matrix F ′, the image conversion unit 19 converts the effective vein image matrix F ′ into an image (step S8). Thereby, the image unevenness removal apparatus 10 can output an image from which unevenness of luminance values in the processing target image is removed. At this time, the image conversion unit 19 relatively determines the luminance value of each pixel of the image based on the minimum value and the maximum value of the elements of the effective vein image matrix F ′. Thereby, compared with the case where the value of each element is directly converted into an image as a luminance value, an image with high contrast can be generated.
The image is equivalent to a smoothed image obtained by converting the vein image enhanced image matrix D into an image, and high frequency noise such as skin wrinkles is removed from the image converted from the vein image enhanced image matrix D. The resulting image. Further, the image obtained in step S8 is the same as the image of FIG.

このように、本実施形態によれば、除算部16が画像行列Aから抽出した有効画像行列A´を平滑化画像行列Cから抽出した有効平滑化画像行列C´により除算することで、処理対象画像から抽出対象を抽出する。
通常、画質を改善するという目的からすると、背景のコントラストの緩やかな変化を取り除くため、低周波成分を取り除く処理を行う。すなわち、低域遮断フィルターを設計する。したがって、処理対象画像を示す行列の各要素から低周波成分を抽出した画像を示す行列の各要素を減算することによって低周波成分を除去することが考えられる。しかし、本発明では、各要素を除算することで、すなわち処理対象画像とその低周波成分画像の各画素間の変化率を画像に出力することで、低周波成分の除去を行っている。
これにより、補正割合を示す重み係数を用いることなく処理対象画像における輝度値のムラを除去することができる。
As described above, according to the present embodiment, the division unit 16 divides the effective image matrix A ′ extracted from the image matrix A by the effective smoothed image matrix C ′ extracted from the smoothed image matrix C. Extract the extraction target from the image.
Usually, for the purpose of improving the image quality, processing for removing low frequency components is performed in order to remove a gradual change in background contrast. That is, a low-frequency cutoff filter is designed. Therefore, it is conceivable to remove the low frequency component by subtracting each element of the matrix indicating the image obtained by extracting the low frequency component from each element of the matrix indicating the processing target image. However, in the present invention, the low-frequency component is removed by dividing each element, that is, by outputting the change rate between each pixel of the processing target image and the low-frequency component image to the image.
Thereby, it is possible to remove unevenness of the luminance value in the processing target image without using a weighting coefficient indicating the correction ratio.

図4は、従来の手法と本発明による手法とを比較する図である。
図4(1)は、輝度値のムラを除去する前の処理対象画像を示している。
図4(2)、図4(3)は、従来の手法により、減算を行うことで輝度値のムラを除去した画像を示している。図4(2)は、式(1)に示す重み係数αの値を0.5とした場合、図4(3)は、式(1)に示す重み係数αの値を0.9とした場合における出力画像である。図4(2)、図4(3)が示すように、重み係数αの値が変化することで結果として得られる静脈像の明瞭度が変化することがわかる。
図4(4)は、本発明による手法で除算を行うことで輝度値のムラを除去した画像を示している。
このように、本発明による手法によって、従来の手法と同等の結果を得ることができ、さらに本発明による手法では従来の手法と比較して重み係数αの決定が不要であることから、より実用性の高い方法であると言える。
FIG. 4 is a diagram for comparing the conventional technique and the technique according to the present invention.
FIG. 4A shows a processing target image before removing unevenness of luminance values.
4 (2) and 4 (3) show images in which luminance value unevenness is removed by performing subtraction using a conventional method. 4 (2), when the value of the weighting factor α shown in the equation (1) is 0.5, FIG. 4 (3) shows that the value of the weighting factor α shown in the equation (1) is 0.9. It is an output image in the case. As shown in FIGS. 4 (2) and 4 (3), it can be seen that the clarity of the resulting vein image changes as the value of the weighting coefficient α changes.
FIG. 4 (4) shows an image in which the unevenness of the luminance value is removed by performing division according to the method of the present invention.
As described above, the method according to the present invention can obtain the same result as the conventional method, and the method according to the present invention does not require the determination of the weighting factor α as compared with the conventional method. It can be said that this is a highly practical method.

以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。
例えば、平滑化部13、17は、平滑化行列の畳み込み演算によって平滑化を行う場合を説明したが、これに限られず、他の周波数解析法(例えばフーリエ変換)により処理対象画像の周波数成分を抽出し、当該周波数成分から所定の周波数より高い周波数成分を除去する等、他の方法で平滑化を行っても良い。
As described above, the embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to the above, and various design changes and the like can be made without departing from the scope of the present invention. It is possible to
For example, the smoothing units 13 and 17 described the case where the smoothing is performed by the convolution operation of the smoothing matrix. However, the present invention is not limited to this. Smoothing may be performed by other methods such as extracting and removing a frequency component higher than a predetermined frequency from the frequency component.

上述の画像ムラ除去装置10は、内部にコンピューターシステムを有している。そして、上述した各処理部の動作は、プログラムの形式でコンピューター読み取り可能な記録媒体に記憶されており、このプログラムをコンピューターが読み出して実行することによって、上記処理が行われる。ここでコンピューター読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータープログラムを通信回線によってコンピューターに配信し、この配信を受けたコンピューターが当該プログラムを実行するようにしても良い。   The above-described image unevenness removal apparatus 10 has a computer system inside. The operation of each processing unit described above is stored in a computer-readable recording medium in the form of a program, and the above processing is performed by the computer reading and executing this program. Here, the computer-readable recording medium refers to a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, and the like. Alternatively, the computer program may be distributed to the computer via a communication line, and the computer that has received the distribution may execute the program.

また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。   The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.

10…画像ムラ除去装置 11…処理対象画像記憶部 12…行列変換部 13、17…平滑化部 14、15、18…行列抽出部 16…除算部 19…画像変換部   DESCRIPTION OF SYMBOLS 10 ... Image nonuniformity removal apparatus 11 ... Processing target image memory | storage part 12 ... Matrix conversion part 13, 17 ... Smoothing part 14, 15, 18 ... Matrix extraction part 16 ... Dividing part 19 ... Image conversion part

Claims (9)

複数の画素に対する第1の画像行列を生成する第1の画像行列生成手段と、
前記複数の画素が表示する処理対象画像に対して平滑化を行うことにより得られる第1の平滑化画像に対する第2の画像行列を生成する第2の画像行列生成手段と、
前記第1の画像行列の第1の部分を前記第1の部分に対応する前記第2の画像行列の第2の部分により除算する除算手段と、
前記除算手段により算出された第3の画像行列を変換する画像変換手段と、を備え、
前記第1の画像行列は、前記複数の画素の各々に対して設定された輝度値を要素としている、
ことを特徴とする画像処理装置。
First image matrix generation means for generating a first image matrix for a plurality of pixels;
Second image matrix generation means for generating a second image matrix for the first smoothed image obtained by performing smoothing on the processing target image displayed by the plurality of pixels;
Dividing means for dividing a first portion of the first image matrix by a second portion of the second image matrix corresponding to the first portion;
Image conversion means for converting the third image matrix calculated by the division means,
The first image matrix includes luminance values set for each of the plurality of pixels as elements.
An image processing apparatus.
前記第3の画像行列に対して平滑化を行い、第4の画像行列を生成する第4の画像行列生成手段をさらに備える、
ことを特徴とする請求項1に記載の画像処理装置。
The image processing apparatus further comprises fourth image matrix generation means for performing smoothing on the third image matrix and generating a fourth image matrix.
The image processing apparatus according to claim 1.
前記平滑化は、前記処理対象画像から所定の抽出対象の空間周波数以上の周波数成分を除去すること行う、
ことを特徴とする請求項1または請求項2の何れか1項に記載の画像処理装置。
The smoothing is performed by removing a frequency component equal to or higher than a predetermined extraction target spatial frequency from the processing target image.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記平滑化は、前記処理対象画像から前記抽出対象の空間周波数の3倍乃至6倍の平滑化である、
ことを特徴とする請求項1または請求項3の何れか1項に記載の画像処理装置。
The smoothing is smoothing of 3 to 6 times the spatial frequency of the extraction target from the processing target image.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記第2の画像行列生成手段は、前記処理対象画像の各画素の輝度値を要素とする画像行列と全ての要素の値が等しい正方行列との畳み込み演算を行うことで前記第2の画像行列を生成する、
ことを特徴とする請求項1から請求項4の何れか1項に記載の画像処理装置。
The second image matrix generation means performs the convolution operation between the image matrix having the luminance value of each pixel of the processing target image as an element and a square matrix having the same values of all the elements, thereby performing the second image matrix. Generate
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記処理対象画像は、血管透視画像であり、抽出対象は血管像である、
ことを特徴とする請求項1から請求項5の何れか1項に記載の画像処理装置。
The processing target image is a blood vessel fluoroscopic image, and the extraction target is a blood vessel image.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記画像変換手段は、前記第3の画像行列の要素の最小値と最大値とに基づいて相対的に画素の各々に対する輝度値を決定する、
ことを特徴とする請求項1から請求項6の何れか1項に記載の画像処理装置。
The image conversion means relatively determines a luminance value for each of the pixels based on a minimum value and a maximum value of elements of the third image matrix;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
画像処理装置を用いた画像処理方法であって、
第1の画像行列生成手段は、複数の画素の各々に対して設定された輝度値を要素とする第1の画像行列を生成し、
第2の画像行列生成手段は、前記複数の画素が表示する処理対象画像に対して平滑化を行うことにより得られる第1の平滑化画像に対する第2の画像行列を生成し、
除算手段は、前記第1の画像行列の第1の部分を前記第1の部分に対応する前記第2の画像行列の第2の部分により除算し、
画像変換手段は、前記除算手段により算出された第3の画像行列を変換し、
ことを特徴とする画像処理方法。
An image processing method using an image processing apparatus,
The first image matrix generation unit generates a first image matrix having the luminance value set for each of the plurality of pixels as an element,
The second image matrix generation unit generates a second image matrix for the first smoothed image obtained by performing smoothing on the processing target image displayed by the plurality of pixels,
The dividing means divides the first part of the first image matrix by the second part of the second image matrix corresponding to the first part,
The image conversion means converts the third image matrix calculated by the division means,
An image processing method.
処理対象画像における輝度値のムラを除去し、所定の抽出対象を抽出する画像ムラ除去装置を、
複数の画素に対する第1の画像行列を生成する第1の画像行列生成手段、
前記複数の画素が表示する処理対象画像に対して平滑化を行うことにより得られる第1の平滑化画像に対する第2の画像行列を生成する第2の画像行列生成手段、
前記第1の画像行列の第1の部分を前記第1の部分に対応する前記第2の画像行列の第2の部分により除算する除算手段、
前記除算手段により算出された第3の画像行列を変換する画像変換手段、として動作させ、
前記第1の画像行列は、前記複数の画素の各々に対して設定された輝度値を要素としている、
ことを特徴とするプログラム。
An image unevenness removing device that removes unevenness of luminance values in a processing target image and extracts a predetermined extraction target,
First image matrix generation means for generating a first image matrix for a plurality of pixels;
Second image matrix generation means for generating a second image matrix for the first smoothed image obtained by performing smoothing on the processing target image displayed by the plurality of pixels;
Dividing means for dividing a first portion of the first image matrix by a second portion of the second image matrix corresponding to the first portion;
An image converting means for converting the third image matrix calculated by the dividing means,
The first image matrix includes luminance values set for each of the plurality of pixels as elements.
A program characterized by that.
JP2009060044A 2009-03-12 2009-03-12 Apparatus, method, and program for processing image Pending JP2010211757A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009060044A JP2010211757A (en) 2009-03-12 2009-03-12 Apparatus, method, and program for processing image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009060044A JP2010211757A (en) 2009-03-12 2009-03-12 Apparatus, method, and program for processing image

Publications (1)

Publication Number Publication Date
JP2010211757A true JP2010211757A (en) 2010-09-24

Family

ID=42971799

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009060044A Pending JP2010211757A (en) 2009-03-12 2009-03-12 Apparatus, method, and program for processing image

Country Status (1)

Country Link
JP (1) JP2010211757A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014142171A1 (en) * 2013-03-13 2014-09-18 富士通フロンテック株式会社 Image processing device, image processing method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04352935A (en) * 1991-05-29 1992-12-08 Canon Inc Image processing method and system employing this method
JPH07210655A (en) * 1994-01-21 1995-08-11 Nikon Corp Image processor for ophthalmology
JP2000050042A (en) * 1998-07-27 2000-02-18 Chuo Electronics Co Ltd Method and device for correcting definition of image
JP2008097310A (en) * 2006-10-11 2008-04-24 Sharp Manufacturing System Corp Edge extraction method, definition table creation method, image processing method, image processing apparatus, image processing program, and recording medium with the image processing program stored
JP2009015857A (en) * 1996-11-13 2009-01-22 Seiko Epson Corp Image processing apparatus, image output device, image processing method and medium having image processing program recorded thereon

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04352935A (en) * 1991-05-29 1992-12-08 Canon Inc Image processing method and system employing this method
JPH07210655A (en) * 1994-01-21 1995-08-11 Nikon Corp Image processor for ophthalmology
JP2009015857A (en) * 1996-11-13 2009-01-22 Seiko Epson Corp Image processing apparatus, image output device, image processing method and medium having image processing program recorded thereon
JP2000050042A (en) * 1998-07-27 2000-02-18 Chuo Electronics Co Ltd Method and device for correcting definition of image
JP2008097310A (en) * 2006-10-11 2008-04-24 Sharp Manufacturing System Corp Edge extraction method, definition table creation method, image processing method, image processing apparatus, image processing program, and recording medium with the image processing program stored

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNB200100033001; 井上 誠喜、外5名: C言語で学ぶ実践画像処理 Windows/Macintosh/X-Windows対応 第1版, 19991208, 第67頁-第71頁, 株式会社オーム社 *
JPN6013021084; 井上 誠喜、外5名: C言語で学ぶ実践画像処理 Windows/Macintosh/X-Windows対応 第1版, 19991208, 第67頁-第71頁, 株式会社オーム社 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014142171A1 (en) * 2013-03-13 2014-09-18 富士通フロンテック株式会社 Image processing device, image processing method, and program
JPWO2014142171A1 (en) * 2013-03-13 2017-02-16 富士通フロンテック株式会社 Image processing apparatus, image processing method, and program
US9818177B2 (en) 2013-03-13 2017-11-14 Fujitsu Frontech Limited Image processing apparatus, image processing method, and computer-readable recording medium
US10210601B2 (en) 2013-03-13 2019-02-19 Fujitsu Frontech Limited Image processing apparatus, image processing method, and computer-readable recording medium

Similar Documents

Publication Publication Date Title
JP6528608B2 (en) Diagnostic device, learning processing method in diagnostic device, and program
JP5691669B2 (en) Biological information processing apparatus, biological information processing method, and biological information processing program
JP6416582B2 (en) Method and apparatus for metal artifact removal in medical images
JP6418922B2 (en) Image processing apparatus and image processing method
JP5610761B2 (en) X-ray image processing apparatus, X-ray image processing system, X-ray image processing method, and computer program
JP2007207009A (en) Image processing method and image processor
JP6259062B2 (en) Image processing apparatus, image processing method, and program
JP2012190148A (en) Image processing apparatus, image processing method, and computer program
US20140126799A1 (en) Image processing apparatus, control method thereof and computer-readable storage medium
JP5839710B2 (en) Analysis point setting device and method, and body motion detection device and method
JP6870001B2 (en) Image processing equipment, image processing methods and programs
JP2011150483A (en) Image processing device
WO2020194617A1 (en) Blood volume pulse signal detection apparatus, blood volume pulse signal detection method, and computer-readable storage medium
JP2010211757A (en) Apparatus, method, and program for processing image
JP2019202019A (en) Body thickness estimation device, radiation image processing device, and body thickness estimation method, and program
JP2010244304A (en) Imaging apparatus, imaging method and program
JP2010005109A (en) Image forming device, program, and image forming method
JP2009285145A (en) Radiographic image correction device, method, and program
JP2017033448A (en) Image processing unit, program and image processing method
KR20200080797A (en) an image processing system for varicose vein
JP6585623B2 (en) Biological information measuring device, biological information measuring method, and biological information measuring program
JP6429548B2 (en) Image processing apparatus, control method therefor, and computer program
JP5087151B2 (en) Image processing method, image processing apparatus, and image processing program
KR101341576B1 (en) Apparatus and method for determining region of interest based on isocontour
JP2018101285A (en) Biological image processing apparatus, biological image processing method and biological image processing program

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20120127

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20120315

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130408

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130507