JP4625956B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP4625956B2
JP4625956B2 JP2005242391A JP2005242391A JP4625956B2 JP 4625956 B2 JP4625956 B2 JP 4625956B2 JP 2005242391 A JP2005242391 A JP 2005242391A JP 2005242391 A JP2005242391 A JP 2005242391A JP 4625956 B2 JP4625956 B2 JP 4625956B2
Authority
JP
Japan
Prior art keywords
image
obstacle
data
image processing
calculation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005242391A
Other languages
Japanese (ja)
Other versions
JP2006085688A (en
Inventor
幸夫 小杉
タカハシ モンテイロ シルドマール
有昭 宇都
英寿 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Institute of Technology NUC
Original Assignee
Tokyo Institute of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Institute of Technology NUC filed Critical Tokyo Institute of Technology NUC
Publication of JP2006085688A publication Critical patent/JP2006085688A/en
Application granted granted Critical
Publication of JP4625956B2 publication Critical patent/JP4625956B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置及び画像処理方法に関する。特に、障害物に覆われた観測対象物の組織像を作成するものに関する。   The present invention relates to an image processing apparatus and an image processing method. In particular, the present invention relates to an apparatus for creating a tissue image of an observation object covered with an obstacle.

人間を含めた動物の手術の際に、腫瘍等の手術の対象部位や傷をつけてはいけない周囲の血管や神経束が、血液が混入した髄液などによって視認することが困難なことがしばしばおこる。これは、特に脳神経外科などの繊細な手技が必要な手術において特に顕著な現象である。   When performing surgery on animals including humans, it is often difficult to visually recognize the target site of surgery such as tumors and surrounding blood vessels and nerve bundles that should not be damaged by cerebrospinal fluid mixed with blood. It happens. This is a particularly remarkable phenomenon particularly in surgery that requires delicate procedures such as neurosurgery.

このような場合において、従来の血液等の障害物層を除去する方法は、手術中頻回にわたってガーゼや吸引管によって見たい部位を露呈する操作が繰り返されてきた。しかしながら、これらの見たい部位を露呈する操作は、手術の進行に大きな障害となっていた。また、組織上に血液が含まれたガーゼが付着している場合、このガーゼを除去しないで内部を視認することは困難であった。   In such a case, the conventional method of removing an obstacle layer such as blood has repeatedly performed an operation of exposing a site to be viewed with a gauze or a suction tube frequently during an operation. However, the operation for exposing these desired sites has been a major obstacle to the progress of surgery. In addition, when gauze containing blood is adhered on the tissue, it is difficult to visually recognize the inside without removing the gauze.

これらの問題を解決するための従来の方法としては、通常の光学装置を用いた画像診断用の機器として、X線透視装置、超音波画像診断装置、及びMR画像診断装置を便宜的に手術室に導入することが行われていた。しかしながら、これらの装置においても、それぞれ問題点が存在している。   As a conventional method for solving these problems, an X-ray fluoroscopic apparatus, an ultrasonic image diagnostic apparatus, and an MR image diagnostic apparatus are conveniently used as an image diagnostic apparatus using an ordinary optical apparatus in an operating room. It was done to be introduced. However, each of these devices also has problems.

X線透視装置においては、視認したい部位にX線を照射するために、術者はその部分に触れることができないために、手術を行うと同時に視認したい部位を確認することが困難であった。また、超音波画像診断装置においては、非接触では超音波が伝達されないために、血液等の障害物層に接触させて測定する必要性があった。これは、障害物層が一定の形をしているとはかぎらず、非常に難しい作業である。さらに、MR画像診断装置においては、装置自体の大きさが非常に巨大であり、また、MR画像診断装置が強力な磁場が発生しているために、金属の手術器具類使用することができないという問題点を抱えている。
T.Zimmermann, J.Rietdorf, R.Pepperkok,"Spectral Imaging and its applications in live cell microscopy",FEBS Letters, 546(1), 87-92(2003)
In the X-ray fluoroscopic apparatus, since the operator cannot touch the part to be visually recognized because X-rays are irradiated, it is difficult to confirm the part to be visually recognized at the same time as performing the operation. Further, in the ultrasonic diagnostic imaging apparatus, since ultrasonic waves are not transmitted in a non-contact manner, it has been necessary to perform measurement while contacting an obstacle layer such as blood. This is an extremely difficult task, not necessarily because the obstacle layer has a fixed shape. Furthermore, in the MR imaging apparatus, the size of the apparatus itself is very large, and since the MR imaging apparatus generates a strong magnetic field, metal surgical instruments cannot be used. I have a problem.
T. Zimmermann, J. Rietdorf, R. Pepperkok, "Spectral Imaging and its applications in live cell microscopy", FEBS Letters, 546 (1), 87-92 (2003)

従来の方法では、手術対象部位を視認するときの障害となる物質を除去することなく、手術対象部位の組織像を観測しながら手術することが可能ではなかった。また、手術以外においても、視認するときに障害となる物質を除去することなく、障害となる物質に覆われている観測対象物の組織像を明確に観測することが求められている。そこで、本発明において、視認を妨げている障害物層による光の反射・散乱・吸収の効果を可及的に低減し、障害物下の組織像を明確に観測し、その障害物下の組織像を容易に提供する装置を実現することにある。   In the conventional method, it is not possible to perform an operation while observing a tissue image of the operation target region without removing a substance that becomes an obstacle when the operation target region is visually recognized. In addition to surgery, it is required to clearly observe a tissue image of an observation object covered with a substance that becomes an obstacle without removing the substance that becomes an obstacle when visually recognizing. Therefore, in the present invention, the effect of reflection, scattering and absorption of light by the obstacle layer hindering visual recognition is reduced as much as possible, and the tissue image under the obstacle is clearly observed, and the tissue under the obstacle is observed. It is to realize an apparatus that easily provides an image.

本発明の態様に係る画像処理装置は、障害物に覆われている観測対象物の透視画像を生成するための演算処理方法を学習によって決定する画像処理装置であって、障害物と前記障害物に覆われている学習対象物との撮像データを、当該障害物の透過吸収特性及び当該観測対象物の反射特性に基づき選択された複数の波長の赤外光により取得して入力する撮像データ入力部と、前記障害物を通過してきた複数の波長の赤外光について波長間の線形演算及び/又は非線形演算を行うことによって前記学習対象物の透視画像データを生成する画像データ演算処理部と、前記学習対象物の前記透視画像データと予め取得している前記学習対象物の反射率データとを比較するデータ比較部と、を備え、前記画像データ演算処理部は、前記データ比較部からの比較データに基づいて、前記透視画像データと予め取得している前記学習対象物の反射率データとの間の対応点の反射率の差異が小さくなるように前記撮像データの演算処理方法を変更する、ものである。 An image processing apparatus according to an aspect of the present invention is an image processing apparatus that determines, by learning, an arithmetic processing method for generating a fluoroscopic image of an observation object covered by an obstacle. The obstacle and the obstacle imaging data to an imaging data with the learning object are covered, and inputs the acquired by the infrared light of a plurality of wavelengths selected based on the reflection characteristic of the transmission absorption and the observed object of the obstacle An input unit; and an image data calculation processing unit that generates perspective image data of the learning object by performing linear calculation and / or nonlinear calculation between wavelengths for infrared light having a plurality of wavelengths that have passed through the obstacle ; , and a Lud chromatography data comparing section compares the reflectance data of the fluoroscopic image data and previously acquired the learning object are of the learning object, the image data processing unit, before Kide Data comparison section Based on the comparison data, changes the processing method of the imaging data as a difference in reflectance of the corresponding point is reduced between the reflectance data of said learning object acquired in advance with the fluoroscopic image data To do.

本発明の他の態様に係る画像処理方法は、障害物と前記障害物に覆われている学習対象物との撮像データを、当該障害物の透過吸収特性及び当該観測対象物の反射特性に基づき選択された複数の波長の赤外光により取得して入力するステップと、前記撮像データから前記学習対象物の透視画像データを生成するステップと、前記学習対象物の前記透視画像データと予め取得している前記学習対象物の反射率データとを比較するステップと、前記比較の結果に応じて、前記学習対象物の前記透視画像データと予め取得している前記学習対象物の反射率データとの間の対応点の反射率の差異が小さくなるように前記撮像データの演算処理方法を変更するステップと、前記演算処理方法を用いて、前記障害物を通過してきた複数の波長の赤外光について波長間の線形演算及び/又は非線形演算行うことにより前記障害物に覆われている観測対象物の透視画像を生成するステップ、を有する画像処理方法である。 Other image processing method according to the embodiment of the present invention, the shooting image data of the learning object being covered by an obstacle the obstacle, the reflection characteristic of the transmission absorption and the observed object of the obstacle Obtaining and inputting infrared light of a plurality of wavelengths selected on the basis of the imaging data, generating perspective image data of the learning object from the imaging data, and acquiring the perspective image data of the learning object in advance Comparing the learning object with the reflectance data of the learning object, and depending on the result of the comparison, the fluoroscopic image data of the learning object and the reflectance data of the learning object acquired in advance. A step of changing the calculation processing method of the imaging data so as to reduce the difference in reflectance between corresponding points, and using the calculation processing method , infrared light having a plurality of wavelengths that have passed through the obstacle Nitsu Step of generating a fluoroscopic image of the observed object is covered with the obstacle by performing linear operation and / or non-linear operation between wavelengths Te is an image processing method having.

本発明に係る画像処理装置によれば、観測対象物が人間の目による視認を行うことを妨げる物質によって覆われているときに、その人間の目による視認を行うことを妨げる物質を取り除くことなしに、観測対象物の組織像を容易に提供することができる。このことは、例えば、手術を行っているときの手術部位が血液を含む体液で覆われてしまうときにでも、手術部位の組織像を観測しつつ手術を行うことができることになる。   According to the image processing apparatus of the present invention, when an observation target is covered with a substance that prevents the human eye from performing visual recognition, the substance that prevents the human eye from performing visual recognition is not removed. In addition, it is possible to easily provide a tissue image of the observation object. This means that the surgery can be performed while observing the tissue image of the surgical site even when the surgical site during surgery is covered with a body fluid containing blood.

実施の形態1.
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。本実施の形態は、本発明を画像処理装置に適用したものである。本実施の形態に係る画像処理装置においては、ハイパースペクトルセンサを用いて赤外光領域における波長情報と強度情報を得、観測対象物以外の部分からの反射光をなるべく減らして、障害物層に覆われた観測対象物の情報をなるべく有効に取り出すために、ハイパースペクトルセンサにおいて観測されたさまざまな波長のデータ間の演算処理方法の最適化を行うものである。このさまざまな波長のデータ間の演算処理方法の最適化を行うために、本実施の形態に係る画像処理装置においては多層パーセプトロンを用いている。
Embodiment 1 FIG.
Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings. In the present embodiment, the present invention is applied to an image processing apparatus. In the image processing apparatus according to the present embodiment, the hyperspectral sensor is used to obtain wavelength information and intensity information in the infrared light region, and the reflected light from the part other than the observation target is reduced as much as possible to the obstacle layer. In order to extract the information of the covered observation object as effectively as possible, the calculation processing method between the data of various wavelengths observed in the hyperspectral sensor is optimized. In order to optimize the arithmetic processing method between data of various wavelengths, the image processing apparatus according to the present embodiment uses a multilayer perceptron.

本実施の形態に係る画像処理装置においては、血液を含む体液に覆われた手術部位を観測するための装置を一例として説明する。この場合、障害物層が血液を含む体液であり、観測物が生体組織の手術部位である。図1に、水((a−1))、ヘモグロビン((a−2))、及び酸化ヘモグロビン((a−3))の吸光スペクトル特性を示している。縦軸は吸収係数であり、横軸は光の波長である。吸収係数は、入射光と透過光との強度比の対数を透過した光路長で割って算出したものである。つまり、図1に示された吸光スペクトル特性は、吸収係数の波長依存性を示したものである。   In the image processing apparatus according to the present embodiment, an apparatus for observing a surgical site covered with a body fluid containing blood will be described as an example. In this case, the obstacle layer is a body fluid containing blood, and the observation object is a surgical site of the living tissue. FIG. 1 shows the absorption spectrum characteristics of water ((a-1)), hemoglobin ((a-2)), and oxidized hemoglobin ((a-3)). The vertical axis represents the absorption coefficient, and the horizontal axis represents the wavelength of light. The absorption coefficient is calculated by dividing the logarithm of the intensity ratio between incident light and transmitted light by the transmitted optical path length. That is, the absorption spectrum characteristic shown in FIG. 1 shows the wavelength dependence of the absorption coefficient.

図1に示されるように、血液を構成するヘモグロビンや酸化ヘモグロビンの吸収については、可視光領域において大きくなっており、可視光領域の中で波長の長い領域である深紅色のみが視認できるようになる。そのため、血液を含む障害物層に覆われた生体組織は、人間の目による視認を行うことが困難であることがわかる。   As shown in FIG. 1, the absorption of hemoglobin and oxyhemoglobin constituting blood is large in the visible light region so that only the deep red color having a long wavelength in the visible light region is visible. Become. Therefore, it turns out that it is difficult for the biological tissue covered with the obstacle layer containing blood to be visually recognized by human eyes.

これに対して、血液に多量に含まれる水の可視光領域から赤外光領域までにおける吸収については、可視光領域では吸収が少なく、赤外光領域で幾つかの吸収ピークを持っている。つまり、血液を構成するヘモグロビンや酸化ヘモグロビンが可視光を吸収し、赤外光領域においては水による吸収があるため、可視光領域から赤外光領域にかけての幅広い波長領域の光を用いて、血液を含む障害物層の透過させる画像透視計測が困難であることを示唆している。   On the other hand, the absorption of water contained in a large amount in blood from the visible light region to the infrared light region is less absorbed in the visible light region and has several absorption peaks in the infrared light region. In other words, hemoglobin and oxyhemoglobin that make up blood absorb visible light, and in the infrared light region, there is absorption by water, so using light in a wide wavelength region from the visible light region to the infrared light region, This suggests that it is difficult to perform image fluoroscopy through an obstacle layer including

これらのことから、障害物層の下にある組織像を顕在化させるために、障害物層の吸収や散乱が少なく、かつ観測対象物の組織像が明確なコントラストをもつ波長域を複数選択する必要がある。上記のように選択された波長域は、障害物層の物質によって変化されるものである。つまり、本実施の形態においては、障害物層が血液層であるため、血液層に応じた波長域を選択する必要がある。   Based on these facts, in order to reveal the tissue image under the obstacle layer, select a plurality of wavelength regions where there is little absorption and scattering of the obstacle layer and the tissue image of the observation object has a clear contrast. There is a need. The wavelength range selected as described above is changed by the material of the obstacle layer. That is, in this embodiment, since the obstacle layer is a blood layer, it is necessary to select a wavelength range corresponding to the blood layer.

上記のように選択された複数の波長域のスペクトルを組み合わせることによって、観測対象物の組織像を得ている。また、不要な散乱光や障害物表面での反射光などは、それらを差し引くことで、本来観測すべき観測対象物の組織像のコントラストを改善することができる。   A tissue image of the observation object is obtained by combining the spectra of a plurality of wavelength regions selected as described above. Further, by subtracting unnecessary scattered light or reflected light on the obstacle surface, the contrast of the tissue image of the observation object that should be observed can be improved.

本実施の形態に係る画像処理装置においては、ハイパースペクトルセンサを用いることによって、観測対象物の組織像を取り込んでいる。ハイパースペクトルセンサとは、ピクセルごとに、多数チャネル(通常30以上)にスペクトル分解し、該多数チャネルの出力強度から構成されるベクトル量を当該ピクセルのスペクトル強度として登録することを特徴とする分光イメージングセンサである。ここでいうチャネルとは、観測したい波長域に対して十分に狭い波長幅を持った波長領域のことである。ハイパースペクトルセンサを用いることによって、観測対象物のスペクトル特性を高い空間・波長分解能で計測することができる。   In the image processing apparatus according to the present embodiment, a tissue image of an observation target is captured by using a hyperspectral sensor. A hyperspectral sensor is a spectral imaging characterized by spectrally decomposing into multiple channels (usually 30 or more) for each pixel and registering a vector quantity composed of the output intensity of the multiple channels as the spectral intensity of the pixel. It is a sensor. The channel here is a wavelength region having a sufficiently narrow wavelength width with respect to the wavelength region to be observed. By using the hyperspectral sensor, the spectral characteristics of the observation object can be measured with high spatial and wavelength resolution.

図2は本実施の形態に係る画像処理装置において、小動物を対象とした測定の場合に使われる構成例である。上に障害物層21が覆っている観測対象物22が移動テーブル13の上に配置されている。これらの上にハイパースペクトルセンサ11が位置している。ハイパースペクトルセンサ11は、PC12に接続されている。上に障害物層21が覆っている観測対象物22には、光源14から光が入射されている。障害物層21と観測対象物22とから反射した光は、ハイパースペクトルセンサ11によって観測されている。   FIG. 2 is a configuration example used in the case of measurement for a small animal in the image processing apparatus according to the present embodiment. An observation object 22 covered with an obstacle layer 21 is arranged on the moving table 13. Above these, the hyperspectral sensor 11 is located. The hyperspectral sensor 11 is connected to the PC 12. Light from the light source 14 is incident on the observation object 22 covered by the obstacle layer 21. The light reflected from the obstacle layer 21 and the observation object 22 is observed by the hyperspectral sensor 11.

図2のような配置にした場合には、障害物層21と観測対象物22は移動テーブル13の上に固定されているため、移動テーブル13が移動することにより波長情報と光強度が観測され、その情報が組み合わされて画像が形成される。この構成は、これに限られるわけではなく、大きな動物の組織や人体の組織などを観測する場合には、ハイパースペクトルセンサ11に取り付けられた観測装置を移動させ、静止した対象物の2次元画像を得る構成とする。これらの2つの構成には、作用的に本質的な差異はない。   In the case of the arrangement as shown in FIG. 2, the obstacle layer 21 and the observation object 22 are fixed on the moving table 13, so that the wavelength information and the light intensity are observed by moving the moving table 13. The information is combined to form an image. This configuration is not limited to this, and when observing a large animal tissue or a human tissue, a two-dimensional image of a stationary object is moved by moving an observation device attached to the hyperspectral sensor 11. It is set as the structure which obtains. There is no substantial difference in operation between these two configurations.

本実施の形態に係る画像処理装置においては、所望の画像データを取得する前に、PC12が学習を繰り返すことによって、演算処理方法を変更している。ここでいう学習とは、予め画像データがわかっている対象物(学習対象物)の撮像データをハイパースペクトルセンサ11によって取得し、その撮像データをPC12の撮像データ入力部に入力し、この撮像データと予め取得している学習対象物の画像データである教師データとの比較を画像データ比較部が行い、この比較結果に応じて、教師データと、撮像データから演算処理して出力した演算処理学習画像データとの差異を小さくなるように演算処理方法を画像データ演算処理部が変更することである。   In the image processing apparatus according to the present embodiment, the calculation processing method is changed by the PC 12 repeating learning before obtaining desired image data. Learning here refers to acquiring imaging data of an object (learning object) whose image data is known in advance by the hyperspectral sensor 11, inputting the imaging data to the imaging data input unit of the PC 12, and this imaging data. Is compared with the teacher data that is the image data of the learning object acquired in advance by the image data comparison unit, and according to the comparison result, the arithmetic processing learning output by performing the arithmetic processing from the teacher data and the imaging data The image data calculation processing unit changes the calculation processing method so as to reduce the difference from the image data.

ここで、撮像データ入力部と画像データ演算処理部と画像データ比較部とを有するPC12について説明する。図3は、PC12における撮像データ入力部と画像データ演算処理部と画像データ比較部との構成を模式的に示すブロック図である。   Here, the PC 12 having an imaging data input unit, an image data calculation processing unit, and an image data comparison unit will be described. FIG. 3 is a block diagram schematically illustrating the configuration of the imaging data input unit, the image data calculation processing unit, and the image data comparison unit in the PC 12.

ハイパースペクトルセンサ11からの学習対象物の撮像データ201は、I/Oインターフェース124を介してメインメモリ122に格納される。さらに、この撮像データ201は、後の使用のために不揮発性記憶装置123にも記録される。また、不揮発性記憶装置123には、予め取得している学習対象物の画像データが記録されている。   The imaging data 201 of the learning object from the hyperspectral sensor 11 is stored in the main memory 122 via the I / O interface 124. Further, the imaging data 201 is also recorded in the nonvolatile storage device 123 for later use. In addition, the non-volatile storage device 123 stores image data of a learning object acquired in advance.

ハイパースペクトルセンサ11から画像データを取り込むためのインターフェースとしては、典型的にはキャプチャボードが使用される。メインメモリ122としてはDRAMを、不揮発性記憶装置123としてはハードディスク・ドライブ(HDD)を典型的に使用することができる。   As an interface for capturing image data from the hyperspectral sensor 11, a capture board is typically used. A DRAM can be typically used as the main memory 122 and a hard disk drive (HDD) can be typically used as the non-volatile storage device 123.

PC12内にはCPU121が実装されている。CPU121は、不揮発性記憶装置123に記憶されているプログラムのコマンドに従って動作することによって、障害物に覆われている観測対象物の透視画像を生成するための、学習と演算処理方法の変更との各処理を実行する。プログラムは、不揮発性記憶装置123からメインメモリ122にロードされて、CPU121によって実行される。   A CPU 121 is mounted in the PC 12. The CPU 121 operates according to the command of the program stored in the non-volatile storage device 123, thereby learning and changing the arithmetic processing method for generating a perspective image of the observation target covered by the obstacle. Execute each process. The program is loaded from the nonvolatile storage device 123 into the main memory 122 and executed by the CPU 121.

また、CPU121はプログラムによって、画像データ演算処理部125にも画像データ比較部126にもなりうる。I/Oインターフェース124を介してメインメモリ122に格納された学習対象物の撮像データ201は、画像データ演算処理部125に読み出される。このとき、画像データ処理部125によって、学習対象物の撮像データ201は演算処理学習画像データ202にデータ処理され、そのデータ処理された演算処理学習画像データは、メインメモリに記憶させられる。   Further, the CPU 121 can be an image data calculation processing unit 125 or an image data comparison unit 126 depending on a program. The imaging data 201 of the learning target stored in the main memory 122 via the I / O interface 124 is read out to the image data arithmetic processing unit 125. At this time, the imaging data 201 of the learning object is processed into arithmetic processing learning image data 202 by the image data processing unit 125, and the arithmetic processing learning image data subjected to the data processing is stored in the main memory.

また、CPU121は、不揮発性記憶装置123に記憶されている、教師データ203をメインメモリ122に読み込み記憶している。さらに、画像データ比較部126は、メインメモリ122に記憶された、教師データ203と演算処理学習画像データ202とを読出し比較を行っている。この比較結果は、画像データ演算処理部125に送信され、この比較結果に応じて、画像データ演算処理部125は、教師データ203と、撮像データから演算処理して出力した演算処理学習画像データ202との差異を小さくなるように演算処理方法を変更している。このプログラムは、CD−ROMやDVDなどの記録媒体に保存して、各コンピュータにインストールすることができる。   Further, the CPU 121 reads and stores the teacher data 203 stored in the nonvolatile storage device 123 into the main memory 122. Further, the image data comparison unit 126 reads and compares the teacher data 203 and the arithmetic processing learning image data 202 stored in the main memory 122. The comparison result is transmitted to the image data calculation processing unit 125, and in response to the comparison result, the image data calculation processing unit 125 performs calculation processing learning image data 202 output from the teacher data 203 and the imaging data. The calculation processing method has been changed so as to reduce the difference. This program can be stored in a recording medium such as a CD-ROM or DVD and installed in each computer.

図には示していないが、PC12には、CPU122やメインメモリ122とバスを介して接続されたコントローラが実装され、これらにデータ入力をするためのマウスやキーボード、あるいは画像出力のためのディスプレイやプリンタを接続する。さらに他のコンピュータと通信を行うために、PC12を、通信アダプタを介してネットワークに接続することも可能である。   Although not shown in the figure, the PC 12 is mounted with a controller connected to the CPU 122 and the main memory 122 via a bus, a mouse and keyboard for inputting data into these, a display for image output, Connect the printer. In order to communicate with another computer, the PC 12 can be connected to a network via a communication adapter.

図4に、障害物層21の一例としての血液層を透過して観測したい観測対象物22の一例として紙を想定したときの可視光領域による写真像(図4(a))と、そのときの一画像の二つのピクセルにおける、ハイパースペクトルセンサによって観測された反射光強度の波長依存性を示している(図4(b)、(c))。図4(b)、(c)における縦軸は反射光強度であり、横軸は障害物層21に覆われた観測対象物22への入射光波長である。このときの二つのピクセルは、血液層が紙を覆っている部分のピクセルから一つ、血液層が位置していない紙の部分のピクセルから一つ採っている。   FIG. 4 shows a photographic image (FIG. 4 (a)) in the visible light region when paper is assumed as an example of the observation object 22 to be observed through the blood layer as an example of the obstacle layer 21, and at that time. The wavelength dependence of the reflected light intensity observed by the hyperspectral sensor in two pixels of one image is shown (FIGS. 4B and 4C). 4B and 4C, the vertical axis represents the reflected light intensity, and the horizontal axis represents the wavelength of incident light on the observation object 22 covered with the obstacle layer 21. The two pixels at this time are taken from one pixel of the part where the blood layer covers the paper and one from the pixel of the part of the paper where the blood layer is not located.

この二つのピクセルからの反射光強度の波長依存性を見ると、図4(b)、(c)に示されるように、血液層が位置していない紙の部分のピクセルにおいては、900nm〜1700nmの赤外光領域における反射光強度が非常に強い。それに対して、血液層が紙を覆っている部分のピクセルにおいては、1100nm〜1300nmの領域において反射光強度を持つが、その他の領域においては、血液層が位置していない紙の部分のピクセルと比較するとほとんど反射光がないことが示されている。   Looking at the wavelength dependence of the reflected light intensity from these two pixels, as shown in FIGS. 4B and 4C, in the pixel of the paper portion where the blood layer is not located, 900 nm to 1700 nm. The reflected light intensity in the infrared light region is very strong. On the other hand, in the pixel where the blood layer covers the paper, the reflected light intensity is in the region of 1100 nm to 1300 nm, but in the other region, the pixel of the paper portion where the blood layer is not located Comparison shows that there is almost no reflected light.

つまり、血液層の下に位置する紙の部分を観測するためには、血液層が紙を覆っている部分のピクセルと血液層が位置していない紙の部分のピクセルにおける反射光強度が図4(b)、(c)のように示されるために、反射光の影響を受ける1100〜1300nmの赤外光のデータを相殺するように演算処理されると良いことがわかる。   In other words, in order to observe the paper portion located under the blood layer, the reflected light intensity at the pixel of the portion where the blood layer covers the paper and the pixel of the paper portion where the blood layer is not located is as shown in FIG. Since it is shown as (b) and (c), it can be understood that the calculation processing is preferably performed so as to cancel the data of 1100 to 1300 nm infrared light affected by the reflected light.

障害物透過画像を得る手段としては、複数の波長域の強度の線形和によって出力画像を得ることができる。このときの線形和におけるそれぞれの係数は、障害物層などの反射光や散乱光の影響を相殺するために、負の係数を含んでいる。また、観測対象物の組織像が特定の反射率分布を有する場合には、非線形の演算処理を加味することで、ノイズ除去の効果が高まり、コントラストの高い画像が得られることが期待される。   As a means for obtaining an obstacle transmission image, an output image can be obtained by a linear sum of intensities in a plurality of wavelength regions. Each coefficient in the linear sum at this time includes a negative coefficient in order to cancel the influence of reflected light and scattered light from the obstacle layer. In addition, when the tissue image of the observation object has a specific reflectance distribution, it is expected that a noise removal effect is enhanced and a high-contrast image can be obtained by adding a nonlinear calculation process.

上記のように、障害物層の影響を最小限にとどめ、障害物下の観測対象物の組織像を明瞭に観測するためには、障害物層の吸収、散乱、及び表面反射などの光学的特性と、対象物の反射スペクトル特性を加味し、各波長で観測された反射光強度の間の演算処理が必要となる。最適な演算処理方法は、障害物、対象物及び照明条件によっても異なるので、この演算処理方法は、障害物及び対象物に応じて適応的に変化することが望ましい。   As described above, in order to minimize the influence of the obstacle layer and clearly observe the tissue image of the observation object under the obstacle, the optical layers such as absorption, scattering, and surface reflection of the obstacle layer are used. Considering the characteristics and the reflection spectrum characteristics of the object, a calculation process between the reflected light intensities observed at each wavelength is required. Since the optimum arithmetic processing method varies depending on the obstacle, the object, and the lighting condition, it is desirable that the arithmetic processing method is adaptively changed according to the obstacle and the object.

上記の演算処理方法において、ユニットが複数の階層をなすように並び、入力層から出力層へ向かう一方向の結合のみが許されるネットワークである階層的なネットワークの最も使用される頻度の高い多層パーセプトロンを用いるとよい。   In the above arithmetic processing method, the most frequently used multi-layer perceptron of a hierarchical network, which is a network in which units are arranged in a plurality of layers and only one-way coupling from the input layer to the output layer is allowed Should be used.

ここで、多層パーセプトロンについて説明する。多層パーセプトロンを説明するために、多層パーセプトロンの原形である単純パーセプトロンについて説明する。観測される画像の各ピクセルで測定される反射率の各スペクトル成分を入力に持つ、単純パーセプトロンによる各波長間の演算機構を図5に示す。   Here, the multilayer perceptron will be described. In order to describe the multilayer perceptron, a simple perceptron that is the original form of the multilayer perceptron will be described. FIG. 5 shows a calculation mechanism between wavelengths by a simple perceptron having as input the spectral components of the reflectance measured at each pixel of the observed image.

単純パーセプトロンにおいては、所定のピクセルにおける各スペクトル成分を、入力ユニット31が並んでいる入力層32に入力することによって、演算機構33が、入力されたデータとバイアス34を組み合わせることによって、そのピクセルにおける2値画像35を得ている。このとき、それぞれのスペクトル成分にかかる可変荷重の最適化を行う必要がある。本実施の形態に係る画像処理装置においては、組織像が予めわかっているものを用意し、その予めわかっている組織像の上に障害物層が覆っているものをハイパースペクトルセンサによって撮像し、演算機構33が出力した2値画像35と、予めわかっている組織像を2値画像としたものを比較することによって、前記の可変加重の最適化を行っている。   In a simple perceptron, by inputting each spectral component in a given pixel to the input layer 32 in which the input unit 31 is arranged, the calculation mechanism 33 combines the input data and the bias 34, so that A binary image 35 is obtained. At this time, it is necessary to optimize the variable load applied to each spectral component. In the image processing apparatus according to the present embodiment, prepare a tissue image that is known in advance, and image a thing that the obstacle layer covers on the tissue image that is known in advance by a hyperspectral sensor, The variable weight is optimized by comparing a binary image 35 output from the calculation mechanism 33 with a binary image obtained from a previously known tissue image.

この演算機構に与えられる入力値は、ハイパースペクトルセンサから得られる各ピクセルのスペクトル強度を、標準白色板の反射強度で除した「反射率」x(i=1、・・・、m)を用いるものとする。添え字iはハイパースペクトルセンサの各チャネル(波長に相当)を表すものとする。 The input value given to this calculation mechanism is “reflectance” x i (i = 1,..., M) obtained by dividing the spectral intensity of each pixel obtained from the hyperspectral sensor by the reflection intensity of the standard white plate. Shall be used. The subscript i represents each channel (corresponding to a wavelength) of the hyperspectral sensor.

単純パーセプトロンの出力yは、可変荷重をwとして、次式のように表される。
gは2値化を表す非線形関数、bはバイアス値を表す。ここで、可変加重の最適化を行っている。可変加重の最適化においては、まず組織像が予めわかっているものを用意し、その予めわかっている組織像の上に障害物層が覆っているものをハイパースペクトルセンサによって撮像し、演算機構33が出力した2値画像35と、予めわかっている組織像を2値画像としたものとの差異をできるだけ小さくすることによって行っている。
The output y of the simple perceptron is expressed by the following equation, where w i is a variable load.
g represents a nonlinear function representing binarization, and b represents a bias value. Here, optimization of variable weight is performed. In the optimization of variable weight, first, a tissue image with a known tissue image is prepared, and an obstacle layer covering the previously known tissue image is imaged with a hyperspectral sensor, and the calculation mechanism 33 is obtained. Is performed by minimizing the difference between the binary image 35 output from the above and a binary image obtained from a previously known tissue image.

この差異を小さくするための方法としては、適当な初期パラメータから始めてパラメータを繰り返し更新することにより最適なパラメータの値を求める方法の最も基本的で簡単な方法である、最急降下法を用いるとよい。すなわち、まず初期状態で乱数を与え、上記の差異を最小にしていくために、次式で定義される学習則を繰り返して起用することで、徐々に可変加重を最適な値へと変化させていく。
ここで、oは実際のネットワークの出力信号の値を、tは予めわかっている組織像を2値画像とした値を、ηは学習係数を表す。
As a method for reducing this difference, it is preferable to use the steepest descent method, which is the most basic and simple method of obtaining the optimum parameter value by repeatedly updating the parameter starting from an appropriate initial parameter. . That is, in order to minimize the above difference by first giving a random number in the initial state, the variable weight is gradually changed to an optimum value by repeatedly using the learning rule defined by the following equation. Go.
Here, o is a value of an actual network output signal, t is a value obtained by converting a known tissue image into a binary image, and η is a learning coefficient.

上記のような単純パーセプトロンを層状に繋ぎ合わせたネットワークが多層パーセプトロンである。多層パーセプトロンによる波長間演算処理を示したのが図6である。多層パーセプトロンにおいては、入力ユニット31が並んだ入力層32と出力ユニット36が並んだ出力層37との間に、隠匿ユニット38が並んだ隠匿層39が存在している。このときに、入力層32から隠匿層39へのデータ変換と隠匿層39から出力層37へのデータ変換は、上述の単純パーセプトロンと同様の方法を用いている。   A multilayer perceptron is a network in which the above simple perceptrons are connected in layers. FIG. 6 shows the inter-wavelength calculation processing by the multilayer perceptron. In the multilayer perceptron, a concealment layer 39 in which concealment units 38 are arranged exists between an input layer 32 in which input units 31 are arranged and an output layer 37 in which output units 36 are arranged. At this time, the data conversion from the input layer 32 to the concealment layer 39 and the data conversion from the concealment layer 39 to the output layer 37 use the same method as the above-mentioned simple perceptron.

多層パーセプトロンを用いている場合、出力層37において、出力画像として2値画像だけではなくグレースケールの画像をも扱えるように配慮し、画素値をコード化している。このコード様式としては、すでにT.O.Jackson(Fiesler and R. Beale eds., Handbook of Neural Computation, B4.4, IOP pub. Ltd and Oxford Univ. Press)によって、提案されているdiscrete thermometer encodingの手法を用いている。   When a multilayer perceptron is used, the pixel values are coded in the output layer 37 so that not only a binary image but also a gray scale image can be handled as an output image. As this code format, T.I. O. The method of discrete thermometer encoding proposed by Jackson (Fiesler and R. Beale eds., Handbook of Neural Computation, B4.4, IOP pub. Ltd and Oxford Univ. Press) is used.

入力層32に入力されるデータは、単純パーセプトロンと同様に、ハイパースペクトルセンサから得られる各ピクセルのスペクトル強度を、標準白色板の反射強度で除した「反射率」x(i=1、・・・、m)を用いるものとする。以上のようにして、各ピクセルのスペクトル成分間の演算処理を行う。 Similar to the simple perceptron, the data input to the input layer 32 is “reflectance” x i (i = 1,...) Obtained by dividing the spectral intensity of each pixel obtained from the hyperspectral sensor by the reflection intensity of the standard white plate.・ ・, M) shall be used. As described above, arithmetic processing between the spectral components of each pixel is performed.

また、多層パーセプトロンにおける学習方法のフローチャートを示したのが、図7である。まず、学習対象物と測定を行う波長帯域を人手により選択する(S101)。次に、多層パーセプトロンの入力層に加えるデータを、最大値と最小値が一定の範囲に収まるように正規化する(S102)。正規化と同時に、学習の際に多層パーセプトロンの出力層37に加える信号として、パーセプトロンの出力層側に提示する信号を、障害物のない状態での画像をコード化する(S103)。このコード化された信号を出力層37に入力し、Rumelhart等により公表されているモーメント項を付加した誤差逆伝播法を使用することによって、多層パーセプトロンに含まれる層間荷重を最適化する(S104)。   FIG. 7 shows a flowchart of the learning method in the multilayer perceptron. First, a learning object and a wavelength band for measurement are manually selected (S101). Next, the data added to the input layer of the multilayer perceptron is normalized so that the maximum value and the minimum value are within a certain range (S102). Simultaneously with normalization, a signal to be presented to the output layer side of the perceptron as a signal to be added to the output layer 37 of the multilayer perceptron at the time of learning is coded into an image without an obstacle (S103). This encoded signal is input to the output layer 37, and the inter-layer load included in the multilayer perceptron is optimized by using the error back propagation method added with the moment term published by Rumelhart et al. (S104). .

以上のような学習方法を用いることによって、誤差が十分少なくなった多層パーセプトロンは、その荷重を固定しその対象物、障害物の組み合わせにおける画像透視に用いる。多層パーセプトロンから得られる出力はコード化されているので、コード化の逆変換によって通常のグレースケール画像に変換することによって表示している。このように多層パーセプトロンを使用することによって、画像に含まれるノイズ成分や散乱光の影響を低減することができ、鮮明な観測対象物の組織像を得ることができる。   By using the learning method as described above, the multilayer perceptron in which the error is sufficiently reduced is used for image fluoroscopy in a combination of the object and the obstacle while fixing the load. Since the output obtained from the multilayer perceptron is coded, it is displayed by converting it into a normal gray scale image by inverse conversion of the coding. Thus, by using a multilayer perceptron, the influence of the noise component contained in an image and scattered light can be reduced, and a clear tissue image of an observation object can be obtained.

本実施の形態に係る画像処理装置を用いて、障害物層としての血液層を透過して、障害物層の下に位置する紙の文字を観測したのが、図8()である。このときの画像処理装置においては、150チャネル分の赤外線スペクトルをハイパースペクトルセンサで取り込み、この150チャネル分の赤外線スペクトル間に非線形演算処理を施すことによって、肉眼では見えない血液層下の印刷文字「5」が明確に確認できる。 FIG. 8 ( b ) shows the observation of the paper characters located under the obstacle layer through the blood layer as the obstacle layer using the image processing apparatus according to the present embodiment. In the image processing apparatus at this time, the infrared spectrum for 150 channels is captured by the hyperspectral sensor, and non-linear calculation processing is performed between the infrared spectra for 150 channels, thereby printing characters “< 5 ”can be clearly confirmed.

この結果との比較対象として、赤外光領域において最も透過性の良好な単一波長1260nmで同じ障害物を透視し、コントラストを強調した画像を図8()に示す。しかしながら、図8()に示されるように、肉眼では見えない血液層の下の印刷文字「5」は鮮明に見ることができない。このことから、本実施の形態に係る画像処理装置を用いた出力結果が鮮明であることがわかる。
As the compared result and, seen through the same obstacles the most permeable good single wavelength 1260nm in the infrared light region, shows an image in which the contrast in FIG. 8 (a). However, as shown in FIG. 8 ( a ), the printed character “5” under the blood layer that cannot be seen with the naked eye cannot be clearly seen. From this, it can be seen that the output result using the image processing apparatus according to the present embodiment is clear.

また、本実施の形態に係る画像処理装置を用いて、学習回数を1回〜2000回まで変化させたときに得られる出力画像の結果を図9(a)〜(d)と図10(a)〜(d)に示す。図9(a)〜(d)までの学習回数は、それぞれ1回、67回、138回、214回である。図10(a)〜(d)までの学習回数は、それぞれ294回、383回、563回、2000回である。この学習回数が多いほど、画像が鮮明になることがわかる。つまり、本実施の形態に係る画像処理装置において、300回以上の学習回数を持つことが好ましい。   9A to 9D and FIG. 10A show the output image results obtained when the number of learnings is changed from 1 to 2000 using the image processing apparatus according to the present embodiment. ) To (d). The numbers of learning in FIGS. 9A to 9D are 1 time, 67 times, 138 times, and 214 times, respectively. The numbers of learning in FIGS. 10A to 10D are 294 times, 383 times, 563 times, and 2000 times, respectively. It can be seen that the larger the number of learning times, the clearer the image. That is, the image processing apparatus according to the present embodiment preferably has a learning count of 300 times or more.

なお、本発明は上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。データ間の演算処理の最適化を自動的に行うための方法は、多層パーセプトロンに限定されるわけではない。   It should be noted that the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention. The method for automatically optimizing arithmetic processing between data is not limited to the multilayer perceptron.

実施の形態2.
本実施の形態に係る画像処理装置においては、多層パーセプトロンを用いずに、障害物層と観測対象物に応じた複数の波長域を選択し、その選択された波長域のスペクトルを組み合わせることによって、障害物層の下に位置する観測対象物の透視画像を得ている。構成要素や動作原理で実施の形態1と同様のものは省略する。
Embodiment 2. FIG.
In the image processing apparatus according to the present embodiment, without using a multilayer perceptron, by selecting a plurality of wavelength regions according to the obstacle layer and the observation object, by combining the spectra of the selected wavelength regions, A fluoroscopic image of the observation object located under the obstacle layer is obtained. Components and operating principles similar to those of the first embodiment are omitted.

図11は、一例として、障害物層である血液層を透過して観測したい観測対象物として紙を想定したときに、この観測対象物をハイパースペクトルセンサで観測を行い、単純パーセプトロンで最適化された入力端子から出力素子に接続される荷重値を、入力スペクトルの順に示したものである。   In FIG. 11, as an example, when paper is assumed to be observed through a blood layer that is an obstacle layer, the observation object is observed with a hyperspectral sensor and optimized with a simple perceptron. The load values connected from the input terminal to the output element are shown in the order of the input spectrum.

また、図11においては、この荷重値分布を4本のガウス分布曲線で近似している。この一例の場合においては、990〜1040nm、1040nm〜1130nm、1120nm〜1180nm、1230nm〜1280nmのスペクトルを測定し、そのスペクトルデータを上述のガウス分布曲線の荷重値分布によって、演算処理を行うことによって、観測対象物の組織像を観測することができる。   In FIG. 11, this load value distribution is approximated by four Gaussian distribution curves. In the case of this example, the spectrum of 990 to 1040 nm, 1040 nm to 1130 nm, 1120 nm to 1180 nm, 1230 nm to 1280 nm is measured, and the spectrum data is subjected to arithmetic processing by the load value distribution of the Gaussian distribution curve, The tissue image of the observation object can be observed.

この4つの波長帯のスペクトルを観測するための装置の概略図を図12に示す。このとき観測対象物に光源から照射され、観測対象物から光が反射される。この反射された光は、ハーフミラーHM1によって半分の光が通過し、半分の光が反射される。ハーフミラーHM1を通過した光はバンドパスフィルタF1によって、所望の波長帯の光にスペクトルが狭められ、CCDカメラCCD1で観測される。   FIG. 12 shows a schematic diagram of an apparatus for observing spectra in these four wavelength bands. At this time, the observation object is irradiated from the light source, and light is reflected from the observation object. Half of the reflected light passes through the half mirror HM1, and half of the light is reflected. The spectrum of the light that has passed through the half mirror HM1 is narrowed to light of a desired wavelength band by the band-pass filter F1, and is observed by the CCD camera CCD1.

ハーフミラーHM1によって反射した光は、ハーフミラーHM2によって、半分の光が通過して、半分の光が反射される。通過した光は、バンドパスフィルタF2によって、所望の波長帯の光にスペクトルが狭められ、CCDカメラCCD2で観測される。   Half of the light reflected by the half mirror HM1 passes through the half mirror HM2, and half of the light is reflected. The spectrum of the light that has passed through is narrowed to light of a desired wavelength band by the band-pass filter F2, and is observed by the CCD camera CCD2.

同様に、ハーフミラーHM2によって反射した光は、ハーフミラーHM3によって、半分の光が通過して半分の光が反射される。通過した光は、バンドパスフィルタF3によって、所望の波長帯の光にスペクトルを狭められ、CCDカメラCCD3で観測される。ハーフミラーHM3によって反射した光は、バンドパスフィルタF4によって、所望の波長帯の光に狭められ、CCDカメラCCD4で観測される。   Similarly, half of the light reflected by the half mirror HM2 passes and half of the light is reflected by the half mirror HM3. The passed light is narrowed in spectrum by the bandpass filter F3 to light of a desired wavelength band, and is observed by the CCD camera CCD3. The light reflected by the half mirror HM3 is narrowed to light of a desired wavelength band by the band pass filter F4 and observed by the CCD camera CCD4.

ここで、4つの波長帯のときを一例として示したが、この波長帯の数はいくつでもよい。その数に対応したバンドパスフィルタとCCDカメラとハーフミラーを用意すればよい。上述のようにすることによって、4つの画像を実時間的に取得し、各ピクセルで
を用いて画像を重畳することで、画像を得ている。i、jは画像のピクセル位置を表す2次元の座標である。また、S(k=1・・・4)は各CCDの対応画像位置のピクセル値、左辺は出力画像ピクセル値、Wは各バンドパスフィルタの透過量を調整する係数で、特に図11において負の係数を持っている二つのバンドについては、Wを負にすることで、負の演算処理を可能ならしめている。
Here, the case of four wavelength bands is shown as an example, but the number of wavelength bands may be any number. Bandpass filters, CCD cameras, and half mirrors corresponding to the number may be prepared. By doing the above, we get four images in real time and at each pixel
The image is obtained by superimposing the image using. i and j are two-dimensional coordinates representing the pixel position of the image. Further, S k (k = 1... 4) is the pixel value of the corresponding image position of each CCD, the left side is the output image pixel value, and W k is a coefficient for adjusting the transmission amount of each bandpass filter. For the two bands having a negative coefficient in, negative arithmetic processing is enabled by making W k negative.

図13と図14は本実施の形態に係る画像透過装置を用いて、障害物層としての血液層を透過して観測した画像である。図13が印刷された紙の上に障害物層としての血液層が覆っているものであり、図14が、モルモットを開腹したものを本実施の形態に係る画像透過装置を用いて観測を行ったものである。   13 and 14 are images observed through the blood layer as the obstacle layer using the image transmission device according to the present embodiment. FIG. 13 is a view in which a blood layer as an obstacle layer is covered on the printed paper. FIG. 14 shows an image obtained by opening a guinea pig using the image transmission device according to the present embodiment. It is a thing.

図13と図14において、(a)が血液層を除いた観測対象物の可視光領域による写真であり、(b)がある一定の赤外光を用いて観測した画像であり、(c)が本実施の形態に係る画像透過装置を用いて観測した透視画像である。この結果をみてあきらかなように、一定の赤外光を用いた場合と比較してとても鮮明な画像が得られていることがわかる。   In FIGS. 13 and 14, (a) is a photograph of the observation object excluding the blood layer in the visible light region, (b) is an image observed using a certain infrared light, (c) These are fluoroscopic images observed using the image transmission device according to the present embodiment. As is apparent from this result, it can be seen that a very clear image is obtained as compared with the case where constant infrared light is used.

以上のように、赤外光領域から、障害物層と観測対象物に応じた波長帯を複数選択することによって、この選択された波長帯のスペクトルを測定し演算処理を行う方法を用いることによって、多層パーセプトロンを用いることによって行われる演算処理よりも、行うべき演算処理を非常に少なくすることが可能となり、画像処理速度が飛躍的に向上させることができる。このため、実時間における観測対象物の画像の変化を観測することが容易に行うことができるようになる。   As described above, by selecting a plurality of wavelength bands corresponding to the obstacle layer and the observation object from the infrared light region, by using a method of measuring the spectrum of the selected wavelength band and performing arithmetic processing The arithmetic processing to be performed can be greatly reduced compared to the arithmetic processing performed by using the multilayer perceptron, and the image processing speed can be remarkably improved. For this reason, it becomes possible to easily observe the change in the image of the observation object in real time.

水、ヘモグロビン、及び酸化ヘモグロビンの吸光特性Absorption characteristics of water, hemoglobin, and oxygenated hemoglobin ハイパースペクトルセンサによる反射光の測定系Measurement system of reflected light by hyperspectral sensor PCにおける撮像データ入力部と画像データ演算処理部と画像データ比較部との構成を模式的に示すブロック図FIG. 2 is a block diagram schematically showing the configuration of an imaging data input unit, an image data calculation processing unit, and an image data comparison unit in a PC. (a)紙及び(b)血液の反射光強度スペクトル(A) Paper and (b) Blood reflected light intensity spectrum 単純パーセプトロンによる各波長間の演算機構Calculation mechanism between each wavelength by simple perceptron 多層パーセプトロンによる波長間演算処理Inter-wavelength processing by multilayer perceptron 学習的画像処理系におけるフローチャートFlow chart in learning image processing system (a)波長λ=1260nmのみによる透過画像(b)実施の形態1に係る画像処理装置による透過画像(A) Transmission image by wavelength λ = 1260 nm only (b) Transmission image by image processing apparatus according to Embodiment 1 学習回数における実施の形態1に係る画像処理装置による透過画像。(a)1回(b)67回(c)138回(d)214回The transmission image by the image processing apparatus which concerns on Embodiment 1 in the frequency | count of learning. (A) 1 time (b) 67 times (c) 138 times (d) 214 times 学習回数における実施の形態1に係る画像処理装置による透過画像。(a)294回(b)383回(c)563回(d)2000回The transmission image by the image processing apparatus which concerns on Embodiment 1 in the frequency | count of learning. (A) 294 times (b) 383 times (c) 563 times (d) 2000 times 単純パーセプトロンの荷重値分布図Load distribution of simple perceptron 実施の形態2に係る画像透過装置の概略図Schematic of the image transmission device according to the second embodiment 実施の形態2に係る画像透過装置による印刷された紙の透過画像。(a)血液層が紙を覆っていないときの可視光領域における写真。(b)一定の赤外光による透過画像。(c)実施の形態2に係る画像透過装置による透過画像。9 is a transmission image of paper printed by the image transmission device according to the second embodiment. (A) A photograph in the visible light region when the blood layer does not cover the paper. (B) Transmission image by constant infrared light. (C) A transmission image by the image transmission device according to the second embodiment. 実施の形態2に係る画像透過装置によるモルモットの開腹した部位の透過画像。(a)モルモットの開腹した部位から血液層を取り除いたときの可視光領域における写真。(b)一定の赤外光による透過画像。(c)実施の形態2に係る画像透過装置による透過画像。The transmission image of the site | part which the guinea pig opened by the image transmission apparatus which concerns on Embodiment 2. FIG. (A) A photograph in the visible light region when the blood layer is removed from a guinea pig laparotomy site. (B) Transmission image by constant infrared light. (C) A transmission image by the image transmission device according to the second embodiment.

符号の説明Explanation of symbols

11 ハイパースペクトルセンサ 13 移動テーブル 14 光源
21 障害物層 22 観測対象物
31 入力ユニット 32 入力層 33 演算機構 34 バイアス
35 2値画像 36 出力ユニット 37 出力層 38 隠匿ユニット
39 隠匿層
121 CPU 122 メインメモリ 123 不揮発性記憶装置
124 I/Oインターフェース 125 画像データ演算処理部
126 画像データ比較部
201 撮像データ 202 演算処理学習画像データ 203 教師データ
DESCRIPTION OF SYMBOLS 11 Hyperspectral sensor 13 Movement table 14 Light source 21 Obstacle layer 22 Observation object 31 Input unit 32 Input layer 33 Calculation mechanism 34 Bias 35 Binary image 36 Output unit 37 Output layer 38 Concealment unit 39 Concealment layer 121 CPU 122 Main memory 123 Nonvolatile storage device 124 I / O interface 125 Image data arithmetic processing unit 126 Image data comparison unit 201 Imaging data 202 Arithmetic processing learning image data 203 Teacher data

Claims (10)

障害物に覆われている観測対象物の透視画像を生成するための演算処理方法を学習によって決定する画像処理装置であって、
障害物と前記障害物に覆われている学習対象物との撮像データを、当該障害物の透過吸収特性及び当該観測対象物の反射特性に基づき選択された複数の波長の赤外光により取得して入力する撮像データ入力部と、
前記障害物を通過してきた複数の波長の赤外光について波長間の線形演算及び/又は非線形演算を行うことによって前記学習対象物の透視画像データを生成する画像データ演算処理部と、
前記学習対象物の前記透視画像データと予め取得している前記学習対象物の反射率データとを比較するデータ比較部と、を備え、
前記画像データ演算処理部は、前記データ比較部からの比較データに基づいて、前記透視画像データと予め取得している前記学習対象物の反射率データとの間の対応点の反射率の差異が小さくなるように前記撮像データの演算処理方法を変更する、画像処理装置。
An image processing apparatus that determines by learning an arithmetic processing method for generating a fluoroscopic image of an observation object covered by an obstacle,
Imaging data of the obstacle and the learning object covered by the obstacle is acquired by infrared light of a plurality of wavelengths selected based on the transmission and absorption characteristics of the obstacle and the reflection characteristics of the observation object. An imaging data input unit for inputting
An image data calculation processing unit that generates fluoroscopic image data of the learning object by performing linear calculation and / or nonlinear calculation between wavelengths for infrared light having a plurality of wavelengths that have passed through the obstacle;
A data comparison unit that compares the fluoroscopic image data of the learning object and the reflectance data of the learning object acquired in advance;
Based on the comparison data from the data comparison unit, the image data calculation processing unit has a difference in reflectance between corresponding points between the fluoroscopic image data and the reflectance data of the learning object acquired in advance. An image processing apparatus that changes a calculation processing method of the imaging data so as to be small.
前記画像処理装置は検出部をさらに備え、
前記検出部に、前記検出部が測定する画像をピクセルごとに分割し、前記ピクセルごとの波長情報と光強度情報を同時に測定することが可能なハイパースペクトルセンサを用いている、請求項1に記載の画像処理装置。
The image processing apparatus further includes a test fat,
The hyperspectral sensor capable of dividing the image measured by the detection unit for each pixel and measuring wavelength information and light intensity information for each pixel at the same time is used as the detection unit. Image processing apparatus.
前記画像処理装置は検出部をさらに備え、
前記検出部は、前記障害物と前記観測物とからの反射光に基づいて選択された、前記赤外光の内の複数の波長帯を測定するためのバンドパスフィルタを有する、請求項1又は請求項2に記載の画像処理装置。
The image processing apparatus further includes a test fat,
The detection unit includes a band pass filter for measuring a plurality of wavelength bands of the infrared light selected based on reflected light from the obstacle and the observation object. The image processing apparatus according to claim 2.
前記演算は、多層パーセプトロンを用いている、請求項1乃至請求項3のいずれか一項に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the calculation uses a multilayer perceptron. 前記演算は、単純パーセプトロンを用いている、請求項1乃至請求項3のいずれか一項に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein a simple perceptron is used for the calculation. 前記差異を小さくする方法に、最急降下法を用いている、請求項1乃至請求項5のいずれか一項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 5, wherein a steepest descent method is used as a method of reducing the difference. 前記画像データ演算処理部は、前記障害物を通過してきた複数の波長の赤外光について波長間の非線形演算を行うことによって前記学習対象物の透視画像データを生成する、請求項1記載の画像処理装置。   The image according to claim 1, wherein the image data calculation processing unit generates perspective image data of the learning object by performing nonlinear calculation between wavelengths for infrared light having a plurality of wavelengths that have passed through the obstacle. Processing equipment. 障害物と前記障害物に覆われている学習対象物との撮像データを、当該障害物の透過吸収特性及び当該観測対象物の反射特性に基づき選択された複数の波長の赤外光により取得して入力するステップと、
前記撮像データから前記学習対象物の透視画像データを生成するステップと、
前記学習対象物の前記透視画像データと予め取得している前記学習対象物の反射率データとを比較するステップと、
前記比較の結果に応じて、前記学習対象物の前記透視画像データと予め取得している前記学習対象物の反射率データとの間の対応点の反射率の差異が小さくなるように前記撮像データの演算処理方法を変更するステップと、
前記演算処理方法を用いて、前記障害物を通過してきた複数の波長の赤外光について波長間の線形演算及び/又は非線形演算行うことにより前記障害物に覆われている観測対象物の透視画像を生成するステップ、を有する画像処理方法。
Imaging data of the obstacle and the learning object covered by the obstacle is acquired by infrared light of a plurality of wavelengths selected based on the transmission and absorption characteristics of the obstacle and the reflection characteristics of the observation object. Step to enter,
Generating perspective image data of the learning object from the imaging data;
Comparing the fluoroscopic image data of the learning object with the reflectance data of the learning object acquired in advance;
In accordance with the result of the comparison, the imaging data so that the difference in reflectance of corresponding points between the fluoroscopic image data of the learning object and the reflectance data of the learning object acquired in advance is reduced. Changing the processing method of
A perspective image of an observation object covered by the obstacle by performing linear computation and / or nonlinear computation between wavelengths for infrared light having a plurality of wavelengths that have passed through the obstacle using the computation processing method. Generating an image processing method.
前記演算は、多層パーセプトロンを用いている、請求項8に記載の画像処理方法。 The image processing method according to claim 8, wherein the calculation uses a multilayer perceptron. 前記演算は、単純パーセプトロンを用いている、請求項8に記載の画像処理方法。 The image processing method according to claim 8, wherein the calculation uses a simple perceptron.
JP2005242391A 2004-08-27 2005-08-24 Image processing apparatus and image processing method Active JP4625956B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US60479804A 2004-08-27 2004-08-27
US60474304A 2004-08-27 2004-08-27

Publications (2)

Publication Number Publication Date
JP2006085688A JP2006085688A (en) 2006-03-30
JP4625956B2 true JP4625956B2 (en) 2011-02-02

Family

ID=36164098

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005242391A Active JP4625956B2 (en) 2004-08-27 2005-08-24 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP4625956B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106323885A (en) * 2015-06-26 2017-01-11 中国石油化工股份有限公司 Measurement method of organic substance maturity of rock sample

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4904377B2 (en) * 2009-04-28 2012-03-28 住友電気工業株式会社 Hyperspectral image processing apparatus and hyperspectral image processing method
JPWO2011122584A1 (en) * 2010-03-29 2013-07-08 株式会社システムブレイン Food quality inspection apparatus and food quality inspection method
WO2014147515A1 (en) * 2013-03-19 2014-09-25 Koninklijke Philips N.V. System for hyperspectral imaging in visible light, method for recording a hyperspectral image and displaying the hyperspectral image in visible light
JP7313280B2 (en) * 2016-09-09 2023-07-24 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Simultaneous White Light and Hyperspectral Light Imaging System
CN110998659B (en) * 2017-08-14 2023-12-05 乐天集团股份有限公司 Image processing system, image processing method, and program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001143054A (en) * 1999-11-16 2001-05-25 Hitachi Ltd Satellite image-processing method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001143054A (en) * 1999-11-16 2001-05-25 Hitachi Ltd Satellite image-processing method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106323885A (en) * 2015-06-26 2017-01-11 中国石油化工股份有限公司 Measurement method of organic substance maturity of rock sample
CN106323885B (en) * 2015-06-26 2019-04-02 中国石油化工股份有限公司 A kind of rock sample maturity of organic matter measurement method

Also Published As

Publication number Publication date
JP2006085688A (en) 2006-03-30

Similar Documents

Publication Publication Date Title
JP4625956B2 (en) Image processing apparatus and image processing method
JP6617915B2 (en) Imaging apparatus and spectroscopic system
CN107788948B (en) Diagnosis support device, image processing method for diagnosis support device, and storage medium storing program
US8155413B2 (en) Method and system for analyzing skin conditions using digital images
US9619883B2 (en) Systems and methods for evaluating hyperspectral imaging data using a two layer media model of human tissue
KR20120135422A (en) Optical tomographic imaging apparatus
JP4599520B2 (en) Multispectral image processing method
US20220095998A1 (en) Hyperspectral imaging in automated digital dermoscopy screening for melanoma
US11737673B1 (en) Systems for detecting carious lesions in teeth using short-wave infrared light
CN113208567A (en) Multispectral imaging system, imaging method and storage medium
JP5789786B2 (en) Image measuring apparatus and image measuring method
US20180146847A1 (en) Image processing device, imaging system, image processing method, and computer-readable recording medium
JP2022500642A (en) Hyperspectral imaging methods and devices
EA015558B1 (en) Method and device for evaluating fluorescence image records
Monteiro et al. Towards applying hyperspectral imagery as an intraoperative visual aid tool
JP2011083486A (en) Living tissue discrimination device and method
WO2022058498A1 (en) Optical device and method for examining an object
KR20230064693A (en) Device and method for skin burn degree analysis by use of hyperspectral imaging
Cunha et al. Lossy image compression in a preclinical multimodal imaging study
WO2021037315A1 (en) Device for producing an image of depth-dependent morphological structures of skin lesions
JP4118365B2 (en) Image input device
WO2021039441A1 (en) Biological tissue identification method, biological tissue identification device, and biological tissue identification program
JP2021018754A (en) Object identification method, information processing device, information processing program, optical filter and lighting device
Janani et al. Notice of Violation of IEEE Publication Principles: Blood Cell Detection and Counting Using Convolutional Sparse Dictionary Learning
Vemuri et al. Hyperspectral camera selection for interventional health-care

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070620

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100601

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100810

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100820

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101012

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150