JP3572304B2 - Image analysis method using photo retouching software in medical field - Google Patents

Image analysis method using photo retouching software in medical field Download PDF

Info

Publication number
JP3572304B2
JP3572304B2 JP2002148561A JP2002148561A JP3572304B2 JP 3572304 B2 JP3572304 B2 JP 3572304B2 JP 2002148561 A JP2002148561 A JP 2002148561A JP 2002148561 A JP2002148561 A JP 2002148561A JP 3572304 B2 JP3572304 B2 JP 3572304B2
Authority
JP
Japan
Prior art keywords
image data
image
data obtained
difference
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002148561A
Other languages
Japanese (ja)
Other versions
JP2003339645A (en
Inventor
稔 冨田
Original Assignee
稔 冨田
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 稔 冨田 filed Critical 稔 冨田
Priority to JP2002148561A priority Critical patent/JP3572304B2/en
Publication of JP2003339645A publication Critical patent/JP2003339645A/en
Application granted granted Critical
Publication of JP3572304B2 publication Critical patent/JP3572304B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【産業上の利用分野】
本発明は、医療分野で撮影された画像データの解析処理に関する。
【0002】
【従来の技術】
近年、デジタルカメラやデジタルビデオカメラの発達に伴い、それらの機材で撮影したデジタル画像データは、画素数も増大し、多くの情報が含まれている。そして、それらの画像データの中において肉眼で認識できる情報は一部であって、肉眼では認識することができない隠れた情報が多数存在する。このような肉眼では確認できなかった情報に加工処理を施すことで、その隠れた情報を見ることができる。上記の様に、デジタル画像データを必要に応じて加工することをフォトレタッチ(英語表記photo retouch)と言い、このフォトレタッチを行う画像処理ソフトウェアをフォトレタッチソフトウェアと言う。
【0003】
フォトレタッチソフトウェアは、パーソナルコンピュータやワークステーションなどのコンピュータのアプリケーションソフトウェアとして市販されており、主にデザインや写真現像などの視覚的に美感を起こさせることを生業としている業種で利用されている。これらの業種での目的は、画像データの加工処理により、視覚を通じて鑑賞者または消費者の関心を惹き付けることである。このように、従来フォトレタッチソフトウェアは画像データに対して美感を引き起こさせるように演出すために用いられ、科学技術や医療など科学的事実が求められる分野での画像解析の分析を目的に用いられることはなかった。
【0004】
【発明が解決しようとする課題】
従来、医療分野では、多くの画像データが使用され、診断や研究に利用されている。例えば、レントゲン写真やエックス線CT画像、MRI画像、患部を映したビデオ画像などが上げられる。レントゲン写真やエックス線CT画像、MRI画像など直接肉眼で確認することのできない画像についての画像処理は、3次元レンダリングに代表される解析処理が発達している。一方、ビデオカメラを内視鏡に組み込んだビデオスコープ(または電子スコープともいう)による画像は、患部をありのままの状態を肉眼で認識できるので、上述した直接肉眼で確認することのできない画像の画像処理ほど、画像処理への関心が大きくない。ビデオスコープによる画像は、リアルタイムで生体の患部を確認する目的で使用され、画像処理としては主に画像データの拡大、または解像度の高低変化が挙げられる。このようにビデオスコープによる画像は、もともと肉眼で認識できる画像部分を対象にしか画像処理がされなかった。しかし、近年、ビデオカメラの発達により高解像度のビデオスコープ画像が得られるようになった。このビデオスコープ画像には、非常に多くの情報が含まれており、肉眼で認識できる情報は、ビデオスコープ画像として取り込まれた全情報の一部分にすぎない。
【0005】
そこで、本発明の課題は、医療分野における肉眼では認識できない画像部分のデータに着目し、その肉眼では認識できない画像部分のデータから重要な情報を取得する方法を提供することにある。
【0006】
【課題を解決するための手段】
請求項1記載の発明は、
透過光または反射光下で、撮影機材を用いて体組織を撮影した時系列に連続している画像データ群より、同一空間を撮影した互いに所定の時間差のある2つのフレーム画像データを選択する第1の処理と、
前記第1の処理により選択した2つのフレーム画像データの同一座標にあるそれぞれの画素の階調値の差分をとり、前記差分をとる処理をすべての同一座標にある画素について行う第2の処理と、
前記第2の処理により得られた画像データの明暗の際立ち具合を増大する第3の処理と、
前記第3の処理により得られた画像データの最も明るい部分または前記最も明るい部分の周辺をさらに明るくし、及び前記第3の処理により得られた画像データ中の隣接する画素間の階調値差の勾配が大きい場合、画素間の階調値勾配を緩やかにする第4の処理と
を実行することを特徴とする医療用画像解析処理方法である。
【0007】
また、請求項2記載の発明は、
透過光または反射光下で、撮影機材を用いて体組織を撮影した時系列に連続している画像データ群より、同一空間を撮影した互いに所定の時間差のある2つのフレーム画像データを選択する第1の処理と、
前記第1の処理により選択した2つのフレーム画像データの同一座標にあるそれぞれの画素の階調値の差分をとり、前記差分をとる処理をすべての同一座標にある画素について行う第2の処理と、
前記第2の処理により得られた画像データの明暗の際立ち具合を増大する第3の処理と、
前記第3の処理により得られた画像データの最も明るい部分または前記最も明るい部分の周辺をさらに明るくし、及び前記第3の処理により得られた画像データ中の隣接する画素間の階調値差の勾配が大きい場合、画素間の階調値勾配を緩やかにする第4の処理と、
さらに前記第4の処理により得られた画像データを白黒階調反転させる第5の処理と
を実行することを特徴とする医療用画像解析処理方法である。
【0008】
また、請求項3記載の発明は、
透過光または反射光下で、撮影機材を用いて体組織を撮影した動画像データの1つのフレーム画像データ、または、透過光または反射光下で、撮影機材を用いて体組織を撮影した1つの静止画像データに対し、前記画像データの明暗の際立ち具合を大きくする第1の処理と、
前記第1の処理により得られた画像データの最も明るい部分または前記最も明るい部分の周辺をさらに明るくし、及び前記第1の処理により得られた画像データ中の隣接する画素間の階調値差の勾配が大きい場合、画素間の階調値勾配を緩やかにする第2の処理と
を実行することを特徴とする医療用画像解析処理方法である。
【0009】
また、請求項4記載の発明は、
透過光または反射光下で、撮影機材を用いて体組織を撮影した動画像データの1つのフレーム画像データ、または、透過光または反射光下で、撮影機材を用いて体組織を撮影した1つの静止画像データに対し、前記画像データの明暗の際立ち具合を大きくする第1の処理と、
前記第1の処理により得られた画像データの最も明るい部分または前記最も明るい部分の周辺をさらに明るくし、及び前記第1の処理により得られた画像データ中の隣接する画素間の階調値差の勾配が大きい場合、画素間の階調値勾配を緩やかにする第2の処理と、
さらに前記第2の処理により得られた画像データを白黒階調反転させる第3の処理と
を実行することを特徴とする医療用画像解析処理方法である。
【0010】
また、請求項5記載の発明は、
請求項1乃至4のいずれか1項記載の医療用画像解析処理方法における前記各処理を、コンピュータに実行させるための医療用画像解析プログラムである。
【0011】
【発明の実施の形態】
それでは、まず上記で掲げた請求項1から請求項4で記載されている体組織の撮影方法について詳述する。撮影の対象となる脳組織などの体組織に対して光を照射しビデオカメラやビデオスコープなどの撮像機材で撮影する。ここで光の照射方法として、反射光としての照射方法と透過光としての照射方法との2パターンある。反射光とは、体組織から離れた光源から光を照射し、その照射光が体組織表面で反射されたものである。一方、透過光とは、体組織に光源を接した状態または体組織近傍に光源を設置した状態で光を照射し、光が体組織内を通過し体組織外に出たものである。これらの2パターンの照射方法による撮影方法があるが、用いる光としては透過光の方が好ましい。なぜなら、反射光を用いて撮影の対象となる体組織を撮影した場合、その体組織の表面近くの薄い層にしか光が照射していないので、反射光から得られる情報は少なく、体組織の表面近くの情報のみであるが、透過光を用いて撮影の対象となる体組織を撮影した場合、体組織を通過した光は、体組織内の情報を含み情報量が反射光に比べて多いからである。このように体組織の透過光を得る具体的方法は、本発明者の以下の研究報告がある。脳組織の透過光を得るために、直径1mmの微小ランプを脳組織に挿入し脳表より約1mmのところに固定して点灯すると、その微小ランプ周辺の脳組織が赤く染まって見え(Am J Physiol 235:H56−H63,1978)(Am J Physiol 245:H385−H398,1983)、また、直径約200ミクロンのグラスファイバーを前述の報告と同様に用いる(Am J Physiol 279:H1291−H1298,2000)ということである。
【0012】
光照射後、ビデオカメラやビデオスコープなどの撮像機材で、撮影の対象としている体組織を撮影して、撮影して取得した画像データを記録媒体に記録する。請求項1及び2記載の発明では、記録媒体に記録した画像データは、時系列に連続している複数のフレーム画像データの集合であり、それぞれのフレーム画像は互いに時間差のある画像、つまり、動画像である。この画像データをパーソナルコンピュータ、ワークステーションなどのコンピュータに転送して、コンピュータ上でこの後の処理を行う。画像解析ソフトウェアを用いて、上記のフレーム画像データ群から2つのフレーム画像データを任意に取り出し、この2つのフレーム画像の差分をとり、差分画像として取得する。画像解析ソフトウェアの一例として、シオンイメージがある。シオンイメージ(英語表記Scion Image、ScionCorporation社製)は、医学、生物学で幅広く用いられている画像解析ソフトウェアであり、細胞数のカウント、電気泳動パターンの解析、画像の3次元化などの画像中に含まれる必要な情報を取り出す用途で用いられる。このシオンイメージを用いると動画像を70msのオーダーでコマ送りができるので、70msごとのフレーム画像を取得することができる。さらに、このシオンイメージを用いて、2つのフレーム画像の差分画像を取得することができる。差分画像とは、2つの画像の共通部分を差し引いた相互の異なる部分のデータのみの画像である。フレーム画像はデジタル画像であるが、このデジタル画像とは、自然界に存在するアナログ画像情報を撮像機材などのハードウェア、または、ソフトウェアなどにより標本化、量子化した画像のことである。標本化、量子化された画像は、画素の集合であって、それぞれの画素には、画像の明るさに相当する階調値(濃度値または輝度値ともいう)を持っている。この階調値は8ビットの画像データであれば、256段階の階調値が存在する。白黒画像の場合では、256階調の白黒が表現でき、階調値1が白のとき、階調値256は黒となり、その中間である階調値は128である。このように、白黒多階調で表現されることをグレイスケールという。ここで、画像間演算のうち、画像間の差分をとる処理をする。このとき、階調値同士を引き算した結果に中央の中間階調値(グレイスケールが256階調の場合、その中央の中間階調値は128となる。)を加算しておく。このようにすれば、同一階調値同士の差分は、0とならずに128となり、差分画像上では白と黒の中間色の灰色、すなわち階調値128で表される。したがって、同一空間を撮影した互いに時間差のある2つのフレーム画像の同一座標にあるそれぞれの画素の階調値の差分をとる場合、それぞれの画素の階調値が同一であれば、差の階調値は128となり、色は白黒の中間色である灰色となる。また、同一空間を撮影した互いに時間差のある2つのフレーム画像の同一座標にあるそれぞれの画素の階調値の差分をとる場合、それぞれの画素の階調値が同一でないとき、差の階調値は128にはならない。この差の階調値が128にならないということは、時間差により階調値が変化した、つまり、画像中の被写体が動いたということを意味する。
【0013】
上記の操作により、同一空間を撮影した互いに時間差のある2つのフレーム画像の同一座標にあるそれぞれの画素の階調値を差し引いた差分画像を求めることができ、この差分画像より、2つのフレーム画像間で変化した部分の情報のみを得ることができる。
【0014】
この取得した差分画像には、2つのフレーム画像間で変化した部分の情報のみ含まれているが、肉眼でその情報を識別するのは困難であるので、画像処理ソフトウェアのフィルタ機能を用いて肉眼で識別できるようにする。フォトレタッチソフトウェアの一例として、フォトショップ(「PHOTOSHOP」はアドビシステムズ社の登録商標である)がある。また、フィルタ機能とは、フォトレタッチソフトウェアが有している機能であって、たとえば、画像に含まれる輪郭のみを抽出したり、画像を歪めたり、ぼかしを入れたり、モザイク効果を調整したり、ノイズを調整するなどの様々な視覚効果を画像に対して与えることができる。本発明では、このフィルタ機能のうち、「コントラスト」「ラップ」「階調反転」がある。
【0015】
「コントラスト」とは、画像の明るい部分と暗い部分の明るさの比を表し、コントラストを高めると色彩がくっきりし、見やすい画像になる。コントラストの値が低すぎると、明るい部分と暗い部分の差がはっきり現れない 。また、コントラストを高くすると画像の輪郭がはっきりするが、逆にコントラストを低くすると画像の輪郭がはっきりせず、見やすい画像にならない。このコントラストの制御方法として濃度ヒストグラムがある。濃度ヒストグラムとは画像の濃度値の分布を表し、画像の濃度レベルを調査するのに極めて有効なものである。たとえば、暗い画像では低い濃度域に分布が偏り、明るい画像では高い濃度域に分布が偏る。このヒストグラムの分布位置と形状を変化、つまり強調(エンハンスメントという)処理することで、コントラストを制御することができる。
【0016】
また、「ラップ」とは、画像中に移っている個々の物体に対してラップフィルムをかけたような効果を与えるフィルタである。「ラップ」では、画像中の最も明るい部分またはその周辺を強調してさらに明るくし、かつ画像中に含まれる輪郭部分をぼかす、つまり、隣接する画素の階調値差の勾配が大きい画素間の階調値勾配を緩やかにする処理が行われている。フォトショップではこのラップ効果を、ラップをかけた部分の明るさを「ハイライト(最も明るい部分、またはその周辺)の強さ」で、ラップと画像との起伏を「滑らかさ」で調整することで実現している。
【0017】
また、「階調反転」とは、ネガ画像を取得するためのフィルタ機能である。ネガ画像とはポジ画像(階調反転させる前の画像)の階調度を反転させたもの、つまり、白いものは黒く、黒いものは白く、というような白黒を反転させた画像のことで、グレイスケールの最大階調度から各画素の階調度を引くことによって実現できる。
【0018】
以上のフィルタ機能を上記の差分画像に対して行うことにより、肉眼で認識できなかったものが、肉眼で認識できるようになる。
一方、請求項3及び4記載の発明では、記録媒体に記録した画像データは、必ずしも動画像である必要はなく、静止画像でもよい。なぜならば、請求項3及び4記載の発明で使用する画像データは1つであり、時間差による違いを確認する必要がないためである。したがって、画像データは、ビデオカメラなどの動画像を撮影する撮影機材だけでなく、デジタルカメラなどの静止画像を撮影する撮影機材を用いてもよい。ビデオカメラなどの動画像を撮影する撮影機材で撮影した場合、上記の請求項1及び2記載の発明で説明したのと同様に動画像データをコンピュータへ転送し、コンピュータ上でシオンイメージなどの画像解析ソフトウェアを用いて、転送された動画像から1つのフレーム画像を取り出して、静止画像を取得する。また、デジタルカメラなどの静止画像を撮影する撮影機材で撮影した場合、撮影した静止画像をコンピュータへ転送し、静止画像を取得する。上記の操作で取得した静止画像を、フォトショップなどの画像処理ソフトウェアのフィルタ機能を用いて、肉眼では識別できない部分の画像データを肉眼で識別できるようにする。利用するフィルタ機能は、上記と同様に「コントラスト」「ラップ」「階調反転」である。
【0019】
ところで、請求項1乃至4記載の本発明は大別して請求項1及び2と、請求項3及び4との2種類に分類される。請求項1及び2記載の発明では2つのフレーム画像を取り扱い、請求項3及び4記載の発明では1つの静止画像を取り扱っているが、このことに伴い画像解析の精度が大きく異なってくる。請求項3及び4記載の発明は、1つの静止画像に画像に対して「コントラスト」の強調及び「ラップ」処理を行うと、肉眼では認識できなかった潜在情報の一部分を顕在化することができるが、さらに精度の向上を図るための発明が請求項1及び2記載の発明であり、この発明では2つのフレーム画像の差分をとり、その差分画像に対して「コントラスト」の強調及び「ラップ」処理を行うのである。
【0020】
以上より、本発明者は本発明の方法をビデオ−コンピュータ−エンハンスト−コントラスト−ラップ(VCEC−Wrap)法と呼んでいる。
また、請求項5記載の発明は、コンピュータ上で起動しているオペレーティングシステム(OSともいう)で動作するコンピュータプログラムであって、請求項1から4記載のうちいずれか1つの発明における各処理を実行させるものである。
【0021】
【実施例】
観測方法及び画像解析を図1の本発明の一連の流れを示す図に従って説明する。透過光による観測のため、全身麻酔をしたSD系ラットの脳組織に短いグラスファイバーを埋め込み、暗室で波長λ=550±10nmの透過光を照射し、着目している2mm×2mm四方の脳表面の画像を撮影機材1(レンズ:ニコン社製、SITカメラ:浜松ホトニクス社製)を用いて撮影する。レンズの焦点深度は約±100μmであり、焦点面から±300μm離れている物体には完全にピントが合わない。感覚運動野の皮層には、深さ約400μm、幅約2mmの容積である毛細血管が存在するが、この毛細血管の直径の変化や血流の変化を検出することができる範囲にレンズの測定スケール制御つまみを微調整する。毛細血管より小さい4μm×4μmの空間分解能で撮影した512×512画素の映像は、8ビットのデジタル映像であり、その撮影した映像をパーソナルコンピュータ2へ伝送する。伝送した映像は、フレーム画像取込ソフトであるシオン4(正式名称Scion LG−3、Scion Corporation社製、Scion Imageの1つの種類である。以下、シオンと省略する。)を使って、15Hzでコマ送りをし、70ms毎のフレーム画像3を作成する。
【0022】
連続している2つのフレーム画像の差分をとるために以下を実施した。シオン4に取り込んだ画像の透過光の変化は自動的に8ビット画像に変換される。この8ビット画像に変換されるということは、1画素につき1(最も明るい)〜256(最も暗い)の256のいずれかの明暗レベルを有することである。この明暗の中間レベルは128(図2の画像D参照)となる。そして、この8ビット画像は、256スケールの白黒画像として表れる。
【0023】
図2は、シオン及びフォトショップを用いた画像処理の結果を示す図であり、図2に含まれる画像A、画像B、画像C、画像D、画像E、画像F、画像Gを、それぞれ図2A、図2B、図2C、図2D、図2E、図2F、図2Gで表すこととする。図2Aは波長550nmの光を透過させた脳皮層内の血管についての全情報を含んでいる制御画像である。しかしながら、その情報の多くは肉眼では識別することができない。背景の層に隠された血管の一部を抽出するために、フォトショップ5のフィルタ機能の「ラップ」を使って、ぼんやりしたものをラッピングして個々のグループとして光学的シグナルの境界を画定し、血管の輪郭をはっきり確認することができる。さらに、血管の輪郭をもっとよく見たいなら、フィルタ機能の「階調反転」により白と黒を反転させると、よりいっそう血管の輪郭をはっきり確認することができる。図2Bは図2Aにラップ処理した画像であり、図2Aでは肉眼で認識できなかった血管をラップ処理を行うことで画像上に浮き出て、肉眼で認識することができる。図2Cは、図2Bに対して階調反転処理により白黒を反転した画像であり、よりいっそう血管の筋道が確認できる。ただし、図2B、図2Cのように1つの静止画像に対して、「ラップ」処理後に「階調反転」処理をして得られる情報は、従来肉眼で認識することができなかった情報であるが、この情報は元の静止画像に潜在している情報の全情報ではない。さらに、制度を上げるため、以下に示すように2つのフレーム画像の差分をとる方法を用いる。
【0024】
図2D、図2E、図2F、図2Gは差分画像であり、オリジナルの画像である図2Aと内容が異なっているように見える。しかし、これらの内容のすべては図2Aの画像とその70ms後の画像にもともと含まれていた今まで肉眼で識別できなかった情報が、画像表面に浮かび上がっただけである。肉眼で識別できる大きな血管がこの技術によって一線を画されることは、以下より明らかである。図2Dの画像は、図2Aから図2Aを差し引いた結果生じた差分画像であり、階調値が128の均一な画像データの一部を表している。つまり、2つのフレーム画像間で互いに違いがなければ、図2Dのように階調値が128の均一な画像となることを示している。ここで、ある1つのフレーム画像をF、そのフレーム画像の70ms後のフレーム画像をFと表す。また、コントラストのn%強調はE、ラップはW、階調反転はRで表す。図2Eは、図2A(F)と約70ms(15Hz)後の次のフレーム(F)との間の差分をとり、コントラストを80%強調(E80)後の差分イメージである(以下、F−F,E80,15Hzと表す。)。図2Eは明らかに図2Dとは異なっており、図2Aと約70ms後の次のフレームとの画像間で変化のあった部分が存在しているということを示している。図2Eでは、変化しない大きな血管は除去され、小さい血管が見えるようになる。なぜなら、理論的には、70ms間隔の空間再分布で血管の変化が抽出されるからである。図2F(F−F、E80、W、R、15Hz)は、図2Eにラップ処理をした図であり、図2Eと図2Fは約6μm(この大きさは2画素より小さく、1画素より大きい)の小さい血管を示す。この小さい血管は毛細血管を表している。しかしながら、差分画像中の小さな血管の直径は、フォトショップのコントラストの強調の程度に依存している。図2G(F−F、E30、W、R、15Hz)の画像は、図2Fのコントラストの強調を30%に下げた場合であり、このとき毛細血管の直径は15μmから30μm大きくなり、複雑に絡み合った血管は、さらに毛細血管の様子を呈してきた。この毛細血管の直径が大きくなった理由は、ぼやけている周辺の毛細血管まで一緒にラップ処理したためと推測できる。以上の毛細血管は、肉眼で認識できる大きな血管と同じ場所に見ることができる。すなわち、毛細血管は実質的には大きな血管の下に存在するということを意味する。
【0025】
以上より、本発明を用いると従来確認することができなかった毛細血管の存在を確認することが可能となり、従来診断することが困難であった毛細血管の状態や血流の情報を知ることが可能となるので、病気の早期発見、早期治療に貢献できる。
【0026】
ところで、本実施例では、15Hzでコマ送りをし、70ms毎のフレーム画像群を用いたが、このフレーム画像間の時間差は、70msに制限されたものではなく、撮影対象物との関係で決定される。本実施例では、70ms間隔の空間再分布で毛細血管の変化が抽出されるので、70ms毎のフレーム画像群を用いたのである。
【0027】
【発明の効果】
従来、脳組織表面などに代表される体組織の画像は、肉眼で認識できる部分の画像データしか注目されず、その肉眼で認識できる部分のみの評価で終わっていた。しかし、本発明を用いれば、肉眼では確認できない画像部分から初めから潜在し、今まで見落としていた情報を抽出することができる。
【図面の簡単な説明】
【図1】本発明の一連の流れを示す図である。
【図2】シオン及びフォトショップを用いた画像処理の結果を示す図である。
【符号の説明】
1.撮影機材
2.コンピュータ
3.動画像のフレーム画像
4.シオン
5.フォトショップ
[0001]
[Industrial applications]
The present invention relates to analysis processing of image data captured in the medical field.
[0002]
[Prior art]
In recent years, with the development of digital cameras and digital video cameras, digital image data captured by such devices has increased in the number of pixels and contains much information. The information that can be recognized by the naked eye is part of the image data, and there are many hidden information that cannot be recognized by the naked eye. By processing such information that could not be confirmed by the naked eye, the hidden information can be viewed. Processing digital image data as necessary as described above is called photo retouching (photo retouching in English), and image processing software for performing this photo retouching is called photo retouching software.
[0003]
Photo retouching software is commercially available as application software for computers such as personal computers and workstations, and is mainly used in industries such as design and photographic development that are designed to provide aesthetically pleasing appearance. The purpose in these industries is to attract viewers or consumers' interests visually through processing of image data. As described above, the conventional photo retouching software has been used to direct the image data to make it look beautiful, and has been used for the purpose of analyzing image analysis in fields requiring scientific facts such as science and technology and medical care. I never did.
[0004]
[Problems to be solved by the invention]
Conventionally, in the medical field, a lot of image data has been used and used for diagnosis and research. For example, an X-ray photograph, an X-ray CT image, an MRI image, a video image showing an affected part, and the like can be given. As for image processing for images that cannot be directly confirmed with the naked eye, such as X-ray photographs, X-ray CT images, and MRI images, analysis processing represented by three-dimensional rendering has been developed. On the other hand, an image by a videoscope (or electronic scope) in which a video camera is incorporated in an endoscope can recognize an affected part as it is by naked eyes. The interest in image processing is not so great. The image by the video scope is used for confirming the affected part of the living body in real time, and the image processing mainly includes enlargement of image data or change in resolution. As described above, the image by the video scope is originally subjected to image processing only for an image portion that can be recognized by the naked eye. However, in recent years, with the development of video cameras, high-resolution videoscope images have been obtained. This video scope image contains a great deal of information, and the information recognizable to the naked eye is only a part of the entire information captured as the video scope image.
[0005]
Therefore, an object of the present invention is to provide a method of acquiring important information from data of an image portion that cannot be recognized by the naked eye in the medical field, focusing on data of an image portion that cannot be recognized by the naked eye.
[0006]
[Means for Solving the Problems]
The invention according to claim 1 is
Under transmitted light or reflected light, select two frame image data having a predetermined time difference from each other, which are photographed in the same space, from a group of continuous image data of a body tissue photographed using photographing equipment. 1 and
A second process of calculating a difference between tone values of respective pixels at the same coordinates of the two frame image data selected by the first process, and performing the process of obtaining the difference for all pixels at the same coordinates; ,
A third process for increasing the degree of prominence of light and dark in the image data obtained by the second process;
The brightest portion of the image data obtained by the third process or the periphery of the brightest portion is further brightened, and the tone value difference between adjacent pixels in the image data obtained by the third process And a fourth process for reducing the gradation value gradient between pixels when the gradient is large.
[0007]
The invention according to claim 2 is
Under transmitted light or reflected light, select two frame image data having a predetermined time difference from each other, which are photographed in the same space, from a group of continuous image data of a body tissue photographed using photographing equipment. 1 and
A second process of calculating a difference between tone values of respective pixels at the same coordinates of the two frame image data selected by the first process, and performing the process of obtaining the difference for all pixels at the same coordinates; ,
A third process for increasing the degree of prominence of light and dark in the image data obtained by the second process;
The brightest portion of the image data obtained by the third process or the periphery of the brightest portion is further brightened, and the tone value difference between adjacent pixels in the image data obtained by the third process If the gradient of is large, a fourth process of making the gradation value gradient between pixels gentle,
And a fifth process of inverting the image data obtained by the fourth process into black and white gradations.
[0008]
The invention according to claim 3 is:
One frame image data of moving image data obtained by photographing a body tissue using a photographing device under transmitted light or reflected light, or one frame image data obtained by photographing a body tissue using a photographing device under transmitted light or reflected light A first process for increasing the degree of prominence of the image data with respect to still image data,
The brightest part of the image data obtained by the first processing or the periphery of the brightest part is further brightened, and the gradation value difference between adjacent pixels in the image data obtained by the first processing And a second process for making the gradation value gradient between pixels gentle when the gradient is large.
[0009]
The invention according to claim 4 is
One frame image data of moving image data obtained by photographing a body tissue using a photographing device under transmitted light or reflected light, or one frame image data obtained by photographing a body tissue using a photographing device under transmitted light or reflected light A first process for increasing the degree of prominence of the image data with respect to still image data,
The brightest part of the image data obtained by the first processing or the periphery of the brightest part is further brightened, and the gradation value difference between adjacent pixels in the image data obtained by the first processing If the gradient of is large, a second process of making the gradation value gradient between pixels gentle,
And a third process of inverting the image data obtained by the second process into black and white gradations.
[0010]
The invention according to claim 5 is
A medical image analysis program for causing a computer to execute each of the processes in the medical image analysis processing method according to any one of claims 1 to 4.
[0011]
BEST MODE FOR CARRYING OUT THE INVENTION
First, the method of imaging a body tissue according to the first to fourth aspects will be described in detail. The body tissue such as the brain tissue to be photographed is irradiated with light and photographed with an imaging device such as a video camera or a video scope. Here, there are two patterns of the light irradiation method: an irradiation method as reflected light and an irradiation method as transmitted light. The reflected light is light that is emitted from a light source distant from the body tissue, and the irradiated light is reflected on the surface of the body tissue. On the other hand, the transmitted light refers to light that is irradiated with light in a state where the light source is in contact with or in the vicinity of the body tissue, and the light passes through the body tissue and goes out of the body tissue. Although there are imaging methods using these two irradiation methods, transmitted light is more preferable as light to be used. This is because, when a body tissue to be imaged is imaged using reflected light, the light is irradiated only to a thin layer near the surface of the body tissue, so that the information obtained from the reflected light is small, and Although only information near the surface is captured, when transmitted body light is used to image the body tissue to be imaged, the light passing through the body tissue contains information in the body tissue and the amount of information is larger than the reflected light Because. A specific method for obtaining the transmitted light of the body tissue as described above has been reported by the present inventors as follows. When a small lamp with a diameter of 1 mm is inserted into the brain tissue and fixed at about 1 mm from the surface of the brain to light the brain tissue in order to obtain light transmitted through the brain tissue, the brain tissue around the small lamp looks reddish (Am J Physiol 235: H56-H63, 1978) (Am J Physiol 245: H385-H398, 1983), and glass fiber having a diameter of about 200 microns is used in the same manner as in the above-mentioned report (Am J Physiol 279: H1291-H1298, 2000). )That's what it means.
[0012]
After the light irradiation, an imaging device such as a video camera or a video scope photographs the body tissue to be photographed, and records the photographed and acquired image data on a recording medium. According to the first and second aspects of the invention, the image data recorded on the recording medium is a set of a plurality of frame image data that are continuous in time series, and each frame image has an image having a time difference from each other, that is, a moving image. It is a statue. This image data is transferred to a computer such as a personal computer or a workstation, and the subsequent processing is performed on the computer. Using image analysis software, two frame image data are arbitrarily extracted from the frame image data group, and a difference between the two frame images is calculated to obtain a difference image. One example of image analysis software is Zion Image. Zion Image (English name: Scion Image, manufactured by Scion Corporation) is an image analysis software widely used in medicine and biology, and is used for image counting such as cell counting, electrophoresis pattern analysis, and three-dimensional image formation. It is used for extracting necessary information contained in the. When this Zion image is used, a moving image can be frame-advanced in the order of 70 ms, so that a frame image every 70 ms can be obtained. Further, a difference image between the two frame images can be obtained using the Zion image. The difference image is an image of only data of mutually different parts obtained by subtracting a common part of two images. The frame image is a digital image. The digital image is an image obtained by sampling and quantizing analog image information existing in the natural world using hardware such as an imaging device or software. The sampled and quantized image is a set of pixels, and each pixel has a gradation value (also referred to as a density value or a luminance value) corresponding to the brightness of the image. If this gradation value is 8-bit image data, there are 256 gradation values. In the case of a black-and-white image, 256 gray scales can be expressed in black and white. When the gray scale value 1 is white, the gray scale value 256 becomes black, and the gray scale value in the middle is 128. Such a representation with black and white multi-gradation is called a gray scale. Here, in the inter-image calculation, a process of calculating a difference between images is performed. At this time, the center intermediate grayscale value (when the gray scale is 256 grayscales, the central intermediate grayscale value is 128) is added to the result of subtracting the grayscale values. In this way, the difference between the same tone values becomes 128 instead of 0, and is represented by gray of a middle color between white and black, that is, the tone value 128 on the difference image. Therefore, when taking the difference between the gradation values of the respective pixels at the same coordinates of two frame images having the time difference from each other and photographing the same space, if the gradation values of the respective pixels are the same, the gradation of the difference is obtained. The value is 128, and the color is gray, which is an intermediate color between black and white. Further, when the difference between the gradation values of the respective pixels located at the same coordinates of two frame images having a time difference with respect to each other and photographing the same space is calculated, when the gradation values of the respective pixels are not the same, the difference gradation value is obtained. Does not equal 128. The fact that the gradation value of the difference does not become 128 means that the gradation value has changed due to the time difference, that is, the subject in the image has moved.
[0013]
By the above operation, it is possible to obtain a difference image obtained by subtracting the tone value of each pixel at the same coordinates of the two frame images having the time difference from each other and photographing the same space. Only the information of the part that has changed between can be obtained.
[0014]
Although the acquired difference image includes only information of a portion changed between the two frame images, it is difficult to identify the information with the naked eye. To be able to identify. An example of photo retouching software is Photoshop ("PHOTOSHOP" is a registered trademark of Adobe Systems Incorporated). In addition, the filter function is a function that the photo retouching software has, for example, extracting only the outline included in the image, distorting the image, adding a blur, adjusting the mosaic effect, Various visual effects, such as adjusting noise, can be applied to the image. In the present invention, among these filter functions, there are “contrast”, “lap”, and “gradation inversion”.
[0015]
The “contrast” indicates a ratio of brightness between a bright portion and a dark portion of the image. When the contrast is increased, the color becomes clearer and the image becomes easy to see. If the contrast value is too low, the difference between the light and dark areas will not be apparent. When the contrast is increased, the outline of the image becomes clearer. On the other hand, when the contrast is lowered, the outline of the image is not clearer and the image is not easily viewed. There is a density histogram as a method of controlling the contrast. The density histogram represents the distribution of density values of an image, and is extremely effective for investigating the density level of an image. For example, in a dark image, the distribution is biased toward a low density region, and in a bright image, the distribution is biased toward a high density region. The contrast can be controlled by changing the distribution position and shape of the histogram, that is, by performing enhancement (referred to as enhancement).
[0016]
“Lap” is a filter that gives the effect of applying a wrap film to each object moving in the image. In the “wrap”, the brightest part in the image or its surroundings is emphasized to make it even brighter, and the outline part included in the image is blurred, that is, between pixels where the gradient of the gradation value difference between adjacent pixels is large. A process for reducing the gradation value gradient is performed. In Photoshop, this wrapping effect is adjusted by adjusting the brightness of the wrapped area with the "highlight (the brightest part or its surroundings) intensity" and the undulation between the wrap and the image with "smoothness" Is realized.
[0017]
“Tone inversion” is a filter function for acquiring a negative image. A negative image is an image in which the gray level of a positive image (image before grayscale inversion) is inverted, that is, an image in which white is black and black is white, and black and white are inverted. This can be realized by subtracting the gradation of each pixel from the maximum gradation of the scale.
[0018]
By performing the above filter function on the above-described difference image, what could not be recognized by the naked eye can be recognized by the naked eye.
On the other hand, according to the third and fourth aspects of the present invention, the image data recorded on the recording medium does not necessarily have to be a moving image, but may be a still image. This is because there is only one image data used in the third and fourth aspects of the present invention, and it is not necessary to confirm a difference due to a time difference. Therefore, as the image data, not only a shooting device for shooting a moving image such as a video camera but also a shooting device for shooting a still image such as a digital camera may be used. When photographing is performed by a photographing device for photographing a moving image such as a video camera, moving image data is transferred to a computer in the same manner as described in the first and second aspects of the present invention, and an image such as a Zion image is recorded on the computer. Using analysis software, one frame image is extracted from the transferred moving image to obtain a still image. Further, when a still image is shot by a shooting device such as a digital camera, the shot still image is transferred to a computer, and the still image is acquired. Using the filter function of image processing software such as Photoshop, the still image acquired by the above operation can be identified with the naked eye by image data of a part that cannot be identified with the naked eye. The filter functions to be used are “contrast”, “lap”, and “gradation inversion” as described above.
[0019]
By the way, the present invention described in claims 1 to 4 is roughly classified into claims 1 and 2 and claims 3 and 4. According to the first and second aspects of the present invention, two frame images are handled, and in the third and fourth aspects of the present invention, one still image is handled. However, the accuracy of image analysis is greatly different from this. According to the third and fourth aspects of the present invention, when "contrast" enhancement and "wrap" processing are performed on one still image, a part of the latent information that could not be recognized by the naked eye can be revealed. However, the invention for further improving the accuracy is the invention according to claims 1 and 2, in which the difference between two frame images is obtained, and the difference image is emphasized with "contrast" and "wrapped". It does the processing.
[0020]
From the above, the inventor has called the method of the present invention the video-computer-enhanced-contrast-wrap (VCEC-Wrap) method.
According to a fifth aspect of the present invention, there is provided a computer program that operates on an operating system (also referred to as an OS) running on a computer, and executes each process according to any one of the first to fourth aspects of the present invention. It is something to be executed.
[0021]
【Example】
The observation method and the image analysis will be described with reference to FIG. For observation by transmitted light, a short glass fiber was embedded in the brain tissue of a SD anesthetized rat of general anesthesia. Is photographed using photographing equipment 1 (lens: manufactured by Nikon Corporation, SIT camera: manufactured by Hamamatsu Photonics). The depth of focus of the lens is about ± 100 μm, and an object located at ± 300 μm away from the focal plane is not completely focused. In the cortex of the sensorimotor cortex, there are capillaries with a volume of about 400 μm in depth and about 2 mm in width, and the measurement of the lens within the range where the change in the diameter of these capillaries and the change in blood flow can be detected. Fine-tune the scale control knob. The image of 512 × 512 pixels photographed at a spatial resolution of 4 μm × 4 μm smaller than the capillary is an 8-bit digital image, and the photographed image is transmitted to the personal computer 2. The transmitted video is a frame image capture software, Sion 4 (official name: Scion LG-3, one type of Scion Image, manufactured by Scion Corporation). At 15 Hz, the transmitted video is used. Frame-by-frame advance is performed to create a frame image 3 every 70 ms.
[0022]
The following was performed to obtain the difference between two consecutive frame images. The change in the transmitted light of the image captured in the Zion 4 is automatically converted to an 8-bit image. To be converted into an 8-bit image means that one pixel has any one of 256 light-dark levels from 1 (lightest) to 256 (darkest). The intermediate level between light and dark is 128 (see image D in FIG. 2). This 8-bit image appears as a 256-scale black and white image.
[0023]
FIG. 2 is a diagram illustrating a result of image processing using Zion and Photoshop, and illustrates images A, B, C, D, E, F, and G included in FIG. 2A, 2B, 2C, 2D, 2E, 2F, and 2G. FIG. 2A is a control image containing all information about blood vessels in the cerebral cortex that transmitted light at a wavelength of 550 nm. However, much of that information cannot be identified with the naked eye. To extract some of the blood vessels hidden in the background layer, use the "wrap" filter feature in Photoshop 5 to wrap the blur and demarcate the optical signal as individual groups. Thus, the contour of the blood vessel can be clearly confirmed. Furthermore, if you want to see the outline of the blood vessel better, you can see the outline of the blood vessel more clearly by inverting white and black using the "tone inversion" of the filter function. FIG. 2B is an image obtained by performing the lap processing in FIG. 2A. In FIG. 2A, the blood vessels that cannot be recognized by the naked eye are raised on the image by performing the wrap processing, and can be recognized by the naked eye. FIG. 2C is an image obtained by inverting black and white by the grayscale inversion processing with respect to FIG. 2B, and the muscle path of the blood vessel can be further confirmed. However, as shown in FIGS. 2B and 2C, information obtained by performing “tone reversal” processing after “lap” processing on one still image is information that could not be recognized by the naked eye. However, this information is not all information of the information latent in the original still image. Further, in order to improve the accuracy, a method of obtaining a difference between two frame images as described below is used.
[0024]
2D, 2E, 2F, and 2G are difference images, which look different from the original image of FIG. 2A. However, all of these contents are the only information that was originally included in the image shown in FIG. 2A and the image 70 ms after that and could not be identified by the naked eye, only appeared on the image surface. It is evident from the following that large vessels that can be visually discerned are distinguished by this technique. The image in FIG. 2D is a difference image resulting from subtracting FIG. 2A from FIG. 2A, and represents a part of uniform image data having a gradation value of 128. In other words, if there is no difference between the two frame images, a uniform image having a gradation value of 128 as shown in FIG. 2D is shown. Here, one frame image is represented as F 0 , and a frame image 70 ms after the frame image is represented as F 1 . Further, n% contrast enhancement is E n, wrap W, grayscale inversion represented by R. FIG. 2E is a difference image obtained by taking the difference between FIG. 2A (F 0 ) and the next frame (F 1 ) after about 70 ms (15 Hz) and emphasizing the contrast by 80% (E 80 ) (hereinafter, referred to as “F 80” ). , F 1 -F 0 , E 80 , and 15 Hz.) FIG. 2E is clearly different from FIG. 2D, which shows that there is a changed portion between the image of FIG. 2A and the next frame about 70 ms later. In FIG. 2E, large blood vessels that do not change are removed, and small blood vessels become visible. This is because, in theory, changes in blood vessels are extracted by spatial redistribution at intervals of 70 ms. FIG. 2F (F 1 −F 0 , E 80 , W, R, 15 Hz) is a diagram in which the wrapping process is performed on FIG. 2E, and FIGS. 2E and 2F are about 6 μm (the size is smaller than 2 pixels and 1 (Larger than a pixel). The small blood vessels represent capillaries. However, the diameter of the small blood vessels in the difference image depends on the degree of contrast enhancement in Photoshop. The image in FIG. 2G (F 1 −F 0 , E 30 , W, R, 15 Hz) is a case where the contrast enhancement in FIG. 2F is reduced to 30%, and the diameter of the capillary increases from 15 μm to 30 μm. In addition, the blood vessels intricately intertwined have more like capillaries. The reason why the diameter of the capillaries became large is presumed to be that the capillaries around the blurred capillaries were wrapped together. These capillaries can be seen in the same places as large blood vessels that can be recognized by the naked eye. That is, it means that the capillaries are substantially below the large blood vessels.
[0025]
From the above, it is possible to confirm the presence of capillaries that could not be confirmed conventionally by using the present invention, and it is possible to know information on the state of blood capillaries and blood flow that were difficult to diagnose conventionally. This makes it possible to contribute to early detection and early treatment of disease.
[0026]
By the way, in the present embodiment, frame advance is performed at 15 Hz, and a frame image group of every 70 ms is used. However, the time difference between the frame images is not limited to 70 ms, and is determined based on a relationship with an object to be photographed. Is done. In the present embodiment, since the change in the capillaries is extracted by spatial redistribution at intervals of 70 ms, a group of frame images every 70 ms is used.
[0027]
【The invention's effect】
Conventionally, an image of a body tissue typified by the surface of a brain tissue or the like focuses only on image data of a portion recognizable by the naked eye, and ends with evaluation of only a portion recognizable by the naked eye. However, according to the present invention, it is possible to extract information that is latent from the beginning from an image part that cannot be confirmed with the naked eye and that has been overlooked up to now.
[Brief description of the drawings]
FIG. 1 is a diagram showing a series of flows of the present invention.
FIG. 2 is a diagram illustrating a result of image processing using Zion and Photoshop.
[Explanation of symbols]
1. 1. Imaging equipment Computer 3. 3. Frame image of moving image Sion5. Photoshop

Claims (5)

透過光または反射光下で、撮影機材を用いて体組織を撮影した時系列に連続している画像データ群より、同一空間を撮影した互いに所定の時間差のある2つのフレーム画像データを選択する第1の処理と、
前記第1の処理により選択した2つのフレーム画像データの同一座標にあるそれぞれの画素の階調値の差分をとり、前記差分をとる処理をすべての同一座標にある画素について行う第2の処理と、
前記第2の処理により得られた画像データの明暗の際立ち具合を増大する第3の処理と、
前記第3の処理により得られた画像データの最も明るい部分または前記最も明るい部分の周辺をさらに明るくし、及び前記第3の処理により得られた画像データ中の隣接する画素間の階調値差の勾配が大きい場合、画素間の階調値勾配を緩やかにする第4の処理と
を実行することを特徴とする医療用画像解析処理方法。
Under transmitted light or reflected light, select two frame image data having a predetermined time difference from each other, which are photographed in the same space, from a group of continuous image data of a body tissue photographed using photographing equipment. 1 and
A second process of calculating a difference between tone values of respective pixels at the same coordinates of the two frame image data selected by the first process, and performing the process of obtaining the difference for all pixels at the same coordinates; ,
A third process for increasing the degree of prominence of light and dark in the image data obtained by the second process;
The brightest portion of the image data obtained by the third process or the periphery of the brightest portion is further brightened, and the tone value difference between adjacent pixels in the image data obtained by the third process And a fourth process for reducing the gradation value gradient between pixels when the gradient is large.
透過光または反射光下で、撮影機材を用いて体組織を撮影した時系列に連続している画像データ群より、同一空間を撮影した互いに所定の時間差のある2つのフレーム画像データを選択する第1の処理と、
前記第1の処理により選択した2つのフレーム画像データの同一座標にあるそれぞれの画素の階調値の差分をとり、前記差分をとる処理をすべての同一座標にある画素について行う第2の処理と、
前記第2の処理により得られた画像データの明暗の際立ち具合を増大する第3の処理と、
前記第3の処理により得られた画像データの最も明るい部分または前記最も明るい部分の周辺をさらに明るくし、及び前記第3の処理により得られた画像データ中の隣接する画素間の階調値差の勾配が大きい場合、画素間の階調値勾配を緩やかにする第4の処理と、
さらに前記第4の処理により得られた画像データを白黒階調反転させる第5の処理と
を実行することを特徴とする医療用画像解析処理方法。
Under transmitted light or reflected light, select two frame image data having a predetermined time difference from each other, which are photographed in the same space, from a group of continuous image data of a body tissue photographed using photographing equipment. 1 and
A second process of calculating a difference between tone values of respective pixels at the same coordinates of the two frame image data selected by the first process, and performing the process of obtaining the difference for all pixels at the same coordinates; ,
A third process for increasing the degree of prominence of light and dark in the image data obtained by the second process;
The brightest portion of the image data obtained by the third process or the periphery of the brightest portion is further brightened, and the tone value difference between adjacent pixels in the image data obtained by the third process If the gradient of is large, a fourth process of making the gradation value gradient between pixels gentle,
And a fifth process for inverting the image data obtained by the fourth process into black and white gradations.
透過光または反射光下で、撮影機材を用いて体組織を撮影した動画像データの1つのフレーム画像データ、または、透過光または反射光下で、撮影機材を用いて体組織を撮影した1つの静止画像データに対し、前記画像データの明暗の際立ち具合を大きくする第1の処理と、
前記第1の処理により得られた画像データの最も明るい部分または前記最も明るい部分の周辺をさらに明るくし、及び前記第1の処理により得られた画像データ中の隣接する画素間の階調値差の勾配が大きい場合、画素間の階調値勾配を緩やかにする第2の処理と
を実行することを特徴とする医療用画像解析処理方法。
One frame image data of moving image data obtained by photographing a body tissue using a photographing device under transmitted light or reflected light, or one frame image data obtained by photographing a body tissue using a photographing device under transmitted light or reflected light A first process for increasing the degree of prominence of the image data with respect to still image data,
The brightest part of the image data obtained by the first processing or the periphery of the brightest part is further brightened, and the gradation value difference between adjacent pixels in the image data obtained by the first processing And a second process for reducing the gradation value gradient between pixels when the gradient is large.
透過光または反射光下で、撮影機材を用いて体組織を撮影した動画像データの1つのフレーム画像データ、または、透過光または反射光下で、撮影機材を用いて体組織を撮影した1つの静止画像データに対し、前記画像データの明暗の際立ち具合を大きくする第1の処理と、
前記第1の処理により得られた画像データの最も明るい部分または前記最も明るい部分の周辺をさらに明るくし、及び前記第1の処理により得られた画像データ中の隣接する画素間の階調値差の勾配が大きい場合、画素間の階調値勾配を緩やかにする第2の処理と、
さらに前記第2の処理により得られた画像データを白黒階調反転させる第3の処理と
を実行することを特徴とする医療用画像解析処理方法。
One frame image data of moving image data obtained by photographing a body tissue using a photographing device under transmitted light or reflected light, or one frame image data obtained by photographing a body tissue using a photographing device under transmitted light or reflected light A first process for increasing the degree of prominence of the image data with respect to still image data,
The brightest part of the image data obtained by the first processing or the periphery of the brightest part is further brightened, and the gradation value difference between adjacent pixels in the image data obtained by the first processing If the gradient of is large, a second process of making the gradation value gradient between pixels gentle,
And a third process of inverting the image data obtained by the second process into black and white gradations.
前記請求項1乃至4のいずれか1項記載の医療用画像解析処理方法における前記各処理を、コンピュータに実行させるための医療用画像解析プログラム。A medical image analysis program for causing a computer to execute each of the processes in the medical image analysis processing method according to any one of claims 1 to 4.
JP2002148561A 2002-05-23 2002-05-23 Image analysis method using photo retouching software in medical field Expired - Fee Related JP3572304B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002148561A JP3572304B2 (en) 2002-05-23 2002-05-23 Image analysis method using photo retouching software in medical field

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002148561A JP3572304B2 (en) 2002-05-23 2002-05-23 Image analysis method using photo retouching software in medical field

Publications (2)

Publication Number Publication Date
JP2003339645A JP2003339645A (en) 2003-12-02
JP3572304B2 true JP3572304B2 (en) 2004-09-29

Family

ID=29767058

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002148561A Expired - Fee Related JP3572304B2 (en) 2002-05-23 2002-05-23 Image analysis method using photo retouching software in medical field

Country Status (1)

Country Link
JP (1) JP3572304B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2775450A2 (en) 2013-03-06 2014-09-10 Fujifilm Corporation Image processing device and method for operating endoscope system

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102124471A (en) * 2008-08-15 2011-07-13 国际科学技术医疗系统有限责任公司 Methods for enhancing vascular patterns in cervical imagery
JP5712573B2 (en) * 2010-11-26 2015-05-07 花王株式会社 Method for forming blood flow image
CN109345629A (en) * 2018-08-08 2019-02-15 安徽慧软科技有限公司 A kind of 3 d medical images are fuzzy to highlight display methods
JP7455575B2 (en) 2019-12-25 2024-03-26 キヤノン株式会社 Image processing device, image processing method, learning device, learning method, program and system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3506770B2 (en) * 1994-04-21 2004-03-15 オリンパス株式会社 Endoscope position detection device
JP2001291088A (en) * 2000-04-07 2001-10-19 Ge Yokogawa Medical Systems Ltd Medical image display device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2775450A2 (en) 2013-03-06 2014-09-10 Fujifilm Corporation Image processing device and method for operating endoscope system
US9595117B2 (en) 2013-03-06 2017-03-14 Fujifilm Corporation Image processing device and method for operating endoscope system

Also Published As

Publication number Publication date
JP2003339645A (en) 2003-12-02

Similar Documents

Publication Publication Date Title
Zhou et al. Underwater image enhancement method via multi-feature prior fusion
Zhang et al. Underwater image enhancement via extended multi-scale Retinex
CN107977940A (en) background blurring processing method, device and equipment
TWI430184B (en) Edge mapping incorporating panchromatic pixels
CN107948519A (en) Image processing method, device and equipment
CN106127718B (en) A kind of more exposure image fusion methods based on wavelet transformation
CN108055452A (en) Image processing method, device and equipment
IES20060558A2 (en) Image blurring
US20170154437A1 (en) Image processing apparatus for performing smoothing on human face area
CN108156369A (en) Image processing method and device
JP2019139247A (en) Method for generating contrast image in which reflection is reduced and related device
CN115769249A (en) Method for denoising dental images by domain adaptation
Dabass et al. Biomedical image enhancement using different techniques-a comparative study
JP3572304B2 (en) Image analysis method using photo retouching software in medical field
Kong et al. Laser speckle contrast imaging based on a mobile phone camera
CN109104601A (en) Detection device, image processing apparatus, detection method and image processing method
JP2004133919A (en) Device and method for generating pseudo three-dimensional image, and program and recording medium therefor
JPWO2018203514A1 (en) Image analysis evaluation method, computer program, image analysis evaluation device
Ye et al. Single exposure high dynamic range image reconstruction based on deep dual-branch network
Karaduzovic-Hadziabdic et al. Subjective and objective evaluation of multi-exposure high dynamic range image deghosting methods
EP1481632A1 (en) Ophtalmologic image processing apparatus
JP2017012384A (en) Wrinkle state analysis device and wrinkle state analysis method
JP4831344B2 (en) Eye position detection method
Rana et al. Edge guided low-light image enhancement
Kinoshita et al. Deep inverse tone mapping using LDR based learning for estimating HDR images with absolute luminance

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040518

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040628

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees