JP6487938B2 - 画像処理装置、撮像装置、顕微鏡システム、画像処理方法及び画像処理プログラム - Google Patents

画像処理装置、撮像装置、顕微鏡システム、画像処理方法及び画像処理プログラム Download PDF

Info

Publication number
JP6487938B2
JP6487938B2 JP2016559761A JP2016559761A JP6487938B2 JP 6487938 B2 JP6487938 B2 JP 6487938B2 JP 2016559761 A JP2016559761 A JP 2016559761A JP 2016559761 A JP2016559761 A JP 2016559761A JP 6487938 B2 JP6487938 B2 JP 6487938B2
Authority
JP
Japan
Prior art keywords
image
shading
images
shading component
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016559761A
Other languages
English (en)
Other versions
JPWO2016079853A1 (ja
Inventor
隼一 古賀
隼一 古賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Publication of JPWO2016079853A1 publication Critical patent/JPWO2016079853A1/ja
Application granted granted Critical
Publication of JP6487938B2 publication Critical patent/JP6487938B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • G02B21/367Control or image processing arrangements for digital or video microscopes providing an output produced by processing a plurality of individual source images, e.g. image tiling, montage, composite images, depth sectioning, image comparison
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • G06T5/94
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Description

本発明は、被写体を撮像することにより取得した画像に対して画像処理を施す画像処理装置、撮像装置、顕微鏡システム、画像処理方法、及び画像処理プログラムに関する。
近年、顕微鏡においてスライドガラス上に載置された標本を写した画像を電子データとして記録し、この画像をモニタに表示してユーザが観察できるようにした顕微鏡システムが知られている。このような顕微鏡システムにおいては、顕微鏡により拡大された標本の一部の画像を順次貼り合わせることにより、標本全体が写った高解像度の画像を構築するバーチャルスライド技術が用いられている。即ち、バーチャルスライド技術とは、同一被写体に対して異なる視野の画像を複数枚取得し、これらの画像をつなぎ合わせることで、被写体に対する視野を拡大した画像を生成する技術である。複数枚の画像をつなぎ合わせた合成画像はバーチャルスライド画像と呼ばれる。
ところで、顕微鏡は、標本を照明する光源及び標本の像を拡大する光学系を備える。また、光学系の後段には、拡大された標本の像を電子的なデータに変換する撮像素子が設けられる。このため、光源の照度ムラや光学系の不均一性、さらには、撮像素子の画素ごとの特性のばらつき等に起因して、取得した画像に明度ムラが発生するという問題がある。この明度ムラはシェーディングと呼ばれ、通常、光学系の光軸の位置に対応する画像の中心から遠ざかるに従って暗くなるように変化する。そのため、複数の画像を貼り合わせてバーチャルスライド画像を作成する場合、画像のつなぎ目に不自然な境界が生じてしまう。また、複数の画像を貼り合わせることによりシェーディングが繰り返されるため、あたかも標本に周期的な模様が存在しているかのように見えてしまう。
このような問題に対し、特許文献1には、試料の所定視野範囲の画像である基準視野画像を撮像すると共に、試料の位置を光学系に対して相対的に移動させ、所定視野範囲内の所定領域を含み、所定視野範囲と互いに異なる周辺視野範囲の画像である複数の周辺視野画像を撮像し、基準視野画像と周辺視野画像とに基づいて基準視野画像の各画素の補正ゲインを算出し、シェーディング補正を行う技術が開示されている。
また、特許文献2には、撮像光学系の一視野に対応する領域であるイメージサークルに形成された像を、撮像光学系に対して撮像素子を相対的にシフトさせつつ記録することにより、イメージサークルよりも小さな面積の複数の画像を取得し、各画像のシフト情報を用いて各画像の位置決めを行ってこれらの画像の合成画像を取得する技術が開示されている。
特開2013−257422号公報 特開2011−124837号公報
ところで、従来、バーチャルスライド画像を作成する際には、被写体が載置された顕微鏡のステージの移動と撮像とを交互に繰り返すことにより、視野が異なる複数の画像を取得し、各画像に対してシェーディング補正を施した上で画像同士の貼り合わせを行っている。そのため、貼り合わせ処理におけるスループットを上げることが困難という問題がある。
また、シェーディング補正に失敗した場合には、再度撮像を行う、或いは別途保存しておいたオリジナルの画像を読み込むなどして画像を取得し、貼り合わせ及びシェーディング補正を再度実行する必要がある。即ち、シェーディング補正のみを後でやり直すといったことができず、シェーディング補正の自由度が低いという問題もある。
さらに、ユーザの中には、自動で画像が編集・加工されることを望まずシェーディング補正がなされたバーチャルスライド画像と、シェーディング補正がなされていないバーチャルスライド画像とを比較観察したいという要望もある。しかし、そのためには、シェーディング補正後のバーチャルスライド画像とは別に、シェーディング補正前のオリジナルの画像を保存しておく必要があり、多くのメモリ容量を要するという問題がある。
これらの問題を解決するため、貼り合わせ処理後のバーチャルスライド画像に対してシェーディング補正を行うことも考えらえる。しかしながら、上述したように、バーチャルスライド画像を作成する際には被写体に対して視野を移動させて撮像を行うため、異なる画像間では、共通の被写体が写った領域(共通領域)におけるシェーディング成分が異なる。そのため、共通領域を重ね合わせることにより画像同士を貼り合わせた場合、重ね合わせた領域におけるシェーディング成分は、もとの共通領域におけるシェーディング成分から変化してしまう。
本発明は、上記に鑑みてなされたものであり、シェーディング補正がなされた合成画像を短時間に生成することができると共に、従来よりも自由度の高いシェーディング補正を行うことができ、且つ、多くのメモリ容量を要することなく、シェーディング補正前の合成画像とシェーディング補正後の合成画像との両方を生成可能な画像処理装置、撮像装置、顕微鏡システム、画像処理方法及び画像処理プログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明に係る画像処理装置は、視野が互いに異なる複数の画像であって、各画像が少なくとも1つの他の画像との間で共通の被写体が写った領域である共通領域を有する複数の画像を取得する画像取得部と、前記複数の画像間の位置関係を取得する位置関係取得部と、前記位置関係に基づいて前記複数の画像を貼り合わせることにより、合成画像を生成する画像合成部と、前記各画像におけるシェーディング成分を取得するシェーディング成分取得部と、前記シェーディング成分と前記位置関係とに基づいて、前記合成画像のシェーディング補正に用いる補正ゲインを算出する補正ゲイン算出部と、前記補正ゲインを用いて前記合成画像をシェーディング補正する画像補正部と、を備えることを特徴とする。
上記画像処理装置において、前記画像合成部は、隣り合う画像間の前記共通領域における輝度同士をブレンド係数を用いて重み付け加算することにより、該共通領域に対応する前記合成画像内の領域における輝度を算出し、前記補正ゲイン算出部は、前記ブレンド係数を用いて、前記合成画像内の前記領域に適用される補正ゲインを算出する、ことを特徴とする。
上記画像処理装置は、前記合成画像を表示する表示部と、外部からなされる操作に応じて指示信号を入力する操作入力部と、をさらに備え、前記表示部は、前記指示信号に応じて、シェーディング補正済みの前記合成画像と、シェーディング補正前の前記合成画像とを切り替えて表示する、ことを特徴とする。
上記画像処理装置において、前記シェーディング成分取得部は、前記複数の画像のうち、互いに共通領域を有する少なくとも2枚の画像から前記シェーディング成分を算出する、ことを特徴とする。
上記画像処理装置において、前記シェーディング成分取得部は、第1の方向において互いに共通領域を有する第1のペアの画像における前記共通領域の輝度を用いて、前記第1の方向におけるシェーディング成分の特性を算出する第1のシェーディング成分算出部と、前記第1の方向と異なる第2の方向において互いに共通領域を有する第2のペアの画像における前記共通領域の輝度を用いて、前記第2の方向におけるシェーディング成分の特性を算出する第2のシェーディング成分算出部と、前記第1及び第2の方向におけるシェーディング成分の特性を用いて、前記各画像におけるシェーディング成分を算出する第3のシェーディング成分算出部と、を備えることを特徴とする。
上記画像処理装置において、前記シェーディング成分取得部は、前記少なくとも2枚の画像から前記共通領域における輝度の比を算出し、該輝度の比を用いて前記各画像におけるシェーディング成分を推定する、ことを特徴とする。
上記画像処理装置において、前記シェーディング成分取得部は、第1の画像の中心領域における輝度と、前記中心領域に対する共通領域を有する第2の画像の当該共通領域における輝度とを用いて、前記シェーディング成分を算出する、ことを特徴とする。
本発明に係る撮像装置は、前記画像処理装置と、前記被写体を撮像して画像信号を出力する撮像部と、を備えることを特徴とする。
本発明に係る顕微鏡システムは、前記画像処理装置と、前記被写体を撮像して画像信号を出力する撮像部と、前記被写体が載置されるステージと、前記撮像部と前記ステージとの少なくともいずれか一方を他方に対して相対的に移動させる駆動手段と、を備えることを特徴とする。
本発明に係る画像処理方法は、視野が互いに異なる複数の画像であって、各画像が少なくとも1つの他の画像との間で共通の被写体が写った領域である共通領域を有する複数の画像を取得する画像取得ステップと、前記複数の画像間の位置関係を取得する位置関係取得ステップと、前記位置関係に基づいて前記複数の画像を貼り合わせることにより、合成画像を生成する画像合成ステップと、前記各画像におけるシェーディング成分を取得するシェーディング成分取得ステップと、前記シェーディング成分と前記位置関係とに基づいて、前記合成画像のシェーディング補正に用いる補正ゲインを算出する補正ゲイン算出ステップと、前記補正ゲインを用いて前記合成画像をシェーディング補正する画像補正ステップと、を含むことを特徴とする。
本発明に係る画像処理プログラムは、視野が互いに異なる複数の画像であって、各画像が少なくとも1つの他の画像との間で共通の被写体が写った領域である共通領域を有する複数の画像を取得する画像取得ステップと、前記複数の画像間の位置関係を取得する位置関係取得ステップと、前記位置関係に基づいて前記複数の画像を貼り合わせることにより、合成画像を生成する画像合成ステップと、前記各画像におけるシェーディング成分を取得するシェーディング成分取得ステップと、前記シェーディング成分と前記位置関係とに基づいて、前記合成画像のシェーディング補正に用いる補正ゲインを算出する補正ゲイン算出ステップと、前記補正ゲインを用いて前記合成画像をシェーディング補正する画像補正ステップと、をコンピュータに実行させることを特徴とする。
本発明によれば、視野が互いに異なる複数の画像を、画像間の位置関係をもとに貼り合わせることにより合成画像を生成すると共に、上記位置関係をもとに合成画像のシェーディング補正に用いる補正ゲインを算出し、この補正ゲインを用いて上記合成画像をシェーディング補正するので、個々の画像に対するシェーディング補正に要する時間を省略することができ、貼り合わせ処理におけるスループットを向上することが可能になる。また、本発明によれば、合成画像を生成した後でシェーディング補正のみをやり直すといった、従来よりも自由度の高いシェーディング補正を行うことができる。さらに、本発明によれば、合成画像のシェーディング補正に用いる補正ゲインを作成するので、シェーディング補正前の個々の画像を用いることなく、シェーディング補正前の合成画像とシェーディング補正後の合成画像とを適宜生成することができる。従って、シェーディング補正前の個々の画像を保存する必要がなくなり、メモリ容量を節約することが可能となる。
図1は、本発明の実施の形態1に係る画像処理装置の構成例を示すブロック図である。 図2は、図1に示す画像取得部の動作を説明するための模式図である。 図3は、図1に示す画像処理装置の動作を示すフローチャートである。 図4は、図1に示す画像処理装置の動作を説明するための模式図である。 図5は、画像の貼り合わせ処理を説明するための模式図である。 図6は、図4に示す被写体を順次撮像することにより取得した複数の画像を示す模式図である。 図7は、図6に示す複数の画像を貼り合わせることにより生成した合成画像を示す模式図である。 図8は、各画像におけるシェーディング成分の例を示す模式図である。 図9は、合成画像におけるシェーディング成分の算出方法を説明するための模式図である。 図10は、合成画像におけるシェーディング成分の算出方法を説明するための模式図である。 図11は、合成画像におけるシェーディング成分を示す模式図である。 図12は、合成画像に適用される補正ゲインを示す模式図である。 図13は、合成画像のシェーディング補正を説明するための模式図である。 図14は、本発明の実施の形態2に係る画像処理装置が備えるシェーディング成分取得部の構成を示すブロック図である。 図15は、各画像におけるシェーディング成分の取得方法を説明するための模式図である。 図16は、各画像におけるシェーディング成分の取得に使用される画像の撮像方法を説明するための模式図である。 図17は、水平方向シェーディング成分を示す模式図である。 図18は、垂直方向シェーディング成分を示す模式図である。 図19は、各画像におけるシェーディング成分を示す模式図である。 図20は、非正規化シェーディング成分しか得られていないブロックにおけるシェーディング成分の算出方法を説明するための模式図である。 図21は、非正規化シェーディング成分しか得られていないブロックにおけるシェーディング成分の別の算出方法を説明するための模式図である。 図22は、実施の形態2に係る画像処理装置の動作を示すフローチャートである。 図23は、本発明の実施の形態3におけるシェーディング成分の取得方法を説明するための模式図である。 図24は、本発明の実施の形態3におけるシェーディング成分の取得方法を説明するための模式図である。 図25は、本発明の実施の形態4に係る顕微鏡システムの構成例を示す模式図である。 図26は、図25に示す表示装置に表示される画面の例を示す模式図である。
以下、本発明に係る画像処理装置、撮像装置、顕微鏡システム、画像処理方法及び画像処理プログラムの実施の形態について、図面を参照しながら詳細に説明する。なお、これらの実施の形態により本発明が限定されるものではない。また、各図面の記載において、同一部分には同一の符号を附して示している。
(実施の形態1)
図1は、本発明の実施の形態1に係る画像処理装置の構成例を示すブロック図である。図1に示すように、実施の形態1に係る画像処理装置1は、観察対象が写った画像を取得する画像取得部11と、該画像に画像処理を施す画像処理部12と、記憶部13とを備える。
画像取得部11は、視野が互いに異なる複数の画像であって、各画像が少なくとも1つの他の画像との間で共通の被写体が写った領域である共通領域を有する複数の画像を取得する。画像取得部11は、このような複数の画像を撮像装置から直接取得しても良いし、ネットワークや記憶装置等を介して取得しても良い。実施の形態1において、画像取得部11は、撮像装置から画像を直接取得するものとする。撮像装置の種類は特に限定されず、例えば、撮像機能を備えた顕微鏡装置であっても良いし、デジタルカメラであっても良い。
図2は、画像取得部11の動作を説明するための模式図であり、撮像装置が備える撮像光学系14と、被写体SPが載置されたステージ15と、撮像光学系14の視野Vとを示している。なお、図2においては、ステージ15の載置面をXY平面とし、撮像光学系14の光軸をZ方向としている。撮像光学系14とステージ15との少なくとも一方には、XY平面内における位置を変化させる駆動部(図示せず)が設けられている。
画像取得部11は、撮像装置における撮像動作を制御する撮像制御部111と、駆動部の動作を制御することにより、撮像光学系14とステージ15との相対位置を変化させる駆動制御部112とを備える。
駆動制御部112は、撮像光学系14とステージ15とのXY平面における相対位置を変化させることにより、被写体SPに対して視野Vを順次移動させる。撮像制御部111は、駆動制御部112による駆動制御と連動して撮像装置に対する撮像制御を実行し、視野V内の被写体SPが写った画像を撮像装置から取り込む。この際、駆動制御部112は、順次移動する視野Vが先に撮像された視野Vの一部と重なるように、撮像光学系14又はステージ15を移動させる。
ここで、撮像光学系14とステージ15との相対位置を変化させる際には、撮像光学系14の位置を固定し、ステージ15側を移動させても良いし、ステージ15の位置を固定し、撮像光学系14側を移動させても良い。或いは、撮像光学系14とステージ15との両方を相対的に移動させても良い。また、駆動部に対する制御方法としては、モータ及び該モータの回転量を検出するエンコーダによって駆動部を構成し、エンコーダの出力値を駆動制御部112に入力することによりモータの動作をフィードバック制御しても良い。或いは、駆動制御部112の制御の下でパルスを発生するパルス発生部とステッピングモータとによって駆動部を構成しても良い。
再び図1を参照すると、画像処理部12は、画像取得部11が取得した複数の画像を貼り合わせた合成画像を生成する。詳細には、画像処理部12は、複数の画像間の位置関係を取得する位置関係取得部121と、複数の画像を貼り合わせて合成画像を生成する貼り合わせ処理を行う画像合成部122と、撮像光学系14の視野Vに対応する各画像に生じているシェーディング成分を取得するシェーディング成分取得部123と、該シェーディング成分と複数の画像間の位置関係とに基づいて、合成画像のシェーディング補正に用いる補正ゲインを算出する補正ゲイン算出部124と、該補正ゲインを用いて合成画像をシェーディング補正する画像補正部125とを備える。
位置関係取得部121は、撮像光学系14又はステージ15に設けられた駆動部に対する制御情報を駆動制御部112から取得し、この制御情報から画像間の位置関係を取得する。具体的には、位置関係取得部121は、各画像を撮像した際の視野の中心座標(又は視野の左上の座標)や、撮像を1回行うごとに視野を移動させる移動量を位置関係として取得しても良い。或いは、連続して取得された画像間における動きベクトルを位置関係として取得しても良い。
画像合成部122は、位置関係取得部121が取得した位置関係に基づき、画像取得部11が取得した複数の画像を貼り合わせることにより、合成画像を生成する。
シェーディング成分取得部123は、撮像光学系14によって視野Vを撮像することにより画像に生じたシェーディング成分を取得する。実施の形態1において、シェーディング成分取得部123は、予め取得されたシェーディング成分を保持しているものとする。このシェーディング成分は、被写体SPの代わりに白板又は標本が固定されていないスライドガラスをステージ15に載置して撮像を行い、それによって得られた画像から求めることができる。或いは、撮像光学系14の設計データに基づいてシェーディング成分を予め算出しても良い。
補正ゲイン算出部124は、シェーディング成分取得部123が取得したシェーディング成分と、位置関係取得部121が取得した複数の画像間の位置関係とに基づいて、画像合成部122が生成した合成画像に適用される補正ゲインを算出する。
画像補正部125は、補正ゲイン算出部124が算出した補正ゲインを用いて、合成画像に生じているシェーディングを補正する。
記憶部13は、更新記録可能なフラッシュメモリ、RAM、ROMといった半導体メモリ等の記憶装置によって構成される。記憶部13は、画像取得部11が撮像装置の制御に用いる種々のパラメータや、画像処理部12により生成された合成画像の画像データや、画像処理部12において用いられる種々のパラメータ等を記憶する。
上述した画像取得部11及び画像処理部12は、専用のハードウェアを用いて実現しても良いし、所定のプログラムをCPUに読み込むことによって実現しても良い。後者の場合、画像取得部11及び画像処理部12に所定の処理を実行させるための画像処理プログラムや、これらのプログラムの実行中に使用される各種パラメータや設定情報を記憶部13に記憶させても良い。或いは、ハードディスク、MO、CD−R、DVD−R等の記録媒体並びに該記録媒体に対して情報の書き込み及び読み取りを行う書込読取装置等を含む記憶装置を、データ通信端子を介して画像処理装置1に接続し、この記憶装置に、上記画像処理プログラムやパラメータを記憶させても良い。
次に、画像処理装置1の動作を、図3〜図13を参照しながら説明する。図3は、画像処理装置1の動作を示すフローチャートである。なお、上述したように、実施の形態1においては、シェーディング成分取得部123が予めシェーディング成分を取得して保持しているものとする。
まず、ステップS10において、画像取得部11は、被写体の一部が写った画像を取得する。図4は、被写体の撮像方法を説明するための模式図である。以下においては、図4(a)に示す被写体SPに対して視野Vを移動させながら、複数回に分けて撮像を行うことにより、被写体SPが部分的に写った画像m1、m2、…を順次取得するものとする。なお、被写体SPに対する視野Vの移動方向や、被写体SP内の領域の撮像順序については特に限定されない。ここで、画像取得部11は、最初にステップS10を実行するときのみ、視野Vの一部が重なるように2回撮像を行い、2枚の画像m1、m2を取得する(図4(b)参照)。
続くステップS11において、位置関係取得部121は、最新の画像(図4(b)の場合、画像m2)と、先に取得された画像(図4(b)の場合、画像m1)との位置関係を取得する。位置関係は、例えば、被写体SPが載置されたステージの移動量(スケールの値)や、ステージに設けられた駆動部の駆動量や、ステッピングモータのパルス数や、画像m1、m2に対するマッチング処理の結果や、画像m1、m2に写った被写体の動きベクトル、及びこれらの組み合わせから取得することができる。位置関係取得部121は、取得した位置関係を表す情報を記憶部13に記憶させる。
続くステップS12において、画像合成部122は、ステップS11において取得された画像間の位置関係をもとに、最新の画像を先に取得された画像に貼り合わせることにより合成画像を生成する。図5は、画像の貼り合わせ処理を説明するための模式図である。
例えば図5(a)に示すように、先に取得された画像m1に対して最新の画像m2を貼り合わせる場合、画像合成部122は、画像m1と画像m2との間の共通領域a1、a2を、画像m1と画像m2との間の位置関係に基づいて抽出し、これらの共通領域a1、a2を重ね合わせて合成する。具体的には、図5(b)に示すように、共通領域a1、a2を重ね合わせた領域a3内の座標(x,y)における画素の輝度I(x,y)を、共通領域a1、a2間で位置が対応する画素の輝度I1(s,t)、I2(u,v)を重み付け加算することにより求める。ここで、輝度I1(s,t)は、領域a3内の座標(x,y)に対応する画像m1内の座標(s,t)における画素の輝度であり、輝度I2(u,v)は、同座標(x,y)に対応する画像m2内の座標(u,v)における画素の輝度である。合成画像内の領域a3における輝度I(x,y)は、次式(1)によって与えられる。
式(1)に示すように、重み係数の和が1となる重み付け加算による合成方法はαブレンドと呼ばれ、式(1)における重み係数αはブレンド係数とも呼ばれる。ブレンド係数αは、予め設定された固定値としても良い。例えばα=0.5とする場合、輝度I(x,y)は、輝度I1(s,t)と輝度I2(u,v)との単純平均となる。また、α=1又はα=0とする場合、輝度I(x,y)として、輝度I1(s,t)と輝度I2(u,v)とのいずれかが採用される。
また、ブレンド係数αを、ブレンドされる画素の座標に応じて変化させても良い。例えば、水平方向(図の左右方向)における座標xが領域a3の中心に位置する場合にブレンド係数αを0.5に設定し、座標xが画像m1の中心に近づくほどブレンド係数αを1に近づけ、座標xが画像m2の中心に近づくほどブレンド係数αを0に近づけることとしても良い。
或いは、ブレンド係数αを、ブレンドされる画素の輝度や、この輝度から算出される値に応じて、適応的に変化させても良い。具体的には、輝度I1(s,t)と輝度I2(u,v)とのうち、値が大きい方を輝度I(x,y)として採用するといった方法が挙げられる(即ち、I1(s,t)≧I2(u,v)の場合α=1、I1(s,t)<I2(u,v)の場合α=0)。
ステップS13において、画像合成部122は、貼り合わせ処理がなされた合成画像の画像データを記憶部13に記憶させる。この際、貼り合わせ前のオリジナルの画像m1、m2、…は、貼り合わせ処理後に順次消去しても良い。また、画像合成部122は、ブレンド係数αを変化させた場合、領域a3内の画素ごとに、ブレンド係数αを記憶部13に併せて記憶させておく。
続くステップS14において、画像処理装置1は、貼り合わせ処理を終了するか否かを判定する。例えば図4(a)に示す被写体SPの全領域に対して撮像が行われた場合、画像処理装置1は貼り合わせ処理を終了すると判定し(ステップS14:Yes)、後述するステップS16に移行する。
一方、被写体SPに未だ撮像されていない領域が残っている場合、画像処理装置1は貼り合わせ処理を終了しないと判定し(ステップS14:No)、視野Vを移動させる(ステップS15)。この際、駆動制御部112は、移動先の視野Vが、既に撮像された視野Vの一部と重なるように撮像装置の駆動制御を行う。その後、撮像制御部111は、撮像装置に移動先の視野Vを撮像させることにより画像を取得する(ステップS10)。以降のステップS11〜S15は、上述したとおりである。この内、ステップS13においては、新たな合成画像が生成されるごとに、記憶部13に記憶された合成画像の画像データを更新する。
図6は、被写体SPを順次撮像することにより取得された画像m1〜m9を示す模式図である。また、図7は、画像m1〜m9を貼り合わせることにより生成された合成画像を示す模式図である。上述したステップS10〜S15を繰り返し、新たに取得された画像を先に取得された画像に順次貼り合わせることにより、図7に示す合成画像M1が生成される。図7に示すように、合成画像M1は、シェーディング補正がなされていない画像m1〜m9を貼り合わせたものなので、全体的に格子状のシェーディングが発生している。
ステップS16において、補正ゲイン算出部124は、合成画像M1に適用される補正ゲインを算出する。詳細には、補正ゲイン算出部124は、シェーディング成分取得部123から画像m1〜m9の各画像におけるシェーディング成分を取り込むと共に、ステップS11において取得された画像間の位置関係の情報を記憶部13から取り込む。そして、これらの情報をもとに、合成画像M1におけるシェーディング成分を算出し、このシェーディング成分から補正ゲインを算出する。
図8は、各画像におけるシェーディング成分の例を示す模式図である。図8に示すシェーディング成分sh1は、画像の中心部で明度が高く、画像の中心部から離れるほど明度が低くなる特性を示している。
図9及び図10は、合成画像M1におけるシェーディング成分の算出方法を説明するための模式図である。例えば、画像m1、m2の共通領域a1、a2を重ね合わせた領域a3(図5参照)におけるシェーディング成分を算出する場合、補正ゲイン算出部124は、まず、図9に示すように、シェーディング成分sh1から、共通領域a1、a2に対応する領域a1’、a2’のシェーディング成分を抽出する。そして、図10に示すように、これらの領域a1’、a2’が重なり合うようにシェーディング成分sh1を反復して合成する。領域a1’、a2’を重ね合わせた領域a3’内の座標(x,y)における画素のシェーディング成分S’(x,y)は、次式(2)に示すように、領域a1’、a2’間で対応する画素のシェーディング成分S(s,t)、S(u,v)をαブレンドすることにより与えられる。
ここで、画像の貼り合わせ処理においてブレンド係数αを変化させた場合には、その際に用いたブレンド係数αを記憶部13から取得し、貼り合わせ処理の際と同じブレンド係数αを用いてシェーディング成分sh1の合成を行う。
このようなシェーディング成分sh1の合成を、画像m1〜m9間の相互の位置関係に基づいて行うことにより、図11に示すように、合成画像M1におけるシェーディング成分SHが得られる。
さらに、補正ゲイン算出部124は、次式(3)に示すように、シェーディング成分SHの逆数を取ることにより、合成画像M1のシェーディング補正に用いる補正ゲインG(x,y)を算出する。
図12は、それによって算出された補正ゲインGを示す模式図である。
続くステップS17において、補正ゲイン算出部124は、算出した補正ゲインGを記憶部13に記憶させる。
続くステップS18において、画像補正部125は、ステップS16において算出した補正ゲインGを用いて、合成画像M1のシェーディング補正を行う。図13は、合成画像M1のシェーディング補正を説明するための模式図である。
合成画像M2におけるシェーディング補正後の輝度値であるテクスチャ成分T(x,y)は、次式(4)により与えられる。
T(x,y)=I(x,y)×G(x,y) …(4)
ここで、共通領域を重ね合わせた領域(例えば、図5(b)に示す領域a3)におけるシェーディングを補正ゲインGによって補正できる原理を説明する。式(1)に示すように、合成画像における領域a3内の画素の輝度I(x,y)は、画像m1、m2内の共通領域a1、a2間で対応する画素の輝度I1(s,t)、I2(u,v)をαブレンドすることにより算出される。
式(1)における輝度I1(s,t)は、実際にはテクスチャ成分T1(s,t)とシェーディング成分S(s,t)とによって構成されるため、I1(s,t)=T1(s,t)×S(s,t)と表すことができる。輝度I2(u,v)も同様に、テクスチャ成分T2(u,v)とシェーディング成分S(u,v)とを用いて、I2(u,v)=T2(u,v)×S(u,v)と表すことができる。これらを式(1)に代入すると、次式(5)が得られる。
式(5)におけるテクスチャ成分T1(s,t)とテクスチャ成分T2(u,v)とは、合成画像の領域a3におけるテクスチャ成分T(x,y)と共通であるため、式(5)にT1(s,t)=T2(u,v)=T(x,y)を代入して整理すると、次式(6)が得られる。
これより、領域a3においても、シェーディング成分が除去されたテクスチャ成分T(x,y)が得られることがわかる。
その後、画像処理装置1は動作を終了する。
以上説明したように、本発明の実施の形態1によれば、被写体SPを順次撮像して画像m1、m2、…を取得するごとに貼り合わせ処理を行い、最終的に得られた合成画像に対してシェーディング補正を行うので、個々の画像に対するシェーディング補正を省略することができ、貼り合わせ処理におけるスループットを向上することが可能になる。
また、本発明の実施の形態1によれば、合成画像M1の生成後にシェーディング補正を行うので、シェーディング補正に失敗したときにはシェーディング補正のみをやり直すことができるなど、従来よりも自由度の高いシェーディング補正を行うことが可能になる。
また、本発明の実施の形態1によれば、シェーディング補正前の合成画像M1と、この合成画像のシェーディング補正に用いる補正ゲインGとを記憶部13に記憶させるので、シェーディング補正前の合成画像とシェーディング補正後の合成画像との両方を適宜生成することができる。或いは、記憶部13のメモリ容量を節約するため、シェーディング補正を行う度に補正ゲインGの生成及び削除を行ってもよい。
さらに、実施の形態1によれば、オリジナルの画像m1、m2、…を貼り合わせ処理後に消去するので、記憶部13のメモリ容量を節約することができる。
(実施の形態2)
次に、本発明の実施の形態2について説明する。
図14は、本発明の実施の形態2に係る画像処理装置が備えるシェーディング成分取得部の構成を示すブロック図である。実施の形態2に係る画像処理装置は、図1に示すシェーディング成分取得部123の代わりに、図14に示すシェーディング成分取得部200を備える。シェーディング成分取得部200以外の画像処理装置の各部の構成は、実施の形態1と同様である。
シェーディング成分取得部200は、画像取得部11が取得した画像を用いて、視野V(図2参照)に対応する各画像におけるシェーディング成分を取得する。詳細には、シェーディング成分取得部200は、シェーディング成分のうち、水平方向(図の左右方向)におけるシェーディング成分の特性を算出する第1シェーディング成分算出部201と、垂直方向(図の上下方向)におけるシェーディング成分の特性を算出する第2シェーディング成分算出部202と、水平方向及び垂直方向におけるシェーディング成分の特性を用いて、画像全体のシェーディング成分を算出するシェーディング成分算出部(第3のシェーディング成分算出部)203とを備える。
以下、シェーディング成分取得部200によるシェーディング成分の取得方法を詳細に説明する。図15〜図21は、実施の形態2におけるシェーディング成分の取得方法を説明するための模式図である。以下においては、図15に示すように、水平方向(図の左右方向)における長さがh、垂直方向(図の上下方向)における長さがhである1つの画像m内を所定数(例えば5×5=25)のブロックに分割した際の各ブロックの位置を(X,Y)で示す。図15の場合、(X,Y)=(1,1)〜(5,5)である。また、各ブロックの水平方向における長さをΔw、垂直方向における長さをΔhとする。
ここで、図8に示すように、一般に、画像の中心部には、シェーディングがほとんど生じておらず(即ち、シェーディング成分が1.0)、変化もしない領域が存在する。以下、このような領域を平坦領域という。シェーディング成分は、この平坦領域から画像の端部に向け、概ね同心円状に変化する。そこで、実施の形態2においては、図15に示すように、画像mを分割したブロック(1,1)〜(5,5)のうち、中央のブロック(3,3)が平坦領域であるものとみなして、他のブロックのシェーディング成分を算出する。
図16は、シェーディング成分の取得に使用される画像の撮像方法を説明するための模式図である。図16に示すように、被写体SP内のある領域に視野V(図2参照)を合わせて撮像を行うことにより、画像m0を取得し、続いて、視野Vを水平方向に所定距離(例えば、1ブロック分に相当する長さΔw)だけシフトさせて撮像を行うことにより、画像m1を取得した場合を考える。この場合、画像m0の列X=1と画像m1の列X=2とは共通領域である。視野Vを移動させる距離としては、予め決められた距離の他、ユーザがステージ15(図2参照)を水平方向に任意に移動させた距離としても良い。或いは、ステージ15を水平方向に移動させながら連続的に取得した画像群の中から選択した1ペアの画像間のシフト量を1ブロック分の長さΔwとすることも可能である。これらの場合、画像mの水平方向の長さwを画像間のシフト量(長さΔw)で除算することにより、水平方向におけるブロックの分割数が決定される。
画像m0の列X=1に含まれる任意の画素の輝度H0(X=1)は、この任意の画素におけるテクスチャ成分T0(X=1)とシェーディング成分Sh(X=1)とによって構成される。即ち、H0(X=1)=T0(X=1)×Sh(X=1)である。一方、この任意の画素と共通の被写体が写った画素であって、画像m1の列X=2に含まれる画素の輝度をH1(X=2)とすると、輝度H1(X=2)は、この画素におけるテクスチャ成分T1(X=2)とシェーディング成分Sh(X=2)とによって構成される。即ち、H1(X=2)=T2(X=2)×Sh(X=2)である。
上述したように、画像m0の列X=1と画像m1の列X=2とは共通領域であるため、テクスチャ成分T0(X=1)とT1(X=2)とは等しい。従って、次式(7−1)が成り立つ。
同様に、画像m0の列X=2と画像m1の列X=3、画像m0の列X=3と画像m1の列X=4、画像m0の列X=4と画像m1の列X=5がそれぞれ共通領域であることを利用すると、列X=2、X=3、X=4にそれぞれ含まれる任意の画素におけるシェーディング成分Sh(X=2)、Sh(X=3)、Sh(X=4)を表す式(7−2)〜(7−4)が得られる。
ここで、平坦領域(3,3)を含む中央の列X=3に含まれる画素におけるシェーディング成分Sh(X=3)を基準とし、式(7−1)〜(7−4)にシェーディング成分Sh(X=3)=1.0を代入して整理すると、各列に含まれる任意の画素におけるシェーディング成分Sh(X=1)〜Sh(X=5)を表す式(8−1)〜(8−5)が得られる。
式(8−2)に示すように、シェーディング成分Sh(X=2)は、輝度H0(X=2)及びH1(X=3)によって与えられる。また、式(8−1)に示すように、シェーディング成分Sh(X=1)は、式(8−2)により算出されたシェーディング成分Sh(X=2)と、輝度H0(X=1)及びH1(X=2)とによって与えられる。また、式(8−4)に示すように、シェーディング成分Sh(X=4)は、輝度H0(X=3)及びH1(X=4)よって与えられる。さらに、式(8−5)に示すように、シェーディング成分Sh(X=5)は、式(8−4)により算出されたシェーディング成分Sh(X=4)と、輝度H0(X=4)及びH1(X=5)とによって与えられる。即ち、式(8−1)〜(8−5)に示すように、各列に含まれる任意の画素におけるシェーディング成分は、画像m0、m1内の画素の輝度を用いて算出することができる。
つまり、画像内の一部の領域(例えば列X=3)におけるシェーディング成分(Sh(X=3))が既知であれば(平坦領域の場合1.0)、一方の画像(例えば画像m0)内のシェーディング成分が既知である領域(列X=3)内の画素の輝度(H0(X=3))と、この領域に対して共通の被写体が写った他方の画像(画像m1)内の領域(X=4)における位置が対応する画素の輝度(H1(X=4))との比(H1(X=4)/H0(X=3))、及び、当該既知のシェーディング成分(Sh(X=3))を用いて、未知のシェーディング成分(Sh(X=4))を算出することができる。そして、このような演算を順次繰り返すことにより、画像全体におけるシェーディング成分を取得することができる。
第1シェーディング成分算出部201は、このような演算を行うことにより、シェーディング成分Sh(X=1)〜Sh(X=5)(以下、これらをまとめてシェーディング成分Shとも記す)を取得し、記憶部13に記憶させる。以下においては、視野を水平方向にシフトさせた画像m0、m1から取得されたシェーディング成分Shを、水平方向シェーディング成分Shともいう。
なお、第1シェーディング成分算出部201は、視野を水平方向にシフトさせた2枚の画像から水平方向シェーディング成分Shを算出しても良いが、視野を水平方向にシフトさせた複数ペアの画像から、同一の画素位置における複数の水平方向シェーディング成分Shを算出し、これらの水平方向シェーディング成分Shを加算平均するなどして、最終的な水平方向シェーディング成分Shを取得しても良い。それにより、ランダムノイズや、白飛び、黒つぶれといった画像の劣化に起因するシェーディング成分の精度低下を抑制することができる。図17は、このようにして取得した水平方向シェーディング成分Shを示す模式図である。図17においては、基準として利用したシェーディング成分Sh(X=3)のブロックに斜線を附している。
一方、第2シェーディング成分算出部202は、視野を垂直方向にシフトさせた画像からシェーディング成分を取得する。即ち、第2シェーディング成分算出部202は、被写体SP内のある領域に視野Vを合わせて撮像を行うことにより取得された画像と、視野Vを垂直方向に所定距離(例えば、1ブロック分に相当する長さΔh、図15参照)だけシフトさせて撮像を行うことにより取得された画像とを画像取得部11から取り込む。視野Vを移動させる距離としては、水平方向の場合と同様に、ステージ15(図2参照)を垂直方向に任意に移動させた距離としても良い。或いは、ステージ15を垂直方向に移動させながら連続的に取得した画像群の中から選択した1ペアの画像間のシフト量を1ブロック分の長さΔhとしても良い。これらの場合、1ブロック分の長さΔhから、垂直方向におけるブロックの分割数を後で決めることも可能である。そして、上述した水平方向シェーディング成分Shの算出方法と同様の演算を行うことにより、各行(Y=1、Y=2、Y=3、Y=4、Y=5)に含まれる任意の画素におけるシェーディング成分を求め、記憶部13に記憶させる。以下においては、視野を垂直方向にシフトさせた2枚の画像から取得されたシェーディング成分を垂直方向シェーディング成分Sv(Y=1)〜Sv(Y=5)といい、これらをまとめて、垂直方向シェーディング成分Svとも記す。
なお、垂直方向シェーディング成分を取得する際にも、複数ペアの画像からそれぞれ、同一の画素位置における複数の垂直方向シェーディング成分Svを算出し、これらの垂直方向シェーディング成分Svを加算平均するなどして、最終的な垂直方向シェーディング成分Svを取得しても良い。図18は、垂直方向シェーディング成分Svを示す模式図である。図18においては、基準として利用したシェーディング成分Sv(Y=3)のブロックに斜線を附している。
シェーディング成分算出部203は、第1シェーディング成分算出部201が算出した水平方向シェーディング成分Shと、第2シェーディング成分算出部202が算出した垂直方向シェーディング成分Svとを用いて、各画像におけるシェーディング成分を算出する。以下においては、水平方向シェーディング成分Shのうち、ブロック(X,Y)内の任意の画素におけるシェーディング成分をSh(X,Y)と記す。また、垂直方向シェーディング成分Svのうち、ブロック(X,Y)内の任意の画素におけるシェーディング成分をSv(X,Y)と記す。
ここで、図17に示す水平方向シェーディング成分Sh(X=1)、Sh(X=2)、Sh(X=4)、Sh(X=5)のうち、第3行のブロックのシェーディング成分Sh(1,3)、Sh(2,3)、Sh(4,3)、Sh(5,4)は、平坦領域であるブロック(3,3)のシェーディング成分を基準(1.0)として算出されたものである。そこで、水平方向シェーディング成分Shのうち、平坦領域(3,3)のシェーディング成分を基準として算出されたブロックのシェーディング成分Sh(1,3)、Sh(2,3)、Sh(4,3)、Sh(5,4)を、正規化シェーディング成分という。
これに対し、水平方向シェーディング成分Sh(X=1)、Sh(X=2)、Sh(X=4)、Sh(X=5)のうち、第1、2、4、5行のブロックのシェーディング成分は、平坦領域(3,3)以外のブロックのシェーディング成分Sh(3,1)、Sh(3,2)、Sh(3,4)、Sh(3,5)を基準(1.0)とみなしてそれぞれ算出されたものである。そこで、平坦領域以外のブロックのシェーディング成分を基準として算出されたシェーディング成分(Sh(1,1)等)を、非正規化シェーディング成分という。
また、図18に示す垂直方向シェーディング成分Sv(Y=1)、Sv(Y=2)、Sv(Y=4)、Sv(Y=5)のうち、第3列のブロックのシェーディング成分Sv(3,1)、Sv(3,2)、Sv(3,4)、Sv(3,5)は、平坦領域であるブロック(3,3)のシェーディング成分を基準(1.0)として算出されたものである。そこで、垂直方向シェーディング成分Svのうち、平坦領域(3,3)のシェーディング成分を基準として算出されたブロックのシェーディング成分Sv(3,1)、Sv(3,2)、Sv(3,4)、Sv(3,5)を、正規化シェーディング成分という。
これに対し、垂直方向シェーディング成分Sv(Y=1)、Sv(Y=2)、Sv(Y=4)、Sv(Y=5)のうち、第1、2、4、5列のブロックのシェーディング成分は、平坦領域(3,3)以外のブロックのシェーディング成分Sv(1,3)、Sv(2,3)、Sv(4,3)、Sv(5,3)を基準(1.0)とみなしてそれぞれ算出されたものである。そこで、これらのブロックのシェーディング成分(Sv(1,1)等)を、非正規化シェーディング成分という。
シェーディング成分算出部203は、平坦領域(3,3)のシェーディング成分1.0と、水平方向シェーディング成分Svのうちの正規化シェーディング成分Sh(1,3)、Sh(2,3)、Sh(4,3)、Sh(5,3)と、垂直方向シェーディング成分Shのうちの正規化シェーディング成分Sv(3,1)、Sv(3,2)、Sv(3,4)、Sv(3,5)とを、それぞれのブロックのシェーディング成分S(X,Y)として決定し、記憶部13に記憶させる。図19は、各画像におけるシェーディング成分を示す模式図であり、平坦領域及び正規化シェーディング成分が得られているブロックに斜線を附している。
また、シェーディング成分算出部203は、非正規化シェーディング成分しか得られていないブロックのシェーディング成分を、当該ブロックの非正規化シェーディング成分と、当該ブロックと同じ行又は列の正規化シェーディング成分とを用いて算出する。図20は、非正規化シェーディング成分しか得られていないブロックのシェーディング成分の算出方法を説明するための模式図である。
例えば、図19に示すブロック(1,1)のシェーディング成分S(1,1)を算出する場合を考える。図20(a)に示すように、ブロック(1,1)の非正規化シェーディング成分Sh(1,1)は、同じ行のブロック(3,1)のシェーディング成分を基準(1.0)とみなすことにより算出されたものである。一方、図20(b)に示すように、ブロック(3,1)については、平坦領域(3,3)を基準として算出された正規化シェーディング成分Sv(3,1)が得られている。従って、ブロック(1,1)のシェーディング成分S(1,1)は、次式(9)により与えられる。
S(1,1)=Sh(1,1)×Sv(3,1) …(9)
或いは、同じブロック(1,1)のシェーディング成分S(1,1)を、次のようにして求めることもできる。図21(a)に示すように、ブロック(1,1)の非正規シェーディング成分Sv(1,1)は、同じ列のブロック(1,3)のシェーディング成分を基準(1.0)とみなすことにより算出されたものである。一方、図21(b)に示すように、ブロック(1,3)については、平坦領域(3,3)を基準として算出された正規化シェーディング成分Sh(1,3)が得られている。従って、ブロック(1,1)のシェーディング成分S(1,1)は、次式(10)により与えられる。
S(1,1)=Sv(1,1)×Sh(1,3) …(10)
これらの算出式を、平坦領域のブロックを(X0、Y0)として一般化すると、ブロック(X,Y)内の任意の画素におけるシェーディング成分S(X,Y)は、当該ブロック(X,Y)について算出された水平方向シェーディング成分Sh(X,Y)と、同じ行に含まれる正規化シェーディング成分Sv(X0,Y)とを用いて、次式(11)により与えられる。
S(X,Y)=Sh(X,Y)×Sv(X0,Y) …(11)
或いは、ブロック(X,Y)内の任意の画素におけるシェーディング成分S(X,Y)は、当該ブロック(X,Y)について算出された垂直方向シェーディング成分Sv(X,Y)と、同じ列に含まれる正規化シェーディング成分Sh(X,Y0)とを用いて、次式(12)により与えられる。
S(X,Y)=Sv(X,Y)×Sh(X,Y0) …(12)
シェーディング成分算出部203は、非正規シェーディング成分しか算出されていない全てのブロックについて、式(11)又は(12)を用いてシェーディング成分S(X,Y)を算出し、記憶部13に記憶させる。
次に、実施の形態2に係る画像処理装置の動作について説明する。図22は、実施の形態2に係る画像処理装置の動作を示すフローチャートである。このうち、ステップS10〜S15は、実施の形態1と同様である。ただし、ステップS15においては、画像の水平方向及び垂直方向の各々について、十分な共通領域を有する少なくとも1組のペアの画像が取得されるように、視野Vを移動させる。具体的には、少なくとも、平坦領域である画像の中心部が、ペアの画像間の共通領域に含まれるようにする。また、十分な共通領域を有するペアの画像は、ステップS12における合成画像の生成に用いた後も消去せずに保存しておく。
ステップS14において、画像の貼り合わせ処理を終了すると判定された場合(ステップS14:Yes)、シェーディング成分取得部200は、水平方向及び垂直方向の各々について、十分な共通領域を有するペアの画像を取り込み、これらのペアの画像からシェーディング成分を取得する(ステップS20)。なお、これらのペア画像間においては、ステップS11において取得された画像間の位置関係をもとに、共通領域の位置合わせがなされているものとする。シェーディング成分の取得方法は、図15〜図21を参照しながら説明したとおりである。また、シェーディング成分を取得した後は、ペア画像を消去しても良い。
その後のステップS16〜S18は、実施の形態1と同様である。このうち、ステップS16においては、ステップS20において取得したシェーディング成分を用いて補正ゲインを算出する。
以上説明したように、本発明の実施の形態2によれば、画像取得部11が取得した画像からシェーディング成分を取得するので、シェーディング成分を取得するために白板等を別途用意し、被写体SPと入れ替えて撮像を行うといった手間を要することなく、高精度なシェーディング補正を行うことが可能となる。また、画像の水平方向及び垂直方向における1ブロックの長さΔw及び長さΔhは、ユーザが任意にステージを移動させた距離から設定できるため、顕微鏡システムにおいて、電動ステージに限らず手動ステージにおいても簡易に実現が可能である。
なお、上記実施の形態2においては、画像の貼り合わせ処理が終了した後で、シェーディング成分の取得処理を実行したが、シェーディング成分の取得に使用するペアの画像が取得された後であれば、画像の貼り合わせ処理と並列にシェーディング成分の取得処理を実行しても良い。
また、上記実施の形態2においては、水平方向及び垂直方向におけるシェーディング成分の特性を求めたが、シェーディング成分の特性を求める方向はこれに限定されず、互いに異なる2つの方向におけるシェーディング成分の特性を求めれば良い。
(変形例)
次に、本発明の実施の形態2の変形例について説明する。
上記実施の形態2においては、式(11)と(12)とのいずれかを用いて、正規化シェーディング成分が得られていないブロック(X,Y)のシェーディング成分S(X,Y)を算出したが、これらの式(11)、(12)によってそれぞれ与えられるシェーディング成分を重み付け合成することにより、シェーディング成分S(X,Y)を算出しても良い。
ここで、式(11)に示すように、ブロック(X,Y)の非正規化シェーディング成分である水平方向シェーディング成分Sh(X,Y)と、ブロック(X,Y)と同じ行に含まれる正規化シェーディング成分である垂直方向シェーディング成分Sv(X0,Y)とによって与えられるシェーディング成分を、シェーディング成分Shv1(X,Y)とする(式(13))。
Shv1(X,Y)=Sh(X,Y)×Sv(X0,Y) …(13)
また、式(12)に示すように、同じブロック(X,Y)の非正規化シェーディング成分である垂直方向シェーディング成分Sv(X,Y)と、ブロック(X,Y)と同じ列に含まれる正規化シェーディング成分である水平方向シェーディング成分Sh(X,Y0)とによって与えられるシェーディング成分を、シェーディング成分Shv2(X,Y)とする(式(14))。
Shv2(X,Y)=Sv(X,Y)×Sh(X,Y0) …(14)
これらのシェーディング成分Shv1(X,Y)、Shv2(X,Y)を重み付け合成した合成シェーディング成分S(X,Y)は、次式(15)により与えられる。
式(15)において、w(X,Y)は、シェーディング成分の合成に用いられる重みである。一般に、シェーディング成分は滑らかであるとみなすことができるので、重みw(X,Y)は、次式(16)に示すように、例えば、エッジ量の総和の比に基づいて決定することができる。
式(16)において、パラメータβは正規化係数である。また、Edgeh[ ]は、水平方向におけるシェーディング成分の分布の対象領域(ブロック(X,Y)又は(X,Y0))での水平方向のエッジ量の総和を示す。Edgev[ ]は、垂直方向におけるシェーディング成分の分布の対象領域(ブロック(X0,Y)又は(X,Y))での垂直方向のエッジ量の総和を示す。
例えば、シェーディング成分Shv1(X,Y)の算出に用いるブロック(X,Y)及び(X0,Y)におけるエッジ量の総和が、シェーディング成分Shv2(X,Y)の算出に用いるブロック(X,Y)及び(X,Y0)におけるエッジ量の総和に対して小さい場合、重みw(X,Y)の値も小さくなる。従って、式(15)におけるシェーディング成分Shv1の寄与分が大きくなる。
式(16)に示すように、エッジ量或いはコントラストに基づいて重みw(X,Y)を設定することにより、2つのシェーディング成分Shv1、Shv2を、これらの滑らかさに基づいて合成することができる。従って、より滑らかで、シェーディング成分の算出に用いた画像のシフト方向によらない合成シェーディング成分Sを算出することができる。それにより、ロバストなシェーディング補正を行うことが可能となる。
なお、上記変形例においては、式(16)により重みw(X,Y)を設定することで、滑らかな合成シェーディング成分S(X,Y)を算出したが、メディアンフィルタ、平均化フィルタ、ガウシアンフィルタ等のフィルタ処理を組み合わることにより、さらに滑らかな合成シェーディング成分S(X,Y)を生成することとしても良い。
(実施の形態3)
次に、本発明の実施の形態3について説明する。
本発明の実施の形態3に係る画像処理装置の構成及び動作は全体として実施の形態2と同様であり、ステップS20(図22参照)においてシェーディング成分取得部200が実行するシェーディング成分の取得方法が実施の形態2と異なる。実施の形態3においては、2枚の画像を貼り合わせる際に重ね合わせられる共通領域におけるシェーディング成分をもとに、画像全体のシェーディング成分を推定する。
図23及び図24は、本発明の実施の形態3におけるシェーディング成分の取得方法を説明するための模式図である。以下においては、図23に示すように、被写体SPを9回に分けて撮像することにより取得した9枚の画像からシェーディング成分を取得する場合を例として説明する。なお、実施の形態3においても、シェーディング成分の取得に用いる画像は、ステップS12における合成画像の生成に用いた後も消去せずに保存しておくこととする。
図24は、図23に示す9枚の画像m1〜m9のうち、中心に位置する画像m5である。画像m5の上端部の領域a5に含まれる任意の画素の輝度をI(x,y)とすると、この輝度I(x,y)は、テクスチャ成分T(x,y)とシェーディング成分S(x,y)とを用いて、次式(17)によって表すことができる。
I(x,y)=T(x,y)×S(x,y) …(17)
一方、領域a5は、画像m2の下端部の領域との共通領域になっている。画像m5内の座標(x,y)に対応する画像m2内の座標(x’,y’)における画素の輝度をI’(x’,y’)とすると、この輝度I’(x’,y’)も、テクスチャ成分T’(x’,y’)とシェーディング成分S(x’,y’)とを用いて、次式(18)によって表すことができる。
I’(x’,y’)=T’(x’,y’)×S(x’,y’) …(18)
上述したように、画像m5の上端部の領域a5は画像m2の下端部の領域との共通領域であるから、テクスチャ成分T(x,y)、T’(x’,y’)は互いに等しい。従って、式(17)、(18)より、次式(19)が成り立つ。
即ち、2枚の画像間の共通領域における輝度の比は、シェーディング成分の比に対応する。
ここで、画像m5は、画像m2に対して視野をxy平面内においてシフトさせたものであり、このシフト量は、ステップS11において取得された画像間の位置関係により与えられている。このシフト量をΔx、Δyとすると、式(19)を次式(20)のように変形することができる。
即ち、輝度の比I(x,y)/I’(x’,y’)は、画像内の位置に応じたシェーディング成分の変化に相当する。なお、画像m5、m2間においては、Δx=0である。
画像m5の左端部の領域a6、右端部の領域a7、下端部の領域a8についても同様に、隣接する画像m4、m6、m8との共通領域における輝度を用いて、シェーディング成分の変化を算出することができる。
続いて、画像内のシェーディング成分S(x,y)を近似するシェーディングモデルを作成し、領域a5、a6、a7、a8に対して算出された輝度の比を用いて、このシェーディングモデルを修正する。シェーディングモデルの一例としては、画像の中心座標において極小となる2次曲面が挙げられる。
詳細には、シェーディングモデルを表すモデル関数(例えば、2次曲面を表す2次関数)f(x,y)を作成し、このモデル関数f(x,y)を、次式(21)によって与えられる評価関数Kによって評価する。
即ち、領域a5〜a8内の座標(x,y)における輝度の比I(x,y)/I’(x’,y’)と、これらの座標(x,y)におけるモデル関数の値f(x,y)とを式(21)に代入して評価関数Kを算出し、評価関数Kが最小となるときのモデル関数f(x,y)を求める。そして、このモデル関数f(x,y)を用いて、画像内の各座標(x,y)におけるシェーディング成分S(x,y)を算出すれば良い。なお、シェーディングモデルを評価関数Kに基づいて修正することによりシェーディング成分を取得する方法については、特開2013−132027号公報も参照されたい。
この他、画像取得部11が取得した画像からシェーディング成分を取得する方法としては、公知の種々の手法を適用することができる。一例として、特開2013−257411号公報と同様の手法が挙げられる。具体的には、一方の画像の中心領域(即ち、シェーディング成分の平坦領域)における画素の輝度をI(x,y)=T(x,y)×S(x,y)と、この中心領域との共通領域である他方の画像内の領域における画素の輝度をI’(x’,y’)=T’(x’,y’)×S(x’,y’)とする。テクスチャ成分T(x,y)、T’(x’,y’)が共通であることを考慮すると、領域(x’,y’)におけるシェーディング成分S(x’,y’)は、次式(22)によって与えられる。
S(x’,y’)=I’(x’,y’)/I(x,y)×S(x,y) …(22)
画像の中心領域(x,y)は平坦領域であるから、シェーディング成分S(x,y)=1とすると、領域(x’,y’)におけるシェーディング成分S(x’,y’)は、次式(23)によって与えられる。
S(x’,y’)=I’(x’,y’)/I(x,y) …(23)
(実施の形態4)
次に、本発明の実施の形態4について説明する。
図25は、本発明の実施の形態4に係る顕微鏡システムの構成例を示す模式図である。図25に示すように、実施の形態4に係る顕微鏡システム2は、顕微鏡装置3と、顕微鏡装置3により取得された画像を処理し、該画像を表示する画像処理装置4とを備える。
顕微鏡装置3は、落射照明ユニット301及び透過照明ユニット302が設けられた略C字形のアーム300と、該アーム300に取り付けられ、観察対象である被写体SPが載置される標本ステージ303と、鏡筒305の一端側に三眼鏡筒ユニット308を介して標本ステージ303と対向するように設けられた対物レンズ304と、鏡筒305の他端側に設けられた撮像部306と、標本ステージ303を移動させるステージ位置変更部307とを有する。三眼鏡筒ユニット308は、対物レンズ304から入射した被写体SPの観察光を、撮像部306と後述する接眼レンズユニット309とに分岐する。接眼レンズユニット309は、ユーザが被写体SPを直接観察するためのものである。
落射照明ユニット301は、落射照明用光源301a及び落射照明光学系301bを備え、被写体SPに対して落射照明光を照射する。落射照明光学系301bは、落射照明用光源301aから出射した照明光を集光して観察光路Lの方向に導く種々の光学部材(フィルタユニット、シャッタ、視野絞り、開口絞り等)を含む。
透過照明ユニット302は、透過照明用光源302a及び透過照明光学系302bを備え、被写体SPに対して透過照明光を照射する。透過照明光学系302bは、透過照明用光源302aから出射した照明光を集光して観察光路Lの方向に導く種々の光学部材(フィルタユニット、シャッタ、視野絞り、開口絞り等)を含む。
対物レンズ304は、倍率が互いに異なる複数の対物レンズ(例えば、対物レンズ304、304’)を保持可能なレボルバ310に取り付けられている。このレボルバ310を回転させて、標本ステージ303と対向する対物レンズ304、304’を変更することにより、撮像倍率を変化させることができる。
鏡筒305の内部には、複数のズームレンズと、これらのズームレンズの位置を変化させる駆動部(いずれも図示せず)とを含むズーム部が設けられている。ズーム部は、各ズームレンズの位置を調整することにより、視野内の被写体像を拡大又は縮小させる。なお、鏡筒305内の駆動部にエンコーダをさらに設けても良い。この場合、エンコーダの出力値を画像処理装置4に出力し、画像処理装置4において、エンコーダの出力値からズームレンズの位置を検出して撮像倍率を自動算出するようにしても良い。
撮像部306は、例えばCCDやCMOS等の撮像素子を含み、該撮像素子が備える各画素においてR(赤)、G(緑)、B(青)の各バンドにおける画素レベル(輝度)を持つカラー画像を撮像可能なカメラであり、画像処理装置4の撮像制御部111の制御に従って、所定のタイミングで動作する。撮像部306は、対物レンズ304から鏡筒305内の光学系を介して入射した光(観察光)を受光し、観察光に対応する画像データを生成して画像処理装置4に出力する。或いは、撮像部306は、RGB色空間で表された輝度を、YCbCr色空間で表された輝度に変換して画像処理装置4に出力しても良い。
ステージ位置変更部307は、例えばボールネジ(図示せず)及びステッピングモータ307aを含み、標本ステージ303の位置をXY平面内で移動させることにより、視野を変化させる。また、ステージ位置変更部307には、標本ステージ303をZ軸に沿って移動させることにより、対物レンズ304の焦点を被写体SPに合わせる。なお、ステージ位置変更部307の構成は上述した構成に限定されず、例えば超音波モータ等を使用しても良い。
なお、実施の形態4においては、対物レンズ304を含む光学系の位置を固定し、標本ステージ303側を移動させることにより、被写体SPに対する視野を変化させるが、対物レンズ304を光軸と直交する面内において移動させる移動機構を設け、標本ステージ303を固定して、対物レンズ304側を移動させることにより、視野を変化させることとしても良い。或いは、標本ステージ303及び対物レンズ304の双方を相対的に移動させても良い。
画像処理装置4において、駆動制御部112は、標本ステージ303に搭載されたスケールの値等に基づき、予め定められたピッチで該標本ステージ303の駆動座標を指示することにより標本ステージ303の位置制御を行う。或いは、駆動制御部112は、顕微鏡装置3により取得された画像に基づくテンプレートマッチング等の画像マッチングの結果に基づいて標本ステージ303の位置制御を行っても良い。
画像処理装置4は、画像取得部11と、画像処理部12と、記憶部13と、表示制御部16と、表示部17と、操作入力部18とを備える。このうち、画像取得部11、画像処理部12、及び記憶部13の構成及び動作は実施の形態1と同様である。なお、シェーディング成分取得部123の代わりに、実施の形態2、3において説明したシェーディング成分取得部200を適用しても良い。
表示制御部16は、画像処理部12により生成された合成画像を含む画面を作成して、表示部17に表示させる制御を行う。
表示部17は、例えば、LCDやELディスプレイ等によって構成され、表示制御部16から出力される信号に従って、画像処理部12により生成された合成画像や関連情報を所定の形式で表示する。
操作入力部18は、表示部17に組み込まれたタッチパネル方式の入力デバイスであり、外部からなされるタッチ操作に応じた信号を、画像取得部11、画像処理部12、及び表示制御部16に入力する。
図26は、表示部17に表示される画面の例を示す模式図である。この画面は、被写体SPの拡大画像が表示されるマクロ表示領域17aと、マクロ表示領域17aにおいて選択された領域をさらに拡大した画像が表示されるミクロ表示領域17bと、補正選択ボタン17c、17dとを含んでいる。この画面内では、マクロ表示領域17a及び補正選択ボタン17c、17dにおいて、操作入力部18の機能がアクティブになっている。以下、このような画面に対する操作に応じた顕微鏡システム2の動作を説明する。
被写体SPの観察に先立って、ユーザは顕微鏡装置3の標本ステージ303上に被写体SPを載置し、マクロ表示領域17a上の所望の位置を、指やタッチペン等を用いてタッチする。
操作入力部18は、マクロ表示領域17aに対するタッチ操作に応じて、タッチされた位置を表す位置情報を画像取得部11及び表示制御部16に入力する。なお、ユーザは、マクロ表示領域17aにタッチした状態で指やタッチペンをスライドさせても良く、この場合、操作入力部18は連続的に変化する位置情報を各部に順次入力する。
画像取得部11は、操作入力部18から入力された位置情報に対応する標本ステージ303上の位置を算出し、当該位置が視野の中心となるように、標本ステージ303の駆動制御を行う。そして、撮像部306に撮像を実行させることにより、画像を取得する。
画像処理部12は、画像取得部11から画像を取り込み、先に取得された画像との貼り合わせ処理、合成画像に適用される補正ゲインの算出、及びシェーディング補正を実行する。
表示制御部16は、操作入力部18から入力された位置情報に基づき、タッチされた位置を中心とする所定サイズの枠17eをマクロ表示領域17a上に表示させる。そして、画像処理部12が生成したシェーディング補正済みの合成画像を、枠17e内に表示させる。また、表示制御部16は、ユーザによるタッチ操作に応じて位置情報が変更された場合、この位置情報に従って枠17eを順次移動させる。この場合、表示部17は、マクロ表示領域17e上に既に表示した合成画像はそのまま残し、枠17e内の領域のみ、合成画像を順次更新して表示する。なお、図26においてマクロ表示領域17aに示す矢印は、ユーザがマクロ表示領域17aをタッチした軌跡を示している。
さらに、表示制御部16は、枠17e内に入った合成画像の部分を拡大してミクロ表示領域17bに表示させる。
操作入力部18は、補正選択ボタン(補正なし)17dに対するタッチ操作に応じて、シェーディング補正前の合成画像の出力を指示する信号を画像処理部12に出力する。これに応じて、画像処理部12は、既に生成したシェーディング補正済みの合成画像を、補正ゲイン算出部124が算出した補正ゲインの逆数(即ち、シェーディング成分)を用いてシェーディング補正前の状態に戻して出力する。また、画像処理部12は、その後で新たに生成する合成画像についても、シェーディング補正前の状態で出力する。表示制御部16は、画像処理部12から出力されたシェーディング補正前の合成画像を表示部17に表示させる。
一方、操作入力部18は、補正選択ボタン(補正あり)17cに対するタッチ操作に応じて、シェーディング補正済みの合成画像の出力を指示する信号を画像処理部12に入力する。これに応じて、画像処理部12は、既に生成したシェーディング補正前の合成画像に対し、補正ゲイン算出部124が算出した補正ゲインを用いて再びシェーディング補正を施して出力する。また、画像処理部12は、その後で新たに生成する合成画像についても、シェーディング補正を施した状態で出力する。表示制御部16は、画像処理部12から出力されたシェーディング補正済みの合成画像を表示部17に表示させる。
以上説明したように、本発明の実施の形態4によれば、ユーザは、マクロ表示領域17aをタッチするだけで、被写体SPの所望の領域が写った合成画像(バーチャルスライド画像)を観察することができる。また、ユーザは、補正選択ボタン17c、17dに対する操作により、シェーディング補正前の合成画像とシェーディング補正済みの合成画像とを適宜切り替えて観察することができる。
なお、実施の形態4において、各画像におけるシェーディング成分の取得方法は特に限定されないが、実施の形態2において説明した方法が比較的適している。実施の形態4においては、視野を連続的に変化させるので、十分な共通領域を有するペアの画像が逐次得られるからである。
また、上記実施の形態4においては、シェーディング補正前の合成画像と、シェーディング補正済みの合成画像とのいずれかを表示部17に切り替え可能に表示させることとしたが、これらの合成画像を並べて同時に表示させても良い。
本発明は、上述した各実施の形態1〜4及び変形例はそのままに限定されるものではなく、各実施の形態1〜4及び変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、実施の形態1〜4及び変形例に示される全構成要素からいくつかの構成要素を除外して形成してもよい。或いは、異なる実施の形態に示した構成要素を適宜組み合わせて形成してもよい。
1、4 画像処理装置
2 顕微鏡システム
3 顕微鏡装置
5 表示装置
11 画像取得部
12 画像処理部
13 記憶部
14 撮像光学系
15 ステージ
16 表示制御部
17 表示部
17a マクロ表示領域
17b ミクロ表示領域
17c 補正選択ボタン(補正あり)
17d 補正選択ボタン(補正なし)
17e 枠
18 操作入力部
111 撮像制御部
112 駆動制御部
121 位置関係取得部
122 画像合成部
123、200 シェーディング成分取得部
124 補正ゲイン算出部
125 画像補正部
201 第1シェーディング成分算出部
202 第2シェーディング成分算出部
203 シェーディング成分算出部
300 アーム
301 落射照明ユニット
301a 落射照明用光源
301b 落射照明光学系
302 透過照明ユニット
302a 透過照明用光源
302b 透過照明光学系
303 標本ステージ
304、304’ 対物レンズ
305 鏡筒
306 撮像部
307 ステージ位置変更部
307a ステッピングモータ
308 三眼鏡筒ユニット
309 接眼レンズユニット
310 レボルバ

Claims (11)

  1. 視野が互いに異なる複数の画像であって、各画像が少なくとも1つの他の画像との間で共通の被写体が写った領域である共通領域を有する複数の画像を取得する画像取得部と、
    前記複数の画像間の位置関係を取得する位置関係取得部と、
    前記位置関係に基づいて前記複数の画像を貼り合わせることにより、合成画像を生成する画像合成部と、
    前記各画像におけるシェーディング成分を取得するシェーディング成分取得部と、
    前記シェーディング成分と前記位置関係とに基づいて、前記合成画像のシェーディング補正に用いる補正ゲインを算出する補正ゲイン算出部と、
    前記補正ゲインを用いて前記合成画像をシェーディング補正する画像補正部と、
    を備えることを特徴とする画像処理装置。
  2. 前記画像合成部は、隣り合う画像間の前記共通領域における輝度同士をブレンド係数を用いて重み付け加算することにより、該共通領域に対応する前記合成画像内の領域における輝度を算出し、
    前記補正ゲイン算出部は、前記ブレンド係数を用いて、前記合成画像内の前記領域に適用される補正ゲインを算出する、
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記合成画像を表示する表示部と、
    外部からなされる操作に応じて指示信号を入力する操作入力部と、
    をさらに備え、
    前記表示部は、前記指示信号に応じて、シェーディング補正済みの前記合成画像と、シェーディング補正前の前記合成画像とを切り替えて表示する、
    ことを特徴とする請求項1に記載の画像処理装置。
  4. 前記シェーディング成分取得部は、前記複数の画像のうち、互いに共通領域を有する少なくとも2枚の画像から前記シェーディング成分を算出する、ことを特徴とする請求項1に記載の画像処理装置。
  5. 前記シェーディング成分取得部は、
    第1の方向において互いに共通領域を有する第1のペアの画像における前記共通領域の輝度を用いて、前記第1の方向におけるシェーディング成分の特性を算出する第1のシェーディング成分算出部と、
    前記第1の方向と異なる第2の方向において互いに共通領域を有する第2のペアの画像における前記共通領域の輝度を用いて、前記第2の方向におけるシェーディング成分の特性を算出する第2のシェーディング成分算出部と、
    前記第1及び第2の方向におけるシェーディング成分の特性を用いて、前記各画像におけるシェーディング成分を算出する第3のシェーディング成分算出部と、
    を備えることを特徴とする請求項4に記載の画像処理装置。
  6. 前記シェーディング成分取得部は、前記少なくとも2枚の画像から前記共通領域における輝度の比を算出し、該輝度の比を用いて前記各画像におけるシェーディング成分を推定する、ことを特徴とする請求項4に記載の画像処理装置。
  7. 前記シェーディング成分取得部は、第1の画像の中心領域における輝度と、前記中心領域に対する共通領域を有する第2の画像の当該共通領域における輝度とを用いて、前記シェーディング成分を算出する、ことを特徴とする請求項1に記載の画像処理装置。
  8. 請求項1〜7のいずれか1項に記載の画像処理装置と、
    前記被写体を撮像して画像信号を出力する撮像部と、
    を備えることを特徴とする撮像装置。
  9. 請求項1〜7のいずれか1項に記載の画像処理装置と、
    前記被写体を撮像して画像信号を出力する撮像部と、
    前記被写体が載置されるステージと、
    前記撮像部と前記ステージとの少なくともいずれか一方を他方に対して相対的に移動させる駆動手段と、
    を備えることを特徴とする顕微鏡システム。
  10. 視野が互いに異なる複数の画像であって、各画像が少なくとも1つの他の画像との間で共通の被写体が写った領域である共通領域を有する複数の画像を取得する画像取得ステップと、
    前記複数の画像間の位置関係を取得する位置関係取得ステップと、
    前記位置関係に基づいて前記複数の画像を貼り合わせることにより、合成画像を生成する画像合成ステップと、
    前記各画像におけるシェーディング成分を取得するシェーディング成分取得ステップと、
    前記シェーディング成分と前記位置関係とに基づいて、前記合成画像のシェーディング補正に用いる補正ゲインを算出する補正ゲイン算出ステップと、
    前記補正ゲインを用いて前記合成画像をシェーディング補正する画像補正ステップと、
    を含むことを特徴とする画像処理方法。
  11. 視野が互いに異なる複数の画像であって、各画像が少なくとも1つの他の画像との間で共通の被写体が写った領域である共通領域を有する複数の画像を取得する画像取得ステップと、
    前記複数の画像間の位置関係を取得する位置関係取得ステップと、
    前記位置関係に基づいて前記複数の画像を貼り合わせることにより、合成画像を生成する画像合成ステップと、
    前記各画像におけるシェーディング成分を取得するシェーディング成分取得ステップと、
    前記シェーディング成分と前記位置関係とに基づいて、前記合成画像のシェーディング補正に用いる補正ゲインを算出する補正ゲイン算出ステップと、
    前記補正ゲインを用いて前記合成画像をシェーディング補正する画像補正ステップと、
    をコンピュータに実行させることを特徴とする画像処理プログラム。
JP2016559761A 2014-11-20 2014-11-20 画像処理装置、撮像装置、顕微鏡システム、画像処理方法及び画像処理プログラム Active JP6487938B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/080781 WO2016079853A1 (ja) 2014-11-20 2014-11-20 画像処理装置、撮像装置、顕微鏡システム、画像処理方法及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JPWO2016079853A1 JPWO2016079853A1 (ja) 2017-09-21
JP6487938B2 true JP6487938B2 (ja) 2019-03-20

Family

ID=56013458

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016559761A Active JP6487938B2 (ja) 2014-11-20 2014-11-20 画像処理装置、撮像装置、顕微鏡システム、画像処理方法及び画像処理プログラム

Country Status (3)

Country Link
US (1) US20170243386A1 (ja)
JP (1) JP6487938B2 (ja)
WO (1) WO2016079853A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7153425B2 (ja) * 2017-01-23 2022-10-14 セイコーエプソン株式会社 スキャナー、スキャンプログラムおよびスキャンデータの生産方法
JP6842387B2 (ja) * 2017-08-31 2021-03-17 浜松ホトニクス株式会社 画像取得装置及び画像取得方法
KR102255074B1 (ko) * 2020-03-13 2021-05-24 한국광기술원 명시야 전체 슬라이드 이미징을 위한 음영 보정 방법 및 장치

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3539394B2 (ja) * 2001-03-26 2004-07-07 ミノルタ株式会社 画像処理装置、プログラムおよび記録媒体
JP2003087549A (ja) * 2001-09-12 2003-03-20 Sanyo Electric Co Ltd 画像合成装置、画像合成方法、画像合成処理プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2003281562A (ja) * 2002-03-25 2003-10-03 Fuji Photo Film Co Ltd 画像表示方法およびこれを行う画像処理装置
JP4423678B2 (ja) * 2006-09-06 2010-03-03 カシオ計算機株式会社 撮像装置、撮影方法及びプログラム
US8509565B2 (en) * 2008-12-15 2013-08-13 National Tsing Hua University Optimal multi-resolution blending of confocal microscope images
JP5751986B2 (ja) * 2010-12-08 2015-07-22 キヤノン株式会社 画像生成装置
JP5735846B2 (ja) * 2011-04-11 2015-06-17 キヤノン株式会社 画像処理装置およびその方法
US8731278B2 (en) * 2011-08-15 2014-05-20 Molecular Devices, Inc. System and method for sectioning a microscopy image for parallel processing
JP2013201530A (ja) * 2012-03-23 2013-10-03 Canon Inc 撮像装置及びその制御方法

Also Published As

Publication number Publication date
WO2016079853A1 (ja) 2016-05-26
JPWO2016079853A1 (ja) 2017-09-21
US20170243386A1 (en) 2017-08-24

Similar Documents

Publication Publication Date Title
JP6196832B2 (ja) 画像処理装置、画像処理方法、顕微鏡システム及び画像処理プログラム
JP5940383B2 (ja) 顕微鏡システム
JP5911296B2 (ja) 画像処理装置、撮像装置、顕微鏡システム、画像処理方法、及び画像処理プログラム
JP5523017B2 (ja) 画像処理装置及び画像処理方法
US8922639B2 (en) Microscope system
JP6422967B2 (ja) 画像処理装置、撮像装置、顕微鏡システム、画像処理方法及び画像処理プログラム
JP6099477B2 (ja) 撮像装置、顕微鏡システム及び撮像方法
JP2019087794A (ja) 画像処理装置、撮像装置、画像処理方法、プログラム、および、記憶媒体
JP5875813B2 (ja) 顕微鏡システム
JP6487938B2 (ja) 画像処理装置、撮像装置、顕微鏡システム、画像処理方法及び画像処理プログラム
JP6270388B2 (ja) 撮像装置、顕微鏡システム、撮像方法及び撮像プログラム
WO2013100029A1 (ja) 画像処理装置、画像表示システム、画像処理方法および画像処理プログラム
US10656406B2 (en) Image processing device, imaging device, microscope system, image processing method, and computer-readable recording medium
JP6173032B2 (ja) 顕微鏡システム
JP2012150142A (ja) 顕微鏡制御装置、顕微鏡システム及び該制御方法
JP2013092636A (ja) 画像処理装置、顕微鏡システム、画像処理方法、画像処理プログラム
JP2017182668A (ja) データ処理装置、撮像装置、及びデータ処理方法
JP6724395B2 (ja) 画像表示制御装置、画像表示制御方法及び画像表示制御プログラム
JP2023069527A (ja) 画像処理装置および画像処理方法
JP2011254335A (ja) 画像処理装置、画像処理方法
WO2019049532A1 (ja) 撮像装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190222

R151 Written notification of patent or utility model registration

Ref document number: 6487938

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250