JP6653386B2 - 画像処理装置、内視鏡システム、プログラム及び画像処理装置の作動方法 - Google Patents

画像処理装置、内視鏡システム、プログラム及び画像処理装置の作動方法 Download PDF

Info

Publication number
JP6653386B2
JP6653386B2 JP2018528123A JP2018528123A JP6653386B2 JP 6653386 B2 JP6653386 B2 JP 6653386B2 JP 2018528123 A JP2018528123 A JP 2018528123A JP 2018528123 A JP2018528123 A JP 2018528123A JP 6653386 B2 JP6653386 B2 JP 6653386B2
Authority
JP
Japan
Prior art keywords
image
motion vector
luminance
specifying information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018528123A
Other languages
English (en)
Other versions
JPWO2018016002A1 (ja
Inventor
順平 高橋
順平 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Publication of JPWO2018016002A1 publication Critical patent/JPWO2018016002A1/ja
Application granted granted Critical
Publication of JP6653386B2 publication Critical patent/JP6653386B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000095Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00186Optical arrangements with imaging filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0676Endoscope light sources at distal tip of an endoscope
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/07Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements using light-conductive means, e.g. optical fibres
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Endoscopes (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置、内視鏡システム、プログラム及び画像処理装置の作動方法等に関する。
従来、フレーム間の位置合わせを行う手法(動きベクトルの検出手法)が広く知られている。動きベクトルの検出には、ブロックマッチング等の手法が広く用いられている。フレーム間のノイズ低減(Noise Reduction,以下NRとも表記)では、検出した動きベクトルを用いてフレーム間を位置合わせ(位置ずれ補正)した状態で、複数フレームを加重平均する。これによりNRと、解像感保持の両立が可能となる。また、動きベクトルはNR以外にも種々の処理に利用可能である。
一般に、ブロックマッチング処理を初めとした動き検出処理では、ノイズ成分の影響で動きベクトルを誤検出するおそれがある。誤検出された動きベクトルを用いてフレーム間NR処理を行うと、解像感の低下や、実際には存在しない像(アーティファクト)が生成されてしまう。
これに対し、例えば特許文献1には、NR処理を施したフレームに基づき動きベクトルを検出することで、上記ノイズの影響を軽減する手法が開示されている。ここでのNR処理とは、例えばLPF(Low Pass Filter)処理である。
特開2006−23812号公報
特許文献1の手法では一律の条件でLPFを施す。そのため、ノイズ成分が少ない明部にもLPFを施すため、エッジ成分がぼけて動きベクトルの検出精度が劣化する課題がある。さらにノイズ成分が非常に多い場合、LPFの効果が弱く、動きベクトルの誤検出を十分に抑制できない課題も存在する。
本発明の幾つかの態様によれば、ノイズによる動きベクトル誤検出を抑制しつつ、動きベクトルの検出精度を高めることが可能な画像処理装置、内視鏡システム、プログラム及び画像処理方法等を提供できる。
本発明の一態様は、画像を時系列に取得する画像取得部と、前記画像の画素値に基づく輝度特定情報を求め、前記画像及び前記輝度特定情報に基づいて、動きベクトルを検出する動きベクトル検出部と、を含み、前記動きベクトル検出部は、前記輝度特定情報により特定される輝度が小さいほど、前記動きベクトルの検出処理における、前記画像の高域周波数成分に対する低域周波数成分の相対的な寄与度を高くする画像処理装置に関係する。
本発明の一態様では、動きベクトルの検出処理において、輝度に応じて低域周波数成分と高域周波数成分の相対的な寄与度を制御する。このようにすれば、暗部では低域周波数成分の寄与度を相対的に高くすることでノイズによる影響を低減し、明部では高域周波数成分の寄与度を相対的に高くすることで高精度での動きベクトル検出を行うこと等が可能になる。
また本発明の他の態様は、画像を時系列に撮像する撮像部と、前記画像の画素値に基づく輝度特定情報を求め、前記画像及び前記輝度特定情報に基づいて、動きベクトルを検出する動きベクトル検出部と、を含み、前記動きベクトル検出部は、前記輝度特定情報により特定される輝度が小さいほど、前記動きベクトルの検出処理における、前記画像の高域周波数成分に対する低域周波数成分の相対的な寄与度を高くする内視鏡システムに関係する。
また本発明の他の態様は、画像を時系列に取得し、前記画像の画素値に基づく輝度特定情報を求め、前記画像及び前記輝度特定情報に基づいて、動きベクトルを検出する、ステップをコンピュータに実行させ、前記動きベクトルの検出において、前記輝度特定情報により特定される輝度が小さいほど、前記動きベクトルの検出処理における、前記画像の高域周波数成分に対する低域周波数成分の相対的な寄与度を高くするプログラムに関係する。
また本発明の他の態様は、画像を時系列に取得し、前記画像の画素値に基づく輝度特定情報を求め、前記画像及び前記輝度特定情報に基づいて、動きベクトルを検出し、前記動きベクトルの検出において、前記輝度特定情報により特定される輝度が小さいほど、前記動きベクトルの検出処理における、前記画像の高域周波数成分に対する低域周波数成分の相対的な寄与度を高くする画像処理方法に関係する。
内視鏡システムの構成例。 撮像素子の構成例。 撮像素子の分光特性例。 第1の実施形態の動きベクトル検出部の構成例。 図5(A)、図5(B)は減算割合と輝度信号との関係図。 評価値を補正するオフセットの設定例。 評価値を補正する係数と輝度信号との関係図。 画像からノイズに関する情報を求める際の先見情報の例。 本実施形態の処理を説明するフローチャート。 第2の実施形態の動きベクトル検出部の構成例。 図11(A)〜図11(C)は平滑化度合いの異なる複数のフィルタ例。 第3の実施形態の動きベクトル検出部の構成例。
以下、本実施形態について説明する。なお、以下に説明する本実施形態は、請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。
なお、以下の第1〜第3の実施形態では主として内視鏡システムの例について説明するが、本実施形態の手法は内視鏡システムに限定されない画像処理装置に適用可能である。ここでの画像処理装置は、PC(personal computer)やサーバーシステム等の汎用機器であってもよいし、ASIC(application specific integrated circuit,カスタムIC)等を含む専用機器であってもよい。また、画像処理装置の処理対象となる画像は、内視鏡システムの撮像部で撮像される画像(例えば生体内画像)であってもよいがこれには限定されず、種々の画像を処理対象とできる。
1.第1の実施形態
1.1 システム構成例
本発明の第1の実施形態に係る内視鏡システムについて、図1を参照して説明する。本実施形態に係る内視鏡システムは、光源部100と、撮像部200と、画像処理部300と、表示部400と、外部I/F部500を備えている。
光源部100は、白色光を発生する白色光源110と、当該白色光をライトガイドファイバ210に集光するためのレンズ120を備えている。
撮像部200は、体腔への挿入を可能にするため細長く且つ湾曲可能に形成されている。さらに観察する部位により異なる撮像部が用いられるため、着脱可能な構造をしている。以降の説明では撮像部200をスコープとも表記する。
撮像部200は、光源部100で集光された光を導くためのライトガイドファイバ210と、ライトガイドファイバ210により導かれた光を拡散させて被写体に照射する照明レンズ220と、被写体からの反射光を集光する集光レンズ230と、集光レンズ230により集光された反射光を検出するための撮像素子240と、メモリ250を備えている。メモリ250は後述する制御部390に接続されている。
ここで撮像素子240は、図2に示されるようなベイヤ配列を有する撮像素子である。また図2に示した3種類の色フィルタr,g,bは、図3に示されるようにrフィルタが580〜700nm、gフィルタが480〜600nm、bフィルタが390〜500nmの光を透過させる特徴を有するものとする。
メモリ250には各スコープ固有の識別番号が保持されている。そのため、制御部390はメモリ250に保持されている識別番号を参照することで、接続されているスコープの種類を識別することが可能である。
画像処理部300は、補間処理部310と、動きベクトル検出部320と、ノイズ低減部330と、フレームメモリ340と、表示画像生成部350と、制御部390を備えている。
補間処理部310は、動きベクトル検出部320とノイズ低減部330に接続されている。動きベクトル検出部320はノイズ低減部330に接続されている。ノイズ低減部330は表示画像生成部350に接続されている。フレームメモリ340は動きベクトル検出部320に接続されており、さらにノイズ低減部330と双方向に接続されている。表示画像生成部350は表示部400に接続されている。制御部390は、補間処理部310、動きベクトル検出部320、ノイズ低減部330、フレームメモリ340、及び表示画像生成部350の各部と接続されており、これらを制御する。
補間処理部310は、撮像素子240で取得される画像に対し、補間処理を施す。前述したように、撮像素子240は図2に示すベイヤ配列を有するため、撮像素子240で取得される画像の各画素は、R,G,B信号のうち、何れか1つの信号値を有するのみで、他の2種類の信号が欠落した状態である。
そのため、補間処理部310では、前記画像の各画素に対し補間処理を施すことで、欠落している信号値を補間し、各画素でR,G,B信号の全ての信号値を有する画像を生成する。ここで補間処理としては、例えば公知のバイキュービック補間処理を用いればよい。ここでは、補間処理部310で生成された画像をRGB画像と表記する。補間処理部310は、生成したRGB画像を、動きベクトル検出部320と、ノイズ低減部330に出力する。
動きベクトル検出部320は、RGB画像の画素毎に動きベクトル(Vx(x,y)、Vy(x,y))を検出する。ここでは、画像の水平方向(横方向)をx軸とし、垂直方向(縦方向)をy軸とし、画像中の画素を、x座標値とy座標値の組を用いて(x,y)のように表記する。動きベクトル(Vx(x,y)、Vy(x,y))のうち、Vx(x,y)とは、画素(x,y)におけるx(水平)方向の動きベクトル成分を表し、Vy(x,y)とは画素(x,y)におけるy(垂直)方向の動きベクトル成分を表す。なお、画像左上を原点(0,0)とする。
動きベクトルの検出には、処理対象タイミングでのRGB画像(狭義には最新のタイミングで取得されたRGB画像)、及びフレームメモリ340に保持されている巡回RGB画像を用いる。巡回RGB画像は後述するように、処理対象タイミングでのRGB画像よりも前のタイミングで取得された、ノイズ低減処理後のRGB画像であり、狭義には1タイミング前(1フレーム前)に取得されたRGB画像に対してノイズ低減処理が施された画像である。以下、本明細書では、処理対象タイミングでのRGB画像を単に「RGB画像」と表記する。
動きベクトルの検出手法は、公知のブロックマッチングをベースとする。ブロックマッチングは、基準画像(RGB画像)の任意のブロックに対して、相関が高いブロックの位置を対象画像(巡回RGB画像)内で探索する手法である。ブロック間の相対的なズレ量が、そのブロックの動きベクトルに対応する。ここでは、ブロック間の相関を識別する値を評価値と定義する。評価値が低いほどブロック間の相関があると判断する。動きベクトル検出部320における処理の詳細は後述する。
ノイズ低減部330は、補間処理部310より出力されるRGB画像、及びフレームメモリ340から出力される巡回RGB画像を用いて、RGB画像に対しNR処理を施す。具体的には、下式(1)によりNR処理後の画像(以下、NR画像と表記する)の座標(x,y)におけるG成分であるGNR(x,y)を求めればよい。下式(7)におけるGcur(x,y)はRGB画像の座標(x,y)でのG成分の画素値を表し、Gpre(x,y)は巡回RGB画像の座標(x,y)でのG成分の画素値を表す。
GNR(x,y) = we_cur×Gcur(x,y) + (1-we_cur)×Gpre{x+Vx(x,y),y+Vy(x,y)} …(1)
ここでwe_curは、0<we_cur≦1の値をとる。値が小さいほど過去のタイミングの画素値の割合が高くなるため、巡回が強く掛かり、ノイズ低減の度合いが強くなる。we_curは所定値を予め設定しておいてもよいし、外部I/F部500よりユーザが任意の値を設定する構成としてもよい。また、ここではG信号についての処理を示したが、R,B信号についても同一の処理が施される。
更に、ノイズ低減部330は、NR画像をフレームメモリ340に出力する。フレームメモリ340はNR画像を保持する。NR画像は、直後に取得されるRGB画像の処理において巡回RGB画像として用いられる。
表示画像生成部350は、ノイズ低減部330より出力されるNR画像に対し、例えば既存のホワイトバランスや色変換処理、階調変換処理等を施し、表示画像を生成する。表示画像生成部350は、生成した表示画像を表示部400に出力する。表示部400は、例えば液晶表示装置等の表示装置により構成される。
外部I/F部500は、この内視鏡システム(画像処理装置)に対するユーザからの入力等を行うためのインターフェースであり、電源のオン/オフを行うための電源スイッチ、撮影モードやその他各種のモードを切り換えるためのモード切換ボタンなどを含んで構成されている。また、外部I/F部500は、入力された情報を制御部390へ出力するようになっている。
1.2 動きベクトル検出処理の詳細
内視鏡画像では、生体構造(血管、腺管)に基づいて相関が高いブロックを探索することになる。その際、高精度な動きベクトルを検出するためには、画像の中周波数帯域〜高周波数域に分布する微細な生体構造(毛細血管など)の情報に基づいてブロックを探索することが望ましい。しかし、ノイズが多い場合には、微細な生体構造がノイズにより消失し、動きベクトルの検出精度が低下すると共に誤検出が増加する。一方、特許文献1のように一律にノイズ低減処理(LPF処理)を施してしまうと、ノイズが少なく微細な生体構造が残っている領域まで処理対象となるため、微細な生体構造がぼけてしまう。結果として、本来高精度での動きベクトル検出が可能であった領域において、検出精度が低下してしまう。
そこで、本実施形態では、画像の明るさに応じて評価値の算出手法を制御する。これにより、ノイズの少ない明部で高精度に動きベクトルを検出しつつ、ノイズが多い暗部では誤検出を抑制することが可能になる。
動きベクトル検出部320の詳細を説明する。動きベクトル検出部320は図4に示すように輝度画像算出部321と、低域画像算出部322と、減算割合算出部323と、評価値算出部324aと、動きベクトル算出部325と、動きベクトル補正部326aと、グローバル動きベクトル算出部3213を備える。
補間処理部310及びフレームメモリ340は、輝度画像算出部321に接続されている。輝度画像算出部321は、低域画像算出部322と、評価値算出部324aと、グローバル動きベクトル算出部3213に接続されている。低域画像算出部322は、減算割合算出部323に接続されている。減算割合算出部323は、評価値算出部324aに接続されている。評価値算出部324aは、動きベクトル算出部325に接続されている。動きベクトル算出部325は、動きベクトル補正部326aに接続されている。動きベクトル補正部326aは、ノイズ低減部330に接続されている。グローバル動きベクトル算出部3213は、評価値算出部324aに接続されている。制御部390は、動きベクトル検出部320を構成する各部に接続され、これらを制御する。
輝度画像算出部321は、補間処理部310より出力されるRGB画像、及びフレームメモリ340から出力される巡回RGB画像の各画像から輝度画像を算出する。具体的には、輝度画像算出部321は、RGB画像からY画像を算出し、巡回RGB画像から巡回Y画像を算出する。具体的には、Y画像の画素値Ycur、及び巡回Y画像の画素値Ypreを、それぞれ下式(2)を用いて求めればよい。なお、Ycur(x,y)はY画像の座標(x,y)における信号値(輝度値)を表し、Ypre(x,y)は巡回Y画像の座標(x,y)における信号値を表す。また、R,G、Bの各画素値についても同様である。輝度画像算出部321は、Y画像と巡回Y画像を低域画像算出部322、評価値算出部324a及びグローバル動きベクトル算出部3213に出力する。
Ycur(x,y) = {Rcur(x,y) + 2×Gcur(x,y) + Bcur(x,y)}/4
Ypre(x,y) = {Rpre(x,y) + 2×Gpre(x,y) + Bpre(x,y)}/4 …(2)
グローバル動きベクトル算出部3213は、例えば上述のブロックマッチングを用いて、基準画像及び対象画像間の画像全体のズレ量をグローバル動きベクトル(Gx,Gy)として算出し、評価値算出部324aに出力する。なお、グローバル動きベクトルの算出では、ブロックマッチングにおけるカーネルサイズ(ブロックサイズ)を、局所的な動きベクトル(本実施形態の動きベクトル検出部320の出力である動きベクトル)を求める場合に比べて大きくすればよい。例えば、グローバル動きベクトルの算出では、ブロックマッチングにおけるカーネルサイズを、画像のサイズそのものとすればよい。グローバル動きベクトルは、画像全体のブロックマッチングを行って算出するため、ノイズの影響を受けにくい特徴がある。
低域画像算出部322は、Y画像及び巡回Y画像に対して平滑化処理を施し、低域画像(低域Y画像及び巡回低域Y画像)を算出する。具体的には、低域Y画像の画素値Y_LPFcur、及び低域巡回Y画像の画素値Y_LPFpreを、それぞれ下式(3)を用いて求めればよい。低域画像算出部322は、減算割合算出部323に低域Y画像を出力し、評価値算出部324aに低域Y画像及び巡回低域Y画像を出力する。
Figure 0006653386
減算割合算出部323は、低域Y画像に基づいて、下式(4)により画素毎の減算割合Coef(x,y)を算出する。ここで、CoefMinは減算割合Coefの最小値を表し、CoefMaxは減算割合Coef(x,y)の最大値を表し、1≧CoefMax>CoefMin≧0の関係を満たす。また、Yminは所与の下側輝度閾値を表し、Ymaxは所与の上側輝度閾値を表す。例えば各画素に8ビットの情報が割り当てられる場合、輝度値は0以上255以下の値となるため、Ymin,Ymaxは、255≧YMax>YMin≧0の関係を満たす。減算割合Coef(x,y)の特性は図5(A)で表される。
Figure 0006653386
上式(4)及び図5(A)からわかるように、減算割合Coef(x,y)は、低域Y画像の画素値(輝度値)が小さいほど小さく、大きいほど大きくなる係数である。また、減算割合Coef(x,y)の特性はこれに限定されない。具体的には、Y_LPFcur(x,y)に連動して増加する特性であればよく、例えば図5(B)のF1〜F3に示す特性とすることも可能である。
評価値算出部324aは、下式(5)に基づいて、評価値SAD(x+m+Gx,y+n+Gy)を算出する。なお、下式(5)におけるmaskはブロックマッチングのカーネルサイズを表す。下式(5)に示したように、変数p及びqがそれぞれ−mask〜+maskの範囲で変化するため、カーネルサイズは2×mask+1となる。
Figure 0006653386
また、m+Gx,n+Gyは、基準画像及び対象画像間の相対的なズレ量であり、mはx方向での動きベクトルの探索範囲を表し、nはy方向での動きベクトルの探索範囲を表す。例えば、mとnはそれぞれ−2〜+2の間の整数値をとる。そのため評価値は、上式(5)に基づいて複数(ここでは5×5=25個)算出される。
なお、本実施形態では、グローバル動きベクトル(Gx,Gy)を考慮して評価値を算出する構成とした。具体的には上式(5)に示すように、グローバル動きベクトルを中心としてm,nで表される探索範囲を対象として動きベクトル検出を行う。しかし、これを用いない構成とすることも可能である。また、m,nの範囲(動きベクトルの探索範囲)を±2画素としたが、外部I/F部500よりユーザが任意の値を設定する構成としてもよい。またカーネルサイズに相当するmaskも所定値でもよいし、外部I/F部500からユーザが設定してもよい。CoefMax,CoefMin,YMax,YMinも同様で、予め所定値を設定しておいてもよいし、外部I/F部500からユーザが設定してもよい。
上式(5)の第1項に示したように、本実施形態で評価値算出の対象となる画像(動き検出用画像)は、輝度画像から低域画像を減算した画像であって、その減算割合(低域輝度画像の係数)がCoef(x,y)となる。Coef(x,y)の特性は図5(A)に示したとおりであるため、輝度が小さいほど、減算割合が小さくなる。つまり、輝度が小さいほど低域周波数成分が残り、輝度が大きいほど低域周波数成分が減算される。これにより、輝度が小さい場合には相対的に低域周波数成分を重視した処理を行い、輝度が大きい場合には相対的に高域周波数成分を重視した処理を行うことが可能になる。
また、本実施形態の評価値は、差分絶対値和を求める第1項に対して、第2項による補正が行われた値となる。第2項におけるOffset(m,n)は、前記ズレ量に応じた補正値である。Offset(m,n)の具体的な値を図6に示す。なお、補正値は図6に限定されるものではなく、探索原点である(m,n)=(0,0)から遠ざかるにつれ増加する特性を有するものであればよい。
Coef’(x,y)は、Coef(x,y)同様にY_LPFcur(x,y)に基づいて決定される係数である。例えばCoef’(x,y)は、図7に示す特性を有する。ただし、Coef’(x,y)の特性はこれに限定されず、Y_LPFcur(x,y)の増加に伴って減少する特性であればよい。なお、図7中の各変数は、CoefMax’>CoefMin’≧0、及び255≧YMax’>YMin’≧0の関係を満たす。また、CoefMax’,CoefMin’,YMax’,YMin’は予め所定値を設定しておいてもよいし、外部I/F部500からユーザが設定してもよい。
図7に示したように、Coef’(x,y)はY_LPFcur(x,y)の増加に伴って減少する。つまり、Y_LPFcur(x,y)が小さい、すなわち暗部ではCoef’(x,y)の値が大きくなり、評価値に対する第2項の寄与度が高くなる。Offset(m,n)は、図6のように探索原点から離れるほど値が大きくなる特性を有するため、第2項の寄与度が高い場合には、評価値は探索原点で小さく、探索原点から離れるほど大きい傾向を有することになる。評価値の算出に第2項を用いることで、暗部では動きベクトルとして探索原点に対応するベクトル、すなわちグローバル動きベクトル(Gx,Gy)が選ばれやすくなる。
動きベクトル算出部325は、下式(6)に示すように、評価値SAD(x+m+Gx,y+n+Gy)が最小となるズレ量(m_min,n_min)を動きベクトル(Vx’(x,y),Vy’(x,y))として検出する。なお、m_minは、評価値を最小とするmとグローバル動きベクトルのx成分Gxの和を表し、n_minは、評価値を最小とするnとグローバル動きベクトルのy成分Gyの値を表す。
Vx'(x,y) = m_min
Vy'(x,y) = n_min …(6)
動きベクトル補正部326aは、動きベクトル算出部325で算出された動きベクトル(Vx’(x,y),Vy’(x,y))に対し、補正係数C(0≦C≦1)を乗算することで、動きベクトル検出部320の出力である動きベクトル(Vx(x,y),Vy(x,y))を求める。補正係数Cの特性は、図5(A)、図5(B)に示したCoef(x,y)と同様に、Y_LPFcur(x,y)に連動して増加する特性とする。なお、輝度が所定値以下の場合に、補正係数Cをゼロにすることで、動きベクトルを強制的にグローバル動きベクトル(Gx,Gy)にする構成とすることも可能である。動きベクトル補正部326a補正処理は下式(7)で定義される。
Vx(x,y) = C×{Vx'(x,y) - Gx} + Gx
Vy(x,y) = C×{Vy'(x,y) - Gy} + Gy …(7)
以上、内視鏡システムを例にとって説明したように、本実施形態に係る画像処理装置は、画像を時系列に取得する画像取得部と、画像の画素値に基づく輝度特定情報を求め、画像及び輝度特定情報に基づいて、動きベクトルを検出する動きベクトル検出部320を含む。そして、動きベクトル検出部320は、輝度特定情報により特定される輝度が小さいほど、動きベクトルの検出処理における、画像の高域周波数成分に対する低域周波数成分の相対的な寄与度を高くする。
本実施形態に係る画像処理装置は、例えば図1の内視鏡システムにおける画像処理部300に相当する構成であってもよい。この場合、画像取得部とは、撮像部200からの画像信号を取得するインターフェースとして実現されてもよく、例えば撮像部200からのアナログ信号のA/D変換を行うA/D変換部であってもよい。
或いは、画像処理装置は、外部機器から時系列の画像を含む画像データを取得し、当該画像データを対象として動きベクトルの検出処理を行う情報処理装置であってもよい。この場合、画像取得部は、外部機器とのインターフェースとして実現され、例えば当該外部機器との通信を行う通信部(より具体的なハードウェアとしては通信アンテナ等)であってもよい。
或いは、画像処理装置自体が画像を撮像する撮像部を有する構成であってもよい。この場合、画像取得部とは撮像部により実現される。
本実施形態における輝度特定情報とは、画像の輝度、明るさを特定可能な情報であり、狭義には輝度信号である。輝度信号とは、上述したように低域Y画像の画素値Y_LPFcur(x,y)であってもよいし、第2の実施形態で後述するようにY画像の画素値Ycur(x,y)であってもよい。ただし、輝度特定情報として他の情報を用いることも可能であり、詳細については変形例として後述する。
本実施形態の手法によれば、画像の輝度に応じて動きベクトル検出に利用する空間周波数の帯域を制御できる。ノイズが少ない明部では、RGB画像の中周波数〜高周波数域の情報(微細な毛細血管など)に基づいて高精度な動きベクトルの検出が可能になる。さらに、ノイズが多い暗部では、低周波数域(太い血管、消化管の襞)の情報に基づいて動きベクトルが検出されるため、中周波数〜高周波数域の情報を用いる場合と比較し、ノイズの影響による誤検出を抑制することができる。
具体的には、上式(4)及び(5)に示したように、RGB画像の明るさ(輝度)を表す低域Y画像の信号値Y_LPFcur(x,y)に応じて、評価値算出における低域周波数成分の寄与率を制御する。ノイズが少ない明部では、Coef(x,y)を大きくすることで低域周波数成分の寄与率が低下(高域周波数成分の寄与率が増加)する。そのため、微細な毛細血管等の情報に基づく高精度な動きベクトルを検出可能となる。一方、ノイズが多い暗部では、Coef(x,y)を小さくするため、低域周波数成分の寄与率が増加(高周波数域成分の寄与率は低下)することでノイズ耐性が向上し、動きベクトルの誤検出を抑制できる。
以上に示した処理により、入力画像のノイズに依らず、高精度に動きベクトルを検出することが可能である。上式(1)等のノイズ低減処理では、明部での高精度な動きベクトル検出により、血管等のコントラストを維持しつつ、ノイズを低減できる。さらに、暗部でのノイズによる誤検出を抑えることで、実際の被写体に存在しない動き(アーティファクト)を抑制する効果がある。
また、動きベクトル検出部320は、動きベクトルの検出処理に用いる動き検出用画像を、画像に基づき生成し、輝度特定情報により特定される輝度が小さい場合は、輝度が大きい場合に比べて、動き検出用画像に含まれる低域周波数成分の割合を高くする。
ここで、動き検出用画像とは、RGB画像、巡回RGB画像に基づいて取得される画像であって、動きベクトル検出処理に用いられる画像を表す。より具体的には、動き検出用画像とは評価値算出処理に用いられる画像であり、上式(5)におけるY’cur(x,y)及びY’pre(x,y)である。
つまり動きベクトル検出部320は、画像に対し所定の平滑化フィルタ処理を施した平滑化画像(上述の例では低域画像であるY_LPFcur(x,y)及びY_LPFpre(x,y))を生成し、輝度特定情報により特定される輝度が小さい場合は、画像から第1の減算割合で平滑化画像による減算を行うことで動き検出用画像を生成し、輝度特定情報により特定される輝度が大きい場合は、画像から第1の減算割合に比べて大きい第2の減算割合で平滑化画像による減算を行うことで動き検出用画像を生成する。
図5(A)や図5(B)に示したように減算割合Coef(x,y)は輝度が大きいほど大きくなる特性を有する。よって動き検出用画像では、輝度が小さいほど低域周波数成分の減算割合が減るため、輝度が大きい場合に比べて低域周波数成分の割合が相対的に大きくなる。
このようにすれば、動き検出用画像の周波数帯域を制御することで、輝度に応じた適切な動きベクトル検出が可能になる。具体的には、減算割合Coef(x,y)を輝度に応じて制御することで、動き検出用画像の周波数帯域を制御している。なお、減算割合Coef(x,y)を用いる場合、動き検出用画像における低域周波数成分の割合を比較的自由に変更することができる。例えば図5(A)や図5(B)のように、Coef(x,y)が輝度に対して連続的に変化する特性であれば、Coef(x,y)を用いて求められる動き検出用画像の低域周波数成分の割合も、輝度に応じて連続的に(より細かい単位で)変化させることが可能になる。
後述する第2の実施形態では、動き検出用画像とはフィルタA〜フィルタCのいずれかのフィルタ処理を施した画像であり、フィルタ係数自体を切り替えることで、動き検出用画像の周波数帯域を制御する。つまり第2の実施形態の手法で動き検出用画像の低域周波数成分の割合を細かく制御しようとすれば、フィルタ数を多くしなくてはならない。結果として、フィルタ回路の数が増える、或いはフィルタ回路を時分割で利用することで処理時間が増大するといったハードウェア的なデメリットが生じるおそれや、動き検出用画像として多数の(フィルタ数に対応する数の)画像を保持することでメモリ容量を圧迫するおそれがある。後述する第2の実施形態と比較した場合、本実施形態の手法は、回路構成が複雑化したり、メモリ容量が圧迫されるおそれが少ないという点で有利である。
また、動きベクトル検出部320(評価値算出部324a)は、時系列に取得される複数の画像間の差分を評価値として算出し、評価値に基づき動きベクトルを検出し、動きベクトル検出部は、輝度特定情報により特定される輝度が小さいほど、評価値の算出処理における、画像の高域周波数成分に対する低域周波数成分の相対的な寄与度を高くする。
このようにすれば、評価値に対する低域周波数成分の相対的な寄与度を制御することで、輝度に応じた適切な動きベクトル検出処理を実現できる。これは上式(5)の第1項の演算にY’cur(x,y)及びY’pre(x,y)を用いることで実現される。
また、動きベクトル検出部320(評価値算出部324a)は、所与の基準ベクトルが検出されやすくなるように、評価値を補正してもよい。具体的には、動きベクトル検出部320は、輝度特定情報により特定される輝度が小さいほど、基準ベクトルが検出されやすくなるように、評価値を補正する。
ここでの基準ベクトルとは、上述したように評価値に基づき検出される動きベクトルに比べて、大域的な動きを表すグローバル動きベクトル(Gx,Gy)であってもよい。「評価値に基づき検出される動きベクトル」とは、本実施形態の手法で求める対象となる動きベクトルであり、(Vx(x,y),Vy(x、y))、或いは(Vx’(x,y),Vy’(x,y))に相当する。グローバル動きベクトルは、ブロックマッチングにおけるカーネルサイズが、上式(5)の場合に比べて大きいため、画像間の大まかな動きを表す情報となる。ただし、基準ベクトルはグローバル動きベクトルに限定されるものではなく、例えばゼロベクトル(0,0)であってもよい。
基準ベクトルが検出されやすくなる評価値の補正とは、上式(5)の第2項に相当する。すなわち当該補正は、Coef’(x,y)及びOffset(m,n)により実現できる。輝度が小さくノイズが多い場合、動きベクトルが局所的に変動した、すなわち評価値を最小とする(m,n)が(0,0)とは異なる値となったとしても、当該変動はノイズ(特に局所的なノイズ)に起因する可能性が高く、求められた値の信頼性は低い。その点、本実施形態では、暗部で上式(5)に示したCoef’(x,y)を大きくすることで、基準ベクトルが選択されやすくなり、ノイズによる動きベクトルの変動を抑制できる。
また、動きベクトル検出部320(動きベクトル補正部326a)は、評価値に基づき求められた動きベクトルに対する補正処理を行い、動きベクトル検出部320は、輝度特定情報に基づいて、動きベクトルが所与の基準ベクトルに近づくように動きベクトルに対する補正処理を行ってもよい。具体的には、動きベクトル検出部320は、輝度特定情報により特定される輝度が小さいほど、動きベクトルが所与の基準ベクトルに近づくように補正処理を行う。
ここで、「評価値に基づき求められた動きベクトル」とは上記の例では(Vx’(x,y),Vy’(x,y))に相当し、補正処理後の動きベクトルとは(Vx(x,y),Vy(x,y))に相当する。補正処理は具体的には上式(7)に相当する。
このようにすれば、Coef’(x,y)及びOffset(m,n)による評価値の補正とは異なる処理により、暗部の動きベクトル変動をさらに抑制でき、ノイズ耐性を向上させることが可能になる。
また、図1等を用いて上述したように、本実施形態の手法は、画像を時系列に撮像する撮像部200と、画像の画素値に基づく輝度特定情報を求め、画像及び輝度特定情報に基づいて、動きベクトルを検出する動きベクトル検出部320を含む内視鏡システムに適用できる。内視鏡システムの動きベクトル検出部320は、輝度特定情報により特定される輝度が小さいほど、動きベクトルの検出処理における、画像の高域周波数成分に対する低域周波数成分の相対的な寄与度を高くする。
また、本実施形態では画像処理部300を構成する各部をハードウェアで構成することとしたが、本発明はこれに限定されない。他の手法としては、例えばカプセル内視鏡などの撮像素子で予め取得された画像に対して、CPUが各部の処理を行う構成とし、ソフトウェアで実現することとしてもよい。あるいは、各部が行う処理の一部をソフトウェアで構成することとしてもよい。
すなわち本実施形態の手法は、画像を時系列に取得し、画像の画素値に基づく輝度特定情報を求め、画像及び輝度特定情報に基づいて、動きベクトルを検出するステップをコンピュータに実行させ、動きベクトルの検出において、輝度特定情報により特定される輝度が小さいほど、動きベクトルの検出処理における、画像の高域周波数成分に対する低域周波数成分の相対的な寄与度を高くするプログラムに適用できる。
この場合には、CPU等のプロセッサがプログラムを実行することで、本実施形態の画像処理装置等が実現される。具体的には、非一時的な情報記憶装置に記憶されたプログラムが読み出され、読み出されたプログラムをCPU等のプロセッサが実行する。ここで、情報記憶装置(コンピュータにより読み取り可能な装置)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、CD等)、HDD(ハードディスクドライブ)、或いはメモリ(カード型メモリ、ROM等)などにより実現できる。そして、CPU等のプロセッサは、情報記憶装置に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち、情報記憶装置には、本実施形態の各部としてコンピュータ(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。
そして、上記プログラムは、情報記憶媒体に記録される。ここで、情報記録媒体としては、DVDやCD等の光ディスク、光磁気ディスク、ハードディスク(HDD)、不揮発性メモリーやRAM等のメモリーなど、画像処理装置によって読み取り可能な種々の記録媒体を想定できる。
各部が行う処理の一部をソフトウェアで構成する場合の一例として、予め取得された画像に対して、図1の補間処理部310、動きベクトル検出部320、ノイズ低減部330、表示画像生成部350の処理をソフトウェアで実現する場合の処理手順を、図9のフローチャートを用いて説明する。
この場合、まず同時化前画像を読み込んだ後(Step1)、現画像取得時の各種処理パラメーター等の制御情報を読み込む(Step2)。次に同時化前画像に対し補間処理を施しRGB画像を生成する。(Step3)。RGB画像及び後述のメモリに保持されている巡回RGB画像を用いて上述した手法で動きベクトルを検出する(Step4)。次に動きベクトル、RGB画像、及び巡回RGB画像用いて、上述の手法でRGB画像のノイズを低減する(Step5)。ノイズ低減後のRGB画像(NR画像)をメモリに格納する(Step6)。さらにNR画像に対してWB、γ処理等を施すことで表示画像を生成する(Step7)。最後に生成した表示画像を出力する(Step8)。全ての画像に対して一連の処理が完了した場合は処理を終了し、未処理画像が残っている場合は同様の処理を継続する(Step9)。
また、本実施形態の手法は、画像を時系列に取得し、画像の画素値に基づく輝度特定情報を求め、画像及び輝度特定情報に基づいて、動きベクトルを検出し、動きベクトルの検出において、輝度特定情報により特定される輝度が小さいほど、動きベクトルの検出処理における、画像の高域周波数成分に対する低域周波数成分の相対的な寄与度を高くする画像処理方法(画像処理装置の作動方法)に適用できる。
また、本実施形態の画像処理装置等は、具体的なハードウェア構成として、プロセッサとメモリを含んでもよい。ここでのプロセッサは、例えばCPU(Central Processing Unit)であってもよい。ただしプロセッサはCPUに限定されるものではなく、GPU(Graphics Processing Unit)、或いはDSP(Digital Signal Processor)等、各種のプロセッサを用いることが可能である。メモリはコンピュータにより読み取り可能な命令を格納するものであり、当該命令がプロセッサにより実行されることで、本実施形態に係る画像処理装置等の各部が実現されることになる。ここでのメモリは、SRAM、DRAMなどの半導体メモリであってもよいし、レジスターやハードディスク等でもよい。また、ここでの命令は、プログラムを構成する命令セットの命令である。
或いは、プロセッサはASIC(application specific integrated circuit)によるハードウェア回路でもよい。すなわちここでのプロセッサは、画像処理装置の各部が回路により構成されるプロセッサを含む。この場合、メモリに記憶される命令とは、プロセッサのハードウェア回路に対して動作を指示する命令であってもよい。
1.3 変形例
上述の例では、輝度特定情報として輝度信号を用いた。具体的には低域Y画像の画素値であるY_LPFcur(x,y)に基づいて、評価値の算出処理や、動きベクトルの補正処理を切り替える例を示した。しかし本実施形態における輝度特定情報とは、画像の輝度(明るさ)を特定できる情報であればよく、輝度信号そのものには限定されない。
例えば、輝度特定情報として、RGB画像のG信号を用いてもよいし、R信号、B信号を用いてもよい。或いは、R信号、G信号、B信号のうちの2つ以上を上式(2)とは異なる手法により組み合わせることで輝度特定情報を求めてもよい。
また、画像信号値に基づき推定したノイズ量を輝度特定情報としてもよい。ただし、画像から直接的にノイズ量を求めることは容易ではない。よって一例としては、画像から求められる情報とノイズ量との関係を先見情報としてあらかじめ取得しておき、当該先見情報を用いてノイズ量を推定するとよい。例えば、図8に示すようなノイズ特性を予め設定しておき、輝度信号をノイズ量に変換した後、当該ノイズ量に基づいて、上述の各種係数(Coef、Coef’、C)を制御すればよい。なお、ここでのノイズ量とは、ノイズの絶対量には限定されず、図8に示したように信号成分とノイズ成分の比(S/N比)を用いてもよい。S/N比が大きければ輝度が大きい場合の処理を行い、S/N比が小さければ輝度が小さい場合の処理を行えばよい。
また上述の例では、輝度信号に基づいて低域画像(Y_LPFcur、Y_LPFpre)の減算割合を制御することで、動き検出用画像(Y’cur、Y’pre)及び評価値に占める低域周波数成分の割合を制御する構成としたが、これには限定されない。
例えば、輝度画像に対し、公知のラプラシアンフィルタ等を用いて高域画像を生成し、当該高域画像を輝度画像に加算する構成としてもよい。本実施形態と同様に、輝度信号に基づき高域画像の加算割合を制御することで同様の効果を得ることが可能である。
具体的には、動きベクトル検出部320は、画像に対し、高域周波数成分に対応する帯域を少なくとも通過域に含むフィルタ処理を施した高周波画像(高域画像)を生成し、輝度特定情報により特定される輝度が小さい場合は、画像に対して第1の加算割合で高周波画像を加算することで動き検出用画像を生成し、輝度特定情報により特定される輝度が大きい場合は、画像に対して第1の加算割合に比べて大きい第2の加算割合で高周波画像を加算することで動き検出用画像を生成する。
このようにすれば、明部では高域周波数成分の割合が相対的に大きくなり、暗部では低域周波数成分の割合が相対的に大きくなるため、低域画像を減算する場合と同様の効果が期待できる。
なお、高域画像に含まれる空間周波数成分を、主要被写体の帯域に合わせて最適化することも可能である。例えば、RGB画像に対してバンドパスフィルタを施すことで高域画像を取得する場合において、バンドパスフィルタの通過域を主要被写体の帯域に合わせて最適化する。生体画像であれば、微細な生体構造(毛細血管等)に対応する空間周波数をバンドパスフィルタの通過域に含める。このようにすれば、明部では主要被写体に着目した動きベクトル検出が可能になるため、検出される動きベクトルの更なる精度向上も期待できる。
また上述の例では、動きベクトル検出部320で求められた動きベクトル(Vx(x,y),Vy(x,y))は、ノイズ低減部330でのNR処理に用いられるものとしたが、動きベクトルの用途はこれに限定されない。例えば、動きベクトルの算出対象である複数の画像として、ステレオ画像(視差画像)を用いてもよい。この場合、動きベクトルの大きさに基づいて視差を求めることで、被写体までの距離情報を求めること等が可能になる。
或いは、撮像部200においてオートフォーカスが行われる場合、当該オートフォーカスによる合焦動作、すなわち集光レンズ230(特にフォーカスレンズ)を動作させて被写体に合焦するレンズ位置を探索する動作を開始するトリガーとして、動きベクトルを用いてもよい。撮像部200と被写体が所与の位置関係にある状態で合焦動作を行った場合、当該位置関係の変化が小さい間は、所望被写体に合焦している状態が維持されると考えられるため、再度合焦動作を行う必要性が低い。よって、撮像部200と被写体の相対的な位置関係が変化したか否かを動きベクトルに基づいて判定し、動きベクトルが所与の閾値よりも大きい場合に合焦動作を開始することで、効率的なオートフォーカスを実現できる。
医療用の内視鏡システムでは、撮像画像にメスやカンシ等の処置具が撮像されることがある。内視鏡システムによる手技下では、主要被写体(生体、病変部)と撮像部200との位置関係が維持されており合焦動作が不要な状況であっても、処置具が動くことで動きベクトルが大きくなってしまうことが考えられる。その点、本実施形態の手法では局所的な動きベクトルを精度よく求めることが可能である。そのため、処置具のみが動いているのか、撮像部200と主要被写体との位置関係まで変化しているのかを精度よく判定でき、適切な状況で合焦動作を行うことが可能になる。一例としては、画像から求められた複数の動きベクトルのばらつき度合いを求めればよい。ばらつきが大きい場合とは、処置具と主要被写体とで動きが異なる状態、すなわち処置具は動いているが主要被写体は動きが少ない状態と推定できるため、合焦動作を実行しない。
2.第2の実施形態
2.1 システム構成例
本発明の第2の実施形態に係る内視鏡システムについて説明する。画像処理部300の動きベクトル検出部320以外は、第1の実施形態と同一のため説明を省略する。以降の説明においても、上述の構成と同一のものについては適宜説明を省略する。
第2の実施形態における動きベクトル検出部320の詳細を図10に示す。動きベクトル検出部320は、輝度画像算出部321と、フィルタ係数決定部327と、フィルタ処理部328と、評価値算出部324bと、動きベクトル算出部325と、グローバル動きベクトル算出部3213と、動きベクトル補正部326bと、合成割合算出部3211aを備えている。
補間処理部310は輝度画像算出部321に接続されている。フレームメモリ340は輝度画像算出部321に接続されている。輝度画像算出部321は、フィルタ係数決定部327と、フィルタ処理部328と、グローバル動きベクトル算出部3213に接続されている。フィルタ係数決定部327はフィルタ処理部328に接続されている。フィルタ処理部328は評価値算出部324bに接続されている。評価値算出部324bは動きベクトル算出部325に接続されている。動きベクトル算出部325は、動きベクトル補正部326bに接続されている。動きベクトル補正部326bは、ノイズ低減部330に接続されている。グローバル動きベクトル算出部3213と合成割合算出部3211aは、動きベクトル補正部326bに接続されている。制御部390は、動きベクトル検出部320を構成する各部に接続され、これらを制御する。
2.2 動きベクトル検出処理の詳細
輝度画像算出部321、グローバル動きベクトル算出部3213、及び動きベクトル算出部325は第1の実施形態と同様であるため詳細な説明は省略する。
フィルタ係数決定部327は、輝度画像算出部321から出力されるY画像Ycur(x,y)に基づいて、フィルタ処理部328で用いるフィルタ係数を決定する。例えば、Ycur(x,y)と、所与の輝度閾値Y1,Y2(Y1<Y2)に基づいて3種のフィルタ係数を切り替える。
具体的には、0≦Ycur(x,y)<Y1の場合にはフィルタAを選択し、Y1≦Ycur(x,y)<Y2の場合にはフィルタBを選択し、Y2≦Ycur(x,y)の場合にはフィルタCを選択する。ここで、フィルタA,フィルタB,フィルタCは図11(A)〜図11(C)で定義される。フィルタAは、図11(A)に示したように、処理対象画素と、周辺画素の単純平均を求めるフィルタである。フィルタBは、図11(B)に示したように、処理対象画素と、周辺画素の加重平均を求めるフィルタであり、フィルタAと比較した場合、処理対象画素の比率が相対的に高いフィルタである。図11(B)の例では、フィルタBはガウシアンフィルタである。フィルタCは、図11(C)に示したように、処理対象画素の画素値をそのまま出力値とするフィルタである。
図11(A)〜図11(C)に示したように、出力値に対する処理対象画素の寄与度はフィルタA<フィルタB<フィルタCとなる。すなわち、平滑化度合いはフィルタA>フィルタB>フィルタCとなり、輝度信号が小さいほど平滑化度合いが強いフィルタが選択される。なお、フィルタ係数、及び切り替え手法はこれに限定されない。Y1及びY2は所定値を設定しておいてもよいし、外部I/F部500でユーザが設定する構成としてもよい。
フィルタ処理部328は、フィルタ係数決定部327で決定されたフィルタ係数を用いて、輝度画像算出部321で算出されたY画像、及び巡回Y画像に対して平滑化処理を施して、平滑化Y画像、及び平滑化巡回Y画像を取得する。
評価値算出部324bは、平滑化Y画像、及び平滑化巡回Y画像を用いて評価値を算出する。算出手法はブロックマッチングで広く用いられる差分絶対値(SAD)和などを用いる。
動きベクトル補正部326bは、動きベクトル算出部325で算出された動きベクトル(Vx’(x,y),Vy’(x,y))に対し、補正処理を施す。具体的には下式(8)に示したように、動きベクトル(Vx’(x,y),Vy’(x,y))とグローバル動きベクトル算出部3213で算出されたグローバル動きベクトル(Gx,Gy)を合成し、最終的な動きベクトル(Vx(x,y)、Vy(x,y))を得る。
Vx(x,y) = {1-MixCoefV(x,y)}×Gx + MixCoefV(x,y)×Vx'(x,y)
Vy(x,y) = {1-MixCoefV(x,y)}×Gy + MixCoefV(x,y)×Vy'(x,y) …(8)
ここでMixCoefV(x,y)は、合成割合算出部3211aで算出される。合成割合算出部3211aは、輝度画像算出部321から出力される輝度信号に基づき、合成割合MixCoefV(x,y)を算出する。合成割合は輝度信号に連動して増加する特性を有し、例えば図5(A)、図5(B)で上述したCoef(x,y)と同様の特性とすることができる。
なお、ここでは動きベクトル(Vx’(x,y),Vy’(x,y))とグローバル動きベクトル(Gx,Gy)の合成比率をそれぞれMixCoefV、1−MixCoefとしたため、上式(8)は、上式(7)と同様の式となる。ただし輝度が小さいほど動きベクトル(Vx’(x,y),Vy’(x,y))の合成比率が相対的に小さくなればよく、合成比率は上式(8)に示したものには限定されない。
本実施形態の動きベクトル検出部320は、輝度特定情報により特定される輝度が小さい場合は、画像に対して第1の平滑化度合いである第1のフィルタ処理を施すことで動き検出用画像を生成し、輝度特定情報により特定される輝度が大きい場合は、画像に対して第1のフィルタ処理に比べて平滑化度合いが弱い第2のフィルタ処理を施すことで動き検出用画像を生成する。
ここで、互いに平滑化度合いが異なるフィルタの数は種々の変形実施が可能であり、フィルタ数を多くするほど、動き検出用画像に含まれる低域周波数成分の割合を細かく制御可能となる。ただし上述したように、フィルタ数を多くすることによるデメリットもあるため、具体的な数は許容される回路規模、処理時間、メモリ容量等に応じて決定するとよい。
また、平滑化度合いとは上述したように処理対象画素と周辺画素の寄与度に応じて決定される。例えば、図11(A)〜図11(C)に示したように、各画素に適用される係数(レート)を調整することで平滑化度合いを制御できる。また、図11(A)〜図11(C)では3×3のフィルタを示したが、フィルタサイズはこれに限定されず、フィルタサイズを変更することで平滑化度合いを制御可能である。例えば単純平均を取る平均化フィルタであっても、フィルタのサイズを大きくすれば平滑化度合いが強くなる。
以上に示した手法により、ノイズが多い暗部では強い平滑化処理が掛かり、ノイズを十分に低減した状態で動きベクトルを検出するため、ノイズによる誤検出を抑制できる。またノイズが少ない明部では、平滑化処理を弱める、若しくは平滑化しないことで動きベクトルの検出精度の劣化を抑止できる。
さらに、ノイズが多い暗部では上式(8)に示したように、基準ベクトル(グローバル動きベクトル)の寄与率を大きくすることで動きベクトルの誤検出による変動を抑え、実際の被写体に存在しない動き(アーティファクト)を抑制する効果がある。なお、第1の実施形態と同様に、基準ベクトルとしてグローバル動きベクトル以外のベクトル(例えばゼロベクトル)を用いてもよい。
2.3 変形例
本実施形態では、評価値算出に用いる動き検出用画像を平滑化処理で生成するものとしたが、これに限定されない。例えば、任意のバンドパスフィルタを用いて生成した高域画像と、平滑化処理で生成した平滑化画像(低域画像)を合成した合成画像を用いて評価値を検出する構成も可能である。輝度信号が小さい場合に、低域画像の合成率を大きくすることでノイズ耐性を向上できる。
また第1の実施形態の変形例と同様に、高域画像を生成するバンドパスフィルタの帯域を主要被写体の帯域に合わせて最適化することで、検出される動きベクトルの更なる精度向上も期待できる。
また、本実施形態についても第1の実施形態と同様に、画像処理部300が行う処理の一部又は全部をソフトウェアで構成してもよい。
3.第3の実施形態
3.1 システム構成例
本発明の第3の実施形態に係る内視鏡システムについて説明する。画像処理部300の動きベクトル検出部320以外は、第1の実施形態と同一のため説明を省略する。
第3の実施形態における動きベクトル検出部320の詳細を図12に示す。動きベクトル検出部320は、輝度画像算出部321と、低域画像生成部329と、高域画像生成部3210と、2つの評価値算出部324b,324b’(動作は同じ)と、2つの動きベクトル算出部325,325’(動作は同じ)と、合成割合算出部3211bと、動きベクトル合成部3212を備えている。
補間処理部310、及びフレームメモリ340は輝度画像算出部321に接続されている。輝度画像算出部321は、低域画像生成部329、高域画像生成部3210、合成割合算出部3211bに接続されている。低域画像生成部329は評価値算出部324bに接続されている。評価値算出部324bは動きベクトル算出部325に接続されている。高域画像生成部3210は評価値算出部324b’に接続されている。評価値算出部324b’は動きベクトル算出部325’に接続されている。動きベクトル算出部325、動きベクトル算出部325’、合成割合算出部3211bは動きベクトル合成部3212に接続されている。動きベクトル合成部3212はノイズ低減部330に接続されている。制御部390は、動きベクトル検出部320を構成する各部に接続され、これらを制御する。
3.2 動きベクトル検出処理の詳細
低域画像生成部329は、例えばガウシアンフィルタ(図11(B))を用いて輝度画像に平滑化処理を施し、生成した低域画像を評価値算出部324bに出力する。
高域画像生成部3210は、例えばラプラシアンフィルタ等を用いて輝度画像から高域周波数成分を抽出し、生成した高域画像を評価値算出部324b’に出力する。
評価値算出部324bは低域画像に基づき評価値を算出し、評価値算出部324b’は高域画像に基づき評価値を算出する。動きベクトル算出部325,325’は、評価値算出部324b、324b’から出力される各評価値から動きベクトルを算出する。
ここで、動きベクトル算出部325で算出される動きベクトルを(VxL(x,y)、VyL(x,y))とし、動きベクトル算出部325’で算出される動きベクトルを(VxH(x,y)、VyH(x,y))とする。(VxL(x,y)、VyL(x,y))は低域周波数成分に対応する動きベクトルであり、(VxH(x,y)、VyH(x,y))は高域周波数成分に対応する動きベクトルである。
合成割合算出部3211bは、輝度画像算出部321から出力される輝度信号に基づき、低域画像を基に算出した動きベクトルの合成割合MixCoef(x,y)を算出する。合成割合は輝度信号に連動して増加する特性を有し、例えば図5(A)、図5(B)で上述したCoef(x,y)と同様の特性とすることができる。
動きベクトル合成部3212は、合成割合MixCoef(x,y)に基づき前記2種類の動きベクトルを合成する。具体的には、下式(9)により、動きベクトル(Vx(x,y),Vy(x,y))を求める。
Vx(x,y) = {1-MixCoef(x,y)}×VxL(x,y) + MixCoef(x,y)×VxH(x,y)
Vy(x,y) = {1-MixCoef(x,y)}×VyL(x,y) + MixCoef(x,y)×VyH(x,y) …(9)
本実施形態の動きベクトル検出部320は、画像に基づき、周波数成分の異なる複数の動き検出用画像を生成し、複数の動き検出用画像の各々から検出された複数の動きベクトルを合成することで動きベクトルを検出する。そして動きベクトル検出部320は、輝度特定情報により特定される輝度が小さいほど、低域周波数成分に対応する動き検出用画像(低域画像)から検出した動きベクトルの合成率を相対的に大きくする。
以上に示した手法により、ノイズが多い暗部では、ノイズの影響が低減された低域画像を基に算出した動きベクトルが支配的となるため,誤検出を抑制できる。一方、ノイズが少ない明部では、高精度な動きベクトルを検出できる高域画像を基に算出した動きベクトルが支配的となり、高性能な動きベクトル検出が実現される。
以上、本発明を適用した3つの実施の形態、及びその変形例について説明したが、本発明は各実施の形態1〜3やその変形例にそのまま限定されるものではなく、実施段階では、発明の要旨を逸脱しない範囲内で構成要素を変形して具体化することができる。また上記した各実施の形態1〜3や変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、各実施の形態1〜3や変形例に記載した全構成要素からいくつかの構成要素を削除してもよい。さらに異なる実施の形態や変形例で説明した構成要素を適宜組み合わせてもよい。このように、発明の主旨を逸脱しない範囲内において、種々の変形や応用が可能である。
100…光源部、110…白色光源、120…レンズ、200…撮像部、
210…ライトガイドファイバ、220…照明レンズ、230…集光レンズ、
240…撮像素子、250…メモリ、300…画像処理部、310…補間処理部、
320…動きベクトル検出部、321…輝度画像算出部、322…低域画像算出部、
323…減算割合算出部、324a,324b,324b’…評価値算出部、
325,325’…動きベクトル算出部、326a,326b…動きベクトル補正部、
327…フィルタ係数決定部、328…フィルタ処理部、329…低域画像生成部、
330…ノイズ低減部、340…フレームメモリ、350…表示画像生成部、
390…制御部、400…表示部、500…外部I/F部、3210…高域画像生成部、
3211a,3211b…合成割合算出部、3212…動きベクトル合成部、
3213…グローバルベクトル算出部

Claims (15)

  1. 画像を時系列に取得する画像取得部と、
    前記画像の画素値に基づく輝度特定情報を求め、前記画像及び前記輝度特定情報に基づいて、動きベクトルを検出する動きベクトル検出部と、
    を含み、
    前記動きベクトル検出部は、
    前記輝度特定情報により特定される輝度が小さいほど、前記動きベクトルの検出処理における、前記画像の高域周波数成分に対する低域周波数成分の相対的な寄与度を高くすることを特徴とする画像処理装置。
  2. 請求項1において、
    前記動きベクトル検出部は、
    前記動きベクトルの検出処理に用いる動き検出用画像を、前記画像に基づき生成し、
    前記輝度特定情報により特定される前記輝度が小さい場合は、前記輝度が大きい場合に比べて、前記動き検出用画像に含まれる前記低域周波数成分の割合を高くすることを特徴とする画像処理装置。
  3. 請求項2において、
    前記動きベクトル検出部は、
    前記輝度特定情報により特定される前記輝度が小さい場合は、前記画像に対して第1の平滑化度合いである第1のフィルタ処理を施すことで前記動き検出用画像を生成し、
    前記輝度特定情報により特定される前記輝度が大きい場合は、前記画像に対して前記第1のフィルタ処理に比べて平滑化度合いが弱い第2のフィルタ処理を施すことで前記動き検出用画像を生成することを特徴とする画像処理装置。
  4. 請求項2において、
    前記動きベクトル検出部は、
    前記画像に対し所定の平滑化フィルタ処理を施した平滑化画像を生成し、
    前記輝度特定情報により特定される前記輝度が小さい場合は、前記画像から第1の減算割合で前記平滑化画像による減算を行うことで前記動き検出用画像を生成し、
    前記輝度特定情報により特定される前記輝度が大きい場合は、前記画像から前記第1の減算割合に比べて大きい第2の減算割合で前記平滑化画像による減算を行うことで前記動き検出用画像を生成することを特徴とする画像処理装置。
  5. 請求項2において、
    前記動きベクトル検出部は、
    前記画像に対し、前記高域周波数成分に対応する帯域を少なくとも通過域に含むフィルタ処理を施した高周波画像を生成し、
    前記輝度特定情報により特定される前記輝度が小さい場合は、前記画像に対して第1の加算割合で前記高周波画像を加算することで前記動き検出用画像を生成し、
    前記輝度特定情報により特定される前記輝度が大きい場合は、前記画像に対して前記第1の加算割合に比べて大きい第2の加算割合で前記高周波画像を加算することで前記動き検出用画像を生成することを特徴とする画像処理装置。
  6. 請求項1において、
    前記動きベクトル検出部は、
    時系列に取得される複数の前記画像間の差分を評価値として算出し、前記評価値に基づき前記動きベクトルを検出し、
    前記動きベクトル検出部は、
    前記輝度特定情報により特定される輝度が小さいほど、前記評価値の算出処理における、前記画像の前記高域周波数成分に対する前記低域周波数成分の相対的な寄与度を高くすることを特徴とする画像処理装置。
  7. 請求項6において、
    前記動きベクトル検出部は、
    所与の基準ベクトルが検出されやすくなるように、前記評価値を補正することを特徴とする画像処理装置。
  8. 請求項7において、
    前記動きベクトル検出部は、
    前記輝度特定情報により特定される輝度が小さいほど、前記基準ベクトルが検出されやすくなるように、前記評価値を補正することを特徴とする画像処理装置。
  9. 請求項6において、
    前記動きベクトル検出部は、
    前記評価値に基づき求められた前記動きベクトルに対する補正処理を行い、
    前記動きベクトル検出部は、
    前記輝度特定情報に基づいて、前記動きベクトルが所与の基準ベクトルに近づくように前記補正処理を行うことを特徴とする画像処理装置。
  10. 請求項9において、
    前記動きベクトル検出部は、
    前記輝度特定情報により特定される輝度が小さいほど、前記動きベクトルが所与の基準ベクトルに近づくように前記補正処理を行うことを特徴とする画像処理装置。
  11. 請求項7乃至10のいずれかにおいて、
    前記基準ベクトルは、
    前記評価値に基づき検出される前記動きベクトルに比べて、大域的な動きを表すグローバル動きベクトル、又は、ゼロベクトルであることを特徴とする画像処理装置。
  12. 請求項1において、
    前記動きベクトル検出部は、
    前記画像に基づき、周波数成分の異なる複数の動き検出用画像を生成し、複数の前記動き検出用画像の各々から検出された複数の動きベクトルを合成することで前記動きベクトルを検出し、
    前記動きベクトル検出部は、
    前記輝度特定情報により特定される輝度が小さいほど、前記低域周波数成分に対応する前記動き検出用画像から検出した前記動きベクトルの合成率を相対的に大きくすることを特徴とする画像処理装置。
  13. 画像を時系列に撮像する撮像部と、
    前記画像の画素値に基づく輝度特定情報を求め、前記画像及び前記輝度特定情報に基づいて、動きベクトルを検出する動きベクトル検出部と、
    を含み、
    前記動きベクトル検出部は、
    前記輝度特定情報により特定される輝度が小さいほど、前記動きベクトルの検出処理における、前記画像の高域周波数成分に対する低域周波数成分の相対的な寄与度を高くすることを特徴とする内視鏡システム。
  14. 画像を時系列に取得し、
    前記画像の画素値に基づく輝度特定情報を求め、
    前記画像及び前記輝度特定情報に基づいて、動きベクトルを検出する、
    ステップをコンピュータに実行させ、
    前記動きベクトルの検出において、
    前記輝度特定情報により特定される輝度が小さいほど、前記動きベクトルの検出処理における、前記画像の高域周波数成分に対する低域周波数成分の相対的な寄与度を高くすることを特徴とするプログラム。
  15. 画像取得部と、動きベクトル検出部と、を含む画像処理装置の作動方法であって、
    前記画像取得部が、画像を時系列に取得し、
    前記動きベクトル検出部が、前記画像の画素値に基づく輝度特定情報を求め、前記画像及び前記輝度特定情報に基づいて、動きベクトルを検出し、
    前記動きベクトルの検出において、
    前記動きベクトル検出部が、前記輝度特定情報により特定される輝度が小さいほど、前記動きベクトルの検出処理における、前記画像の高域周波数成分に対する低域周波数成分の相対的な寄与度を高くすることを特徴とする画像処理装置の作動方法。
JP2018528123A 2016-07-19 2016-07-19 画像処理装置、内視鏡システム、プログラム及び画像処理装置の作動方法 Active JP6653386B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/071159 WO2018016002A1 (ja) 2016-07-19 2016-07-19 画像処理装置、内視鏡システム、プログラム及び画像処理方法

Publications (2)

Publication Number Publication Date
JPWO2018016002A1 JPWO2018016002A1 (ja) 2019-05-09
JP6653386B2 true JP6653386B2 (ja) 2020-02-26

Family

ID=60992366

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018528123A Active JP6653386B2 (ja) 2016-07-19 2016-07-19 画像処理装置、内視鏡システム、プログラム及び画像処理装置の作動方法

Country Status (4)

Country Link
US (1) US20190142253A1 (ja)
JP (1) JP6653386B2 (ja)
CN (1) CN109561816B (ja)
WO (1) WO2018016002A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11722771B2 (en) * 2018-12-28 2023-08-08 Canon Kabushiki Kaisha Information processing apparatus, imaging apparatus, and information processing method each of which issues a notification of blur of an object, and control method for the imaging apparatus
JP7278092B2 (ja) * 2019-02-15 2023-05-19 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、撮像装置の制御方法、及びプログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06296276A (ja) * 1993-02-10 1994-10-21 Toshiba Corp 動き補償予測符号化装置の前処理装置
DE69834901T2 (de) * 1997-11-17 2007-02-01 Koninklijke Philips Electronics N.V. Bewegungskompensierte prädiktive bildcodierung und -decodierung
EP1316206A1 (en) * 2000-06-15 2003-06-04 Koninklijke Philips Electronics N.V. Noise filtering an image sequence
US8130277B2 (en) * 2008-02-20 2012-03-06 Aricent Group Method and system for intelligent and efficient camera motion estimation for video stabilization
EP2169592B1 (en) * 2008-09-25 2012-05-23 Sony Corporation Method and system for reducing noise in image data
JP4645746B2 (ja) * 2009-02-06 2011-03-09 ソニー株式会社 画像処理装置、画像処理方法および撮像装置
JP5558766B2 (ja) * 2009-09-24 2014-07-23 キヤノン株式会社 画像処理装置及びその制御方法
JP2011199716A (ja) * 2010-03-23 2011-10-06 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
JP5595121B2 (ja) * 2010-05-24 2014-09-24 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP5603676B2 (ja) * 2010-06-29 2014-10-08 オリンパス株式会社 画像処理装置及びプログラム
JP5639444B2 (ja) * 2010-11-08 2014-12-10 キヤノン株式会社 動きベクトル生成装置、動きベクトル生成方法及びコンピュータプログラム
US8988536B2 (en) * 2010-12-23 2015-03-24 Samsung Electronics Co., Ltd. Image processing circuit, method of operation thereof, and digital camera including same
US20130002842A1 (en) * 2011-04-26 2013-01-03 Ikona Medical Corporation Systems and Methods for Motion and Distance Measurement in Gastrointestinal Endoscopy
JP5816511B2 (ja) * 2011-10-04 2015-11-18 オリンパス株式会社 画像処理装置、内視鏡装置及び画像処理装置の作動方法
JP2014002635A (ja) * 2012-06-20 2014-01-09 Sony Corp 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2014187610A (ja) * 2013-03-25 2014-10-02 Sony Corp 画像処理装置、画像処理方法、プログラムおよび撮像装置
JP6147172B2 (ja) * 2013-11-20 2017-06-14 キヤノン株式会社 撮像装置、画像処理装置、画像処理方法、及びプログラム
JP6242230B2 (ja) * 2014-02-12 2017-12-06 オリンパス株式会社 画像処理装置、内視鏡装置、画像処理装置の作動方法及び画像処理プログラム

Also Published As

Publication number Publication date
CN109561816B (zh) 2021-11-12
JPWO2018016002A1 (ja) 2019-05-09
WO2018016002A1 (ja) 2018-01-25
CN109561816A (zh) 2019-04-02
US20190142253A1 (en) 2019-05-16

Similar Documents

Publication Publication Date Title
US9613402B2 (en) Image processing device, endoscope system, image processing method, and computer-readable storage device
JP5669529B2 (ja) 撮像装置、プログラム及びフォーカス制御方法
JP5562808B2 (ja) 内視鏡装置及びプログラム
JP6249769B2 (ja) 内視鏡装置、内視鏡装置の作動方法及びプログラム
JP6137921B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP7289653B2 (ja) 制御装置、内視鏡撮像装置、制御方法、プログラムおよび内視鏡システム
JP6825625B2 (ja) 画像処理装置および画像処理装置の作動方法、並びに医療用撮像システム
US20150334289A1 (en) Imaging device and method for controlling imaging device
TW201127028A (en) Method and apparatus for image stabilization
US10820787B2 (en) Endoscope device and focus control method for endoscope device
JP6453905B2 (ja) フォーカス制御装置、内視鏡装置及びフォーカス制御装置の制御方法
JP6259062B2 (ja) 画像処理装置、画像処理方法、及びプログラム
WO2017122287A1 (ja) 内視鏡装置及び内視鏡装置の作動方法
JP2013219744A (ja) 画像合成装置及び画像合成用コンピュータプログラム
JP2012239644A (ja) 画像処理装置、内視鏡装置、画像処理方法
JP6653386B2 (ja) 画像処理装置、内視鏡システム、プログラム及び画像処理装置の作動方法
US20200084380A1 (en) Blur correction device, endoscope apparatus, and blur correction method
JP2015150029A (ja) 画像処理装置、内視鏡装置、画像処理方法及び画像処理プログラム
JP6530067B2 (ja) 内視鏡装置及び内視鏡装置の作動方法
US9270883B2 (en) Image processing apparatus, image pickup apparatus, image pickup system, image processing method, and non-transitory computer-readable storage medium
JP2005182232A (ja) 輝度補正装置および輝度補正方法
JP6942892B2 (ja) 内視鏡装置、内視鏡装置の作動方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200127

R151 Written notification of patent or utility model registration

Ref document number: 6653386

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250