JP6723173B2 - 画像処理装置、方法およびプログラム - Google Patents

画像処理装置、方法およびプログラム Download PDF

Info

Publication number
JP6723173B2
JP6723173B2 JP2017022733A JP2017022733A JP6723173B2 JP 6723173 B2 JP6723173 B2 JP 6723173B2 JP 2017022733 A JP2017022733 A JP 2017022733A JP 2017022733 A JP2017022733 A JP 2017022733A JP 6723173 B2 JP6723173 B2 JP 6723173B2
Authority
JP
Japan
Prior art keywords
frame
processing target
past
motion vector
target frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017022733A
Other languages
English (en)
Other versions
JP2018129738A (ja
Inventor
紳 浜渦
紳 浜渦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2017022733A priority Critical patent/JP6723173B2/ja
Priority to US15/883,099 priority patent/US10672108B2/en
Publication of JP2018129738A publication Critical patent/JP2018129738A/ja
Application granted granted Critical
Publication of JP6723173B2 publication Critical patent/JP6723173B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20182Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Picture Signal Circuits (AREA)
  • Studio Devices (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Description

本発明は、動画像のノイズを低減するため画像処理装置、方法およびプログラムに関するものである。
時間軸方向に複数の静止画像、すなわちフレームが連続する動画像のノイズを低減するための各種手法が提案されている。例えば、時間軸方向にフレームを平滑化するリカーシブフィルタが一般的に用いられている。しかしながら、リカーシブフィルタを用いた手法では、動画像に含まれる被写体に動きがある場合、その動きに起因する残像が発生してしまうという問題がある。このため、このような残像の発生を抑えつつ、ノイズを低減するための手法が提案されている。
例えば、特許文献1には、処理対象フレームの直近の複数のフレームの位置合わせを行った上で複数のフレームを加算する手法が提案されている。また、特許文献2には、動画像におけるフレーム間の差分を算出して動画像における動きを表す動き信号を算出し、フレーム間の差分におけるノイズ成分を抽出し、動き信号からノイズ成分を減算して動き度合を示す信号を生成し、動き度合を示す信号に応じた巡回係数を算出し、巡回係数からノイズ巡回量を算出し、ノイズ巡回量を現在のフレームに加減算することにより、ノイズを低減する手法が提案されている。
一方、医療分野において、被写体の消化管または心臓等の動きを診断するために、X線の動画像を撮影することが行われている。このようなX線動画像においても、ノイズを低減することが望まれている。
特開2015−207809号公報 特開2007−274067号公報
上述したX線動画像を撮影する際には、被写体への被曝量を低減するために、X線量が低減されている。このため、X線動画像は粒状等のノイズが非常に多いものとなる。また、一般的な動画像においても、例えば光量が不足した状況等において撮影を行うと非常にノイズが多いものとなる。このようにノイズが多い動画像において、特許文献1に記載された手法を用いてフレーム間の位置合わせを行うと、ノイズの影響により物体の動きを精度よく検出できず、その結果、位置合わせに失敗してしまうおそれがある。このように位置合わせを精度よく行うことができないと、動画像に含まれる本来動いていない物体が動いているように見えるアーチファクトが発生してしまう。また、特許文献2に記載の手法においては、動き信号からノイズ成分を減算してノイズを低減するものであり、動画像に含まれる物体の動きを精度よく検出するものではない。
本発明は、上記事情に鑑みなされたものであり、動画像に含まれる物体の動きを精度よく検出して、動画像のノイズを低減できるようにすることを目的とする。
本発明による画像処理装置は、動画像を構成する複数のフレームのうち、処理対象フレームおよび処理対象フレームより時間的に前に取得された少なくとも1つの過去フレームから、処理対象フレームと少なくとも1つの過去フレームとの間の動きベクトルを算出する動きベクトル算出手段と、
処理対象フレームおよび少なくとも1つの過去フレームから、処理対象フレームと少なくとも1つの過去フレームとの間の動きの確からしさを表す指標値を算出する指標値算出手段と、
処理対象フレームと少なくとも1つの過去フレームとの間における動きベクトルを指標値により補正して補正動きベクトルを算出する補正手段と、
補正動きベクトルに基づいて、少なくとも1つの過去フレームを処理対象フレームに位置合わせする位置合わせ手段と、
処理対象フレームと位置合わせされた少なくとも1つの過去フレームとを合成して、合成フレームを生成する合成手段とを備えたことを特徴とするものである。
動画像は、1秒間に30枚あるいは60枚等のレートにより、静止画像を連続して撮影することにより構成される。本発明においては、動画像を構成する1つ1つの静止画像を「フレーム」と定義するものとする。
「処理対象フレーム」とは、動画像を構成する複数のフレームのうち、本発明の処理の対象となるフレームを意味する。
「動きの確からしさを表す指標値」とは、処理対象フレームおよび少なくとも1つの過去フレームに含まれる物体が、本当に動いているか否かを表すことを示す値を意味する。このため、指標値が大きければ、その物体は実際に動いており、指標値が小さければ、その物体は、動きベクトルが大きくても実際には動いていないものとなる。
なお、本発明による画像処理装置においては、過去フレームは、過去フレームについての合成フレームであってもよい。
「過去フレームについての合成フレーム」とは、過去フレームを処理対象フレームとして生成された合成フレームを意味する。
また、本発明による画像処理装置においては、指標値算出手段は、動画像に含まれる物体の大きさが大きく、かつ動きが大きいほど値が大きくなる指標値を算出するものであってもよい。
また、本発明による画像処理装置においては、指標値算出手段は、処理対象フレームと少なくとも1つの過去フレームとの対応する画素の差分値の絶対値を算出することにより、少なくとも1つの第1の差分画像を生成し、第1の差分画像から線構造を抽出し、線構造の大きさおよび動きに基づいて指標値を算出するものであってもよい。
「線構造」とは、差分画像において、画素が連続して存在する構造である。線構造は、差分画像に対して、例えば微分フィルタによるフィルタリング処理を行うことにより抽出することができる。
また、本発明による画像処理装置においては、過去フレームが、処理対象フレームと時間的に隣接する1つの直近過去フレームである場合において、指標値算出手段は、処理対象フレームと直近過去フレームとの対応する画素の差分値の絶対値を算出することにより第1の差分画像を生成し、第1の差分画像から線構造を抽出し、直近過去フレームを含む複数の過去フレームにおいて時間的に隣接する過去フレーム間の対応する画素の差分値の絶対値を算出することにより、少なくとも1つの第2の差分画像を生成し、少なくとも1つの第2の差分画像から線構造を抽出し、第1の差分画像から抽出された線構造の大きさおよび動き並びに少なくとも1つの第2の差分画像から抽出された線構造の大きさおよび動きに基づいて指標値を算出するものであってもよい。
この場合、指標値算出手段は、動画像のフレームレートが大きいほど、第2の差分画像の数を多くするものであってもよい。
「直近過去フレーム」とは、処理対象フレームに時間的に隣接する、すなわち、処理対象フレームの直前に取得されたフレームを意味する。
また、本発明による画像処理装置においては、指標値算出手段は、処理対象フレームと少なくとも1つの過去フレームとの間の動きベクトルを空間的に平滑化して指標値を算出するものであってもよい。
また、本発明による画像処理装置においては、過去フレームが、処理対象フレームと時間的に隣接する1つの直近過去フレームである場合において、過去フレームについての動きベクトルを記憶する記憶手段をさらに備え、
指標値算出手段は、処理対象フレームと直近過去フレームとの間の動きベクトルおよび過去フレームについての動きベクトルを、時間軸方向において平滑化して指標値を算出するものであってもよい。
また、本発明による画像処理装置においては、指標値算出手段は、正規化された指標値を算出し、
補正手段は、処理対象フレームと少なくとも1つの過去フレームとの間における動きベクトルに指標値を乗算することにより、補正動きベクトルを算出するものであってもよい。
また、本発明による画像処理装置においては、合成手段は、処理対象フレームと位置合わせされた少なくとも1つの過去フレームとを、対応する画素毎に加算平均して合成フレームを生成するものであってもよい。
また、本発明による画像処理装置においては、合成手段は、処理対象フレームと位置合わせされた少なくとも1つの過去フレームとの対応する画素の差分値の絶対値を算出し、差分値の絶対値が大きいほど処理対象フレームの重みを大きくして、処理対象フレームと位置合わせされた少なくとも1つの過去フレームとを重み付け加算することにより、合成フレームを生成するものであってもよい。
また、本発明による画像処理装置においては、処理対象フレームおよび少なくとも1つの過去フレームを複数の周波数帯域に分解する周波数帯域分解手段をさらに備え、
動きベクトル算出手段は、周波数帯域毎に処理対象フレームと少なくとも1つの過去フレームとの間の動きベクトルを算出し、
指標値算出手段は、周波数帯域毎に指標値を算出し、
補正手段は、周波数帯域毎に補正動きベクトルを算出し、
位置合わせ手段は、周波数帯域毎に少なくとも1つの過去フレームを処理対象フレームに位置合わせし、
合成手段は、周波数帯域毎に処理対象フレームと位置合わせされた少なくとも1つの過去フレームとを合成して帯域合成フレームを生成し、
周波数帯域毎に帯域合成フレームを周波数合成して合成フレームを生成する周波数合成手段をさらに備えるものであってもよい。
本発明による画像処理方法は、動画像を構成する複数のフレームのうち、処理対象フレームおよび処理対象フレームより時間的に前に取得された少なくとも1つの過去フレームから、処理対象フレームと少なくとも1つの過去フレームとの間の動きベクトルを算出し、
処理対象フレームおよび少なくとも1つの過去フレームから、処理対象フレームと少なくとも1つの過去フレームとの間の動きの確からしさを表す指標値を算出し、
処理対象フレームと少なくとも1つの過去フレームとの間における動きベクトルを指標値により補正して補正動きベクトルを算出し、
補正動きベクトルに基づいて、少なくとも1つの過去フレームを処理対象フレームに位置合わせし、
処理対象フレームと位置合わせされた少なくとも1つの過去フレームとを合成して、合成フレームを生成することを特徴とするものである。
なお、本発明による画像処理方法をコンピュータに実行させるためのプログラムとして提供してもよい。
本発明によれば、処理対象フレームと少なくとも1つの過去フレームとの間の動きベクトルが、フレーム間の動きの確からしさを表す指標値により補正されて補正動きベクトルが算出され、補正動きベクトルに基づいて、少なくとも1つの過去フレームが処理対象のフレームに位置合わせされる。ここで、動画像に含まれる物体がフレーム間において移動している場合、動きベクトルの大きさは大きく、かつ動きの確からしさも大きい。一方、動画像に含まれるノイズはフレーム間において動いているように見える場合があり、その場合は動きベクトルは大きくなるが、動きの確からしさは小さくなる。このため、動画像に含まれる実際に動いている物体については、補正動きベクトルの大きさは大きく、動いていないノイズ等については、補正動きベクトルの大きさは小さくなる。したがって、補正動きベクトルに基づいて、少なくとも1つの過去フレームを処理対象のフレームに位置合わせすると、動画像において実際に動いている物体のみが正確に位置合わせされることとなる。よって、合成フレームは、動画像に含まれる本来動いていない物体が動いているように見えるアーチファクトが低減され、かつ処理対象フレームに含まれる粒状等のノイズが低減されたものとなり、その結果、アーチファクトおよびノイズが低減された動画像を生成することができる。
本発明の第1の実施形態による画像処理装置を適用した放射線画像撮影システムの構成を示す概略ブロック図 第1の実施形態による画像処理装置の概略構成を示す図 動画像のフレームを示す図 動きベクトルの算出を説明するための図 第1の実施形態における指標値の算出を説明するための図 補正動きベクトルを示す図 位置合わせおよび合成を説明するための図 処理対象フレームと位置合わせされた直近過去フレームとの重み付け加算を説明するための図 第1の実施形態において行われる処理を示すフローチャート 第2の実施形態における指標値の算出を説明するための図 第4の実施形態における指標値の算出を説明するための図 第5の実施形態による画像処理装置の概略構成を示す図 周波数分解を説明するための図 周波数合成を説明するための図
以下、図面を参照して本発明の実施形態について説明する。図1は本発明の第1の実施形態による画像処理装置を適用した放射線画像撮影システムの構成を示す概略ブロック図である。図1に示すように、第1の実施形態による放射線画像撮影システムは、X線による動画像を撮影し、動画像に含まれる粒状等のノイズを低減する処理を行うためのものであり、撮影装置1と、第1の実施形態による画像処理装置を内包するコンピュータ2とを備える。
撮影装置1は、放射線源であるX線源3から発せられ、被写体Hを透過したX線を放射線検出器5に照射することにより、被写体Hの放射線画像を取得する撮影装置である。
放射線検出器5は、放射線画像の記録と読み出しを繰り返して行うことができるものであり、放射線の照射を直接受けて電荷を発生する、いわゆる直接型の放射線検出器を用いてもよいし、放射線を一旦可視光に変換し、その可視光を電荷信号に変換する、いわゆる間接型の放射線検出器を用いるようにしてもよい。また、放射線画像信号の読出方式としては、TFT(thin film transistor)スイッチをオン・オフさせることによって放射線画像信号が読み出される、いわゆるTFT読出方式のもの、または読取り光を照射することによって放射線画像信号が読み出される、いわゆる光読出方式のものを用いることが望ましいが、これに限らずその他のものを用いるようにしてもよい。
ここで、動画像の撮影時においては、低い線量のX線をX線源3から被写体Hに向けて照射し、被写体Hを透過したX線を放射線検出器5に照射しつつ、あらかじめ定められたフレームレートにより放射線検出器5から信号を読み出す。読み出された信号はコンピュータ2に入力され、被写体HのX線動画像として後述する表示部8に表示される。
なお、静止画像のみの撮影時においては、あらかじめ定められた線量のX線をX線源3から被写体Hに向けて照射し、被写体Hを透過したX線を放射線検出器5に照射して、放射線検出器5から信号を読み出すことにより、静止画像の放射線画像を取得する。
コンピュータ2には表示部8および入力部9が接続されている。表示部8は、CRT(Cathode Ray Tube)あるいは液晶ディスプレイ等からなり、撮影により取得された放射線画像およびコンピュータ2において行われる処理に必要な各種入力の補助を行う。入力部9は、キーボード、マウスまたはタッチパネル等からなる。
コンピュータ2には、第1の実施形態の画像処理プログラムがインストールされている。第1の実施形態においては、コンピュータは、操作者が直接操作するワークステーションあるいはパソコンでもよいし、それらとネットワークを介して接続されたサーバコンピュータでもよい。画像処理プログラムは、DVD(Digital Versatile Disc)、CD−ROM(Compact Disc Read Only Memory)等の記録媒体に記録されて配布され、その記録媒体からコンピュータにインストールされる。もしくは、ネットワークに接続されたサーバコンピュータの記憶装置、あるいはネットワークストレージに、外部からアクセス可能な状態で記憶され、要求に応じてコンピュータにダウンロードされ、インストールされる。
図2は、第1の実施形態において、コンピュータ2に画像処理プログラムをインストールすることにより実現された画像処理装置の概略構成を示す図である。図2に示すように、画像処理装置は、標準的なコンピュータの構成として、CPU(Central Processing Unit)21、メモリ22およびストレージ23を備えている。
ストレージ23は、ハードディスクまたはSSD(Solid State Drive)等のストレージデバイスからなり、撮影装置1の各部を駆動するためのプログラムおよび画像処理プログラムを含む各種情報が記憶されている。また、撮影により取得された放射線画像も記憶される。
メモリ22には、各種処理をCPU21に実行させるために、ストレージ23に記憶されたプログラム等が一時的に記憶される。画像処理プログラムは、CPU21に実行させる処理として、撮影装置1に撮影を行わせてX線の動画像を取得する画像取得処理、処理対象フレームおよび処理対象フレームより時間的に前に取得された少なくとも1つの過去フレームから、処理対象フレームと少なくとも1つの過去フレームとの間の動きベクトルを算出する動きベクトル算出処理、処理対象フレームおよび少なくとも1つの過去フレームから、処理対象フレームと少なくとも1つの過去フレームとの間の動きの確からしさを表す指標値を算出する指標値算出処理、処理対象フレームと少なくとも1つの過去フレームとの間における動きベクトルを指標値により補正して補正動きベクトルを算出する補正処理、補正動きベクトルに基づいて、少なくとも1つの過去フレームを処理対象フレームに位置合わせする位置合わせ処理、並びに処理対象フレームと位置合わせされた少なくとも1つの過去フレームとを合成して、合成フレームを生成する合成処理を規定している。
そして、CPU21が画像処理プログラムに従いこれらの処理を実行することで、コンピュータ2は、画像取得部31、動きベクトル算出部32、指標値算出部33、補正部34、位置合わせ部35および合成部36として機能する。なお、コンピュータ2は、画像取得処理、動きベクトル算出処理、指標値算出処理、補正処理、位置合わせ処理および合成処理をそれぞれ行うプロセッサまたは処理回路を備えるものであってもよい。
なお、本実施形態においては、動きベクトル算出処理においては、動画像を構成する複数のフレームのうち、処理対象フレームおよび処理対象フレームと時間的に隣接する直近過去フレームから、処理対象フレームと直近過去フレームとの間の動きベクトルを算出する。指標値算出処理においては、処理対象フレームおよび直近過去フレームから、フレーム間の動きの確からしさを表す指標値を算出する。位置合わせ処理においては、補正動きベクトルに基づいて、直近過去フレームを処理対象フレームに位置合わせする。合成処理においては、処理対象フレームと位置合わせされた直近過去フレームとを合成して、合成フレームを生成する。
画像取得部31は、X線源3を駆動して被写体HにX線を照射し、被写体Hを透過したX線を放射線検出器5により検出し、あらかじめ定められたフレームレートにより放射線検出器5から信号を読み出すことにより、複数のフレームからなるX線の動画像M0を取得する。したがって、動画像M0の取得とは、動画像M0を構成するフレームを順次取得することとなる。なお、画像処理プログラムとは別個のプログラムにより動画像M0を取得してストレージ23に保存するようにしてもよい。この場合、画像取得部31は、ストレージ23に保存された動画像M0を画像処理のためにストレージ23から読み出すものとなる。
動きベクトル算出部32は、処理対象フレームおよび処理対象フレームと時間的に隣接する直近過去フレームから、処理対象フレームと直近過去フレームとの間の動きベクトルを算出する。図3は動画像M0のフレームを示す図である。図3に示すように、動画像M0は複数のフレームからなる。なお、以降の説明においては、現在の時刻tにおいて最新のフレームFtが取得され、現在の時刻tよりも前の時刻t−1,t−2…においてフレームFt−1,Ft−2…が取得されたものとする。また、以降の説明においては、最新のフレームFtを処理対象フレームとし、最新のフレームFtに時間的に隣接するフレームFt−1を直近過去フレームとする。また、フレームFt−1,Ft−2…を直近過去フレームを含む複数の過去フレームとする。
動きベクトル算出部32は、テンプレートマッチング法またはオプティカルフロー推定法等の周知の方法を用いて、処理対象フレームFtと直近過去フレームFt−1との間の動きベクトルを算出する。例えば、テンプレートマッチング法を用いた場合、処理対象フレームFtの一部をテンプレートとして切り出し、このテンプレートが直近過去フレームFt−1のどこに存在するかを求め、その移動量および移動方向を動きベクトルとして算出する。
図4は動きベクトルの算出を説明するための図である。なお、図4において、矢印が動きベクトルを表す。図4に示すように、直近過去フレームFt−1に含まれる物体B0が処理対象フレームFtにおいて移動していた場合、動きベクトルVtは、物体B0が存在する領域においては、物体B0の動きの方向および動きの大きさを表すものとなる。なお、物体B0が存在する領域以外の領域においては、ノイズ等の影響により、ランダムな大きさの動きベクトルVtが、ランダムな方向を向いて存在するものとなる。なお、動きベクトルVtは処理対象フレームFtにおける各画素位置において算出される。
指標値算出部33は、処理対象フレームFtおよび直近過去フレームFt−1から、フレーム間の動きの確からしさを表す指標値を算出する。図5は第1の実施形態における指標値の算出を説明するための図である。指標値算出部33は、処理対象フレームFtと直近過去フレームFt−1との対応する画素の差分値の絶対値を算出することにより、差分画像Fs0を生成する。なお、差分画像Fs0が第1の差分画像となる。図5に示すように、差分画像Fs0には物体B0の構造およびノイズが含まれている。さらに、指標値算出部33は、差分画像Fs0から画素が連続して存在する線構造を抽出する。線構造は、例えば差分画像Fs0の上下左右方向に対して微分フィルタによるフィルタリング処理を行うことにより抽出することができる。
ここで、差分画像Fs0に含まれるノイズは画素が連続して存在しないが、動いている物体は画素が連続して存在する。このため、差分画像Fs0から線構造を抽出することにより生成される線構造画像FL0には、差分画像Fs0からノイズが除去され、動いている物体B0の線構造のみが含まれることとなる。このように線構造を抽出することにより、動画像M0に含まれる動いている物体の領域と動いていない物体の領域とを分離することができる。
そして、指標値算出部33は、線構造画像FL0における線構造間の動きベクトルを算出し、さらに動きベクトルの大きさの最大値を算出する。さらに指標値算出部33は、算出した動きベクトルを、動きベクトルの大きさの最大値によって正規化することにより、指標値C0を算出する。これにより、指標値C0は0〜1の値をとる。詳細には、動きの確からしさが大きいほど、指標値C0は1に近い値となる。なお、指標値C0も動きベクトルVtと同様に処理対象フレームFtにおける各画素位置において算出される。このようにして算出された指標値C0は、動画像M0に含まれる物体の大きさが大きく、かつ動きが大きいほど値が大きいものとなる。
ここで、「物体」とは動画像M内におけるエッジに囲まれた領域、またはエッジが連続している領域として表現される。エッジはエッジ検出フィルタ等によりフィルタリング処理を行うことにより抽出することができる。エッジ検出フィルタとしては、例えば、SobelフィルタおよびPrewittフィルタ等を用いることができる。物体の「大きさ」は、エッジに囲まれた領域内の画素数、または領域を直線で切ったときの最大長により表すことができる。
なお、指標値C0にしきい値を設定し、指標値C0がしきい値以下となる場合にはその指標値C0の値を0としてもよい。例えば、指標値C0が0.3以下となる場合には、その指標値C0を0としてもよい。なお、指標値C0がしきい値を超える場合には、その指標値C0の値を1としてもよい。
補正部34は、動きベクトルVtを指標値C0により補正して補正動きベクトルVtcを算出する。具体的には、指標値C0が0となる画素位置の動きベクトルVtを0に補正することにより、補正動きベクトルVtcを算出する。なお、指標値C0が0でない画素位置の補正動きベクトルVtcは動きベクトルVtそのものとする。図6は補正動きベクトルVtcを示す図である。
なお、各画素位置における動きベクトルVtに指標値C0を乗算することにより、補正動きベクトルVtcを算出するようにしてもよい。例えば、動きベクトルVtの大きさが処理対象フレームFtにおける2画素であり、指標値C0が0.2の場合、補正動きベクトルVtcの大きさは2×0.2=0.4画素となる。
位置合わせ部35は、補正動きベクトルVtcに基づいて、直近過去フレームFt−1を処理対象フレームFtに位置合わせする。
合成部36は、処理対象フレームFtと位置合わせされた直近過去フレームFt−1とを合成して、合成フレームFgを生成する。
図7は位置合わせおよび合成を説明するための図である。図7に示すように、位置合わせ部35は、補正動きベクトルVtcに基づいて、直近過去フレームFt−1を処理対象フレームFtに位置合わせする。具体的には、直近過去フレームFt−1を補正動きベクトルVtcにより変形して、位置合わせされた直近過去フレームFct−1を生成する。変形はアフィン変換等の周知の手法を用いればよい。これにより、位置合わせされた直近過去フレームFct−1において、移動する物体B0の位置は処理対象フレームFtにおける物体B0の位置と一致することとなる。なお、図7においては、位置合わせされた直近過去フレームFct−1において、変形前の物体B0を破線で示している。
合成部36は、処理対象フレームFtと位置合わせされた直近過去フレームFct−1とを、対応する画素毎に加算平均して合成フレームFgを生成する。なお、合成部36においては、処理対象フレームFtと位置合わせされた直近過去フレームFct−1とを単純に加算平均してもよいが、処理対象フレームFtと位置合わせされた直近過去フレームFct−1とを重みづけて加算してもよい。
例えば、処理対象フレームFtと位置合わせされた直近過去フレームFct−1との相対応する画素位置での差分値の絶対値を算出し、差分値の絶対値が大きいほど処理対象フレームFtの重みを大きくして、処理対象フレームFtと位置合わせされた直近過去フレームFct−1とを重み付け加算することにより、合成フレームFgを生成してもよい。
図8は処理対象フレームFtと位置合わせされた直近過去フレームFct−1との重み付け加算を説明するための図である。処理対象フレームFtと直近過去フレームFt−1とが精度よく位置合わせされていれば、処理対象フレームFtおよび位置合わせされた直近過去フレームFct−1に含まれる動いている物体B0の位置は一致する。しかしながら、処理対象フレームFtと直近過去フレームFt−1との位置合わせの精度が悪いと、処理対象フレームFtおよび位置合わせされた直近過去フレームFct−1に含まれる動いている物体B0の位置は一致しない。このため、処理対象フレームFtと位置合わせされた直近過去フレームFct−1との相対応する画素位置での差分値の絶対値を算出した場合、図8に示すように、差分値の絶対値を表す差分画像Fsc0において、精度よく位置合わされた領域においては、差分画像の画素値は破線で示すように0となり、位置合わせの精度が悪い領域においては実線で示すように値を有するものとなる。
このような場合、処理対象フレームFtと位置合わせされた直近過去フレームFct−1とを単純に加算平均すると、処理対象フレームFtと直近過去フレームFt−1との位置合わせが精度よく行われなかったことに起因するアーチファクトが発生する。このため、処理対象フレームFtと位置合わせされた直近過去フレームFct−1との相対応する画素位置での差分値の絶対値が大きい領域ほど、処理対象フレームFtの重みを大きくして処理対象フレームFtと位置合わせされた直近過去フレームFct−1とを重み付け加算することが好ましい。これにより、合成フレームFgにおいて、処理対象フレームFtと直近過去フレームFt−1との位置合わせが精度よく行われなかったことに起因するアーチファクトの発生を防止することができる。
次いで、第1の実施の形態において行われる処理について説明する。図9は第1の実施形態において行われる処理を示すフローチャートである。まず、画像取得部31が、放射線検出器5からX線の動画像M0を取得する(ステップST1)。次いで、動きベクトル算出部32が、動画像M0を構成する複数のフレームのうち、処理対象フレームFtおよび直近過去フレームFt−1から、処理対象フレームFtと直近過去フレームFt−1との間の動きベクトルVtを算出する(ステップST2)。さらに、指標値算出部33が、処理対象フレームFtおよび直近過去フレームFt−1から、フレーム間の動きの確からしさを表す指標値C0を算出する(ステップST3)。
そして、補正部34が、動きベクトルVtを指標値C0により補正して補正動きベクトルVtcを算出し(ステップST4)、位置合わせ部35が、補正動きベクトルVtcに基づいて、直近過去フレームFt−1を処理対象フレームFtに位置合わせし(ステップST5)、合成部36が、処理対象フレームFtと位置合わせされた直近過去フレームFct−1とを合成して、合成フレームFgを生成する(ステップST6)。生成された合成フレームFgは表示部8に動画像M0の1つのフレームとして表示され(ステップST7)、ステップST2にリターンする。これにより、動画像M0のフレームが取得される毎に、ステップST2〜ST6の処理が行われて、合成フレームFgが生成され、合成フレームFgからなる動画像M0が表示部8に表示される。
このように、本実施形態においては、処理対象フレームFtと直近過去フレームFt−1との間の動きベクトルVtを、フレーム間の動きの確からしさを表す指標値C0により補正して補正動きベクトルVtcを算出し、補正動きベクトルVtcに基づいて、直近過去フレームFt−1を処理対象フレームFtに位置合わせするようにしたものである。ここで、動画像M0に含まれる物体B0がフレーム間において移動している場合、動きベクトルVtの大きさは大きく、かつ動きの確からしさも大きい。一方、動画像M0に含まれるノイズはフレーム間において動いているように見える場合があり、その場合は動きベクトルVtは大きくなるが、動きの確からしさは小さくなる。このため、動画像M0に含まれる実際に動いている物体については、補正動きベクトルVtcは大きく、動いていないノイズ等については、補正動きベクトルVtcは小さくなる。したがって、補正動きベクトルVtcに基づいて、直近過去フレームFt−1を処理対象フレームFtに位置合わせすると、動画像M0において実際に動いている物体のみが正確に位置合わせされることとなる。よって、合成フレームFgは、動画像M0に含まれる本来動いていない物体B0が動いているように見えるアーチファクトが低減され、かつ処理対象フレームFtに含まれるノイズが低減されたものとなり、その結果、アーチファクトおよびノイズが低減された動画像M0を生成することができる。
次いで、本発明の第2の実施形態について説明する。なお、第2の実施形態による画像処理装置の構成は、上記第1の実施形態による画像処理装置の構成と同一であり、行われる処理のみが異なるため、構成についての詳細な説明は省略する。上記第1の実施形態においては、処理対象フレームFtおよび直近過去フレームFt−1を用いて指標値C0を算出しているが、第2の実施形態においては、処理対象フレームFtおよび直近過去フレームFt−1を含む複数の過去フレームを用いて指標値C0を算出するようにした点が第1の実施形態と異なる。
図10は第2の実施形態における指標値の算出を説明するための図である。第1の実施形態においては、処理対象フレームFtと直近過去フレームFt−1との対応する画素の差分値の絶対値を算出することにより、差分画像Fs0を生成している。第2の実施形態においては、さらに直近過去フレームFt−1とこれに時間的に隣接する過去フレームFt−2との対応する画素の差分値の絶対値を算出することにより、差分画像Fs1を生成する。なお、差分画像Fs1が第2の差分画像となる。図10に示すように、差分画像Fs1にも物体B0の構造およびノイズが含まれている。第2の実施形態において、指標値算出部33は、差分画像Fs0,Fs1から線構造を抽出する。これにより生成される線構造画像FL0,FL1は、差分画像Fs0,Fs1からノイズが除去され、動いている物体B0の線構造のみが含まれている。
第2の実施形態においては、指標値算出部33は、線構造画像FL0と線構造画像FL1とを比較し、線構造画像FL0において線構造が存在する領域A0を特定し、さらに線構造画像FL1において、領域A0に対応する領域A1を特定する。そして、指標値算出部33は、特定された領域A1の近傍に線構造が存在するか否かを判定する。具体的には、指標値算出部33は、線構造画像FL1における領域A1を、あらかじめ定められた倍率により拡大した領域A1−1を線構造画像FL1に設定し、領域A1−1に、線構造が含まれるか否かを判定する。そして、領域A1−1に線構造が含まれる場合には、特定された領域A1の近傍に線構造が存在すると判定し、線構造画像FL0において算出される線構造の動きベクトルを算出し、算出した動きベクトルの大きさを第1の実施形態と同様に正規化して指標値C0を算出する。上記判定が否定された場合には、線構造画像FL0において算出される線構造の動きベクトルを0とする。これにより、指標値C0は0となる。
このように指標値C0を算出することにより、動画像M0に含まれる物体B0の大きさが大きく、かつ動きが大きいほど値が大きくなる指標値C0を算出することができるため、合成フレームFgのアーチファクトをより低減することができる。
なお、第2の実施形態においては、フレームレートが大きいほど第2の差分画像の数を多くしてもよい。例えば、フレームレートが30fpsの場合には、上記と同様に、直近過去フレームFt−1とこれに時間的に隣接する過去フレームFt−2との差分画像Fs1のみを算出して指標値C0を算出し、フレームレートが60fpsの場合には、フレームレートが30fpsの場合よりもフレーム間での物体B0の動きが小さくなるため、さらに過去フレームFt−2とこれに時間的に隣接する過去フレームFt−3との差分画像Fs2を算出して指標値C0を算出するようにしてもよい。
この場合、まず、上記と同様に、差分画像Fs0から生成した線構造画像FL0と差分画像Fs1から生成した線構造画像FL1とを比較し、線構造画像FL0において線構造が存在する領域A0に対応する領域A1を線構造画像FL1において特定し、上記と同様に特定された領域A1の近傍に線構造が存在するか否かを判定する。特定された領域A1の近傍に線構造が存在する場合には、さらに、差分画像Fs1から生成した線構造画像FL1と差分画像Fs2から生成した線構造画像FL2とを比較し、線構造画像FL1において線構造が存在する領域に対応する領域を線構造画像FL2において特定し、特定された領域の近傍に線構造が存在するか否かを判定する。そして、特定された領域の近傍に線構造が存在する場合には、線構造画像FL0において算出される線構造の動きベクトルを算出し、算出した動きベクトルの大きさを第1の実施形態と同様に正規化して指標値C0を算出する。上記判定が否定された場合には、線構造画像FL0において算出される線構造の動きベクトルを0として、指標値C0を0とする。
このように、動画像M0のフレームレートが大きいほど第2の差分画像の数を多くすることにより、動画像M0に含まれる物体B0の大きさが大きく、かつ動き量が大きいほど値が大きくなる指標値C0をより確実に算出することができる。したがって、合成フレームFgのアーチファクトをより低減することができる。
なお、動画像M0のフレームレートが小さい場合には、上記第1の実施形態により指標値C0を算出し、フレームレートが大きい場合には、上記第2の実施形態により指標値C0を算出するようにしてもよい。例えば、フレームレートが30fpsの場合には、上記第1の実施形態により指標値C0を算出し、フレームレートが60fpsの場合には,上記第2の実施形態により指標値C0を算出してもよい。
次いで、本発明の第3の実施形態について説明する。なお、第3の実施形態による画像処理装置の構成は、上記第1の実施形態による画像処理装置の構成と同一であり、行われる処理のみが異なるため、構成についての詳細な説明は省略する。第3の実施形態においては、処理対象フレームFtと直近過去フレームFt−1との間の動きベクトルを空間的に平滑化して指標値C0を算出するようにした点が第1の実施形態と異なる。
第3の実施形態においては、指標値算出部33は、図4に示す動きベクトルVtを空間的に平滑化して指標値C0を算出する。例えば、予め定められたサイズ(例えば5×5)のローパスフィルタにより動きベクトルVtをフィルタリング処理することにより、動きベクトルVtを空間的に平滑化して指標値C0を算出する。なお、上記第1の実施形態と同様に、平滑化した動きベクトルVtの大きさの最大値により平滑化した動きベクトルを正規化することにより、指標値C0を算出することが好ましい。そして、補正部34は、動きベクトルVtを指標値C0により補正して補正動きベクトルVtcを算出する。
ここで、動画像M0に含まれる物体B0が動いている場合、その物体B0に対応する処理対象フレームFtと直近過去フレームFt−1との間の動きベクトルVtは、比較的大きくかつ同一の方向を向く。一方、動画像M0に含まれるノイズに対応する処理対象フレームFtと直近過去フレームFt−1との間の動きベクトルVtは、大きさに拘わらずランダムな方向を向く。このため、処理対象フレームFtと直近過去フレームFt−1との間の動きベクトルVtを、空間的に平滑化して指標値C0を算出することによっても、動画像M0に含まれる動いている物体B0について大きい値となり、ノイズについては小さい値となる指標値C0を算出することができる。したがって、このように算出した指標値C0を用いることにより、合成フレームFgのアーチファクトをより低減することができる。
次いで、本発明の第4の実施形態について説明する。なお、第4の実施形態による画像処理装置の構成は、上記第1の実施形態による画像処理装置の構成と同一であり、行われる処理のみが異なるため、構成についての詳細な説明は省略する。第4の実施形態においては、処理対象フレームFtと直近過去フレームFt−1との間の動きベクトル、および過去フレームについての動きベクトルを時間軸方向に平滑化して指標値C0を算出するようにした点が第1の実施形態と異なる。
ここで、第4実施形態においては、動画像M0に含まれるフレームに対して合成フレームFgが生成されており、そのため、各フレーム毎に動きベクトルが生成されている。第4の実施形態においては、各フレームについて生成された動きベクトルをストレージ23に記憶しておくものとする。
図11は第4の実施形態における指標値の算出を説明するための図である。図11に示すように、処理対象フレームFtについて動きベクトルVtが算出されている。また、複数の過去フレームFt−1,Ft−2…について、合成フレームFgの生成時に算出された動きベクトルVt−1,Vt−2…がストレージ23に記憶されている。第4の実施形態においては、指標値算出部33は、処理対象フレームFtについての動きベクトルVtおよび過去フレームについての動きベクトルVt−1,Vt−2…を時間軸方向に平滑化する。具体的には、処理対象フレームFtおよび過去フレームにおいて、対応する画素位置における動きベクトルを加算し、加算した動きベクトルの数で除算することにより、動きベクトルを平滑化して指標値C0を算出する。なお、上記第1の実施形態と同様に、平滑化した動きベクトルVtの大きさの最大値により平滑化した動きベクトルを正規化して指標値C0を算出することが好ましい。そして、補正部34は、動きベクトルVtを指標値C0により補正して補正動きベクトルVtcを算出する。
ここで、動画像M0に含まれる物体B0が動いている場合、その物体B0に対応する処理対象フレームFtと直近過去フレームFt−1との間の動きベクトルVtおよび過去フレームについての動きベクトルVt−1,Vt−2…は、比較的大きくかつ同一の方向を向く。一方、動画像M0に含まれるノイズに対応する処理対象フレームFtと直近過去フレームFt−1との間の動きベクトルVtおよび過去フレームについての動きベクトルVt−1,Vt−2…は、大きさに拘わらずランダムな方向を向く。このため、処理対象フレームFtと直近過去フレームFt−1との間の動きベクトルVtおよび過去フレームについての動きベクトルVt−1,Vt−2…を、時間軸方向に平滑化して指標値C0を算出することによっても、動画像M0に含まれる動いている物体B0について大きい値となる指標値C0を算出することができる。したがって、このように算出した指標値C0を用いることにより、合成フレームFgのアーチファクトをより低減することができる。
次いで、本発明の第5の実施形態について説明する。図12は、第5の実施形態において、コンピュータ2に画像処理プログラムをインストールすることにより実現された画像処理装置の概略構成を示す図である。なお、図12において図2と同一の構成については同一の参照番号を付与し、詳細な説明は省略する。第5の実施形態による画像処理装置は、処理対象フレームFtおよび直近過去フレームFt−1を複数の周波数帯域に分解する周波数分解部37と、後述するように周波数帯域毎に生成された帯域合成フレームを周波数合成して合成フレームを生成する周波数合成部38とをさらに備えた点が第1の実施形態と異なる。
図13は周波数分解部37が行う周波数分解を説明するための図である。なお、ここでは処理対象フレームFtに対する周波数分解について説明するが、直近過去フレームFt−1についても同様に周波数分解を行うことができる。まず、周波数分解部37は、処理対象フレームFtに対して、例えばσ=1のガウシアンフィルタによりフィルタリング処理を行って、処理対象フレームFtを1/2に縮小してガウシアン成分である縮小フレームFts−1を生成する。縮小フレームFts−1は処理対象フレームFtを1/2に縮小したものとなる。なお、以降の説明において、処理対象フレームFtを便宜上処理対象フレームFts−0と称する場合があるものとする。次いで、周波数分解部37は、例えば3次Bスプライン補間等の補間演算を行って、縮小フレームFts−1を処理対象フレームFtと同一サイズとなるように2倍に拡大し、拡大した縮小フレームFts−1を処理対象フレームFtから減算して、最高周波数帯域のラプラシアン成分である帯域フレームT−0を生成する。なお、本実施形態では、最高周波数帯域を便宜上第0の周波数帯域と称する。
次いで、周波数分解部37は、縮小フレームFts−1に対してσ=1のガウシアンフィルタによりフィルタリング処理を行って、縮小フレームFts−1を1/2に縮小して縮小フレームFts−2を生成し、縮小フレームFts−2を縮小フレームFts−1と同一サイズとなるように2倍に拡大し、拡大した縮小フレームFts−2を縮小フレームFts−1から減算して、第1の周波数帯域の帯域フレームT−1を生成する。さらに、所望とする周波数帯域の帯域フレームが生成されるまで上記の処理を繰り返すことにより、複数の周波数帯域の帯域フレームT−k(k=0〜a:aは帯域の数)を生成する。なお、これにより、最低周波数の縮小フレームFts−(a+1)も生成される。
ここで、縮小フレームの各画素の信号値はその画素の濃度を表し、帯域フレームT−kの各画素の信号値は、その画素におけるその周波数帯域の周波数成分の大きさを表すものとなる。なお、ウェーブレット変換等の他の多重解像度変換の手法を用いることにより、周波数帯域が異なる複数の帯域フレームT−kを生成してもよい。
第5の実施形態においては、動きベクトル算出部32は、周波数帯域毎に処理対象フレームFtと直近過去フレームFt−1との間の動きベクトルを算出する。すなわち、対応する周波数帯域において、処理対象フレームの帯域フレームと直近過去フレームの帯域フレームとの間の動きベクトルVtを算出する。なお、最低周波数帯域の縮小フレームについても同様に動きベクトルVtを算出する。
指標値算出部33は、周波数帯域毎に指標値C0を算出する。すなわち、対応する周波数帯域において、処理対象フレームの帯域フレームおよび直近過去フレームの帯域フレームから指標値C0を算出する。なお、最低周波数帯域の縮小フレームについても同様に指標値C0を算出する。
補正部34は、周波数帯域毎に補正動きベクトルVtcを算出する。すなわち、対応する周波数帯域において、動きベクトルVtを指標値C0により補正して補正動きベクトルVtcを算出する。なお、最低周波数帯域の縮小フレームについても同様に補正動きベクトルVtcを算出する。
位置合わせ部35は、周波数帯域毎に直近過去フレームを処理対象フレームに位置合せする。すなわち、対応する周波数帯域において、直近過去フレームFt−1の帯域フレームを、補正動きベクトルに基づいて処理対象フレームFtの帯域フレームに位置合せする。なお、最低周波数帯域の縮小フレームについても同様に位置合せする。
合成部36は、周波数帯域毎に処理対象フレームFtと位置合わせされた直近過去フレームFt−1とを合成する。すなわち、対応する周波数帯域において、処理対象フレームの帯域フレームと、位置合わせされた直近過去フレームFt−1の帯域フレームとを合成して、帯域合成フレームTg−kを生成する。なお、最低周波数帯域の縮小フレームについても同様に合成フレームを生成するが、この合成フレームを縮小合成フレームFgsと称するものとする。
ここで、合成部36においては、第1の実施形態と同様に加算平均により帯域合成フレームおよび縮小合成フレームを生成すればよい。なお、周波数帯域毎に処理対象フレームFtから生成した帯域フレームおよび縮小フレームと、直近過去フレームFt−1から生成した帯域フレームおよび縮小フレームとの加算比率を変更してもよい。例えば、低周波数帯域ほど、位置合わせが失敗した場合にアーチファクトが発生しやすいため、低周波数帯域ほど処理対象フレームから生成した帯域フレームおよび縮小フレームの重みを大きくして帯域合成フレームおよび縮小合成フレームを生成すればよい。
周波数合成部38は、周波数帯域毎に生成された帯域合成フレームを周波数合成して合成フレームを生成する。図14は周波数合成部38が行う周波数合成を説明するための図である。なお、本実施形態においては、第2の周波数帯域までの帯域合成フレームTg−0,Tg−1,Tg−2および第3の周波数帯域の縮小合成フレームFgs−3が生成されたものとする。
周波数合成部38は、縮小合成フレームFgs−3を2倍に拡大し、2倍に拡大した縮小合成フレームFgs−3と第2の周波数帯域の帯域合成フレームTg−2とを加算して縮小合成フレームFgs−2を生成する。次いで縮小合成フレームFgs−2を2倍に拡大し、2倍に拡大した縮小合成フレームFgs−2と第1の周波数帯域の帯域合成フレームTg−1とを加算して縮小合成フレームFgs−1を生成する。さらに、縮小合成フレームFgs−1を2倍に拡大し、2倍に拡大した縮小合成フレームFgs−1と第0の周波数帯域の帯域合成フレームTg−0とを加算して縮小合成フレームFgs−0すなわち合成フレームFgを生成する。
なお、上記各実施形態においては、直近過去フレームFt−1として、直近過去フレームFt−1を処理対象フレームとして生成された、直近過去フレームについての合成フレームを用いてもよい。とくに、位置合わせ部35において補正動きベクトルにより処理対象フレームFtと位置合わせされる直近過去フレームFt−1を、直近過去フレームFt−1についての合成フレームとすることが好ましい。これにより、処理対象フレームについての合成フレームのアーチファクトをより低減することができる。
とくに、第5の実施形態において、帯域合成フレームおよび帯域縮小フレームを生成するに際し、高周波数帯域ほどノイズが支配的になる。このため、直近過去フレームFt−1を直近過去フレームFt−1についての合成フレームとし、高周波数帯域ほど直近過去フレームFt−1についての合成フレームから生成した帯域フレームの重み付けを大きくして帯域合成フレームを生成することにより、ノイズがより低減された合成フレームを生成することができる。
また、上記各実施形態においては、直近過去フレームFt−1を処理対象フレームFtに位置合わせして合成フレームを生成している。しかしながら、直近過去フレームFt−1を含む複数の過去フレームを用いて合成フレームを生成してもよい。この場合、動きベクトル算出部32は、処理対象フレームFtと予め定められた数の過去フレームのそれぞれとの間の動きベクトルを算出する。例えば、使用する過去フレームが3つ、すなわち過去フレームFt−1,Ft−2,Ft−3である場合、処理対象フレームFtと過去フレームFt−1との間の動きベクトル、処理対象フレームFtと過去フレームFt−2との間の動きベクトル、および処理対象フレームFtと過去フレームFt−3との間の動きベクトルを算出する。指標値算出部33も、処理対象フレームFtと予め定められた数の過去フレームのそれぞれとの間の指標値C0を算出する。また、補正部34も、処理対象フレームと少なくとも1つの過去フレームとの間における動きベクトルを指標値C0により補正する。位置合わせ部35は、補正動きベクトルに基づいて、複数の過去フレームFt−1,Ft−2,Ft−3を処理対象フレームFtに位置合せする。この際、過去フレームFt−1,Ft−2,Ft−3のそれぞれについての合成フレームを用いるようにしてもよい。そして、周波数合成部38は、処理対象フレームFtと位置合わせされた過去フレームFt−1,Ft−2,Ft−3とを合成して合成フレームを生成する。
なお、処理対象フレームFtと位置合わせされた過去フレームとを重み付けて加算して合成フレームFgを生成する場合、まず、処理対象フレームFtと位置合わせされた過去フレームFct−3との相対応する画素位置での差分値の絶対値を算出し、差分値の絶対値が大きいほど処理対象フレームFtの重みを大きくして、処理対象フレームFtと位置合わせされた過去フレームFct−3とを重み付け加算することにより、合成フレームFg−2を生成する。次いで、合成フレームFg−2と位置合わせされた過去フレームFct−2との相対応する画素位置での差分値の絶対値を算出し、差分値の絶対値が大きいほど合成フレームFg−2の重みを大きくして、合成フレームFg−2と位置合わせされた過去フレームFct−2とを重み付け加算することにより、合成フレームFg−1を生成する。そして、合成フレームFg−1と位置合わせされた過去フレームFct−1との相対応する画素位置での差分値の絶対値を算出し、差分値の絶対値が大きいほど合成フレームFg−1の重みを大きくして、合成フレームFg−1と位置合わせされた過去フレームFct−1とを重み付け加算することにより、合成フレームFgを生成する。
また、上記各実施形態において、各画素位置における動きベクトルVtに指標値C0を乗算することにより、補正動きベクトルVtcを算出する場合は、指標値C0を0〜1の値に正規化することが好ましい。しかしながら、指標値C0が0となる画素位置の動きベクトルVtを0に、指標値C0が0でない画素位置の補正動きベクトルVtcを動きベクトルVtそのものとする場合等、動きベクトルVtに指標値C0を乗算することなく補正動きベクトルVtcを算出する場合においては、指標値C0を正規化しなくてもよいことはもちろんである。
また,上記実施形態においては、被写体HのX線動画像を処理の対象としているが、デジタルビデオカメラ等により取得された動画像を処理の対象としてもよいことはもちろんである。
以下、本実施形態の作用効果について説明する。
過去フレームを、過去フレームについての合成フレームとすることにより、処理対象フレームについての合成フレームのアーチファクトをより低減することができる。
動画像に含まれる物体の大きさが大きく、かつ動き量が大きいほど値が大きくなる指標値を算出することにより、合成フレームのアーチファクトをより低減することができる。
動画像において実際に動いている物体については、処理対象のフレームと少なくとも1つの過去フレームとの対応する画素の差分値の絶対値を算出することにより生成された第1の差分画像から抽出した線構造が比較的長く、かつ対応する線構造間の間隔が大きくなるため動きが大きいものとなる。したがって、第1の差分画像から抽出された線構造の大きさおよび動きに基づいて指標値を算出することにより、動画像に含まれる物体の大きさが大きく、かつ動き量が大きいほど値が大きくなる指標値を算出することができる。その結果、合成フレームのアーチファクトをより低減することができる。
動画像において実際に動いている物体については、処理対象のフレームと直近過去フレームとの対応する画素の差分値の絶対値を算出することにより生成された第1の差分画像から抽出した線構造が比較的長く、かつ対応する線構造間の間隔が大きくなるため動きが大きいものとなる。また、直近過去フレームを含む複数の過去フレームにおいて時間的に隣接する過去フレーム間の対応する画素の差分値の絶対値を算出することにより生成された、少なくとも1つの第2の差分画像においても、第2の差分画像から抽出した線構造が比較的長く、かつ対応する線構造間の間隔が大きくなるため動きが大きいものとなる。したがって、第1の差分画像から抽出された線構造の大きさおよび動き、並びに第2の差分画像から抽出された線構造の大きさおよび動きに基づいて指標値を算出することにより、動画像に含まれる物体の大きさが大きく、かつ動き量が大きいほど値が大きくなる指標値を算出することができる。その結果、合成フレームのアーチファクトをより低減することができる。
この場合において、動画像のフレームレートが大きいほど、フレーム間の間隔が小さくなるため、隣接するフレーム同士の差分画像には、動画像に含まれる動いている物体がより確実に含まれる。逆に、動画像のフレームレートが小さいほど、フレーム間の間隔が大きくなるため、隣接するフレーム同士の差分画像には、動画像に含まれる動いている物体が含まれる可能性が小さくなる。このため、動画像のフレームレートが大きいほど第2の差分画像の数を多くすることにより、動画像に含まれる物体の大きさが大きく、かつ動き量が大きいほど値が大きくなる指標値をより確実に算出することができる。その結果、合成フレームのアーチファクトをより低減することができる。
動画像に含まれる物体が動いている場合、その物体に対応する処理対象フレームと直近過去フレームとの間の動きベクトルおよび複数の過去フレームについての動きベクトルは、比較的大きくかつ同一の方向を向く。一方、動画像に含まれるノイズに対応する処理対象フレームと直近過去フレームとの間の動きベクトルおよび複数の過去フレームについての動きベクトルは、大きさに拘わらずランダムな方向を向く。このため、処理対象フレームと直近過去フレームとの間の動きベクトルおよび複数の過去フレームについての動きベクトルを、時間軸方向において平滑化して指標値を算出することにより、動画像に含まれる動いている物体について大きい値となる指標値を算出することができる。また、処理対象フレームと直近過去フレームとの間の動きベクトルを空間的に平滑化して指標値を算出することによっても、動画像に含まれる動いている物体について大きい値となる指標値を算出することができる。したがって、このように算出した指標値を用いることにより、合成フレームのアーチファクトをより低減することができる。
処理対象フレームと位置合わせされた少なくとも1つの過去フレームとの対応する画素の差分値の絶対値を算出し、差分値の絶対値が大きいほど処理対象フレームの重みを大きくして、処理対象フレームと位置合わせされた少なくとも1つの過去フレームとを重み付け加算して合成フレームを生成することにより、処理対象フレームにおいて位置合わせを精度よく行うことができた位置ほど処理対象フレームの重みが大きくされて合成フレームが生成される。このため、合成フレームにおいて、処理対象フレームと少なくとも1つの過去フレームとの位置合わせが精度よく行われなかったことに起因するアーチファクトの発生を防止することができる。
動画像を複数の周波数帯域に分解し、周波数帯域ごとに指標値の算出、補正動きベクトルの算出、位置合わせ、および合成を行い、合成されたフレームを周波数合成して合成フレームを生成することにより、動画像に含まれる物体の大きさに応じて物体の位置合わせを行うことができる。このため、アーチファクトがより低減された合成フレームを生成することができる。
1 撮影装置
2 コンピュータ
3 X線源
5 放射線検出器
8 表示部
9 入力部
21 CPU
22 メモリ
23 ストレージ
31 画像取得部
32 動きベクトル算出部
33 指標値算出部
34 補正部
35 位置合わせ部
36 合成部
37 周波数分解部
38 周波数合成部
Ft、Ft−1… フレーム
B0 物体
C0 指標値

Claims (23)

  1. 動画像を構成する複数のフレームのうち、処理対象フレームおよび該処理対象フレームより時間的に前に取得された少なくとも1つの過去フレームから、前記処理対象フレームと前記少なくとも1つの過去フレームとの間の動きベクトルを算出する動きベクトル算出手段と、
    前記処理対象フレーム前記少なくとも1つの過去フレームとの対応する画素の差分値の絶対値を算出することにより、少なくとも1つの第1の差分画像を生成し、該第1の差分画像から線構造を抽出し、該線構造の大きさおよび動きに基づいて、前記処理対象フレームと前記少なくとも1つの過去フレームとの間の動きの確からしさを表す指標値を算出する指標値算出手段と、
    前記処理対象フレームと前記少なくとも1つの過去フレームとの間における前記動きベクトルを前記指標値により補正して補正動きベクトルを算出する補正手段と、
    前記補正動きベクトルに基づいて、前記少なくとも1つの過去フレームを前記処理対象フレームに位置合わせする位置合わせ手段と、
    前記処理対象フレームと前記位置合わせされた前記少なくとも1つの過去フレームとを合成して、合成フレームを生成する合成手段とを備えたことを特徴とする画像処理装置。
  2. 前記指標値算出手段は、前記動画像に含まれる物体の大きさが大きく、かつ動きが大きいほど値が大きくなる前記指標値を算出する請求項1記載の画像処理装置。
  3. 動画像を構成する複数のフレームのうち、処理対象フレームおよび該処理対象フレームより時間的に前に取得された少なくとも1つの過去フレームから、前記処理対象フレームと前記少なくとも1つの過去フレームとの間の動きベクトルを算出する動きベクトル算出手段と、
    前記処理対象フレームと該処理対象フレームに時間的に隣接する1つの直近過去フレームとの対応する画素の差分値の絶対値を算出することにより第1の差分画像を生成し、該第1の差分画像から線構造を抽出し、前記直近過去フレームを含む複数の過去フレームにおいて時間的に隣接する過去フレーム間の対応する画素の差分値の絶対値を算出することにより、少なくとも1つの第2の差分画像を生成し、該少なくとも1つの第2の差分画像から線構造を抽出し、前記第1の差分画像から抽出された線構造の大きさおよび動き並びに前記少なくとも1つの第2の差分画像から抽出された線構造の大きさおよび動きに基づいて、前記処理対象フレームと前記少なくとも1つの過去フレームとの間の動きの確からしさを表す指標値であって、前記動画像に含まれる物体の大きさが大きく、かつ動きが大きいほど値が大きくなる指標値を算出する指標値算出手段と、
    前記処理対象フレームと前記少なくとも1つの過去フレームとの間における前記動きベクトルを前記指標値により補正して補正動きベクトルを算出する補正手段と、
    前記補正動きベクトルに基づいて、前記少なくとも1つの過去フレームを前記処理対象フレームに位置合わせする位置合わせ手段と、
    前記処理対象フレームと前記位置合わせされた前記少なくとも1つの過去フレームとを合成して、合成フレームを生成する合成手段とを備えことを特徴とする画像処理装置。
  4. 前記指標値算出手段は、前記動画像のフレームレートが大きいほど、前記第2の差分画像の数を多くする請求項記載の画像処理装置。
  5. 動画像を構成する複数のフレームのうち、処理対象フレームおよび該処理対象フレームより時間的に前に取得された少なくとも1つの過去フレームから、前記処理対象フレームと前記少なくとも1つの過去フレームとの間の動きベクトルを算出する動きベクトル算出手段と、
    前記処理対象フレーム前記少なくとも1つの過去フレームとの間の動きベクトルを空間的に平滑化して、前記処理対象フレームと前記少なくとも1つの過去フレームとの間の動きの確からしさを表す指標値を算出する指標値算出手段と、
    前記処理対象フレームと前記少なくとも1つの過去フレームとの間における前記動きベクトルを前記指標値により補正して補正動きベクトルを算出する補正手段と、
    前記補正動きベクトルに基づいて、前記少なくとも1つの過去フレームを前記処理対象フレームに位置合わせする位置合わせ手段と、
    前記処理対象フレームと前記位置合わせされた前記少なくとも1つの過去フレームとを合成して、合成フレームを生成する合成手段とを備えことを特徴とする画像処理装置。
  6. 動画像を構成する複数のフレームのうち、処理対象フレームおよび該処理対象フレームより時間的に前に取得された少なくとも1つの過去フレームであって、前記処理対象フレームと時間的に隣接する1つの直近過去フレームである少なくとも1つの過去フレームから、前記処理対象フレームと前記少なくとも1つの過去フレームとの間の動きベクトルを算出する動きベクトル算出手段と、
    前記過去フレームについての動きベクトルを記憶する記憶手段と、
    前記処理対象フレームと該処理対象フレームについての前記少なくとも1つの過去フレームとの間の動きベクトルおよび前記過去フレームについての動きベクトルを、時間軸方向において平滑化して、前記処理対象フレームと前記少なくとも1つの過去フレームとの間の動きの確からしさを表す指標値を算出する指標値算出手段と、
    前記処理対象フレームと前記少なくとも1つの過去フレームとの間における前記動きベクトルを前記指標値により補正して補正動きベクトルを算出する補正手段と、
    前記補正動きベクトルに基づいて、前記少なくとも1つの過去フレームを前記処理対象フレームに位置合わせする位置合わせ手段と、
    前記処理対象フレームと前記位置合わせされた前記少なくとも1つの過去フレームとを合成して、合成フレームを生成する合成手段とを備えことを特徴とする画像処理装置。
  7. 動画像を構成する複数のフレームのうち、処理対象フレームおよび該処理対象フレームより時間的に前に取得された少なくとも1つの過去フレームから、前記処理対象フレームと前記少なくとも1つの過去フレームとの間の動きベクトルを算出する動きベクトル算出手段と、
    前記処理対象フレームおよび前記少なくとも1つの過去フレームから、前記処理対象フレームと前記少なくとも1つの過去フレームとの間の動きの確からしさを表す、正規化された指標値を算出する指標値算出手段と、
    前記処理対象フレームと前記少なくとも1つの過去フレームとの間における前記動きベクトルに前記指標値を乗算することにより前記動きベクトルを補正して補正動きベクトルを算出する補正手段と、
    前記補正動きベクトルに基づいて、前記少なくとも1つの過去フレームを前記処理対象フレームに位置合わせする位置合わせ手段と、
    前記処理対象フレームと前記位置合わせされた前記少なくとも1つの過去フレームとを合成して、合成フレームを生成する合成手段とを備えことを特徴とする画像処理装置。
  8. 前記指標値算出手段は、前記動画像に含まれる物体の大きさが大きく、かつ動きが大きいほど値が大きくなる前記指標値を算出する請求項記載の画像処理装置。
  9. 前記指標値算出手段は、正規化された前記指標値を算出し、
    前記補正手段は、前記処理対象フレームと前記少なくとも1つの過去フレームとの間における前記動きベクトルに前記指標値を乗算することにより、前記補正動きベクトルを算出する請求項1からのいずれか1項記載の画像処理装置。
  10. 前記過去フレームは、該過去フレームについての合成フレームである請求項1からのいずれか1項記載の画像処理装置。
  11. 前記合成手段は、前記処理対象フレームと前記位置合わせされた少なくとも1つの過去フレームとを、対応する画素毎に加算平均して前記合成フレームを生成する請求項1から10のいずれか1項記載の画像処理装置。
  12. 前記合成手段は、前記処理対象フレームと前記位置合わせされた少なくとも1つの過去フレームとの対応する画素の差分値の絶対値を算出し、該差分値の絶対値が大きいほど前記処理対象フレームの重みを大きくして、前記処理対象フレームと前記位置合わせされた少なくとも1つの過去フレームとを重み付け加算することにより、前記合成フレームを生成する請求項1から11のいずれか1項記載の画像処理装置。
  13. 前記処理対象フレームおよび前記少なくとも1つの過去フレームを複数の周波数帯域に分解する周波数帯域分解手段をさらに備え、
    前記動きベクトル算出手段は、前記周波数帯域毎に前記処理対象フレームと前記少なくとも1つの過去フレームとの間の動きベクトルを算出し、
    前記指標値算出手段は、前記周波数帯域毎に前記指標値を算出し、
    前記補正手段は、前記周波数帯域毎に前記補正動きベクトルを算出し、
    前記位置合わせ手段は、前記周波数帯域毎に前記少なくとも1つの過去フレームを前記処理対象フレームに位置合わせし、
    前記合成手段は、前記周波数帯域毎に前記処理対象フレームと前記位置合わせされた少なくとも1つの過去フレームとを合成して帯域合成フレームを生成し、
    前記周波数帯域毎に前記帯域合成フレームを周波数合成して前記合成フレームを生成する周波数合成手段をさらに備えた請求項1から12のいずれか1項記載の画像処理装置。
  14. 動画像を構成する複数のフレームのうち、処理対象フレームおよび該処理対象フレームより時間的に前に取得された少なくとも1つの過去フレームから、前記処理対象フレームと前記少なくとも1つの過去フレームとの間の動きベクトルを算出し、
    前記処理対象フレーム前記少なくとも1つの過去フレームとの対応する画素の差分値の絶対値を算出することにより、少なくとも1つの第1の差分画像を生成し、該第1の差分画像から線構造を抽出し、該線構造の大きさおよび動きに基づいて、前記処理対象フレームと前記少なくとも1つの過去フレームとの間の動きの確からしさを表す指標値を算出し、
    前記処理対象フレームと前記少なくとも1つの過去フレームとの間における前記動きベクトルを前記指標値により補正して補正動きベクトルを算出し、
    前記補正動きベクトルに基づいて、前記少なくとも1つの過去フレームを前記処理対象フレームに位置合わせし、
    前記処理対象フレームと前記位置合わせされた前記少なくとも1つの過去フレームとを合成して、合成フレームを生成することを特徴とする画像処理方法。
  15. 動画像を構成する複数のフレームのうち、処理対象フレームおよび該処理対象フレームより時間的に前に取得された少なくとも1つの過去フレームから、前記処理対象フレームと前記少なくとも1つの過去フレームとの間の動きベクトルを算出し、
    前記処理対象フレームと該処理対象フレームに時間的に隣接する1つの直近過去フレームとの対応する画素の差分値の絶対値を算出することにより第1の差分画像を生成し、該第1の差分画像から線構造を抽出し、前記直近過去フレームを含む複数の過去フレームにおいて時間的に隣接する過去フレーム間の対応する画素の差分値の絶対値を算出することにより、少なくとも1つの第2の差分画像を生成し、該少なくとも1つの第2の差分画像から線構造を抽出し、前記第1の差分画像から抽出された線構造の大きさおよび動き並びに前記少なくとも1つの第2の差分画像から抽出された線構造の大きさおよび動きに基づいて、前記処理対象フレームと前記少なくとも1つの過去フレームとの間の動きの確からしさを表す指標値であって、前記動画像に含まれる物体の大きさが大きく、かつ動きが大きいほど値が大きくなる指標値を算出し、
    前記処理対象フレームと前記少なくとも1つの過去フレームとの間における前記動きベクトルを前記指標値により補正して補正動きベクトルを算出し、
    前記補正動きベクトルに基づいて、前記少なくとも1つの過去フレームを前記処理対象フレームに位置合わせし、
    前記処理対象フレームと前記位置合わせされた前記少なくとも1つの過去フレームとを合成して、合成フレームを生成することを特徴とする画像処理方法。
  16. 動画像を構成する複数のフレームのうち、処理対象フレームおよび該処理対象フレームより時間的に前に取得された少なくとも1つの過去フレームから、前記処理対象フレームと前記少なくとも1つの過去フレームとの間の動きベクトルを算出し、
    前記処理対象フレーム前記少なくとも1つの過去フレームとの間の動きベクトルを空間的に平滑化して、前記処理対象フレームと前記少なくとも1つの過去フレームとの間の動きの確からしさを表す指標値を算出し、
    前記処理対象フレームと前記少なくとも1つの過去フレームとの間における前記動きベクトルを前記指標値により補正して補正動きベクトルを算出し、
    前記補正動きベクトルに基づいて、前記少なくとも1つの過去フレームを前記処理対象フレームに位置合わせし、
    前記処理対象フレームと前記位置合わせされた前記少なくとも1つの過去フレームとを合成して、合成フレームを生成することを特徴とする画像処理方法。
  17. 動画像を構成する複数のフレームのうち、処理対象フレームおよび該処理対象フレームより時間的に前に取得された少なくとも1つの過去フレームであって、前記処理対象フレームと時間的に隣接する1つの直近過去フレームである少なくとも1つの過去フレームから、前記処理対象フレームと前記少なくとも1つの過去フレームとの間の動きベクトルを算出し、
    前記処理対象フレームと該処理対象フレームについての前記少なくとも1つの過去フレームとの間の動きベクトルおよび記憶手段に記憶された前記過去フレームについての動きベクトルを、時間軸方向において平滑化して、前記処理対象フレームと前記少なくとも1つの過去フレームとの間の動きの確からしさを表す指標値を算出し、
    前記処理対象フレームと前記少なくとも1つの過去フレームとの間における前記動きベクトルを前記指標値により補正して補正動きベクトルを算出し、
    前記補正動きベクトルに基づいて、前記少なくとも1つの過去フレームを前記処理対象フレームに位置合わせし、
    前記処理対象フレームと前記位置合わせされた前記少なくとも1つの過去フレームとを合成して、合成フレームを生成することを特徴とする画像処理方法。
  18. 動画像を構成する複数のフレームのうち、処理対象フレームおよび該処理対象フレームより時間的に前に取得された少なくとも1つの過去フレームから、前記処理対象フレームと前記少なくとも1つの過去フレームとの間の動きベクトルを算出し、
    前記処理対象フレームおよび前記少なくとも1つの過去フレームから、前記処理対象フレームと前記少なくとも1つの過去フレームとの間の動きの確からしさを表す、正規化された指標値を算出し、
    前記処理対象フレームと前記少なくとも1つの過去フレームとの間における前記動きベクトルに前記指標値を乗算することにより前記動きベクトルを補正して補正動きベクトルを算出し、
    前記補正動きベクトルに基づいて、前記少なくとも1つの過去フレームを前記処理対象フレームに位置合わせし、
    前記処理対象フレームと前記位置合わせされた前記少なくとも1つの過去フレームとを合成して、合成フレームを生成することを特徴とする画像処理方法。
  19. 動画像を構成する複数のフレームのうち、処理対象フレームおよび該処理対象フレームより時間的に前に取得された少なくとも1つの過去フレームから、前記処理対象フレームと前記少なくとも1つの過去フレームとの間の動きベクトルを算出する手順と、
    前記処理対象フレーム前記少なくとも1つの過去フレームとの対応する画素の差分値の絶対値を算出することにより、少なくとも1つの第1の差分画像を生成し、該第1の差分画像から線構造を抽出し、該線構造の大きさおよび動きに基づいて、前記処理対象フレームと前記少なくとも1つの過去フレームとの間の動きの確からしさを表す指標値を算出する手順と、
    前記処理対象フレームと前記少なくとも1つの過去フレームとの間における前記動きベクトルを前記指標値により補正して補正動きベクトルを算出する手順と、
    前記補正動きベクトルに基づいて、前記少なくとも1つの過去フレームを前記処理対象フレームに位置合わせする手順と、
    前記処理対象フレームと前記位置合わせされた前記少なくとも1つの過去フレームとを合成して、合成フレームを生成する手順とをコンピュータに実行させることを特徴とする画像処理プログラム。
  20. 動画像を構成する複数のフレームのうち、処理対象フレームおよび該処理対象フレームより時間的に前に取得された少なくとも1つの過去フレームから、前記処理対象フレームと前記少なくとも1つの過去フレームとの間の動きベクトルを算出する手順と、
    前記処理対象フレームと該処理対象フレームに時間的に隣接する1つの直近過去フレームとの対応する画素の差分値の絶対値を算出することにより第1の差分画像を生成し、該第1の差分画像から線構造を抽出し、前記直近過去フレームを含む複数の過去フレームにおいて時間的に隣接する過去フレーム間の対応する画素の差分値の絶対値を算出することにより、少なくとも1つの第2の差分画像を生成し、該少なくとも1つの第2の差分画像から線構造を抽出し、前記第1の差分画像から抽出された線構造の大きさおよび動き並びに前記少なくとも1つの第2の差分画像から抽出された線構造の大きさおよび動きに基づいて、前記処理対象フレームと前記少なくとも1つの過去フレームとの間の動きの確からしさを表す指標値であって、前記動画像に含まれる物体の大きさが大きく、かつ動きが大きいほど値が大きくなる指標値を算出する手順と、
    前記処理対象フレームと前記少なくとも1つの過去フレームとの間における前記動きベクトルを前記指標値により補正して補正動きベクトルを算出する手順と、
    前記補正動きベクトルに基づいて、前記少なくとも1つの過去フレームを前記処理対象フレームに位置合わせする手順と、
    前記処理対象フレームと前記位置合わせされた前記少なくとも1つの過去フレームとを合成して、合成フレームを生成する手順とをコンピュータに実行させことを特徴とする画像処理プログラム。
  21. 動画像を構成する複数のフレームのうち、処理対象フレームおよび該処理対象フレームより時間的に前に取得された少なくとも1つの過去フレームから、前記処理対象フレームと前記少なくとも1つの過去フレームとの間の動きベクトルを算出する手順と、
    前記処理対象フレーム前記少なくとも1つの過去フレームとの間の動きベクトルを空間的に平滑化して、前記処理対象フレームと前記少なくとも1つの過去フレームとの間の動きの確からしさを表す指標値を算出する手順と、
    前記処理対象フレームと前記少なくとも1つの過去フレームとの間における前記動きベクトルを前記指標値により補正して補正動きベクトルを算出する手順と、
    前記補正動きベクトルに基づいて、前記少なくとも1つの過去フレームを前記処理対象フレームに位置合わせする手順と、
    前記処理対象フレームと前記位置合わせされた前記少なくとも1つの過去フレームとを合成して、合成フレームを生成する手順とをコンピュータに実行させことを特徴とする画像処理プログラム。
  22. 動画像を構成する複数のフレームのうち、処理対象フレームおよび該処理対象フレームより時間的に前に取得された少なくとも1つの過去フレームであって、前記処理対象フレームと時間的に隣接する1つの直近過去フレームである少なくとも1つの過去フレームから、前記処理対象フレームと前記少なくとも1つの過去フレームとの間の動きベクトルを算出する手順と、
    前記処理対象フレームと該処理対象フレームについての前記少なくとも1つの過去フレームとの間の動きベクトルおよび記憶手段に記憶された前記過去フレームについての動きベクトルを、時間軸方向において平滑化して、前記処理対象フレームと前記少なくとも1つの過去フレームとの間の動きの確からしさを表す指標値を算出する手順と、
    前記処理対象フレームと前記少なくとも1つの過去フレームとの間における前記動きベクトルを前記指標値により補正して補正動きベクトルを算出する手順と、
    前記補正動きベクトルに基づいて、前記少なくとも1つの過去フレームを前記処理対象フレームに位置合わせする手順と、
    前記処理対象フレームと前記位置合わせされた前記少なくとも1つの過去フレームとを合成して、合成フレームを生成する手順とをコンピュータに実行させことを特徴とする画像処理プログラム。
  23. 動画像を構成する複数のフレームのうち、処理対象フレームおよび該処理対象フレームより時間的に前に取得された少なくとも1つの過去フレームから、前記処理対象フレームと前記少なくとも1つの過去フレームとの間の動きベクトルを算出する手順と、
    前記処理対象フレームおよび前記少なくとも1つの過去フレームから、前記処理対象フレームと前記少なくとも1つの過去フレームとの間の動きの確からしさを表す、正規化された指標値を算出する手順と、
    前記処理対象フレームと前記少なくとも1つの過去フレームとの間における前記動きベクトルに前記指標値を乗算することにより前記動きベクトルを補正して補正動きベクトルを算出する手順と、
    前記補正動きベクトルに基づいて、前記少なくとも1つの過去フレームを前記処理対象フレームに位置合わせする手順と、
    前記処理対象フレームと前記位置合わせされた前記少なくとも1つの過去フレームとを合成して、合成フレームを生成する手順とをコンピュータに実行させことを特徴とする画像処理プログラム。
JP2017022733A 2017-02-10 2017-02-10 画像処理装置、方法およびプログラム Active JP6723173B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017022733A JP6723173B2 (ja) 2017-02-10 2017-02-10 画像処理装置、方法およびプログラム
US15/883,099 US10672108B2 (en) 2017-02-10 2018-01-30 Image processing apparatus, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017022733A JP6723173B2 (ja) 2017-02-10 2017-02-10 画像処理装置、方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2018129738A JP2018129738A (ja) 2018-08-16
JP6723173B2 true JP6723173B2 (ja) 2020-07-15

Family

ID=63105330

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017022733A Active JP6723173B2 (ja) 2017-02-10 2017-02-10 画像処理装置、方法およびプログラム

Country Status (2)

Country Link
US (1) US10672108B2 (ja)
JP (1) JP6723173B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019212138A (ja) * 2018-06-07 2019-12-12 コニカミノルタ株式会社 画像処理装置、画像処理方法及びプログラム
JP7167564B2 (ja) * 2018-09-05 2022-11-09 株式会社島津製作所 X線撮影装置およびx線撮影装置の作動方法
FR3095713B1 (fr) * 2019-04-30 2021-05-07 Ulis Procédé et dispositif pour retirer la rémanence dans une image infrarouge d'une scène changeante
FR3095714B1 (fr) * 2019-04-30 2021-05-07 Ulis Procédé et dispositif pour retirer la rémanence dans une image infrarouge d'une scène statique
CN112887583B (zh) * 2019-11-30 2022-07-22 华为技术有限公司 一种拍摄方法及电子设备
KR20210116953A (ko) 2020-03-18 2021-09-28 삼성전자주식회사 타겟 트래킹 방법 및 장치
CN111524067B (zh) * 2020-04-01 2023-09-12 北京东软医疗设备有限公司 一种图像处理方法、装置和设备
JP7447680B2 (ja) 2020-06-02 2024-03-12 コニカミノルタ株式会社 超音波診断装置、超音波診断装置の制御プログラム、及び、超音波診断装置の制御方法
JP7487566B2 (ja) 2020-06-03 2024-05-21 コニカミノルタ株式会社 プログラム、画像処理装置及び画像処理方法

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69322423T2 (de) * 1992-03-13 1999-06-02 Canon Kk Vorrichtung zur Detektion von Bewegungsvektoren
US5929919A (en) * 1994-04-05 1999-07-27 U.S. Philips Corporation Motion-compensated field rate conversion
KR100197371B1 (ko) * 1995-12-19 1999-06-15 전주범 대역 분할 부호화 시스템의 움직임 추정 장치
KR19990005282A (ko) * 1997-06-30 1999-01-25 배순훈 웨이브렛 변환 영역에서의 패턴 분류를 이용한 계층적 움직임 추정 방법
JPH1175184A (ja) * 1997-08-28 1999-03-16 Sanyo Electric Co Ltd 画像符号化装置及び画像符号化方法
US7720295B2 (en) * 2004-06-29 2010-05-18 Sanyo Electric Co., Ltd. Method and apparatus for coding images with different image qualities for each region thereof, and method and apparatus capable of decoding the images by adjusting the image quality
WO2006122009A2 (en) * 2005-05-09 2006-11-16 Lockheed Martin Corporation Continuous extended range image processing
EP1915860A2 (en) * 2005-08-12 2008-04-30 Nxp B.V. Method and system for digital image stabilization
JPWO2007074605A1 (ja) * 2005-12-26 2009-06-04 株式会社ニコン 画像処理方法、画像処理プログラム、画像処理装置、及び撮像装置
JP2007274067A (ja) 2006-03-30 2007-10-18 Mitsubishi Electric Corp ノイズ除去装置、ノイズ除去方法、および映像信号表示装置
JP4506875B2 (ja) * 2008-05-19 2010-07-21 ソニー株式会社 画像処理装置および画像処理方法
JP5074322B2 (ja) * 2008-08-05 2012-11-14 オリンパス株式会社 画像処理装置、画像処理方法、画像処理プログラム、及び、撮像装置
JP5202277B2 (ja) * 2008-12-18 2013-06-05 キヤノン株式会社 撮像装置
US20100309980A1 (en) * 2009-06-03 2010-12-09 Kabushiki Kaisha Toshiba Apparatus and method for processing image
JP2010288006A (ja) * 2009-06-10 2010-12-24 Sharp Corp 動画像データ処理装置、撮像装置および動画像再生装置
JP2011114407A (ja) * 2009-11-24 2011-06-09 Sony Corp 画像処理装置、画像処理方法、プログラム及び記録媒体
JP2011182084A (ja) * 2010-02-26 2011-09-15 Olympus Corp 画像処理装置および画像処理プログラム
JP2011217311A (ja) * 2010-04-02 2011-10-27 Canon Inc 撮像装置および撮像装置の制御方法
JP2012090216A (ja) * 2010-10-22 2012-05-10 Canon Inc 撮像装置及び撮像装置の制御方法
JP5841345B2 (ja) * 2011-04-06 2016-01-13 オリンパス株式会社 画像処理装置、画像処理方法、画像処理プログラム、及び、撮像装置
JP2012238212A (ja) * 2011-05-12 2012-12-06 Sony Corp 加算比率学習装置および方法、画像処理装置および方法、プログラム、並びに記録媒体
WO2014080833A1 (ja) * 2012-11-21 2014-05-30 株式会社東芝 超音波診断装置、画像処理装置及び画像処理方法
JP2014187610A (ja) * 2013-03-25 2014-10-02 Sony Corp 画像処理装置、画像処理方法、プログラムおよび撮像装置
KR20150069413A (ko) * 2013-12-13 2015-06-23 삼성디스플레이 주식회사 표시 장치 및 그 구동 방법
JP2015207809A (ja) 2014-04-17 2015-11-19 株式会社ニコン 撮像装置
US9031138B1 (en) * 2014-05-01 2015-05-12 Google Inc. Method and system to combine multiple encoded videos for decoding via a video docoder
CN104270561A (zh) * 2014-08-01 2015-01-07 Tcl通讯(宁波)有限公司 移动终端自动调节Camera帧率的方法及移动终端
WO2016022374A1 (en) * 2014-08-05 2016-02-11 Seek Thermal, Inc. Local contrast adjustment for digital images
US20160106329A1 (en) * 2014-10-20 2016-04-21 Microsoft Corporation Utilizing different color channels for rgb-image-based differential heart rate detection
JP6390352B2 (ja) * 2014-10-31 2018-09-19 富士通株式会社 動き探索処理プログラム、動き探索処理方法および動き探索処理装置
JP6619565B2 (ja) * 2015-05-21 2019-12-11 オリンパス株式会社 画像処理装置、画像処理方法およびプログラム
JP6705134B2 (ja) * 2015-08-21 2020-06-03 コニカミノルタ株式会社 超音波画像診断装置、超音波画像処理方法及び超音波画像処理プログラム
JP6667268B2 (ja) * 2015-11-26 2020-03-18 キヤノン株式会社 動きベクトル検出装置およびその制御方法、撮像装置
JP6700872B2 (ja) * 2016-03-07 2020-05-27 キヤノン株式会社 像振れ補正装置及びその制御方法、撮像装置、プログラム、記憶媒体
JP2018061130A (ja) * 2016-10-05 2018-04-12 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US20180143321A1 (en) * 2016-11-22 2018-05-24 4Sense, Inc. Modulated-Light-Based Passive Tracking System

Also Published As

Publication number Publication date
US20180232861A1 (en) 2018-08-16
US10672108B2 (en) 2020-06-02
JP2018129738A (ja) 2018-08-16

Similar Documents

Publication Publication Date Title
JP6723173B2 (ja) 画像処理装置、方法およびプログラム
JP6370280B2 (ja) 断層画像生成装置、方法およびプログラム
US9861332B2 (en) Tomographic image generation device and method, and recording medium
JP4598507B2 (ja) 最小誤差時空間再帰フィルタを使用する画像ノイズ低減のためのシステム及び方法
JP4854546B2 (ja) 画像処理装置及び画像処理方法
JP5864958B2 (ja) 画像処理装置、画像処理方法、プログラムおよびコンピュータ記録媒体
US20100172474A1 (en) Method for pixel shift calculation in digital subtraction angiography and x-ray diagnostic imaging system for generating images in digital subtraction angiography
US8050482B2 (en) System and method for online optimization of guidewire visibility in fluoroscopic systems
US6760401B2 (en) Apparatus and method for processing of digital images
US9922409B2 (en) Edge emphasis in processing images based on radiation images
US10335107B2 (en) Tomographic image generation device and method, and recording medium
US20210272243A1 (en) Image processing methods, apparatuses and systems
US20070071296A1 (en) Radiographic image processing apparatus for processing radiographic image taken with radiation, method of radiographic image processing, and computer program product therefor
US20180068442A1 (en) Image processing apparatus, image processing method, and image processing program
JP2009279042A (ja) 放射線画像処理装置、放射線画像処理方法及びプログラム
JP2018033745A (ja) 画像処理装置、方法およびプログラム
US20070140582A1 (en) Systems and Methods For Reducing Noise In Image Sequences
JP6253633B2 (ja) 画像処理装置、画像処理方法、プログラムおよびコンピュータ記録媒体
JP6002324B2 (ja) 放射線画像生成装置及び画像処理方法
US10438327B2 (en) Image processing apparatus, image processing method, and image processing program
JP2016064118A (ja) 断層画像生成装置、方法およびプログラム
CN115397332A (zh) 用于实时视频增强的系统和方法
CN111050648B (zh) 放射线摄影装置
JP4497756B2 (ja) 画像処理装置、画像処理システム、画像処理方法、記憶媒体、及びプログラム
JP6167841B2 (ja) 医用画像処理装置及びプログラム

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20170519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170908

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170908

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200623

R150 Certificate of patent or registration of utility model

Ref document number: 6723173

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250