JP4766333B2 - 画像処理装置と画像処理方法および画像処理プログラム - Google Patents

画像処理装置と画像処理方法および画像処理プログラム Download PDF

Info

Publication number
JP4766333B2
JP4766333B2 JP2006549081A JP2006549081A JP4766333B2 JP 4766333 B2 JP4766333 B2 JP 4766333B2 JP 2006549081 A JP2006549081 A JP 2006549081A JP 2006549081 A JP2006549081 A JP 2006549081A JP 4766333 B2 JP4766333 B2 JP 4766333B2
Authority
JP
Japan
Prior art keywords
pixel
processing
motion
image
setting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006549081A
Other languages
English (en)
Other versions
JPWO2006068282A1 (ja
Inventor
隆浩 永野
哲二郎 近藤
勉 渡辺
淳一 石橋
寿一 白木
直樹 藤原
昌憲 金丸
慎一郎 金子
泰広 周藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2006549081A priority Critical patent/JP4766333B2/ja
Publication of JPWO2006068282A1 publication Critical patent/JPWO2006068282A1/ja
Application granted granted Critical
Publication of JP4766333B2 publication Critical patent/JP4766333B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Picture Signal Circuits (AREA)
  • Image Processing (AREA)

Description

【技術分野】
【0001】
この発明は、画像処理装置と画像処理方法および画像処理プログラムに関する。詳しくは、注目画像内の画素単位で動きベクトルの設定を行い、この動きベクトルに基づき、処理対象である複数画像における画像毎に注目画素を設定する。また、動きベクトルと画像単位で設定された露光時間比率に基づき、画素単位で動きボケ量を設定して、この動きボケ量に基づき処理係数と注目画素に対する処理領域を設定して、処理領域内の画素に対応する画素値と処理係数との線形結合により注目画素に対応する動きボケ除去後の画素値を生成するものである。
【背景技術】
【0002】
従来より、現実世界における事象を、センサを用いてデータ化することが行われている。このセンサを用いて取得されたデータは、現実世界の情報(例えば、光)が、現実世界より低い次元の時空間に射影して得られた情報である。このため、射影して得られた情報は、射影により発生する歪みを有している。例えば、静止している背景の前で移動する物体をビデオカメラで撮像して画像信号としてデータ化する場合、現実世界の情報をサンプリングしてデータ化することから、画像信号に基づいて表示される画像では、射影により発生する歪みとして、動いている物体がボケてしまう動きボケが生じる。
【0003】
このため、特開2001−250119号公報(対応米国出願番号:09/830858、対応欧州特許公開番号:EP1164545)で開示されているように、例えば、入力画像に含まれる前景のオブジェクトに対応する画像オブジェクトの輪郭を検出することで、前景のオブジェクトに対応する画像オブジェクトを粗く抽出し、この粗く抽出された前景のオブジェクトに対応する画像オブジェクトの動きベクトルを検出して、検出した動きベクトルおよび動きベクトルの位置情報を用いて動きボケの軽減が行われている。
【発明の開示】
【0004】
ところで、このような従来の動きボケ除去処理においては、入力画像中の動きボケを生じている部分のボケ量に応じた空間的な処理を行うことによってボケ除去が行われている。しかし、動画像においても同じような空間的に完結した処理を行うので、処理した後の解像度が不十分な場合が生ずる。また、時間方向の情報も使用して処理を行うものとした場合、実際の画像の露光時間はシャッタスピードとの関係よりカメラ側の設定で決まるため、物体の動き量と入力画像のボケ量とは必ずしも一致しない。このため、安易に入力画像のボケ量あるいは動き量のみを用いても時間方向の情報を有意義に活用して処理を行うことができない。
【0005】
この発明に係る画像処理装置は、注目画像内の画素単位で動きベクトルを設定する動きベクトル設定部と、動きベクトル設定部により設定された動きベクトルに基づき、処理対象である複数画像における画像毎に注目画素を設定する注目画素設定部と、注目画像の時間間隔と露光時間との比率である露光時間比率を画像単位で設定する露光時間比率設定部と、動きベクトル設定部により画素単位で設定された動きベクトルと、露光時間比率設定部により設定された露光時間比率に基づいて、画素単位で動きボケ量を設定する動きボケ量設定部と、動きボケ量設定部により設定された動きボケ量および動きベクトルに対応する動き方向に基づき、注目画素設定部により設定された画像毎の注目画素に対する処理領域を設定する処理領域設定部と、動きボケ量設定部により設定された注目画素の動きボケ量に基づき、特定の処理係数を設定するか、あるいは注目画素の動きボケ量と動き方向に応じて処理係数を設定する処理係数設定部と、画像毎に設定された処理領域内の画素に対応する画素値から動き方向に応じて生成された新たな処理用の画素値と、処理係数設定部により設定された特定の処理係数との線形結合、あるいは処理領域内の画素に対応する画素値と注目画素の動きボケ量と動き方向に応じて設定された処理係数の線形結合により注目画素に対応する画素値を生成する画素値生成部とを備えるものである。
【0006】
この発明に係る画像処理方法は、注目画像内の画素単位で動きベクトルを設定する動きベクトル設定工程と、動きベクトル設定工程により設定された動きベクトルに基づき、処理対象である複数画像における画像毎に注目画素を設定する注目画素設定工程と、
注目画像の時間間隔と露光時間との比率である露光時間比率を画像単位で設定する露光時間比率設定工程と、動きベクトル設定工程により画素単位で設定された動きベクトルと、露光時間比率設定工程により設定された露光時間比率に基づいて、画素単位で動きボケ量を設定する動きボケ量設定工程と、動きボケ量設定工程により設定された動きボケ量および動きベクトルに対応する動き方向に基づき、注目画素設定工程により設定された画像毎の注目画素に対する処理領域を設定する処理領域設定工程と、動きボケ量設定工程により設定された注目画素の動きボケ量に基づき、特定の処理係数を設定するか、あるいは注目画素の動きボケ量と動き方向に応じて、処理係数を設定する処理係数設定工程と、画像毎に設定された処理領域内の画素に対応する画素値から動き方向に応じて生成された新たな処理用の画素値と、処理係数設定工程により設定された特定の処理係数との線形結合 、あるいは処理領域内の画素に対応する画素値と注目画素の動きボケ量と動き方向に応じて設定された処理係数の線形結合により注目画素に対応する画素値を生成する画素値生成工程とを備えるものである。
【0007】
この発明に係る画像処理プログラムは、コンピュータに、注目画像内の画素単位で動きベクトルを設定する動きベクトル設定ステップと、動きベクトル設定ステップにより設定された動きベクトルに基づき、処理対象である複数画像における画像毎に注目画素を設定する注目画素設定ステップと、注目画像の時間間隔と露光時間との比率である露光時間比率を画像単位で設定する露光時間比率設定ステップと、動きベクトル設定ステップにより画素単位で設定された動きベクトルと、露光時間比率設定ステップにより設定された露光時間比率に基づいて、画素単位で動きボケ量を設定する動きボケ量設定ステップと、動きボケ量設定ステップにより設定された動きボケ量および動きベクトルに対応する動き方向に基づき、注目画素設定ステップにより設定された画像毎の注目画素に対する処理領域を設定する処理領域設定ステップと、動きボケ量設定ステップにより設定された注目画素の動きボケ量に基づき、特定の処理係数を設定するか、あるいは注目画素の動きボケ量と動き方向に応じて、処理係数を設定する処理係数設定ステップと、画像毎に設定された処理領域内の画素に対応する画素値から動き方向に応じて生成された新たな処理用の画素値と、処理係数設定ステップにより設定された特定の処理係数との線形結合 、あるいは処理領域内の画素に対応する画素値と注目画素の動きボケ量と動き方向に応じて設定された処理係数の線形結合により、注目画素に対応する画素値を生成する画素値生成ステップとを実行させるものである。
【0008】
この発明においては、注目画像内の画素単位で動きベクトルが設定されて、この動きベクトルに基づき、処理対象である複数画像における画像毎に注目画素が設定される。また、動きベクトルと画像単位で設定された露光時間比率に基づき、画素単位で動きボケ量が設定される。この動きボケ量および動きベクトルに対応する動き方向に基づき、処理領域が設定されて、処理領域内の画素に対応する画素値から動き方向に応じて生成された新たな処理用の画素値と設定された特定の処理係数との線形結合、あるいは処理領域内の画素に対応する画素値と注目画素の動きボケ量と動き方向に応じて設定された処理係数の線形結合により注目画素に対応する画素値が生成される。また、画像毎の注目画素に対応する動きボケ除去後の画素値が統合処理されて単一の画素値として出力される。また、ノーシャッタ動作で撮像された画像については、設定された動きベクトルの動き量が動きボケ量として用いられる。さらに、動きベクトルの動き量は画素以下単位で設定される。
【発明の効果】
【0009】
この発明によれば、注目画像内の画素単位で動きベクトルが設定されて、この動きベクトルに基づき、処理対象である複数画像における画像毎に注目画素が設定される。また、動きベクトルと画像単位で設定された露光時間比率に基づき、画素単位で動きボケ量を設定る。この動きボケ量および動きベクトルに対応する動き方向に基づき、処理領域が設定されて、処理領域内の画素に対応する画素値から動き方向に応じて生成された新たな処理用の画素値と設定された特定の処理係数との線形結合、あるいは処理領域内の画素に対応する画素値と注目画素の動きボケ量と動き方向に応じて設定された処理係数の線形結合により注目画素に対応する画素値が生成される。
【0010】
このため、画像信号内に埋もれている実世界情報を、空間方向の情報だけでなく時間方向の情報を用いて取得することが可能となり、画像センサにおける歪みを受けた動きボケ画像から動きボケを除去した解像度の高い画像を再現できる。
【0011】
また、処理係数は、動きベクトルの動き量は画素以下単位で設定されるので、精度良く動きボケを除去できる。さらに、画像毎の注目画素に対応する動きボケ除去後の画素値が統合処理されて単一の画素値として出力されるので、例えばノイズの少ない動きボケ除去画像等を得ることができる。また、ノーシャッタ動作で撮像された画像については、設定された動きベクトルの動き量が動きボケ量として用いられるので、動きボケ除去処理を容易に行うことができる。
【発明を実施するための最良の形態】
【0012】
以下、図を参照しながら、この発明の実施の形態について説明する。図1は、本発明を適用するシステムの構成を示すブロック図である。画像センサ10は現実社会を撮像した画像信号DVaを生成して画像処理装置20に供給する。画像処理装置20は、供給された入力画像の画像信号DVaに埋もれてしまった情報の抽出を行い、埋もれてしまった情報を抽出した画像信号DVoutを生成して出力する。なお、画像処理装置20は、外部から供給された種々の情報ETを用いて、画像信号DVaに埋もれてしまった情報の抽出を行うこともできるようになされている。
【0013】
画像センサ10は、固体撮像素子であるCCD(Charge-Coupled Device)エリアセンサやMOSエリアセンサを備えたビデオカメラなどで構成されており、現実社会を撮像する。例えば、図2に示すように、画像センサ10と背景に対応するオブジェクトOBbとの間を、前景に対応する動きオブジェクトOBfが矢印A方向に移動するとき、画像センサ10は、前景に対応する動きオブジェクトOBfを背景に対応するオブジェクトOBbと共に撮像する。
【0014】
この画像センサ10の検出素子は、露光時間に対応する期間、入力された光を電荷に変換して、光電変換された電荷を蓄積する。電荷の量は、入力された光の強さと、光が入力されている時間にほぼ比例する。検出素子は、露光時間に対応する期間において、入力された光から変換された電荷を、既に蓄積されている電荷に加えていく。すなわち、検出素子は、露光時間に対応する期間、入力される光を積分して、積分された光に対応する量の電荷を蓄積する。検出素子は、時間に対して、積分効果があるとも言える。このように、画像センサで光電変換を行い、入力された光を画素単位で電荷に変換して露光時間単位で蓄積する。この蓄積された電荷量に応じて画素信号を生成して、この画素信号を用いて所望のフレームレートの画像信号を生成して画像処理装置に供給する。なお、画像センサの露光時間は、上述のように画像センサが入力された光を電荷に変換して検出素子にその電荷を蓄積する期間であり、シャッタ動作が行われていないときは画像時間間隔(1フレーム期間)と等しいものである。また、シャッタ動作が行われるときはシャッタ開時間と等しいものである。
【0015】
図3Aおよび図3Bは、画像信号で示される撮像画像を説明するための図である。図3Aは、動いている前景に対応する動きオブジェクトOBfと、静止している背景に対応するオブジェクトOBbとを撮像して得られる画像を示している。なお、前景に対応する動きオブジェクトOBfは、矢印A方向に水平移動しているものとする。
【0016】
図3Bは、図3Aに示すように矢印A方向に伸びたラインL(破線で示す)の位置での画像と時間の関係を示している。動きオブジェクトOBfのラインLにおける移動方向の長さが例えば9画素分であり、1露光時間中に5画素移動する場合、フレーム期間開始時に画素位置P21にあった前端と画素位置P13にあった後端は、それぞれ画素位置P25,P17で露光時間の終了となる。また、シャッタ動作が行われていないとき、1フレームにおける露光時間は1フレーム期間と等しいことから、次のフレーム期間開始時に前端が画素位置P26、後端が画素位置P18となる。
【0017】
このため、ラインLのフレーム期間において、画素位置P12までと画素位置P26からは、背景成分のみの背景領域となる。また、画素位置P17〜P21は、前景成分のみの前景領域となる。画素位置P13〜P16と画素位置P22〜P25は、背景成分と前景成分が混合された混合領域となる。混合領域は、時間の経過に対応して背景成分が前景に覆い隠されるカバードバックグランド領域と、時間の経過に対応して背景成分が現れるアンカバードバックグランド領域に分類される。なお、図3Bでは、前景のオブジェクトOBfの進行方向前端側に位置する混合領域がカバードバックグランド領域、後端側に位置する混合領域がアンカバードバックグランド領域となる。このように、画像信号には、前景領域、背景領域、またはカバードバックグランド領域若しくはアンカバードバックグランド領域を含む画像が含まれることとなる。
【0018】
ここで、画像時間間隔は短時間であり、前景に対応する動きオブジェクトOBfは剛体であって等速に移動していると仮定して、ラインLにおける画素値の時間方向分割動作を図4に示すように行う。この時間方向分割動作では、画素値を時間方向に展開して仮想分割数で等時間間隔に分割する。なお、図4において縦方向は時間に対応し、図中の上から下に向かって時間が経過することを示している。
【0019】
仮想分割数は、動きオブジェクトの画像時間間隔での動き量vなどに対応して設定する。例えば、1フレーム期間内の動き量vが上述のように5画素であるときは、動き量vに対応して仮想分割数を「5」に設定して、1フレーム期間を等時間間隔で5分割する。
【0020】
また、背景に対応するオブジェクトOBbを撮像したときに得られる画素位置Pxの1フレーム期間の画素値をBx、ラインLにおける長さが9画素分である前景に対応する動きオブジェクトOBfを静止させて撮像したときに、各画素で得られる画素値をF09(前端側)〜F01(後端側)とする。
【0021】
この場合、例えば画素位置P14の画素値DP14は、式(1)で表される。
DP14=B14/v+B14/v+B14/v+F01/v+F02/v
・・・(1)
【0022】
この画素位置P14では、背景の成分を3仮想分割時間(フレーム期間/v)含み、前景成分を2仮想分割時間含むので、画素値に対する背景成分の混合比αは(3/5)となる。同様に、例えば画素位置P22では、背景の成分を1仮想分割時間含み、前景成分を4仮想分割時間含むので、混合比αは(1/5)となる。
【0023】
また、シャッタ動作が行われて、1フレーム期間に対する露光時間の比率を示す露光時間比率が変化されたとき、例えば、露光時間比率が「3/5」であるときは、図5に示すように、1フレーム期間における画素値の時間方向分割動作を行い、画素値を露光時間比率に応じた仮想分割数で等時間間隔に分割する。
【0024】
仮想分割数は、動きオブジェクトの画像時間間隔内での動き量vなどに対応して設定する。例えば、1フレーム期間内の動き量vが上述のように5画素であるときは、動き量vに対応して仮想分割数を「5」に設定して、1フレーム期間を等時間間隔で5分割する。
【0025】
この場合、例えば画素位置P14の画素値DP14は、式(2)で表される。
DP14=B14/v+F01/v+F02/v ・・・(2)
【0026】
この画素位置P14では、背景の成分を1仮想分割時間(フレーム期間/v)含み、前景成分を2仮想分割時間含むので、混合比αは(1/3)となる。同様に、例えば画素位置P22では、背景の成分を1仮想分割時間含み、前景成分を2仮想分割時間含むので、混合比αは(1/3)となる。
【0027】
また、シャッタ動作が行われたとき、露光時間比率と1フレーム期間内での動き量vを乗算して露光時間内動き量vsを算出することができる。
【0028】
このように、前景の成分が移動することから、1露光時間では、異なる前景の成分が加算されるので、動きオブジェクトに対応する前景の領域は、動きボケを含むものとなる。このため、画像処理装置20では、画像信号に埋もれてしまった有意情報を抽出して前景に対応する動きオブジェクトOBfの動きボケを軽減させた画像信号DVoutを生成する。
【0029】
図6は、画像処理装置の機能ブロック図である。なお、画像処理装置の各機能はハードウェアで実現するか、ソフトウェアで実現するかは問わない。つまり、図6の機能ブロックは、ハードウェアで実現するものとしても良く、ソフトウェアで実現するものとしてもよい。
【0030】
ここで、ソフトウェアを用いるときの画像処理装置20の構成を例えば図7に示す。CPU(Central Processing Unit)201は、ROM(Read Only Memory)202、または記憶部208に記憶されているプログラムに従って各種の処理を実行するものであり、ROM202や記憶部208には、画像処理装置の各機能を実現するプログラムが記憶される。RAM(Random Access Memory)203には、CPU201が実行するプログラムやデータなどが適宜記憶される。これらのCPU201、ROM202、およびRAM203は、バス204により相互に接続されている。
【0031】
また、CPU201には、バス204を介して入出力インタフェース205が接続されている。入出力インタフェース205には、キーボード、マウス、マイクロホンなどよりなる入力部206、ディスプレイ、スピーカなどよりなる出力部207が接続されている。CPU201は、入力部206から入力される指令に対応して各種の処理を実行する。そして、CPU201は、処理の結果得られた画像や音声等を出力部207に出力する。
【0032】
入出力インタフェース205に接続されている記憶部208は、例えばハードディスクなどで構成され、CPU201が実行するプログラムや各種のデータを記憶する。通信部209は、インターネット、その他のネットワークを介して外部の装置と通信する。この例の場合、通信部209はセンサの出力を取り込む取得部として働く。また、通信部209を介してプログラムを取得し、記憶部208に記憶してもよい。
【0033】
入出力インタフェース205に接続されているドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリなどの記録媒体が装着されたとき、それらを駆動し、記録媒体に記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記憶部208に転送されて記憶される。
【0034】
図6に示すように、画像処理装置20に供給された入力画像の画像信号DVaは、動きベクトル設定部31の動きベクトル推定部311と、露光時間比率設定部32および注目画素設定部35に供給される。
【0035】
動きベクトル推定部311は、画像信号DVaに基づき注目画像の画素毎の動きベクトルvpaを推定して、推定された動きベクトルvpaを動きベクトル選択部312に供給する。この動きベクトル推定部311では、ブロックマッチング法や勾配法等の手法を用いることで、画素毎の動きベクトルを推定できる。ここで、注目画像とは、画像処理装置20に供給された入力画像において動きボケ除去処理を行う画像を示しており、注目画素とは、注目画像内において、動きボケ除去処理を行う画素を示している。
【0036】
動きベクトル選択部312には、外部から情報ETとして動きベクトルvpbが供給されたとき、この動きベクトルvpbが入力可能とされており、動きベクトル推定部311から供給された動きベクトルvpa、あるいは外部から供給された動きベクトルvpbの何れかを選択して、動きベクトルvpとしてボケ量設定部33と注目画素設定部35に供給する。また、後述する処理係数設定部37に記憶させる処理係数に応じて、動きベクトルvpを処理領域設定部36,処理係数設定部37,画素値生成部38に供給する。動きベクトルの選択は、例えばユーザが行うものとして、注目画像から検出した動きベクトルを用いて動きボケ除去処理を行うものとしたときには、動きベクトル推定部311から供給された動きベクトルvpaを選択する。また、動きボケ除去処理で用いる動きベクトルを設定するときには、入力した動きベクトルvpbを選択させる。
【0037】
露光時間比率設定部32は、注目画像の時間間隔における露光時間の割合を示す露光時間比率ERを画像単位で設定する。この露光時間比率ERは、例えば特開2003−6648号公報に開示された技術を用いて設定できる。
【0038】
図8は露光時間比率設定部32の機能ブロック図である。露光時間比率設定部32のオブジェクト抽出部321は、画像信号DVaに基づき注目画像に含まれる動きのあるオブジェクトに対応する画像オブジェクトOBmを粗く抽出して、抽出した画像オブジェクトOBmを動き検出部322に供給する。例えば、上述のように動いている前景のオブジェクトに対応する画像オブジェクトの輪郭を検出することで、画像オブジェクトOBmを粗く抽出して動き検出部322に供給する。なお、画像オブジェクトOBmとは、撮像の対象となる、現実世界におけるオブジェクトに対応する画像を意味するものである。
【0039】
また、オブジェクト抽出部321は、例えば内部に設けられている背景メモリに記憶されている背景の画像と、注目画像との差から、動いている前景のオブジェクトに対応する画像オブジェクトOBmを粗く抽出するようにしてもよい。
【0040】
動き検出部322は、粗く抽出された画像オブジェクトOBmのフレーム間動きベクトルの動き量vmを、上述のような動きベクトル検出法を用いて検出して比率演算部325に供給する。また、動き検出部322は、動きのある画像オブジェクトが複数含まれているときには、フレーム間動きベクトルを画像オブジェクト毎に求めて、求めた複数のフレーム間動きベクトルから統計的手法を用いて、1つのフレーム間動きベクトルの動き量vmを決定する。この統計的手法としては、単純平均、オブジェクトの表示面積や表示位置に応じて重み付けを行ってから平均を算出する重み付け平均、メディアン等を用いることができる。
【0041】
領域特定部323は、注目画像に対して、動き部分である前景領域、静止部分である背景領域、混合領域であるカバードバックグランド領域とアンカバードバックグランド領域の特定を行い、特定結果を示す領域情報JFを混合比算出部324に供給する。
【0042】
図9は、領域特定部323の機能ブロック図である。画像メモリ323aは、入力された画像信号DVaをフレーム単位で記憶する。画像メモリ323aは、注目画像が(t)フレームであるとき、(t)フレームの2つ前のフレームである(t−2)フレーム、(t)フレームの1つ前のフレームである(t−1)フレーム、(t)フレーム、(t)フレームの1つ後のフレームである(t+1)フレーム、および(t)フレームの2つ後のフレームである(t+2)フレームを記憶する。
【0043】
静動判定部323bは、連続する2フレームの画素毎のフレーム間差分絶対値を求め、フレーム差分絶対値が予め設定している閾値Thより大きいか否かを判定し、フレーム間差分絶対値が閾値Thよりも大きいときは動き、フレーム間差分絶対値が閾値Th以下であるときは静止と判定する。
【0044】
領域判定部323cは、静動判定部323bで得られた判定結果を用いて、画素が前景領域、背景領域、混合領域であるカバードバックグランド領域やアンカバードバックグランド領域の何れに属するか、図10に示すように領域判定処理を行う。
【0045】
例えば、最初に(t−1)フレームと(t)フレームの静動判定の結果が静止である画素を背景領域の画素と判定する。また、(t)フレームと(t+1)フレームの静動判定の結果が静止である画素を背景領域の画素と判定する。次に、(t−2)フレームと(t−1)フレームの静動判定の結果が静止であり、(t−1)フレームと(t)フレームの静動判定の結果が動きである画素をカバードバックグランド領域の画素と判定する。また、(t)フレームと(t+1)フレームの静動判定の結果が動きであり、(t+1)フレームと(t+2)フレームの静動判定の結果が静止である画素をアンカバードバックグランド領域の画素と判定する。その後、(t−1)フレームと(t)フレームの静動判定の結果と(t)フレームと(t+1)フレームの静動判定の結果が共に動きである画素を前景領域の画素と判定する。
【0046】
混合比算出部324は、画像信号DVaおよび領域特定部323から供給された領域情報JFをもとに混合比αを算出して、算出した混合比αを比率演算部325に供給する。この混合比αは、上述のように、画素値における背景成分の割合を示す値である。
【0047】
ここで、前景に対応するオブジェクトが露光時間内に等速で動いていると仮定することで、混合領域に属する画素の混合比αは、画素の位置の変化に対応して、直線的に変化する。例えば画素の位置の変化を1次元とすれば、混合比αの変化は、直線で表現することができる。さらに、1フレームの期間は短いので、前景に対応するオブジェクトが剛体であり、等速で移動していると仮定すると、混合比αの傾きは、前景の露光時間内動き量vsの逆比となる。なお、複数の混合領域について混合比αの算出を行い、複数の混合比αを算出したときには上述のように統計的手法を用いて、1つの混合比αを決定する。なお、図11は理想的な混合比αを示しており、前景領域では混合比α=0、背景領域では混合比α=1となる。また、混合領域における混合比αの傾きαlは、露光時間内動き量vsの逆数を表すものである。
【0048】
比率演算部325は、混合比算出部324から供給された混合比αに基づき、混合領域における傾きαlの逆数を算出して、露光時間内動き量vsを求める。さらに、露光時間内動き量vsを動き検出部322から供給されたフレーム間動きベクトルの動き量vmで除算して、注目画像の時間間隔に対する露光時間の比率を示す露光時間比率ERを設定してボケ量設定部33に供給する。
【0049】
ボケ量設定部33のボケ量算出部331は、動きベクトル設定部31から供給された画素毎の動きベクトルの動き量に対して露光時間比率ERを乗算することで、画素毎の動きボケ量MBaを算出して動きボケ量選択部332に供給する。
【0050】
動きボケ量選択部332には、外部から情報ETとして動きボケ量MBbが供給されたとき、この動きボケ量MBbが入力可能とされており、ボケ量算出部331から供給された動きボケ量MBa、外部から入力された動きボケ量MBbの何れかを選択して動きボケ量MBpとして、処理領域設定部36や処理係数設定部37に供給する。
【0051】
注目画素設定部35は、注目画像を含めて複数の処理対象画像を設定して、動きベクトル設定部31により設定された動きベクトルvpに基づき、注目画像の注目画素に対応する処理対象画像上の画素を検出して、この検出した画を各処理対象画像の注目画素に設定する。さらに、注目画素を設定した複数の処理対象画像の画像信号を処理領域設定部36に供給する。
【0052】
例えば、(t)フレームの画像を注目画像とするとき、(t−1)フレーム,(t)フレーム、(t+1)フレームの画像を処理対象画像とする。ここで、動きベクトルvpに基づき、注目画像の注目画素に対応する(t−1)フレームや(t+1)フレームの画像上の画素を注目画素として設定する。さらに、(t)フレームの処理対象画像の画像信号DVa(t)を処理領域設定部36の(t)フレームタップ選択部362、注目画素を設定した(t−1)フレームの処理対象画像の画像信号DVa(t-1)を(t−1)フレームタップ選択部361、注目画素を設定した(t+1)フレームの処理対象画像の画像信号DVa(t+1)を(t+1)フレームタップ選択部363にそれぞれ供給する。
【0053】
なお、注目画像の注目画素が(t+1)フレームで動きベクトルvpだけ移動する場合、(t+1)フレームの画像を動きベクトルvpだけ戻すように移動させれば、注目画像の注目画素と移動後の(t+1)フレームの注目画素の位置は同じとなり、処理領域設定部36における処理領域の設定を容易とすることができる。
【0054】
また、基準となる注目画像は、(t)フレームの画像に限られるものではなく、(t−1)フレームや(t+1)フレームの画像を注目画像とすることもできる。さらに、注目画像の何れの画素を注目画素とするかについては、外部から注目画素を指定したり、注目画像内の画素を順次自動的に注目画素に指定する。このようにすれば、所望の画素についてのみ、動きボケ除去処理を行うものとしたり、注目画像の全体に対して動きボケ除去処理を自動的に行うことができる。また、外部から範囲を指定して、この範囲内の画素を順次自動的に注目画素に指定するようにすれば、所望の範囲について動きボケ除去処理を行うことが可能となる。
【0055】
処理領域設定部36の(t−1)フレームタップ選択部361は、注目画素設定部35から供給された処理対象画像における注目画素に対する処理領域を、ボケ量設定部33で設定された動きボケ量MBpおよび動きベクトルvpに対応する動き方向に基づいて設定する。さらに、処理領域の画素値を画素値生成部38のボケ除去処理部381に供給する。
【0056】
図12は、処理領域を示しており、丸印で示す注目画素を基準として処理領域WAを設定する。ここで、処理係数設定部37に動きボケ量と動き方向に基づいた処理係数を予め記憶させておく場合、処理領域WAは、空間的には、図13Aに示すように、黒丸印で示す注目画素を基準として矢印で示す動き方向に、動きボケ量MBpに応じた処理領域WAを設定する。また、後述する処理係数設定部37に、特定の処理係数例えば動き方向を水平方向としたときの処理係数を予め記憶しておくものとした場合、図13Bに示すように、黒丸印で示す注目画素を基準として矢印で示す動き方向と直交する方向に幅を持たせて、動きボケ量MBpに応じた処理領域WAを動き方向に設定して、処理係数と線形結合される画素位置(三角印)の画素値を補間等によって生成できるようにする。例えば処理係数を生成するときの動き方向を水平方向としたとき、この水平に対して角度差θを有する動き方向の動きボケが生じている場合、図14に示すように、三角印で示す位置Pwaの画素値DPwを、周辺の画素位置Pw1,Pw2,Pw3,Pw4の画素値を用いて式(3)から算出する。
【0057】
DPwa= (1−βh)×(1−βv)×DPw1
+ βh ×(1−βv)×DPw2
+(1−βh)× βv ×DPw3
+ βh × βv ×DPw4 ・・・(3)
なお、式(3)において、βh=cosθ,βv=sinθ、DPw1は画素位置Pw1の画素値、DPw2〜DPw4は画素位置Pw2〜Pw4の画素値である。
【0058】
また、1フレーム期間内での被写体の移動量が多いと動きボケ量MBpが大きく、移動量が少ないと動きボケ量MBpが小さい。従って、動きボケ量MBpが大きいときには処理領域WAを動き方向に広く設定する。
【0059】
(t)フレームタップ選択部362,(t+1)フレームタップ選択部363も、(t−1)フレームタップ選択部361と同様に、それぞれ注目画素設定部35から供給された処理対象画像における注目画素を基準として、ボケ量設定部33で設定された動きボケ量MBpおよび動きベクトルvpに対応する動き方向に基づく処理領域を上述のように設定する。さらに、処理領域の画素値をボケ除去処理部382,383に供給する。
【0060】
処理係数設定部37は、メモリを用いて構成されており、動きボケ量MBpに基づいた特定の処理係数、あるいは動きボケ量MBpおよび動きベクトルvpに対応する動き方向に基づく処理係数が予め記憶されている。処理係数設定部37は、動きボケ量MBpに基づいた特定の処理係数を記憶しているとき、ボケ量設定部33から供給された動きボケ量MBpに応じた特定の処理係数をメモリから読み出して、ボケ除去処理部381,382,383に供給することで、処理係数の設定を行う。また、動きボケ量MBpおよび動きベクトルvpに対応する動き方向に基づく処理係数を記憶しているとき、ボケ量設定部33から供給された動きボケ量MBpと動きベクトル選択部312で選択された動きベクトルVpに基づく動き方向に応じた処理係数をメモリから読み出して、ボケ除去処理部381,382,383に供給することで、処理係数の設定を行う。
【0061】
画素値生成部38のボケ除去処理部381は、処理係数設定部37から動きボケ量MBpに基づいた特定の処理係数が供給されるとき、(t−1)フレームタップ選択部361から供給された処理領域の画素値を用いて、処理係数と線形結合される画素位置の画素値を補間等によって生成する。さらに、生成した画素値と供給された処理係数を用いて線形結合を行い、ボケ除去処理後の画素値を生成して統合部39に供給する。ボケ除去処理部382は、(t)フレームタップ選択部362から供給された処理領域の画素値を用いて、処理係数と線形結合される画素位置の画素値を補間等によって生成する。さらに、生成した画素値と供給された処理係数を用いて線形結合を行い、ボケ除去処理後の画素値を生成して統合部39に供給する。ボケ除去処理部383は、(t+1)フレームタップ選択部363から供給された処理領域の画素値と、処理係数設定部37から供給された処理係数を用いて線形結合を行い、ボケ除去処理後の画素値を生成して統合部39に供給する。
【0062】
また、画素値生成部38のボケ除去処理部381は、処理係数設定部37から動きボケ量と動き方向に応じた処理係数が供給されるとき、(t−1)フレームタップ選択部361から供給された処理領域の画素値と供給された処理係数を用いて線形結合を行い、ボケ除去処理後の画素値を生成して統合部39に供給する。同様に、ボケ除去処理部382は、(t)フレームタップ選択部362から供給された処理領域の画素値と供給された処理係数を用いて線形結合を行い、ボケ除去処理後の画素値を生成して統合部39に供給する。また、ボケ除去処理部383は、(t+1)フレームタップ選択部363から供給された処理領域の画素値と供給された処理係数を用いて線形結合を行い、ボケ除去処理後の画素値を生成して統合部39に供給する。
【0063】
式(4)は、処理領域の画素値と処理係数の線形結合の一例として、積和演算を行う場合を示している。
【0064】
【数1】
【0065】
式(4)において、q’は、ボケ除去が行われた画素の画素値を表している。ci(iは、1乃至nの整数値で処理範囲内の各画素を示す)は、処理領域の画素値を表している。また、diは処理係数を表している。
【0066】
統合部39は、ボケ除去処理部381〜383から供給されたボケ除去後の画素値を統合して、動きボケ除去がなされた画像である予測画像における注目画素の画素値を生成して画像信号DVoutとして出力する。この画素値の統合では、統計的処理を用いるものとする。例えば、単純平均、重み付け平均、メディアンフィルタ等を用いることができる。ここで、重み付け平均では、例えば(t−1)フレームの画素値:tフレームの画素値:(t+1)フレームの画素値=2:6:2の重み付けを行って平均値を算出する。
【0067】
図15は、ソフトウェアで画像処理を行う場合のフローチャートを示している。ステップST1でCPU201は、注目画像に動きボケの除去を行う注目画素を設定してステップST2に進む。ステップST2でCPU201は、注目画素の動きベクトルを検出してステップST3に進む。ステップST3でCPU201は、露光時間比率を算出する。ステップST4でCPU201は、注目画素の動きボケ量を検出する。すなわち、ステップST2で検出した動きベクトルとステップST3で算出した露光時間比率を用いて演算処理を行い、注目画素の露光時間内での動きボケ量を検出する。
【0068】
ステップST5でCPU201は、処理領域を設定する。すなわちCPU201は、注目画像の注目画素に基づき、処理対象画像を設定して処理対象画像に注目画素を設定する。さらに、各処理対象画像の注目画素を基準として、ステップST4で求めた動きボケ量やステップST2で検出した動きベクトルに対応する動き方向に応じた処理領域を設定してステップST6に進む。ステップST6でCPU201は、処理係数の設定を行う。この処理係数の設定では、動き量に応じた特定の動きボケ除去用の処理係数、あるいは動き量とステップST2で検出された動き方向に応じた動きボケ除去用の処理係数を設定する。
【0069】
ステップST7でCPU201は、ステップST6で設定した処理係数を用いてボケ除去処理を各処理対象画像に対して行う。すなわち、各処理対象画像に対してステップST5で設定した処理領域の画素値とステップST6で設定した処理係数との演算処理を行い、ボケ除去がなされた画素値を各処理対象画像の注目画素毎に算出してステップST8に進む。
【0070】
ステップST8でCPU201は、ステップST7で処理対象画像毎に算出した画素値の統合処理を行い、得られた画素値を注目画素の動きボケ除去処理後の画素値として出力してステップST9に進む。ステップST9でCPU201は、処理範囲の全画素に対してボケ除去処理が完了したか否かを判別し、ボケ除去処理が行われていない画素があるときはステップST1に戻り、処理範囲の全画素に対してボケ除去が完了したときは注目画像に対する画像処理を終了する。
【0071】
このように、注目画像の注目画素に対応させて各処理対象画像に注目画素を設定して、各処理対象画像に対する動きボケ除去処理を行うことにより、所望の注目画素に対して動きボケ除去を時間方向に順次行った画素値を得られることとなる。すなわち、実世界信号の動き方向の時間軸に対する定常性を利用して、実世界信号を構築することとなり、各処理対象画像に対する動きボケ除去処理結果を統合することにより、処理の精度を高めることができる。
【0072】
次に、処理係数設定部37に予め記憶される処理係数を学習によって求めてボケ除去処理を行う場合と、処理係数をモデル式から求めてボケ除去処理を行う場合について説明する。
【0073】
図16は、処理係数を学習によって求めてボケ除去処理を行う場合の構成を示したものである。学習部51は、教師画像である静止画と、この静止画に動きボケを付加した生徒画像を用いて学習処理を実行し、この学習により得られる処理係数を画像処理装置20の処理係数設定部37に記憶させる。画像処理装置20は、上述のように入力画像となる動きボケを含む画像から注目画素に対する処理領域を設定して、この処理領域の画素値と処理係数設定部37に記憶されている動きボケ量に応じた処理係数を用いて演算処理を行い、ボケ除去後の画素値を生成する。
【0074】
図17は、学習部51の機能ブロック図である。学習部51の生徒画像生成部511は、入力画像である教師画像に対して動き量あるいは動き方向と動き量に応じた動きボケを付加して生徒画像を生成して予測タップ抽出部512に供給する。
【0075】
予測タップ抽出部512は、ボケ除去を行う注目画素に対して複数の画素を予測タップとして設定して、生徒画像から予測タップの画素値を抽出して、正規方程式生成部513に出力する。
【0076】
正規方程式生成部513は、予測タップ抽出部512から供給された予測タップの画素値と、教師画像の画素値とから正規方程式を生成し、係数決定部514に供給する。係数決定部514は、正規方程式生成部513から供給された正規方程式に基づき処理係数を演算して、処理係数設定部37に記憶させる。この正規方程式生成部513と、係数決定部514についてさらに説明する。
【0077】
上述した式(4)において、学習前は処理係数diのそれぞれが未定係数である。学習は、複数の教師画像(静止画像)の画素を入力することによって行う。教師画像の画素がm個存在し、m個の画素の画素値を「qk(kは、1乃至mの整数値)」と記述する場合、式(4)から、次の式(5)が設定される。
【0078】
【数2】
【0079】
すなわち、式(5)は、右辺の演算を行うことで、動きボケのない実際の画素値qkとほぼ等しいボケ除去後の画素値qk’を得ることができる。なお、式(5)において、イコールではなくニアリーイコールとなっているのは誤差を含むからである。すなわち、右辺の演算結果であるボケ除去後の画素値は、動きボケのない実際の画像における注目画素の画素値と厳密には一致せず、所定の誤差を含むためである。
【0080】
この式(5)において、誤差の自乗和を最小にする処理係数diが学習により求まれば、その処理係数diは、ボケ除去後の画素値qkを動きボケのない画素値に近づけるための最適な係数と考えられる。従って、例えば、学習により集められたm個(ただし、mはnより大きい整数)の画素値qkを用いて、最小自乗法により最適な処理係数diを決定する。
【0081】
式(5)の右辺の処理係数diを最小自乗法で求める場合の正規方程式は、式(6)として表すことができる。
【0082】
【数3】
【0083】
従って、式(6)に示す正規方程式を解くことで処理係数diを決定できる。具体的には、式(6)で示される正規方程式の各行列のそれぞれを、次の式(7)乃至(9)のように定義すると、正規方程式は、次の式(10)のように表される。
【0084】
【数4】
【0085】
【数5】
【0086】
【数6】
【0087】
MATMAT=QMAT ・・・(10)
式(8)で示されるように、行列DMATの各成分は、求めたい処理係数diである。従って、式(10)において、左辺の行列CMATと右辺の行列QMATが決定されれば、行列解法によって行列DMAT(すなわち、処理係数di)の算出が可能である。具体的には、式(7)で示されるように、行列CMATの各成分は、予測タップcikが既知であれば演算可能である。予測タップcikは、予測タップ抽出部512により抽出されるので、正規方程式生成部513は、予測タップ抽出部512から供給される予測タップcikのそれぞれを利用して行列CMATの各成分を演算することができる。
【0088】
また、式(9)で示されるように、行列QMATの各成分は、予測タップcikと静止画像の画素値qkが既知であれば演算可能である。予測タップcikは、行列CMATの各成分に含まれるものと同一のものであり、また、画素値qkは、予測タップcikに含まれる注目画素(生徒画像の画素)に対する教師画像の画素である。従って、正規方程式生成部513は、予測タップ抽出部512より供給された予測タップcikと、教師画像を利用して行列QMATの各成分を演算することができる。
【0089】
このようにして、正規方程式生成部513は、行列CMATと行列QMATの各成分を演算し、その演算結果を係数決定部514に供給する。
【0090】
係数決定部514は、上述した式(8)の行列DMATの各成分である処理係数diを演算する。具体的には、上述した式(10)の正規方程式は、次の式(11)のように変形できる。
MAT=CMAT -1MAT ・・・(11)
【0091】
式(11)において、左辺の行列DMATの各成分が、求める処理係数diである。また、行列CMATと行列QMATのそれぞれの各成分は、正規方程式生成部513より供給される。従って、係数決定部514は、正規方程式生成部513より行列CMATと行列QMATのそれぞれの各成分が供給されてきたとき、式(11)の右辺の行列演算を行うことで行列DMATを演算し、その演算結果(処理係数di)を処理係数設定部37に記憶させる。また、動き量vを変えて上述の学習を行うものとすれば、動き量に応じた処理係数を処理係数設定部37に記憶させることができる。
【0092】
予測タップの選択は、例えば注目画素を基準として動き方向に「3×動き量+9画素」の範囲に含まれる画素を予測タップとする。また、「2×動き量+3画素」の範囲に含まれる画素を予測タップとすれば、タップ数が少なく構成を簡単にできる。さらに、予測タップの選択では、動き量vに応じて予測タップを離散的に選択するものとしてもよい。なお、選択する予測タップは、上述の処理領域の画素に対応するものである。
【0093】
ここで、動き量vに応じて予測タップを離散的に選択する場合について図18を用いて説明する。例えば図18に示す画素位置P47を注目画素位置として注目画素の画素値F19を求める場合、破線で示すように最初に注目画素の成分F19/vが現れる画素位置P45、および画素位置P45と隣接して注目画素の成分F19/vを有していない画素位置P44ついて考えると、式(12)が成立する。なお、画素位置P44,P45の画素値をDP44,DP45とする。
F19−F14=(DP45−DP44)×v ・・・(12)
【0094】
同様に、破線で示すように最後に注目画素の成分F19/vが現れる画素位置P49、および画素位置P40と隣接して注目画素の成分F19/vを有していない画素位置P50ついて考えると、式(13)が成立する。
F24−F19=(DP50−DP49)×v ・・・(13)
【0095】
ここで、画素値F14のレベルは空間相関を利用して近似的に求める。例えば画素位置P42と周辺画素の空間相関が高ければ式(14)に示すような近似が成立する。
F14≒DP42 ・・・(14)
【0096】
ここでいう空間相関とは、各画素のアクティビティ(Activity)の大小で表される関係である。すなわち、アクティビティとは、例えば、基準とする画素に隣接する画素間の差分値の和である。図19はアクティビティの算出を説明するための図である。例えば、画素位置P42を中心として3画素×3画素の合計9画素の画素間の差分が画素位置P42のアクティビティAC(P42)であり、以下の式(15)で示される。なお、図19において、画素位置P42-Uは画素位置P42よりも1つ上のラインの画素、画素位置P42-Lは画素位置P42よりも1つ下のラインの画素であることを示しており、他も同様である。
AC(P42)= |DP41-U−DP42-U|+|DP42-U−DP43-U
+|DP41 −DP42 |+|DP42 −DP43
+|DP41-L−DP42-L|+|DP42-L−DP43-L
+|DP41-U−DP41 |+|DP41 −DP41-L
+|DP42-U−DP42 |+|DP42 −DP42-L
+|DP43-U−DP43 |+|DP43 −DP43-L
・・・(15)
式(15)で示される画素位置P42で表される画素のアクティビティAC(P42)は、その値が小さいほど、画素位置P42の画素と周辺画素の空間相関が高く、画素位置P42の画素値は周辺画素の画素値に近似していることが示される。逆に、アクティビティが大きいときは、画素位置P42の画素と周辺画素の空間相関が低く、画素位置P42の画素値は周辺画素の画素値と異なる可能性が高い。すなわち、空間相関が高いということは、画素内における画素値の変化も少ないと仮定することができるので、式(16)で示すような関係が成立すると考えられる。
F12/v=F13/v=F14/v=F15/v=F16/v ・・・(16)
【0097】
従って、アクティビティAC(P42)が小さいときには、以下の式(17)が導出されることになるため、式(14)が成立すると考えられる。
DP42/v=(F12/v+F13/v+F14/v+F15/v+F16/v)=F14/v
・・・(17)
【0098】
以上の結果から、式(12)を変形し、式(14)の関係を代入すると、以下の式(18)で示されるように、動きボケのない画像の画素に入射される光のレベルとして、F19が求められることになる。
【0099】
F19=(DP45−DP44)×v+DP42 ・・・(18)
同様に考えると式(19)も成立する。
【0100】
F19=DP52+(DP49−DP50)×v ・・・(19)
このように考えると、注目画素の画素値F19を求めるときには、画素位置P42,P44,P45,P49,P50,P52を得られればよいことから、注目画素の画素位置P47を基準として画素位置P42,P44,P45,P49,P50,P52の画素を予測タップとして用いることもできる。
【0101】
図20は、処理係数の学習処理を示すフローチャートである。ステップST11では、教師画像から生徒画像を生成する。すなわち、教師画像に動きボケを付加して、動きボケが付加された画像である生徒画像を生成する。
【0102】
ステップST12では、生徒画像の中から予測タップを抽出する。ステップST13では、予測タップおよび教師画像の画素から、正規方程式を生成する。
【0103】
ステップST14では、ステップST13で生成した正規方程式を解いて処理係数を決定し、処理係数設定部37に記憶させる。ここで、動き方向を特定して動きボケ量のみを切り換えて処理係数を決定したときには、動きボケ量に応じて処理係数を記憶させる。また、動きボケ量と動き方向を切り換えて処理係数を決定したときには、動きボケ量と動き方向に応じて処理係数を記憶させる。
【0104】
ステップST15において、全ての画素について処理を施したか否かを判定して、全ての画素について処理を施していないときは、新たな画素に対してステップST12からの処理を繰り返し、全ての画素の処理が終了したときには、学習処理を終了する。
【0105】
以上の処理を行い、学習によって動きボケを除去するための処理係数を生成して処理係数設定部37に記憶させることにより、動きボケの除去処理が実行可能となる。
【0106】
また、上述のようにアクティビティの大小、すなわち、空間相関の有無を検出するときには、アクティビティの大小によりクラス分類を行い、クラス分類結果であるクラスコードに対応して処理領域を変更させることで、ボケ除去の精度を向上させることもできる。
【0107】
この場合、処理領域設定部36では、注目画素に対するクラスタップを抽出して、抽出したクラスタップからクラスコードを決定し、このクラスコードに応じて注目画素に対する処理領域を設定して、処理領域の画素値を画素値生成部38に供給する。また決定したクラスコードを処理領域設定部36から処理係数設定部37に供給して、動きボケ量MBpと動きベクトルvpに対応する動き方向およびクラスコードに応じた処理係数をメモリから読み出して画素値生成部38に供給させる。
【0108】
ここで、アクティビティの大小によりクラス分類が行われているとき、図18,図19を参照して説明したように、アクティビティの算出に用いた画素をクラスタップとして抽出する。この抽出したクラスタップを用いて上述のようにアクティビティを求め、求めたアクティビティによりクラスコードを検出する。例えばアクティビティAC(P42),AC(P52)を求めて、アクティビティAC(P42)がアクティビティAC(P52)よりも小さいときクラスコードを「1」、アクティビティAC(P52)がアクティビティAC(P42)よりも小さいときクラスコードを「2」として、クラスコードを処理係数設定部37に供給する。
【0109】
さらに、処理領域設定部36では、クラスコードに対応して注目画素に対応する処理領域の設定を行う。例えば、クラスコードが「1」であった場合、画素位置P52よりも画素位置P42の空間相関が高いので、画素位置P42、P44、P45の画素値を処理領域の画素値として画素値生成部38に供給する。また、クラスコードが「2」であった場合、画素位置P42よりも画素位置P52の空間相関が高いので、画素位置P49、P50、P52の画素値を処理領域の画素値として画素値生成部38に供給する。
【0110】
処理係数設定部37は、動き方向を特定して動きボケ量のみを切り換える、あるいは動きボケ量と動き方向を切り換えるだけでなく、クラスコード毎に生成された処理係数を予め記憶している。ここで、処理係数設定部37は、動きボケ量MBpとクラスコードに基づいた特定の処理係数を記憶しているとき、ボケ量設定部33から供給された動きボケ量MBpと処理領域設定部36から供給されたクラスコードに応じた特定の処理係数をメモリから読み出して、ボケ除去処理部381,382,383に供給することで、処理係数の設定を行う。また、動きボケ量MBpと動きベクトルvpに対応する動き方向およびクラスコードに基づく処理係数を記憶しているとき、ボケ量設定部33から供給された動きボケ量MBpと動きベクトル選択部312で選択された動きベクトルvpに基づく動き方向および処理領域設定部36から供給されたクラスコードに応じた処理係数をメモリから読み出して、ボケ除去処理部381,382,383に供給することで、処理係数の設定を行う。
【0111】
画素値生成部38のボケ除去処理部381〜383は、処理領域の画素値と処理係数設定部37から供給された処理係数を用いて演算処理を行い、ボケ除去処理後の画素値を生成して統合部39に供給する。統合部39は、ボケ除去処理部381〜383から供給された画素値を統合して、動きボケ除去がなされた画像である予測画像における注目画素の画素値を出力する。
【0112】
図21は、クラス分類を用いた画像処理のフローチャートを示している。ステップST21でCPU201は、注目画像に動きボケの除去を行う注目画素を設定してステップST22に進む。ステップST22でCPU201は、注目画素の動きベクトルを検出してステップST23に進む。ステップST23でCPU201は、露光時間比率を算出する。ステップST24でCPU201は、注目画素の動きボケ量を検出する。すなわち、ステップST22で検出した動きベクトルとステップST23で算出した露光時間比率を用いて演算処理を行い、注目画素の露光時間内での動きボケ量を検出する。
【0113】
ステップST25でCPU201は、ステップST24で求めた動きボケ量に応じてクラスタップを抽出してステップST26に進む。ステップST26でCPU201は、クラス分類を行い、クラスタップからクラスコードを決定する。ステップST27でCPU201は、クラスコードに対応した処理領域をステップST22で検出した動きベクトルに対応する動き方向に設定する。
【0114】
ステップST28でCPU201は、クラスコードを用いて処理係数の設定を行う。この処理係数の設定では、ステップST24で求めた注目画素の動きボケ量とステップST26で決定されたクラスコードに応じた特定の動きボケ除去用の処理係数、あるいは動き量とステップST22で検出された動きベクトルに応じた動き方向とクラスコードに応じた動きボケ除去用の処理係数を設定してステップST29に進む。
【0115】
ステップST29でCPU201は、ステップST28で設定した処理係数を用いてボケ除去処理を各処理対象画像に対して行う。すなわち、各処理対象画像に対してステップST27で設定した処理範囲の画素値とステップST28で設定した処理係数との演算処理を行い、ボケ除去がなされた画素値を各処理対象画像の注目画素毎に算出してステップST30に進む。
【0116】
ステップST30でCPU201は、ステップST29で処理対象画像毎に算出した画素値の統合処理を行い、得られた画素値を注目画素の動きボケ除去処理後の画素値として出力してステップST31に進む。ステップST31でCPU201は、処理範囲の全画素に対してボケ除去処理が完了したか否かを判別し、ボケ除去処理が行われていない画素があるときはステップST21に戻り、処理範囲の全画素に対してボケ除去が完了したときは注目画像に対する画像処理を終了する。
【0117】
次に、クラス分類を行う場合の処理係数の学習について説明する。図22は、クラス分類を行う場合の学習部52の機能ブロック図である。なお図22において、図17と対応する部分については同一符号を付し、詳細な説明は省略する。
【0118】
学習部52のクラスタップ抽出部521は、上述のようにクラスタップを選択して、選択したクラスタップをクラス分類部522に供給する。クラス分類部522は、上述のようにクラス分類を行いクラスコードを決定して予測タップ抽出部523と正規方程式生成部524に供給する。
【0119】
予測タップ抽出部523はクラスコードに応じて予測タップを切り換えて抽出して、正規方程式生成部524に供給する。
【0120】
正規方程式生成部524は、基本的に図17の正規方程式生成部513と同様のものであるが、クラス分類部522から供給されるクラスコード毎に正規方程式を生成して係数決定部525に出力する。従って、係数決定部525は、クラスコード毎に係数を決定し、この係数を処理係数設定部37に記憶させる。ここで、動き方向を特定して動きボケ量のみを切り換えて生徒画像を生成しているときには、動きボケ量MBpとクラスコードに応じた特定の処理係数が処理係数設定部37に記憶される。また、動きボケ量と動き方向を切り換えて生徒画像を生成しているときには、動きボケ量MBpと動きベクトルvpに対応する動き方向およびクラスコードに応じた処理係数が処理係数設定部37に記憶される。
【0121】
図23は、クラス分類を用いた処理係数の学習処理を示すフローチャートである。ステップST41では、教師画像から生徒画像を生成する。すなわち、教師画像に動きボケを付加して、動きボケが付加された画像である生徒画像を生成する。
【0122】
ステップST42では、生徒画像からクラスタップを抽出する。このクラスタップの抽出は、上述のステップST25と同様にして行う。
【0123】
ステップST43では、抽出したクラスタップよりクラス分類を行いクラスコードを決定する。ステップST44では、ステップST43で決定したクラスコードに対応して、生徒画像から予測タップを抽出する。
【0124】
ステップST45では、予測タップおよび教師画像の画素からクラスコード毎に正規方程式を生成する。
【0125】
ステップST46では、ステップST45で生成した正規方程式を解いて処理係数を決定し、処理係数設定部37に記憶させる。
【0126】
ステップST47において、全ての画素について処理を施したか否かを判定して、全ての画素について処理を施していないときは、新たな画素に対してステップST42からの処理を繰り返し、全ての画素の処理が終了したときは、学習処理を終了する。
【0127】
次に、処理係数設定部37に記憶される処理係数をモデル式から求めてボケ除去処理を行う場合について説明する。
【0128】
図24は処理領域を示しており、注目画素を中心として動き方向に(2N+1)画素分の処理領域を設定する。図25Aおよび図25Bは処理領域の設定例を示しており、動きボケを軽減させる動きオブジェクトOBfの画素に対して、動きベクトルの方向が例えば矢印Bで示すように水平方向である場合は、図25Aに示すように水平方向に処理領域WBを設定する。また、動きベクトルの方向が斜め方向である場合は、
図25Bに示したように、該当する角度方向に処理領域WBを設定する。ただし、斜め方向に処理領域を設定する際には、処理領域の画素位置に相当する画素値を、上述の図14に示すように補間等によって求める。
【0129】
ここで、処理領域内では、図26に示すように、実世界変数(Y-8,・・・,Y0,・・・,Y8) が時間混合されている。なお、図26は、動き量vが「v=5」であって処理領域を13画素(N=6:Nは注目画素に対する処理幅の画素数)とした場合である。
【0130】
ボケ除去処理では、この処理領域に対して実世界推定を行い、推定した実世界の中心画素変数Y0のみを、動きボケ除去がなされた注目画素の画素値として出力する。
【0131】
ここで、処理領域を構成する画素の画素値をX-N,X-N+1,・・・,X0,・・・,XN-1,XN とすると、式(20)に示すような(2N+1)個の混合式が成立する。なお、定数hは、動き量vを1/2倍したときの整数部分の値(小数点以下を切り捨てた値)を示している。
【0132】
【数7】
【0133】
しかし、求めたい実世界変数(Y-N-h,・・・,Y0,・・・,YN+h)は、(2N+v)個ある。すなわち、変数の数よりも式の数が少ないので、式(20)に基づき実世界変数(Y-N-h,・・・,Y0,・・・,YN+h)を求めることができない。
【0134】
そこで、空間相関を用いた拘束式である式(21)を用いることで、実世界変数よりも式の数を増やし、最小自乗法を用いて、実世界変数の値を求める。
【0135】
t−Yt+1=0 (t=-N-h,・・・,0,・・・,N+h-1)
・・・(21)
すなわち、式(20)で表される(2N+1)個の混合式と式(21)で表される(2N+v−1)個の拘束式を合わせた(4N+v)個の式を用いて、(2N+v)個の未知変数である実世界変数(Y-N-h,・・・,Y0,・・・,YN+h)を求める。
【0136】
ここで、各式において発生する誤差の二乗和が最小となるような推定を行うことで、動きボケ軽減画像生成処理を行いながら、実世界での画素値の変動を小さくできる。
【0137】
式(22)は、図26に示すように処理領域を設定した場合を示しており、式(20)と式(21)にそれぞれの式で発生する誤差を加えたものである。
【0138】
【数8】
【0139】
この式(22)は式(23)として示すことができ、式(24)に示す誤差の二乗和Eを最小とするようなY(=Yi)は式(25)として求まる。なお、式(25)において、Tは転置行列であることを示している。
【0140】
【数9】
【0141】
ここで、誤差の二乗和は式(26)で示すものとなり、この誤差の二乗和を偏微分して、式(27)に示すように偏微分値が0となるようにすれば、誤差の二乗和が最小となる式(25)を求めることができる。
【0142】
【数10】
【0143】
この式(25)の線形結合を行うことで、実世界変数(Y-N-h,・・・,Y0,・・・,YN+h)をそれぞれ求めることができ、中心画素変数Y0の画素値を注目画素の画素値として出力する。すなわち、中心画素変数Y0に対する係数を動き量毎に求めて処理係数として処理係数設定部37に記憶させておき、この処理係数設定部37に記憶されている動き量に応じた処理係数を用いて、画素値と積和演算を行うことにより動きボケが除去された画素値を出力する。このような処理を処理領域内の全画素に対して行うことで、動きボケが軽減されている実世界変数を処理領域について求めることができる。
【0144】
上述では、AY=X+eにおける誤差の二乗和Eを最小とするように、最小自乗法で実世界変数(Y-N-h,・・・,Y0,・・・,YN+h)を求めているが、式の数=変数の数となるように式を作ることも可能である。この式をAY=Xとすると、Y=A-1Xと変形することにより、実世界変数(Y-N-h,・・・,Y0,・・・,YN+h)を求めることができる。
【0145】
また、上述のモデル式のボケ除去処理では、前景オブジェクトが画素単位で動く場合について説明したが、前景オブジェクトの動き量が画素単位でないときには、露光時間内での前景オブジェクトの積分範囲が画素単位で動く場合とは異なるものとなる。このため、画素単位以下の動き量に応じた処理係数を予め求めておくものとすれば、画素単位以下の動き量が生じても、動き量に応じた処理係数を用いることで精度良くボケ除去処理を行うことができる。
【0146】
ここで、図26では、実世界変数(Y-8,・・・,Y0,・・・,Y8) が時間混合されている画素単位での足し込みモデルを示しているが、例えば動き量が5.5画素であるときは、図27に示すように0.5画素単位の足し込みモデルを設定する。この足し込みモデルでは、動き量の小数部に対応するため、動き方向と時間方向の分割をそれぞれ例えば2倍とする。このため、1画素単位での足し込みモデルでは、1つ成分を動き量で除算していたが、動き方向と時間方向の分割をそれぞれ例えば2倍としたときは、除算結果をさらに1/4倍する。すなわち、1つ成分を4倍の動き量である「22」で除算する。また、処理領域を構成する画素の画素値として、(t)フレームの画素値DP-4(t) 〜DP4(t) と(t+1)フレームの画素値DP-3(t+1) 〜DP4(t+1) を用いる。このように足し込みモデルを設定すると、上述の式(22)は、式(28)として示すことができる。
【0147】
【数11】
【0148】
図28は、図27に示す足し込みモデルを用いる場合の画像処理装置の機能ブロック図である。なお、図28において、図6と対応する部分については同一符号を付し、詳細な説明は省略する。
【0149】
(t)フレームタップ選択部362aは、処理領域の画素値を抽出して、ボケ除去処理部381a,382aに供給し、ボケ除去処理部381aでは、(t−1)フレームタップ選択部361と(t)フレームタップ選択部362aから供給された画素値と、処理係数設定部37から供給された処理係数を用いて演算処理を行い、動きボケ除去された注目画素の画素値を生成する。すなわち、式(28)のY0に対する処理係数と、(t−1)フレームタップ選択部361と(t)フレームタップ選択部362aから供給された画素値を掛け合わせて演算を行うことにより、動き量が画素単位でない場合であっても、注目画素の動きボケ除去後の画素値を求めることができる。また、(t+1)フレームタップ選択部363aは、処理領域の画素値を抽出して、ボケ除去処理部382a,383aに供給し、(t+2)フレームタップ選択部364から処理領域の画素値をボケ除去処理部383aに供給すれば、ボケ除去処理部382a,383aでもボケ除去処理部381a同様な処理を行うことができるので、各ボケ除去処理部で得られた注目画素の画素値を統合処理することで、さらに、処理精度を高めることができる。
【0150】
このように実世界変数の値を求める際に、多くの画素値を用いて実世界変数の値が求められるので、より精度の良好なボケ除去処理を行うことができる。また、このようにして求めた処理係数を予め算出しておけば、動き量が画素単位でなくとも、動き量に応じた処理係数を読み出すことで、実世界変数の値すなわちボケ除去後の注目画素の画素値を容易に得ることができる。
【0151】
次に、シャッタ動作が行われないときは、露光時間比率が1となり、注目画素の動き量は、動きベクトル設定部31で設定された動きベクトルの動き量と等しくなる。このため、ノーシャッタ動作に限定したときは、図29に示すように、露光時間比率算出部を設けることなく画像処理装置を構成できる。なお、図29においても、図6と対応する部分については同一符号を付し、詳細な説明は省略する。
【0152】
この場合、動きベクトル設定部31で設定された動きベクトルvpを注目画素設定部35や処理領域設定部36および処理係数設定部37に供給して、この動きベクトルvpに基づく動きボケ量と動き方向に応じて処理領域の設定や処理係数の設定を行うものとすれば、上述の形態と同様にして動きボケ除去を行うことができる。
【0153】
また、動きボケ量MBpに基づいて処理係数設定部37から画素値生成部38のボケ除去処理部381,382,383にそれぞれ供給する特定の処理係数、あるいは注目画素の動きボケ量と動き方向に応じてそれぞれ供給する処理係数を、関係付けておくものとすれば、ボケ除去処理部381,382,383のそれぞれで画素値を生成して統合部39で統合する処理を行わなくとも、各処理係数と処理範囲の画素値を用いた積和演算処理を行うことで注目画素の画素値を生成できる。
【0154】
図30は、処理係数とタップの画素値を用いた積和演算処理を行う場合の画像処理装置の機能ブロック図である。なお、図30においても、図6と対応する部分については同一符号を付し、詳細な説明は省略する。
【0155】
この場合、処理係数設定部37は、関係付けられて記憶されている処理係数から動きボケ量MBpと動きベクトルvpに対応する動き方向に応じた処理係数を選択して積和演算処理部40に供給する。積和演算処理部40では、処理領域設定部36で動きベクトルvpに対応する動き方向に設定された処理範囲の画素値と処理係数の積和演算により、注目画素の動きボケ除去後の画素値を生成して出力する。例えば、上述の統合部39で行った重み付けを、処理係数設定部37に記憶されている処理係数に対して予め行っておけば、積和演算処理部40から出力される画素値は、上述のように複数フレームの動きボケ除去処理後の画像信号を用いて重み付けを行った場合と同等な画素値を得ることができる。また、処理対象画像をNフレーム分として積和演算を行うとき、各処理対象画像に対する処理係数を予め1/N倍しておくことで、積和演算処理後の画素値のダイナミックレンジが変化してしまうことも防止できる。
【産業上の利用可能性】
【0156】
以上のように、本発明に係る画像処理装置と画像処理方法および画像処理プログラムは、画像センサを用いて現実社会を撮像して得られる画像信号に埋もれてしまった情報を抽出する際に有用であり、動きボケを除去した解像度の高い画像を得る場合に好適である。
【図面の簡単な説明】
【0157】
図1は、システムの構成を示す図である。
図2は、画像センサによる撮像を説明するための図である。
図3Aと図3Bは、撮像画像を説明するための図である。
図4は、画素値の時間方向分割動作を説明するための図である。
図5は、シャッタ動作を行ったときの画素値の時間方向分割動作を説明するための図である。
図6は、画像処理装置の機能ブロック図である。
図7は、ソフトウェアを用いるときの画像処理装置の構成を示す図である。
図8は、露光時間比率設定部の機能ブロック図である。
図9は、領域特定部の機能ブロック図である。
図10は、領域判定処理を説明するための図である。
図11は、理想的な混合比を示す図である。
図12は、処理領域を説明するための図である。
図13Aと図13Bは、処理領域を示す図である。
図14は、画素値の算出方法を説明するための図である。
図15は、画像処理を示すフローチャートである。
図16は、処理係数を学習によって求めてボケ除去処理を行う場合の構成を示す図である。
図17は、学習部の機能ブロック図である。
図18は、予測タップを離散的に選択する場合の動作を説明するための図である。
図19は、アクティビティの算出を説明するための図である。
図20は、処理係数の学習処理を示すフローチャートである。
図21は、クラス分類を用いた画像処理のフローチャートである。
図22は、クラス分類を行う場合の学習部の機能ブロック図である。
図23は、クラス分類を用いた処理係数の学習処理を示すフローチャートである。
図24は、処理領域を説明するための図である。
図25Aと図25Bは、処理領域の設定例を示す図である。
図26は、処理領域における実世界変数の時間混合を説明するための図である。
図27は、0.5画素単位の足し込みモデルを示す図である。
図28は、画像処理装置の他の機能ブロック図である。
図29は、ノーシャッタ動作に限定したときの画像処理装置の機能ブロック図である。
図30は、積和演算を行うときの画像処理装置の機能ブロック図である。

Claims (7)

  1. 注目画像内の画素単位で動きベクトルを設定する動きベクトル設定部と、
    前記動きベクトル設定部により設定された動きベクトルに基づき、処理対象である複数画像における画像毎に注目画素を設定する注目画素設定部と、
    注目画像の時間間隔と露光時間との比率である露光時間比率を画像単位で設定する露光時間比率設定部と、
    前記動きベクトル設定部により画素単位で設定された動きベクトルと、前記露光時間比率設定部により設定された露光時間比率に基づいて、画素単位で動きボケ量を設定する動きボケ量設定部と、
    前記動きボケ量設定部により設定された動きボケ量および前記動きベクトルに対応する動き方向に基づき、前記注目画素設定部により設定された画像毎の注目画素に対する処理領域を設定する処理領域設定部と、
    前記動きボケ量設定部により設定された前記注目画素の動きボケ量に基づき、特定の処理係数を設定するか、あるいは前記注目画素の動きボケ量と動き方向に応じて処理係数を設定する処理係数設定部と、
    前記画像毎に設定された処理領域内の画素に対応する画素値から前記動き方向に応じて生成された新たな処理用の画素値と、前記処理係数設定部により設定された前記特定の処理係数との線形結合、あるいは前記処理領域内の画素に対応する画素値と前記注目画素の動きボケ量と動き方向に応じて設定された処理係数の線形結合により前記注目画素に対応する画素値を生成する画素値生成部とを備える
    ことを特徴とする画像処理装置。
  2. 前記処理係数設定部は、前記動きボケ量より設定された各画像の注目画素に対する動きボケ量に基づき、画像毎に、処理係数を設定する
    ことを特徴とする請求項1記載の画像処理装置。
  3. 前記画素値生成部により生成された画像毎の注目画素に対応する画素値を統合処理し、単一の画素値を出力する統合部を備える
    ことを特徴とする請求項2記載の画像処理装置。
  4. 前記注目画像がノーシャッタで撮像された画像であるとき、前記動きボケ量設定部は、前記動きベクトルに対応する動き量を動きボケ量として設定する
    ことを特徴とする請求項1記載の画像処理装置。
  5. 前記動きベクトル設定部は、前記動きベクトルの動き量を画素以下単位で設定する
    ことを特徴とする請求項1記載の画像処理装置。
  6. 注目画像内の画素単位で動きベクトルを設定する動きベクトル設定工程と、
    前記動きベクトル設定工程により設定された動きベクトルに基づき、処理対象である複数画像における画像毎に注目画素を設定する注目画素設定工程と、
    注目画像の時間間隔と露光時間との比率である露光時間比率を画像単位で設定する露光時間比率設定工程と、
    前記動きベクトル設定工程により画素単位で設定された動きベクトルと、前記露光時間比率設定工程により設定された露光時間比率に基づいて、画素単位で動きボケ量を設定する動きボケ量設定工程と、
    前記動きボケ量設定工程により設定された動きボケ量および前記動きベクトルに対応する動き方向に基づき、前記注目画素設定工程により設定された画像毎の注目画素に対する処理領域を設定する処理領域設定工程と、
    前記動きボケ量設定工程により設定された前記注目画素の動きボケ量に基づき、特定の処理係数を設定するか、あるいは前記注目画素の動きボケ量と動き方向に応じて、処理係数を設定する処理係数設定工程と、
    前記画像毎に設定された処理領域内の画素に対応する画素値から前記動き方向に応じて生成された新たな処理用の画素値と、前記処理係数設定工程により設定された前記特定の処理係数との線形結合、あるいは前記処理領域内の画素に対応する画素値と前記注目画素の動きボケ量と動き方向に応じて設定された処理係数の線形結合により前記注目画素に対応する画素値を生成する画素値生成工程とを備える
    ことを特徴とする画像処理方法。
  7. コンピュータに、
    注目画像内の画素単位で動きベクトルを設定する動きベクトル設定ステップと、
    前記動きベクトル設定ステップにより設定された動きベクトルに基づき、処理対象である複数画像における画像毎に注目画素を設定する注目画素設定ステップと、
    注目画像の時間間隔と露光時間との比率である露光時間比率を画像単位で設定する露光時間比率設定ステップと、
    前記動きベクトル設定ステップにより画素単位で設定された動きベクトルと、前記露光時間比率設定ステップにより設定された露光時間比率に基づいて、画素単位で動きボケ量を設定する動きボケ量設定ステップと、
    前記動きボケ量設定ステップにより設定された動きボケ量および前記動きベクトルに対応する動き方向に基づき、前記注目画素設定ステップにより設定された画像毎の注目画素に対する処理領域を設定する処理領域設定ステップと、
    前記動きボケ量設定ステップにより設定された前記注目画素の動きボケ量に基づき、特定の処理係数を設定するか、あるいは前記注目画素の動きボケ量と動き方向に応じて、処理係数を設定する処理係数設定ステップと、
    前記画像毎に設定された処理領域内の画素に対応する画素値から前記動き方向に応じて生成された新たな処理用の画素値と、前記処理係数設定ステップにより設定された前記特定の処理係数との線形結合、あるいは前記処理領域内の画素に対応する画素値と前記注目画素の動きボケ量と動き方向に応じて設定された処理係数の線形結合により、前記注目画素に対応する画素値を生成する画素値生成ステップとを実行させるための画像処理プログラム。
JP2006549081A 2004-12-21 2005-12-21 画像処理装置と画像処理方法および画像処理プログラム Expired - Fee Related JP4766333B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006549081A JP4766333B2 (ja) 2004-12-21 2005-12-21 画像処理装置と画像処理方法および画像処理プログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2004369267 2004-12-21
JP2004369267 2004-12-21
JP2006549081A JP4766333B2 (ja) 2004-12-21 2005-12-21 画像処理装置と画像処理方法および画像処理プログラム
PCT/JP2005/023988 WO2006068282A1 (ja) 2004-12-21 2005-12-21 画像処理装置と画像処理方法および画像処理プログラム

Publications (2)

Publication Number Publication Date
JPWO2006068282A1 JPWO2006068282A1 (ja) 2008-06-12
JP4766333B2 true JP4766333B2 (ja) 2011-09-07

Family

ID=36601869

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006549081A Expired - Fee Related JP4766333B2 (ja) 2004-12-21 2005-12-21 画像処理装置と画像処理方法および画像処理プログラム

Country Status (6)

Country Link
US (1) US8213496B2 (ja)
EP (1) EP1830561A4 (ja)
JP (1) JP4766333B2 (ja)
KR (1) KR101129591B1 (ja)
CN (1) CN100486299C (ja)
WO (1) WO2006068282A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4674620B2 (ja) * 2008-07-29 2011-04-20 ソニー株式会社 画像処理装置、画像処理方法、及びプログラム
JP5338684B2 (ja) * 2010-01-08 2013-11-13 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
JP5526942B2 (ja) * 2010-03-31 2014-06-18 ソニー株式会社 ロボット装置、ロボット装置の制御方法およびプログラム
FR2968878A1 (fr) 2010-12-14 2012-06-15 Thomson Licensing Procede et dispositif pour generer des images comportant du flou cinetique
KR101926490B1 (ko) * 2013-03-12 2018-12-07 한화테크윈 주식회사 이미지 처리 장치 및 방법
JP6411768B2 (ja) 2014-04-11 2018-10-24 Hoya株式会社 画像処理装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001250119A (ja) * 1999-12-28 2001-09-14 Sony Corp 信号処理装置および方法、並びに記録媒体
JP2002373336A (ja) * 2001-06-15 2002-12-26 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム
JP2003233817A (ja) * 2002-02-08 2003-08-22 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4833535A (en) * 1987-02-04 1989-05-23 Kabushiki Kaisha Toshiba Image transmission apparatus
JP3679426B2 (ja) * 1993-03-15 2005-08-03 マサチューセッツ・インスティチュート・オブ・テクノロジー 画像データを符号化して夫々がコヒーレントな動きの領域を表わす複数の層とそれら層に付随する動きパラメータとにするシステム
JP3169783B2 (ja) * 1995-02-15 2001-05-28 日本電気株式会社 動画像の符号化・復号システム
JP2000030040A (ja) * 1998-07-14 2000-01-28 Canon Inc 画像処理装置及びコンピュータ読み取り可能な記憶媒体
US7583292B2 (en) 1999-12-28 2009-09-01 Sony Corporation Signal processing device and method, and recording medium
JP4596202B2 (ja) 2001-02-05 2010-12-08 ソニー株式会社 画像処理装置および方法、並びに記録媒体
JP4596221B2 (ja) * 2001-06-26 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
US6965645B2 (en) * 2001-09-25 2005-11-15 Microsoft Corporation Content-based characterization of video frame sequences
JP3702260B2 (ja) * 2002-09-19 2005-10-05 株式会社東芝 目標角速度計測装置および目標角速度計測方法
US7406123B2 (en) * 2003-07-10 2008-07-29 Mitsubishi Electric Research Laboratories, Inc. Visual complexity measure for playing videos adaptively
US7580620B2 (en) * 2006-05-08 2009-08-25 Mitsubishi Electric Research Laboratories, Inc. Method for deblurring images using optimized temporal coding patterns

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001250119A (ja) * 1999-12-28 2001-09-14 Sony Corp 信号処理装置および方法、並びに記録媒体
JP2002373336A (ja) * 2001-06-15 2002-12-26 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム
JP2003233817A (ja) * 2002-02-08 2003-08-22 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム

Also Published As

Publication number Publication date
CN100486299C (zh) 2009-05-06
JPWO2006068282A1 (ja) 2008-06-12
US20080129873A1 (en) 2008-06-05
EP1830561A1 (en) 2007-09-05
US8213496B2 (en) 2012-07-03
KR101129591B1 (ko) 2012-03-28
WO2006068282A1 (ja) 2006-06-29
KR20070095295A (ko) 2007-09-28
EP1830561A4 (en) 2009-08-05
CN101084671A (zh) 2007-12-05

Similar Documents

Publication Publication Date Title
JP4766334B2 (ja) 画像処理装置と画像処理方法および画像処理プログラム
JP4868236B2 (ja) 画像処理装置と画像処理方法および画像処理プログラム
WO2005079062A1 (ja) 画像処理装置と画像処理方法およびプログラム
JP4497096B2 (ja) 画像処理装置と画像処理方法およびプログラム
JP4766333B2 (ja) 画像処理装置と画像処理方法および画像処理プログラム
US7221778B2 (en) Image processing apparatus and method, and image pickup apparatus
KR100848427B1 (ko) 화상 처리 장치
CN114339030B (zh) 一种基于自适应可分离卷积的网络直播视频稳像方法
JP4867659B2 (ja) 画像処理装置と学習装置と係数生成装置および方法
JP4872672B2 (ja) 学習装置と学習方法および学習プログラム
US7352917B2 (en) Image processing apparatus and method, and image pickup apparatus
KR100894923B1 (ko) 화상 처리 장치, 방법 및 기록 매체와 촬상 장치
JP4088819B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
US7593601B2 (en) Image processing device, method, and program
US7684635B2 (en) Signal processing device, and signal processing method, and program, and recording medium
JP4596248B2 (ja) 画像処理装置と画像処理方法およびプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081117

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081117

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20090918

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20091106

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110519

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110601

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140624

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees