JP3862531B2 - Image interpolation device - Google Patents

Image interpolation device Download PDF

Info

Publication number
JP3862531B2
JP3862531B2 JP2001276651A JP2001276651A JP3862531B2 JP 3862531 B2 JP3862531 B2 JP 3862531B2 JP 2001276651 A JP2001276651 A JP 2001276651A JP 2001276651 A JP2001276651 A JP 2001276651A JP 3862531 B2 JP3862531 B2 JP 3862531B2
Authority
JP
Japan
Prior art keywords
pattern
image
interpolation
image line
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001276651A
Other languages
Japanese (ja)
Other versions
JP2003087750A (en
Inventor
香奈子 西橋
政明 守屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2001276651A priority Critical patent/JP3862531B2/en
Publication of JP2003087750A publication Critical patent/JP2003087750A/en
Application granted granted Critical
Publication of JP3862531B2 publication Critical patent/JP3862531B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、走査線数が異なるテレビジョン方式のアップコンバートや、インターレース走査映像信号から順次走査映像信号に変換するにあたり、フィールド画像からフレーム画像を生成する際等のライン補間による画像補間装置に関する。
【0002】
【従来の技術】
従来、走査線数が異なるテレビジョン方式のアップコンバートや、画像の高細精化のために、インターレース映像からプログレッシブ映像を生成する走査線補間方法として、静止画に対してはフレーム内補間が行われる。しかし、動画においては、フレーム相関が崩れ、フレーム内補間では動きのある縦線がギザギザに誤変換される等の不具合が発生するため、フィールド内補間が行われる。
【0003】
フィールド内補間の方法としては、簡便な方法として、補間すべきラインとして前ラインをそのまま用いるライン補間方法や、上下のラインの平均値を用いるライン補間方法がある。前者の補間方法では、斜線等のような垂直方向に相関の無い画像では画像の輪郭線にギザギザが生じ、また、後者の補間方法では画像にボケが生じるといった画像の劣化を伴っていた。
【0004】
これらの欠点を解決する手法として、特開昭63−187785号公報に記載の補間方法がある。この補間方法では、補間すべきラインの各画素を、その画素の周辺において最も相関の強い方向の画素情報を用いて補間するものである。まず、補間画素から放射状に延びるどの方向の画素信号が最も相関が強いかを知るために、垂直方向、右斜め方向,左斜め方向の隣接画素の差分絶対値を求める。この差分絶対値が最小となる方向が最も相関が強い方向であると判断して、その方向にある各画素の平均値を求め、それを補間画素の値とする。
【0005】
しかしながら、この方法では、補間すべきラインの各画素について、即ち、1画素毎について、少なくとも上記のような3方向の差分絶対値を算出し、さらに、それらの差分絶対値の最小を判断して補間画素の値を求めるという処理を必要とする。このため、補間処理速度が遅く、また画像中のエッジ部分以外の領域(画素値が変化しない領域)のように、いずれの方向においても相関の強さに差がない場合でも上記の一連の処理を行うので、無駄な処理時間が費やされており、補間の処理速度が遅く、相関を求める画素の範囲を拡大することも困難であった。
従って、傾斜角度の小さな斜線のように、かなり離れたところで相関をもつ画像の補間を行う場合には、それらの相関の強い画素を使った補間ができないために、補間精度が悪くなり、依然として斜線部のエッジにガタツキが生じることにもなっていた。
【0006】
特開平5−30487号公報には、上記公報の欠点を改善するために、補間の処理速度を向上させるとともに、処理速度の向上に伴って相関を求める範囲を拡大し、補間の精度を向上させる方法が開示されている。以下に、この公報に開示されている画像の補間方法について図13乃至図16と共に説明する。
【0007】
先ず、この補間方法は、図13に示すように、2次元画像の隣接するnラインとn+1ラインの各画素を比較して、それぞれのライン上の2次元画像のエッジ箇所a,bを検出する。補間すべき補間ラインでは、前記エッジが検出されたa,b間以外では隣接するいずれかのラインの画素を用いて補間することとし、補間ラインのエッジ部を求める。
【0008】
次いで、図13に示すように、エッジ箇所a,bでは隣接するいずれか一方のライン(nライン)上の注目画素(ここではAとする)を中心とした「画素数」と「補間位置からのシフト量」からなる近傍画素列(3,0)として設定し、これと相関のある対象画素列(3,1)を隣接する他方のライン(n+1ライン)の中から選出する。
ここで、近傍画素列と対象画素列との相関を取るための一般式としては、近傍画素列=(2m+1、0)、対象画素列=(2m+1、±Y)を用い、m=Y=1,2,3,4,5ぐらいまでを順に可変して行く。
【0009】
まず、図14に示すように、近傍画素列(3,0)と対象画素列(3,1)との間で、図中矢印のような画素対で演算を行い、画素レベルの差が所定の基準値内かどうかで相関の判定を行う。図15に示す場合は、中央画素対に相関がないため、m=Y=2とし、それぞれ近傍画素列を(5,0)、対象画素列を(5,2)とし、図中矢印のような画素対で演算を行う。図中矢印のような画素対での演算で相関有りとを判断されると、その時の補間位置からのシフト量が2画素となる。図16に示すように、a部とb部が2画素ズレている。求めた画素数の半数だけ、前記選出した画素列または近傍画素列を位置ズレ方向とは逆の方向にシフトした画素列、即ち、Aから右へ1画素シフトしたc点を中心とする画素列を用いて補間する。
【0010】
【発明が解決しようとする課題】
特開平5−30487号公報に示される補間方法は、一般的に行われている画素単位による補間方法に比べ画素列による補間を取り入れ、処理速度を向上させる発明である。従って、画素列のエッジ部分を決定するために、エッジ部付近において、少なくとも3画素から11画素程度まで画素シフトを行いながらライン間演算を行うものである。このため、演算時間がかかる点では未だ問題の残る方法である。さらに、この補間方法は、画像の輪郭を滑らかにする方法であり、例えば水平に近い細線画像の場合インターレース映像信号のフィールド画像であると途切れ部分が生じ、細線画像の画素とその直上直下の画像ラインの画素に相関がないと、画像の輪郭として認識しないため、画素列による補間を行わず、途切れ部分を埋める補間画像を生成できないという問題も有している。
【0011】
本発明の目的は、処理速度を大幅に削減することができ、途切れのない滑らかなフレーム画像を生成することができる画像補間装置を提供することにある。
【0012】
【課題を解決するための手段】
本発明は、インターレース走査映像信号の入力フィールド画像に対し各画像ライン間の補間を行うことによって順次走査映像信号の画像を生成する画像補間装置において、
入力フィールド画像の対象画素と、該対象画素の直上直下に隣接する画素との輝度差分特性を求めて、ライン方向に共通の差分特性を有する連続画素列である画像ラインパターンを抽出するとともに、該画像ラインパターンの位置と輝度差分特性に関するパターン情報を生成するパターン情報生成手段と、各ライン間において、前記画像ラインパターンのうち輝度差分特性に関する前記パターン情報が一致するものを取り出し、ライン間の補間に用いる画像ラインパターンを決定する補間パターン決定手段と、決定した画像ラインパターンを用いて補間画素列を設定して補間を実行する補間実行手段とを具備し、
前記パターン情報生成手段は、入力フィールド画像の対象画素と該対象画素の直上直下に対向する隣接ラインの画素との輝度値の各差を加えた2回差分値を求める2回差分値演算手段と、各画像ラインについて、前記2回差分値に基づく輝度差分特性がライン方向に共通である連続する画素列を画像ラインパターンとして認識して抽出するパターン抽出手段と、抽出された画像ラインパターンの前記パターン情報を収集する情報収集手段とを具備し、
前記補間パターン決定手段は、前記パターン情報から一致している可能性のある画像ラインパターンを検索する一致パターン検索手段と、検索された画像ラインパターン同士の前記パターン情報が一致するかを判定するパターン一致判定手段と、一致すると判定された画像ラインパターンの開始位置と長さから連続的に補間に用いるべき画像ラインパターンであるかを判定するベクトル判定を行うベクトル判定手段とを具備し、
前記補間実行手段は、前記補間パターン決定手段により決定された画像ラインパターンのパターン情報に基づいて、補間を実行する区間の位置と長さを決定する補間実行区間決定手段と、決定された前記区間に前記補間パターン決定手段により決定された画像ラインパターンに基づいて、前記補間する画素列を作成する補間画素作成手段とを具備することを特徴とする画像補間装置である。
【0013】
また、本発明は、さらに、前記パターン情報に基づいて、補間に使用可能な画像ラインパターンの存在位置に関する予測情報を生成する補間パターン予測手段を具備し、
該補間パターン予測手段は、前記パターン情報から補間可能方向/補間不可能方向を予測する補間方向予測手段と、前記パターン情報が一致する画像ラインパターンが存在する位置までの距離を予測する検索距離予測手段と、一致する画像ラインパターンと補間しても画像に破たんが生じない距離を予測する補間実行距離予測手段とを具備することを特徴とする画像補間装置である。
【0014】
また、本発明は、前記パターン情報生成手段は、さらに、画素毎の縦方向の2回差分値を正規化処理して複数の輝度差分特性を示す種類に分類する正規化手段を具備し、
前記パターン抽出手段は、前記正規化手段により求めた輝度差分特性を示す分類に基づいて画像ラインパターンの抽出を行うことを特徴とする画像補間装置である。
【0015】
また、本発明は、前記パターン情報生成手段は、さらに、前記パターン出手段が抽出した画像ラインパターンが画像の歪みやノイズの場合に、この画像ラインパターンを取り除くコアリング処理を行うコアリング手段を具備し、
前記コアリング手段は、前記画像ラインパターン内の輝度波形に複数の極大/極小点やパターン内の輝度波形に鋭角な変化点を有する画像を歪みとし、基準画素数に届かない画素列をノイズとして検出する検出手段と、前記検出手段の検出データに基づいて、前記画像ラインパターンを削除する編集が必要か否かを判定する編集判定手段と、編集が必要と判定された画像ラインパターンに対して削除編集を実行する編集実行手段とを具備することを特徴とする画像補間装置である。
【0016】
また、本発明は、前記情報収集手段は、前記画像ラインパターン内の最大輝度値を収集する手段と、前記画像ラインパターン開始位置からの最大輝度位置までの最大輝度増加量を収集する手段と、最大輝度位置から前記画像ラインパターン終了位置までの最大輝度減少量を収集する手段とを具備することを特徴とする画像補間装置である。
【0017】
また、本発明は、前記情報収集手段は、前記画像ラインパターン内の最小輝度値を収集する手段と、前記画像ラインパターン開始位置からの最小輝度位置までの最大輝度減少量を収集する手段と、最小輝度位置から前記画像ラインパターン終了位置までの最大輝度増加量を収集する手段と具備することを特徴とする画像補間装置である。
【0023】
【発明の実施の形態】
以下に、本発明の実施の形態について、図1乃至図12を参照しながら説明する。
図1は、本発明に係る画像補間装置の一実施形態の構成を示すブロック図である。図2は入力画像の1例として白い背景1に黒い細線映像のインターレース映像信号におけるフィールド画像2が写し出されたモニタ画面を示している。図3は、図2に示す拡大ポイント3の入力映像ラインと補間ラインを示している。同図において、A,C,E,G,I,Kは入力映像ラインであり、B,D,F,H,Jは、補間ラインを示す。
【0024】
図1に示す画像補間装置は、パターン情報生成部100、補間パターン予測部120、画像データベース130、補間パターン決定部140、補間実行部150を備えた構成である。そして、フィールド画像の隣接3ラインで対向画素間の輝度値2回差分演算(A−2×C+E)とコアリング処理、情報収集処理により画像ラインパターンのデータベースを生成する第1ステップと、画像ラインパターンの情報データから各画像ラインパターンの補間方向、補間距離を予測する第2ステップと、画像ラインパターンのデータベースを基に補間すべき位置を決定する第3ステップと、補間を実行する第4ステップとによる補間を行う。
【0025】
以下に、図1の画像補間装置の各部について詳述する。
【0026】
<パターン情報生成部>
まず、パターン情報生成部100における画像ラインパターンの生成について説明する。
パターン情報生成部100は、縦方向輝度値の2回差分演算部101、正規化処理部102、パターン抽出部103、縦方向相関検出部104、情報収集部105、コアリング処理部110から構成される。更にコアリング処理部110は、パターン内画像の歪み・ノイズ検出部111、パターン編集判定部112、パターン編集実行部113から構成される。
【0027】
パターン情報生成部100に入力されたフィールド画像は、縦方向輝度値の2回差分演算部101に入力される。縦方向輝度値の2回差分演算部101は、各画素の縦方向輝度値の2回差分値を演算する。ここで、縦方向輝度値の2回差分値とは、対象画素の輝度値と、対象画素に隣接するライン上にあって縦方向に対象画素に対向する画素の輝度値との両差分値を加えた値である。
例えば、2回差分値を±512の範囲とし、図3において、AラインCラインEライン、CラインEラインGライン、EラインGラインIライン、GラインIラインKラインのそれぞれの入力画像の3ライン間で輝度2回差分値を演算する。すなわち、Cライン、Eライン、Gライン、Iラインの画素を対象画素とし、対象画素の直上直下の対向画素との輝度値の2回差分値を求める。AラインCラインEラインの3画像ラインを例に取れば、縦方向輝度値の2回差分の演算は下記のようなものになる。
【0028】
Cライン上対象画素の縦方向輝度値の2回差分値=Aライン対向画素の輝度値−2×Cライン対象画素の輝度値+Eライン対向画素の輝度値
【0029】
縦方向相関検出部104では、縦方向輝度値の2回差分演算部101で使用される3画像ラインの間に、縦方向に相関性があるかを検出する。例えば、図3に示す上記3画像ラインのそれぞれ画素に対し、まず、輝度値の横方向増減方向や、輝度値の横方向増減量、横方向の輝度値の2回差分値を求める。そして求めた値に基づき、1画素に着目して、隣接する画像ラインの縦方向における画素(直上直下の対向画素)が同じ値(輝度値の横方向増減方向や、輝度値の横方向増減量、横方向の輝度値の2回差分値)を取る場合、縦方向の相関性があると検出する。
【0030】
次いで、正規化処理部102では、設定されている閾値を基に各画像ライン上画素の縦方向の輝度値の2回差分値の正規化処理が行われ、各画像ライン上画素の縦方向輝度値の2回差分値を+、−、0の3種類に分類する。パターン抽出部103では、このうち+または−の同じ種類が連続している区間であって、縦方向相関検出部104により縦方向相関が無いと検出された区間を画像ラインパターンとして抽出する。
抽出された画像ラインパターンとは、対象画素の縦方向の輝度値の2回差分値に基づいて、輝度差分特性(2回差分値における+、0、−の分類が該当)を求め、共通の輝度差分特性を有するライン方向への連続画素列のことである。
【0031】
このとき、情報収集部105では、パターン抽出部103で抽出された画像ラインパターンの位置情報(データ)と画像ラインパターン内の画像の特徴に関する情報(データ)を収集しておく。収集する画像ラインパターン画像の特徴に関する情報(データとしては、例えば、画像ラインパターン内の最大/最小輝度値、画像ラインパターン内の横方向(ライン方向)の輝度値の増減の幅と方向、画像ラインパターン両端の輝度値、画像ラインパターン両端の輝度値の増減量等がある。情報収集部105で収集するデータは、縦方向輝度値の2回差分演算部101で使用した入力画像ライン3ライン全てについて行うと、補間の精度が向上する。
【0032】
さらに、抽出された画像ラインパターンは、コアリング処理部110の画像ラインパターン内画像のノイズ歪み・ノイズ検出部111において、画像ラインパターン内部の画像の歪みやノイズの有無を検出する。画像の歪みとは、例えば、画像ラインパターン内の輝度波形に複数の極大/極小点や、鋭角な変化点がある場合とする従って、歪みのない画像とは、画像ラインパターン内の輝度波形に1つの極大点や極小点がある画像や、全く極大点や極小点のない画像ということになる。また、ノイズとは、基準画素数に届かない画素列である。
次いで、パターン編集判定部112では、上記のような歪みやノイズが検出された場合、抽出された画像ラインパターンを削除する編集をすべきかどうかを編集基準値と比較して判定する。この編集基準値は、各歪みやノイズの程度に応じて総合的に判断できるように設定されている。そして、削除判定された画像ラインパターンは、パターン編集実行部113により削除される。
【0033】
図4は、パターン情報生成部100において、上記の処理を経て得られた画像ラインパターンを示す図である。同図において、40〜43と、62〜65は−に分類された画像ラインパターン、51〜54は+に分類された画像ラインパターン、その他は0に分類された画像ラインパターンである。パターン情報生成部100では、図4に示すように画像ライン毎に切り分けが終わった画像ラインパターンについて、各画像ラインパターン毎に開始位置、長さ、符号、情報収集部105で収集したデータとして作成し、補間パターン予測部120に送る。
【0034】
<補間パターン予測部>
補間パターン予測部120における補間方向、検索距離、補間実行距離の予測について説明する。
補間パターン予測部120は、補間方向予測部121、検索距離予測部122、補間実行距離予測部123から構成される。
補間パターン予測部120では、パターン情報生成部100において生成された画像ラインパターンのデータを使って、補間可能な画像ラインパターンの有無の可能性や、補間可能な画像ラインパターンまでの距離を予測する。
【0035】
補間パターン予測部120の補間方向予測部121は、画像ラインパターンの左右両端の情報を比較する。
例えば、図5において、CラインEラインGラインの3画像ラインから生成されたEライン上の画像ラインパターン52の左端の位置、画像ラインE−23,24の輝度の増減量と、Eライン上の画像ラインパターン52の右端直下のGライン上の位置、画像ラインG−30,31の輝度の増減量を比較する。補間方向予測部121は、増減が逆方向だったり増減量が大きく異なっている場合、画像ラインパターン52の右下方向への接続は無効である(以下:補間不可能方向)と予測する。さらに、右上、左上、左下についても同様の方法で、補間可能方向/補間不可能方向を予測する。
【0036】
つぎに、補間パターン予測部120の検索距離予測部122は、入力された画像ラインパターンの左右両端の輝度値を比較し、一致する画像ラインパターンが存在するであろう位置までの距離を予測する。
すでに、輝度値の横方向増減方向や、輝度値の横方向増減量、横方向の輝度値の2回差分値を求めているので、これに基づいて距離を求める。例えば、図5において、CラインEラインGラインの3画像ラインから生成されたEライン上の画像ラインパターン52の左端の位置にある画像ラインE−24の輝度値と、Eライン上の画像ラインパターン52の右端直下のGライン上の位置にある画像ラインG−30の輝度値との差分を、Eライン上の画像ラインパターン52の右端直下のGライン上の位置にある画像ラインG−30,31の輝度の増減量(1画素当たりの輝度増減量)で除算し、その結果に基づいて右下方向へ連続する画像ラインパターン(補間可能な画像ラインパターン)までの距離(画素数)とする。同様に、左下方向についても距離を計算する。こうして、画像ラインパターンの両端画素の直下の画素の輝度が増減していれば、その1画素あたりの増減量から補間すべき画像ラインパターンの距離を予測ことができる。
【0037】
そして、補間パターン予測部120の補間実行距離予測部123は、入力された画像ラインパターン内の輝度の変化量、長さ(画素数)等から、一致する画像ラインパターンと補間しても画像に破たんが生じない限界距離(画素数)を予測する。
例えば、図5において、CラインEラインGラインの3画像ラインから生成されたEライン上の画像ラインパターン52の輝度の変化量により、各画像ラインパターンが短くなる場合、補間した画像に本来形成されてはならない画像が形成されない限界距離を予測する。
【0038】
補間パターン予測部120では、パターン情報生成部100で生成されたデータに、上記のような各種予測データを加えて、画像データベース130に送る。
【0039】
<画像パターンデータベース>
画像データベース130では、パターン情報生成部100の処理の結果得られたデータおよび補間パターン予測部120の処理の結果得られたデータ(予測情報)が画像ラインパターンに関するデータ(パターンデータ)として格納される。
格納されるデータの量は、フィールド内全部の場合もあるが、補間パターン決定部140や補間実行部150で必要とする複数ライン分だけ格納する場合もある。
【0040】
<補間パターン決定部>
補間パターン決定部140は、パターン検索部141、パターン一致判定部142、パターン一致条件設定部143、補間方向判定部144、補間実行距離判定部145、ベクトル判定部146、ベクトル判定条件設定部147からなる構成である。
【0041】
パターン検索部141では、画像データベース130から入力された画像ラインパターンのパターンデータについて、画像データベース130に格納されている他ラインの画像ラインパターンのパターンデータの中から一致している可能性のあるパターンデータを抽出する。
例えば、補間パターン予測部120の検索距離予測部122で予測された検索距離に基づいて、判定を行う対象となる画像ラインパターンの中心を軸として他ラインの左右それぞれ2地点ずつ、合わせて4地点について画像ラインパターンの存在を確認する。ここで左側の2地点でみつかった画像ラインパターンが異なる画像ラインパターンであった場合は、判定を行う対象となる画像ラインパターンの中心に近い側で、かつ、判定を行う対象となる画像ラインパターンのパターンデータと見つかった画像ラインパターンのパターンデータの符号情報が等しいパターンデータを採用する。右側の2地点についても同様に行う。したがって、最大で画像ラインパターンのパターンデータ左右から1つずつ抽出される。
【0042】
図6では、検索距離予測部122で予測された検索距離に基づいて、入力画像ラインE−17,18,19,20,21,22,23の区間にある画像ラインパターン42に関するデータ(パターンデータ42と一致する可能性のあるパターンデータを検索する様子を示している。入力画像ラインEの画像パターンデータ42の中心を軸として、左側では、検索した2地点とも入力画像ラインG−11,12,13,14,15,16,17の区間にある画像ラインパターンが検出されるので、画像ラインパターン43に関するデータ(パターンデータ43が抽出される。右側では、検索した入力画像ラインEの画像ラインパターン42の中心に近い入力画像ラインG−18,19,20,21,22,23,24の区間にある画像ラインパターンが検出されるので、画像ラインパターン53に関するデータ(パターンデータ53抽出される。しかし、パターンデータ42の符号とパターンデータ53の符号は一致しないので、最終的に入力画像ラインG−25,26,27,28,29,30,31の区間にある画像ラインパターン63に関するデータ(パターンデータ63が抽出される。
【0043】
今、補間パターン決定部140が、画像データベース130に登録されている画像ラインパターンのパターンデータを処理する場合に、フィールド画像のライン単位に上のラインから下方向に1ラインずつ順次処理を進める構成になっているとする。すると、現在判定を行う対象である、基となる画像ラインパターンのパターンデータ(基パターンデータ)は、方向にある画像ラインパターンのパターンデータと比較することになる。
そこで、パターン一致判定部142では、パターン一致条件設定部143に設定された条件に基づいて、パターン検索部141での検索の結果抽出された、1ライン下の画像ラインパターンのパターンデータと基パターンデータの内容が一致しているかを判定する。
【0044】
パターン一致判定部142で判定する内容としては、画像ラインパターン内の最大/最小輝度値、画像ラインパターン内の輝度の増減の幅と方向、画像ラインパターン両端の輝度値、画像ラインパターン両端の輝度の増減量等、パターン情報生成部100の情報収集部105で収集したデータの詳しい内容である。これらパターンデータの内容の差がパターン一致条件設定部143に設定された閾値以内であれば、基パターンデータとパターン検索部141での検索の結果抽出されたパターンデータは一致していると判定する。基パターンデータと一致していると判定されたパターンデータを、以下で候補パターンデータと呼ぶ。
【0045】
例えば、図4に示すように、入力画像ラインE−24,25,26,27,28,29,30の区間にある画像ラインパターン52のパターンデータ52と入力画像ラインG−18,19,20,21,22,23,24の区間にある画像ラインパターン53のパターンデータ53とは、画像ラインパターン内の最大/最小輝度値、画像ラインパターン内の輝度の増減の幅と方向、画像ラインパターン両端の輝度値、画像ラインパターン両端の輝度の増減量等のデータの差が、パターン一致条件設定部143に設定された条件以内なので、入力画像ラインE上の画像ラインパターン52のパターンデータ52と入力画像ラインG上の画像ラインパターン53のパターンデータ53は一致していると判定される。
【0046】
また、入力画像ラインE−17,18,19,20,21,22,23の区間にある画像ラインパターン42のパターンデータ42と入力画像ラインG−25,26,27,28,29,30,31の区間にある画像ラインパターン63のパターンデータ63とでは、画像ラインパターン内の輝度の増減方向が逆向きなので、パターン一致条件設定部143に設定された条件からはずれるため、入力画像ラインE上の画像ラインパターン42のパターンデータ42と入力画像ラインG上の画像ラインパターン63のパターンデータ63は一致していないと判定される。
【0047】
このとき、基パターンデータと左右の2つの画像ラインパターンのパターンデータについてこの一致判定を行うが、左右両方のパターンが両方ともに基パターンデータと一致していると判定された場合には、誤抽出である可能性が高いため、左右両方の一致判定を破棄し、両方共に一致していないとして扱う。
以上の結果、図7に示すように入力画像ラインにある画像ラインパターンのパターンデータには一方向のみに候補パターンデータが存在するとして特定される。
【0048】
次に補間方向判定部144では、一致していると判定された候補パターンデータと基パターンデータの接続方向と、補間パターン予測部120の補間方向予測部121から入力された、候補パターンデータと基パターンデータそれぞれの補間可能方向/補間不可能方向との間で判定を行う。
【0049】
基パターンデータと候補パターンデータの位置情報を用いて、まず基パターンデータの画像ラインデータから候補パターンデータの画像ラインデータが存在する方向を導き出し、この方向が補間可能方向になっているかの判定を行い、次に候補パターンデータの画像ラインデータから基パターンデータの画像ラインデータが存在する方向を導き出し、この方向が補間可能方向になっているかの判定を行う。この両者の判定がともに有効であった場合、候補パターンデータは補間可能な方向にあると判断される。
例えば、画像ラインEの画像ラインパターン52のパターンデータ52と画像ラインGの画像ラインパターン53のパターンデータ53の間での判定では、まず、基パターンデータである画像ラインEの画像ラインパターン52のパターンデータ52の左下方向が補間可能方向になっているかの判定を行い、続いて、候補パターンデータである画像ラインGの画像ラインパターン53のパターンデータ53の右上方向が補間可能方向になっているかの判定を行う。
【0050】
次に補間実行距離判定部145では、補間パターン予測部120の間実行距離予測部123から入力された補間実行距離に基づき、一致しているとして抽出された候補パターンデータと基パターンデータの間の距離についての判定を行う。候補パターンデータと基パターンデータの間の距離が、補間実行距離より小さい場合、候補パターンデータは補間可能な距離に存在すると判断される。
【0051】
さらに、実際の画像においては途切れの有る細線やエッジ部等が存在する場合が有り、一致パターンの誤抽出を防止するために、ベクトル判定を行う。
今、補間パターン決定部140が、画像データベース130に登録されているパターンデータを処理する場合に、フィールド画像のライン単位に上のラインから下方向に1ラインずつ順次処理を進める構成になっているとする。すると、現在判定を行う対象である基パターンデータと基パターンデータの画像ラインデータが存在するラインより1つ上のラインに存在する画像ラインパターンのパターンデータの間では、既に一致関係の有無が決定されている。そこでベクトル判定部146では、現在判定を行っている基パターンデータに対して、この基パターンデータを候補パターンデータとする基パターンデータの画像ラインデータが存在するラインより1つ上のラインに存在する画像ラインパターンのパターンデータが存在しないか画像データベース130に問い合わせる。
【0052】
基パターンデータを候補パターンデータとするパターンデータが存在しない場合は、現在の基パターンデータと候補パターンデータの一致関係を画像データベース130に登録して処理を終える。
基パターンデータを候補パターンデータとするパターンデータが存在した場合は、現在の基パターンデータ、候補パターンデータを加えた3パターンについてベクトル判定を行う。これはベクトル判定条件設定部147の設定に基づいて、3つのパターンデータの開始位置・長さ・重なり量などについての判定(ベクトル判定)を行い、この3つのパターンデータが連続的に補間されるべき画像ラインパターンであるかどうかが判定される。
【0053】
例えば、入力画像ラインE上の画像ラインパターンデータ42のパターンデータ42が基パターンデータのとき、パターンデータ42には候補パターンデータとして入力画像ラインG上の画像ラインパターン43のパターンデータ43が存在する。この時既に、1ライン上の入力画像ラインC上の画像ラインパターン41のパターンデータ41と画像ラインパターン42のパターンデータ42の一致関係が決定されているので、3つのパターンデータ41,42,43それぞれの画像ラインパターン41,42,43の開始位置・長さ・重なり量について判定を行う。
本実施形態では、図7に示すように、3つの画像パターンデータ41,42,43それぞれの画像ラインパターン41,42,43とも同じ長さであり、また、3つのパターンデータそれぞれの画像ラインパターンとも直線上にならんでいるため、連続的に補間されるべき画像ラインパターンであると判定される。
【0054】
<補間実行部>
次に、補間実行部150における補間実行処理について説明する。
補間実行部150は、補間実行区間決定部151、補正手段153、補間画素列演算部152、動き情報処理部154から構成される。
補間実行区間決定部151では、補間パターン決定部140から入力された一致関係情報と、画像データベース130から得られる基パターンデータと候補パターンデータそれぞれの画像ラインパターンの開始位置と長さのデータから、補間実行する区間位置と長さを決定する。
【0055】
補間実行する区間の長さは、基パターンデータに対応する画像ラインパターンの長さと候補パターンデータに対応する画像ラインパターンの長さの平均とする。また、補間実行する区間の位置は、基パターンデータに対応する画像ラインパターンのある上側画像ラインと候補パターンデータに対応する画像ラインパターンのある下側画像ラインに挟まれる補間ライン上で、基パターンデータに対応する画像ラインパターンの中心点と候補パターンデータに対応する画像ラインパターンの中心点を結んだ直線の中央が、補間実行する区間の中心点になるように決定している。
但し、補間実行する区間の位置と長さの決定方法は、上記方法に限定されるものでは無い。
【0056】
図8および図9に補間実行区間決定部151において決定された補間実行する区間を示す。本実施例では、画像ラインの基パターンデータに対応する画像ラインパターンと候補パターンデータに対応する画像ラインパターンの長さを同じに表現しているため、補間実行する区間も同じ長さになる。
画像ラインEの基パターンデータ42に対応する画像ラインパターン42と画像ラインGの候補パターンデータ43に対応する画像ラインパターン43の補間実行する区間は補間ラインF上の区間72であり、画像ラインEの基パターンデータ52に対応する画像ラインパターン52と画像ラインGの候補パターンデータ53に対応する画像ラインパターン53の補間実行する区間は補間ラインF上の区間82である。
【0057】
次に、補間画素列演算部152では、補間実行区間決定部151において決定された補間実行する区間に上書きする画素列(補間画素列を作成する。
基パターンデータに対応する画像ラインパターンの長さと候補パターンデータに対応する画像ラインパターンの長さが同じ場合、基パターンデータに対応する画像ラインパターンと候補パターンデータに対応する画像ラインパターンの各画素毎に平均を取ったものが補間画素列である。
基パターンデータに対応する画像ラインパターンの長さと候補パターンデータに対応する画像ラインパターンの長さが異なっている場合は、基パターンデータに対応する画像ラインパターンと候補パターンデータに対応する画像ラインパターンを補間実行する間と同じ長さになるように拡大または縮小した後、各画素の平均を取ったものが補間画素列である。拡大/縮小を用いなくても、基パターンデータに対応する画像ラインパターンと候補パターンデータに対応する画像ラインパターンの開始位置・長さを調整する方法もあり、上記方法に限らない。
【0058】
図10および図11に補間画素列演算部152において作成された画像データを、補間実行区間決定部151において決定された補間実行する区間に上書きした状態で示す。本実施形態では、画像ライン上にある一致する複数に対応する画像ラインパターンの長さと補間ライン上にある補間実行する区間の長さを同じに表現しているため、拡大/縮小等、長さを調整する処理は行われない。例えば、画像ラインEの基パターンデータ42に対応する画像ラインパターン42と画像ラインGの候補パターンデータ43に対応する画像ラインパターン43の画像画素列は同じなので、補間実行する区間である補間ラインF上の区間72に上書きされている画素列は基パターンデータ42に対応する画像ラインパターン42や候補パターンデータ43に対応する画像ラインパターン43と全く同じになる。
【0059】
上記処理により、各補間実行区間に対する補間画素列が設定され、動き情報処理部154では入力された動き情報を使って別フィールドとの調和をとり、補正手段153にて補間ラインの周りの画素との調和を取ながら、補間画素列にて補間実行する区間上書きまたは既にある補間実行する区間の画素とブレンドすることで、ライン補間が実行される。ただし、動き情報処理部154や補正手段153は必ず必要な手段とは限らない。
【0060】
なお、補間ライン上の補間実行する区間以外の画素は従来技術の補間方法で補間を行う。従来技術の補間方法とは、例えば、上下入力画像ラインの画像データの平均値で補間ラインを補う方法や上入力ラインの画像データで補間ラインを補う方法、また、次フィールド画像で補間ラインを補う方法等がある。
【0061】
【発明の効果】
上記にて説明された本発明により以下の効果がもたらされる。
本発明によれば、共通の輝度差分特性を有しライン方向に連続する画素列を抽出するとともに、該画素列に関する情報を生成し、生成した情報データからライン間で補間可能な画素列を決定して、補間可能な画素列の間に補間画素列を設定して補間を実行するので、処理速度を大幅に削減することができる。さらに、フィールド画像において、ライン間に画像の途切れがある場合であっても、隣接ライン上の一致画素列で補間実行することができ、途切れのない滑らかなフレーム画像を生成することができる。
【0062】
本発明によれば、パターン情報生成手段が画像ラインパターンの画素列の情報収集して、画素単位の演算を排除することで、処理速度の向上を図っている。特に、情報収集手段がパターンとして連続する画素列の情報を入力画像から収集することによって、一致するパターンの検索を画素列演算を不用として、補間処理速度を大幅に向上させることができる。
【0063】
本発明によれば、コアリング処理を行うことにより、歪みやノイズを検出し、画像表示に影響のない目立たない箇所や判断しにくい箇所を削除するので、画質を維持しながら補間処理速度を大幅に改善できる。
【0064】
本発明によれば、補間可能な画像ラインパターンの存在位置を予測するので、誤謬のないライン補間が可能となる。
【0065】
本発明によれば、画像ラインパターンのパターン情報が一致するかを判定し、補間可能な画像ラインパターンを決定するので、演算処理をスピーディに実行できる。特に、一致すると判定した画像ラインパターンに対してベクトル判定を行うので、誤認のないライン補間が可能となる。
【0066】
本発明によれば、パターン情報が一致する画像ラインパターン間の画素列を設定して補間するので、水平に細線画像のように、ライン間で画像が途切れた場合でも途切れのないなめらかのフレーム画像を生成することができる。
【図面の簡単な説明】
【図1】本発明に係る画像補間装置の一実施形態の構成を示すブロック図である。
【図2】白い背景に黒い細線映像のフィールド画像が写し出されたモニタ画面の説明図である。
【図3】図2のフィールド画像の拡大図である。
【図4】画像ライン位置での画像ラインパターンを示す説明図である。
【図5】画像ラインパターンの両端部分から補間パターン予測を行う説明図である。
【図6】一致する画像ラインパターンを検索する説明図である。
【図7】一致するパターン検索終了時のベクトル方向を示す説明図である。
【図8】1ライン補間する時の画像ラインパターンと補間実行位値の関係図である。
【図9】1ライン補間後のフレーム拡大図と補間実行位置の関係図である。
【図10】複数ラインに渡った画像ラインパターンと補間実行位置の関係図である。
【図11】複数ライン補間後のフレーム拡大図と補間実行位置の関係図である。
【図12】複数ライン補間後のフレーム拡大図である。
【図13】従来技術に係る画像の補間方法における画像ラインと補間ライン上での各画素列の位置関係を示す説明図である。
【図14】従来技術に係る画像の補間方法における近傍画素列と対象画素列との相関を求める処理を示す説明図である。
【図15】従来技術に係る画像の補間方法におけるその他の近傍画素列と対象画素列との相関を求める処理を示す説明図である。
【図16】従来技術に係る画像の補間方法におけるエッジ個所での補間を示す説明図である。
【符号の説明】
100 パターン情報生成部
101 縦方向輝度値の2回差分演算部
102 正規化処理部
103 パターン抽出部
104 縦方向相関検出部
105 情報収集部
110 コアリング処理部
111 パターン内画像の歪み・ノイズ検出部
112 パターン編集判定部
113 パターン編集実行部
120 補間パターン予測部
121 補間方向予測部
122 検索距離予測部
123 補間実行距離予測部
130 画像データベース
140 補間パターン決定部
141 パターン検索部
142 パターン一致判定部
143 パターン一致条件設定部
144 補間方向判定部
145 補間実行距離判定部
146 ベクトル判定部
147 ベクトル判定条件設定部
150 補間実行部
151 補間実行区間決定部
152 補間画素列演算部
153 補正手段
154 動き情報処理部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image interpolating apparatus using line interpolation when generating a frame image from a field image when performing up-conversion of a television system having a different number of scanning lines or converting an interlaced scanning video signal into a sequentially scanned video signal.
[0002]
[Prior art]
Conventionally, as a scanning line interpolation method for generating progressive video from interlaced video for up-conversion of television systems with different numbers of scanning lines and high-resolution images, intra-frame interpolation is performed for still images. Is called. However, in a moving image, inter-field interpolation is performed because the frame correlation is lost, and in-frame interpolation causes a malfunction such as erroneously converting a moving vertical line to jagged.
[0003]
As a method of intra-field interpolation, as a simple method, there are a line interpolation method using the previous line as it is as a line to be interpolated, and a line interpolation method using the average value of the upper and lower lines. In the former interpolation method, an image having no correlation in the vertical direction such as a slanted line is accompanied by image deterioration such as a jagged edge in the image outline, and the latter interpolation method is blurred in the image.
[0004]
As a technique for solving these drawbacks, there is an interpolation method described in Japanese Patent Laid-Open No. 63-187785. In this interpolation method, each pixel of the line to be interpolated is interpolated using pixel information in the direction having the strongest correlation around the pixel. First, in order to know in which direction the pixel signal extending radially from the interpolated pixel has the strongest correlation, the absolute value of the difference between adjacent pixels in the vertical direction, right diagonal direction, and left diagonal direction is obtained. It is determined that the direction in which the absolute value of the difference is minimum is the direction having the strongest correlation, and an average value of each pixel in the direction is obtained and used as the value of the interpolation pixel.
[0005]
However, in this method, for each pixel of the line to be interpolated, that is, for each pixel, at least the above-described three-direction absolute difference values are calculated, and further, the minimum of the absolute difference values is determined. A process of obtaining the value of the interpolation pixel is required. For this reason, the above-described series of processing is performed even when the interpolation processing speed is slow and there is no difference in the strength of correlation in any direction, such as a region other than the edge portion in the image (a region where the pixel value does not change). Therefore, useless processing time is consumed, the interpolation processing speed is slow, and it is difficult to expand the range of pixels for which correlation is obtained.
Therefore, when interpolating an image having a correlation at a considerable distance, such as a diagonal line with a small inclination angle, interpolation using poorly correlated pixels cannot be performed, resulting in poor interpolation accuracy and still a diagonal line. The edge of the part was supposed to be rattled.
[0006]
In Japanese Patent Laid-Open No. 5-30487, in order to improve the drawbacks of the above-mentioned publication, the interpolation processing speed is improved and the range for obtaining the correlation is increased with the improvement of the processing speed to improve the interpolation accuracy. A method is disclosed. The image interpolation method disclosed in this publication will be described below with reference to FIGS.
[0007]
First, in this interpolation method, as shown in FIG. 13, the adjacent n-line and n + 1-line pixels of the two-dimensional image are compared, and edge portions a and b of the two-dimensional image on the respective lines are detected. . In the interpolation line to be interpolated, interpolation is performed using pixels of any adjacent line except between a and b where the edge is detected, and an edge portion of the interpolation line is obtained.
[0008]
Next, as shown in FIG. 13, at the edge locations a and b, the “number of pixels” centered on the pixel of interest (here, A) on one of the adjacent lines (n lines) and “from the interpolation position” Is set as a neighboring pixel row (3, 0) consisting of the “shift amount”, and the target pixel row (3, 1) correlated therewith is selected from the other adjacent lines (n + 1 line).
Here, as a general expression for obtaining the correlation between the neighboring pixel column and the target pixel column, the neighboring pixel column = (2m + 1, 0) and the target pixel column = (2m + 1, ± Y) are used, and m = Y = 1. , 2, 3, 4 and 5 are changed in order.
[0009]
First, as shown in FIG. 14, an operation is performed on a pixel pair as indicated by an arrow between the neighboring pixel column (3, 0) and the target pixel column (3, 1), and a difference in pixel level is predetermined. The correlation is determined based on whether the value is within the reference value. In the case shown in FIG. 15, since there is no correlation in the center pixel pair, m = Y = 2, the neighboring pixel column is (5, 0), the target pixel column is (5, 2), and the arrows in the figure. The operation is performed on the correct pixel pair. If it is determined that there is a correlation by calculation with a pixel pair as indicated by an arrow in the figure, the shift amount from the interpolation position at that time is 2 pixels. As shown in FIG. 16, the a part and the b part are shifted by two pixels. A pixel column obtained by shifting the selected pixel column or the neighboring pixel column in a direction opposite to the position shift direction by half of the obtained number of pixels, that is, a pixel column centered at a point c shifted from A to the right by one pixel. Interpolate using.
[0010]
[Problems to be solved by the invention]
  The interpolation method disclosed in Japanese Patent Application Laid-Open No. 5-30487 is an invention for improving the processing speed by incorporating interpolation by a pixel row as compared with a commonly performed interpolation method by a pixel unit. Therefore, in order to determine the edge portion of the pixel row, the inter-line calculation is performed while performing the pixel shift from at least about 3 pixels to about 11 pixels in the vicinity of the edge portion. For this reason, this method is still problematic in that it takes a long calculation time. Furthermore, this interpolation method is a method of smoothing the outline of the image,For exampleOf a thin line image close to the horizontalCase,If the field image of the interlaced video signal is interrupted, there will be a discontinuous part, and if there is no correlation between the pixel of the fine line image and the pixel of the image line immediately above it, it will not be recognized as the contour of the image. Generate interpolated image to fill partIt also has the problem that it cannot be done.
[0011]
An object of the present invention is to provide an image interpolating apparatus that can greatly reduce the processing speed and can generate a smooth frame image without interruption.
[0012]
[Means for Solving the Problems]
  The present inventionInterlaced scanning video signalinputfieldInterpolate between image lines for an imageTo generate an image of a progressively scanned video signalIn the image interpolation device,
  inputfieldTarget pixel of image and target pixelDirectly belowWith adjacent pixelsLuminanceA difference characteristic is obtained, and an image line pattern that is a continuous pixel array having a common difference characteristic in the line direction is extracted, and the image line patternPosition and luminance difference characteristicsPattern information generating means for generating pattern information on theAnd saidTake out image line patterns that match the pattern information related to luminance difference characteristics, and interpolate between linesUsed forInterpolation pattern determining means for determining an image line pattern;Were determinedImage line patternmake use ofInterpolation execution means for setting the interpolation pixel string and executing interpolation,
The pattern information generating means includes a twice-difference value calculating means for obtaining a twice-difference value obtained by adding each difference of luminance values between a target pixel of the input field image and a pixel of an adjacent line directly opposite immediately above the target pixel; , For each image line, pattern extraction means for recognizing and extracting a continuous pixel sequence having a luminance difference characteristic based on the two-time difference value in the line direction as an image line pattern, and the extracted image line pattern An information collecting means for collecting pattern information,
The interpolation pattern determining means is a pattern for determining whether or not the pattern information of the searched image line patterns matches with the matching pattern search means for searching for an image line pattern that may be matched from the pattern information. A match determination means, and a vector determination means for performing a vector determination for determining whether the image line pattern should be continuously used for interpolation from the start position and length of the image line pattern determined to match,
The interpolation execution means includes an interpolation execution section determination means for determining a position and a length of a section for performing interpolation based on pattern information of the image line pattern determined by the interpolation pattern determination section, and the determined section. Interpolating pixel creating means for creating the pixel row to be interpolated based on the image line pattern determined by the interpolation pattern determining means.An image interpolating apparatus characterized by the above.
[0013]
  The present invention also provides:further,Interpolation based on the pattern informationUsed forInterpolation to generate prediction information about the location of possible image line patternspatternPredictive meansComprising
  The interpolation pattern prediction means includes an interpolation direction prediction means for predicting an interpolable direction / non-interpolable direction from the pattern information, and a search distance prediction for predicting a distance to a position where an image line pattern matching the pattern information exists. And an interpolation execution distance prediction means for predicting a distance that does not cause image corruption even if interpolation is performed with a matching image line pattern.Equipped withDoAn image interpolating apparatus characterized by the above.
[0014]
  In the present invention, the pattern information generating meansFurthermore, normalization means for normalizing the vertical difference value twice for each pixel and classifying it into a type indicating a plurality of luminance difference characteristics,
The pattern extraction unit extracts an image line pattern based on the classification indicating the luminance difference characteristic obtained by the normalization unit.An image interpolating apparatus characterized by the above.
[0015]
  Further, the present invention provides the aboveThe pattern information generating means further comprises coring means for performing coring processing to remove the image line pattern when the image line pattern extracted by the pattern output means is image distortion or noise,
The coring means distorts an image having a plurality of maximum / minimum points in the luminance waveform in the image line pattern and an acute change point in the luminance waveform in the pattern, and a pixel column that does not reach the reference pixel number as noise. Detection means for detecting, editing determination means for determining whether editing for deleting the image line pattern is necessary based on detection data of the detecting means, and an image line pattern determined to require editing Editing execution means for executing deletion editing andAn image interpolating apparatus characterized by comprising:
[0016]
  Further, the present invention provides the aboveAn information collecting means; means for collecting a maximum luminance value in the image line pattern; means for collecting a maximum luminance increase amount from a start position of the image line pattern to a maximum luminance position; and Means for collecting the maximum amount of decrease in brightness up to the pattern end position.An image interpolating apparatus characterized by the above.
[0017]
  Further, the present invention provides the aboveAn information collecting means; means for collecting a minimum luminance value in the image line pattern; means for collecting a maximum luminance reduction amount from the image line pattern start position to a minimum luminance position; and Means for collecting the maximum amount of increase in luminance up to the pattern end position;An image interpolating apparatus characterized by the above.
[0023]
DETAILED DESCRIPTION OF THE INVENTION
  Hereinafter, embodiments of the present invention will be described with reference to FIGS.
  FIG. 1 is a block diagram showing a configuration of an embodiment of an image interpolation apparatus according to the present invention. Figure 2 shows an example of an input image with a black thin line image on a white background 1In interlaced video signalThe monitor screen on which the field image 2 is projected is shown. FIG. 3 shows an input video line and an interpolation line at the enlargement point 3 shown in FIG. In the figure, A, C, E, G, I, and K are input video lines, and B, D, F, H, and J are interpolation lines.
[0024]
The image interpolation apparatus shown in FIG. 1 includes a pattern information generation unit 100, an interpolation pattern prediction unit 120, an image database 130, an interpolation pattern determination unit 140, and an interpolation execution unit 150. Then, a first step of generating a database of image line patterns by calculating a difference between brightness values twice (A−2 × C + E) between opposing pixels in three adjacent lines of a field image, coring processing, and information collecting processing; A second step of predicting an interpolation direction and an interpolation distance of each image line pattern from the pattern information data, a third step of determining a position to be interpolated based on a database of image line patterns, and a fourth step of executing interpolation. Interpolate with.
[0025]
Below, each part of the image interpolation apparatus of FIG. 1 is explained in full detail.
[0026]
<Pattern information generation unit>
First, generation of an image line pattern in the pattern information generation unit 100 will be described.
The pattern information generation unit 100 includes a vertical luminance value double difference calculation unit 101, a normalization processing unit 102, a pattern extraction unit 103, a vertical direction correlation detection unit 104, an information collection unit 105, and a coring processing unit 110. The Further, the coring processing unit 110 includes an intra-pattern image distortion / noise detection unit 111, a pattern edit determination unit 112, and a pattern edit execution unit 113.
[0027]
The field image input to the pattern information generation unit 100 is input to the vertical difference luminance value twice difference calculation unit 101. The vertical luminance value twice difference calculation unit 101 calculates the vertical difference value of the vertical luminance value of each pixel twice. Here, the vertical difference value of the vertical direction luminance value is a difference value between the luminance value of the target pixel and the luminance value of the pixel on the line adjacent to the target pixel and facing the target pixel in the vertical direction. It is the added value.
For example, the difference value twice is within a range of ± 512, and in FIG. 3, each of the input images of A line C line E line, C line E line G line, E line G line I line, G line I line K line A difference value is calculated twice between three lines. That is, using the pixels of the C line, E line, G line, and I line as the target pixels, the difference value of the luminance value with the opposite pixel immediately above the target pixel is obtained twice. Taking the three image lines of A line, C line, and E line as an example, the calculation of the difference between the vertical luminance values twice is as follows.
[0028]
Two-time difference value of the vertical luminance value of the target pixel on the C line = luminance value of the A line opposing pixel−2 × luminance value of the C line target pixel + luminance value of the E line opposing pixel
[0029]
  The vertical correlation detection unit 104 detects whether or not there is a correlation in the vertical direction among the three image lines used by the vertical luminance value double difference calculation unit 101. For example, for each pixel of the three image lines shown in FIG.First,The horizontal difference increase / decrease direction of the luminance value, the horizontal increase / decrease amount of the luminance value, and the twice-difference value of the horizontal luminance value are obtained.Based on the calculated value, paying attention to one pixel,In the vertical direction of adjacent image linesThe pixel (opposite pixel directly below)the sameWhen taking a value (brightness value horizontal increase / decrease direction, luminance value horizontal increase / decrease amount, horizontal difference value twice)And there is a vertical correlationdetectionTo do.
[0030]
  Next, the normalization processing unit 102 performs normalization processing of the difference value twice of the luminance value in the vertical direction of each pixel on the image line based on the set threshold value, and each pixel on the image lineTwice difference value of vertical luminance value ofAre classified into three types, +,-, and 0. The pattern extraction unit 103 extracts, as an image line pattern, a section in which the same type of + or − is continuous, and is detected by the vertical direction correlation detection unit 104 as having no vertical direction correlation.
  The extracted image line pattern is the target pixelOf luminance value in the vertical directionBased on the twice-difference value, a luminance difference characteristic (a classification of +, 0, and − in the twice-difference value corresponds) is obtained, and is a continuous pixel row in the line direction having a common luminance difference characteristic.
[0031]
  At this time, in the information collection unit 105, the image line pattern extracted by the pattern extraction unit 103 is displayed.Position information (data) and image features in the image line patterninformation(data)To collect. collectImage linepatternInsideofInformation about image features (data)For example,Image lineMaximum / minimum brightness value in the pattern,Image lineThe width and direction of increase / decrease of the luminance value in the horizontal direction (line direction) in the pattern,Image lineBrightness values at both ends of the pattern,Image lineThere is an increase / decrease amount of luminance values at both ends of the pattern. If the data collected by the information collection unit 105 is performed for all three input image lines used by the vertical difference value twice-difference calculation unit 101, the accuracy of interpolation is improved.
[0032]
  In addition, extractedImage lineThe pattern of the coring processing unit 110Image lineIn the noise distortion / noise detection unit 111 of the image in the pattern,Image lineDetects the presence of distortion and noise in the image inside the pattern. Image distortion is, for example,Image lineMultiple luminance maxima / minimal points in the patternSharpWhen there is a corner change pointTo.Therefore, an image without distortion means an image having one maximum point or minimum point in the luminance waveform in the image line pattern, or an image having no maximum point or minimum point.Noise is the standardNumber of pixelsNot reachPixel rowIt is.
  Next, in the pattern editing determination unit 112, when the above distortion or noise is detected,ExtractedIt is determined whether or not editing for deleting the image line pattern is performed by comparing with an editing reference value. This edit reference value is set so that it can be comprehensively determined according to the degree of each distortion and noise. Then, the image line pattern determined to be deleted is deleted by the pattern editing execution unit 113.
[0033]
  FIG. 4 is a diagram illustrating an image line pattern obtained through the above processing in the pattern information generation unit 100. In the figure, 40 to 43 and 62 to 65 are image line patterns classified as-, 51 to 54 are image line patterns classified as +, and the other are image line patterns classified as 0. In the pattern information generating unit 100, each image line pattern that has been segmented for each image line as shown in FIG.Image lineStart position, length, sign for each patternAlso, Created as data collected by the information collection unit 105, and the interpolation pattern prediction unit 120Sent toThe
[0034]
<Interpolation pattern prediction unit>
The prediction of the interpolation direction, search distance, and interpolation execution distance in the interpolation pattern prediction unit 120 will be described.
The interpolation pattern prediction unit 120 includes an interpolation direction prediction unit 121, a search distance prediction unit 122, and an interpolation execution distance prediction unit 123.
The interpolation pattern prediction unit 120 uses the image line pattern data generated by the pattern information generation unit 100 to predict the possibility of the presence of an interpolable image line pattern and the distance to the interpolable image line pattern. .
[0035]
The interpolation direction prediction unit 121 of the interpolation pattern prediction unit 120 compares information on both left and right ends of the image line pattern.
For example, in FIG. 5, the left end position of the image line pattern 52 on the E line generated from the three image lines of the C line, the E line, and the G line, the luminance increase / decrease amount of the image lines E-23 and 24, and the E line The amount of increase / decrease in brightness of the image lines G-30 and 31 is compared with the position on the G line immediately below the right end of the image line pattern 52. When the increase / decrease is in the reverse direction or the increase / decrease amount is greatly different, the interpolation direction predicting unit 121 predicts that the connection of the image line pattern 52 in the lower right direction is invalid (hereinafter, “interpolation impossible direction”). Further, the interpolation possible direction / non-interpolable direction are predicted in the same way for the upper right, upper left, and lower left.
[0036]
  Next, the search distance predicting unit 122 of the interpolation pattern predicting unit 120 compares the luminance values at the left and right ends of the input image line pattern and matches the values.Image linePredict the distance to where the pattern will be.
  Already, the difference value of the luminance value in the horizontal direction, the horizontal direction increase / decrease amount of the luminance value, and the twice-difference value of the luminance value in the horizontal direction are already obtained.For example, in FIG. 5, the position of the left end of the image line pattern 52 on the E line generated from the three image lines of the C line, the E line, and the G line.It is inThe luminance value of the image line E-24 and the position on the G line immediately below the right end of the image line pattern 52 on the E line.It is inThe difference between the luminance value of the image line G-30 and the position on the G line immediately below the right end of the image line pattern 52 on the E line.It is inIncrease / decrease amount of brightness of image lines G-30 and 31(Luminance increase / decrease amount per pixel)Divide byThatresultOn the basis of theContinue to the lower rightImage linePattern (interpolableImage lineDistance to pattern(Pixel count)And Similarly, the distance is also calculated in the lower left direction.Thus, if the luminance of the pixels immediately below the pixels at both ends of the image line pattern is increased or decreased, the distance of the image line pattern to be interpolated can be predicted from the increase / decrease amount per pixel.
[0037]
  Then, the interpolation execution distance predicting unit 123 of the interpolation pattern predicting unit 120 calculates the change amount and length of the luminance in the input image line pattern.(Pixel count)From etc., matchImage lineLimit distance that image does not break even if interpolated with pattern(Pixel count)Predict.
  For example, in FIG. 5, the amount of change in the luminance of the image line pattern 52 on the E line generated from the three image lines of the C line, the E line, and the G line.Thus, when each image line pattern is shortened, a limit distance at which an image that should not be originally formed in the interpolated image is not formed is predicted.
[0038]
The interpolation pattern prediction unit 120 adds the above various prediction data to the data generated by the pattern information generation unit 100 and sends the data to the image database 130.
[0039]
<Image pattern database>
  In the image database 130, the pattern information generation unit 100Data obtained as a result of processingThe data (prediction information) obtained as a result of the processing of the interpolation pattern prediction unit 120 is an image.linepatternConcerningdata(Pattern data)Stored as
  The amount of data to be stored may be all in the field, or may be stored for a plurality of lines required by the interpolation pattern determination unit 140 and the interpolation execution unit 150.
[0040]
<Interpolation pattern determination unit>
The interpolation pattern determination unit 140 includes a pattern search unit 141, a pattern match determination unit 142, a pattern match condition setting unit 143, an interpolation direction determination unit 144, an interpolation execution distance determination unit 145, a vector determination unit 146, and a vector determination condition setting unit 147. It is the composition which becomes.
[0041]
  In the pattern search unit 141, an image input from the image database 130linepatternPatternFor other data, images of other lines stored in the image database 130linepatternPatternPattern data that may match from the dataExtractionTo do.
  For example, based on the search distance predicted by the search distance prediction unit 122 of the interpolation pattern prediction unit 120,It becomes a target to be judgedimagelineputterNCentered on axisOther line2 points on each side, 4 points in totalaboutimagelineCheck for the existence of the pattern. Here are the images found at the two points on the leftlineThe pattern isDifferent image line patternsIf it wasIt becomes a target to be judgedimagelineputterNThe side near the centerAnd the pattern data of the image line pattern to be determined and the found image line patternPattern data having the same sign information of the pattern data is adopted. Repeat for the two points on the right. Therefore, at most the imagelinePattern dataIsLeft and rightFromOneExtractionIs issued.
[0042]
  In FIG. 6, based on the search distance predicted by the search distance prediction unit 122, images in the section of the input image lines E-17, 18, 19, 20, 21, 21, 22 and 23.linepattern42data(Pattern data42)Patterns that might matchDataSearchDoIt shows a state. With the center of the image pattern data 42 of the input image line E as the axis, on the left side, the two searched points are images in the section of the input image lines G-11, 12, 13, 14, 15, 16, and 17.linepatternIs detected, data related to the image line pattern 43 (patternData 43)Is extracted. On the right side, the image of the searched input image line Elineputter42 is an image in the section of input image lines G-18, 19, 20, 21, 22, 23, 24 close to the center of 2.linepatternIs detected, data related to the image line pattern 53 (patternData 53)ButExtractedThe However, PaTurn data 42Code and pattern data 53 codeWhenHaichiSince it does not, finally the image in the section of the input image line G-25, 26, 27, 28, 29, 30, 31linepattern63 data (patternData 63)Is extracted.
[0043]
  The interpolation pattern determination unit 140 is now registered in the image database 130.linepatternPatternWhen processing data, it is assumed that processing is sequentially advanced line by line from the upper line to the lower line for each line of the field image. Then, it is a target to be currently determinedThe baseimagelinepatternPatterndata(Base pattern data)IsunderImage in directionlinepatternPatternIt will be compared with the data.
  Therefore, the pattern match determination unit 142 extracts the result of the search in the pattern search unit 141 based on the conditions set in the pattern match condition setting unit 143.1 line downimagelinepatternPatternIt is determined whether the data and the contents of the base pattern data match.
[0044]
  The contents determined by the pattern match determination unit 142 includeImage lineMaximum / minimum brightness value in the pattern,Image lineWidth and direction of luminance increase / decrease in the pattern,Image lineBrightness values at both ends of the pattern,Image lineThis is the detailed contents of data collected by the information collection unit 105 of the pattern information generation unit 100, such as the amount of increase or decrease in luminance at both ends of the pattern. thisRapIf the difference in the contents of the turn data is within the threshold set in the pattern matching condition setting unit 143, the result of the search in the base pattern data and the pattern search unit 141 is extracted.TapaIt is determined that the turn data match. Is determined to match the base pattern data.TapaThe turn data is hereinafter referred to as candidate pattern data.
[0045]
  For example, as shown in FIG. 4, an image in the section of input image lines E-24, 25, 26, 27, 28, 29, 30linepattern52 patternsImages in the section of data 52 and input image lines G-18, 19, 20, 21, 22, 23, 24linepattern53 patternsWhat is data 53?Image lineMaximum / minimum brightness value in the pattern,Image lineWidth and direction of luminance increase / decrease in the pattern,Image lineBrightness values at both ends of the pattern,Image lineSince the difference in data such as the amount of increase / decrease in luminance at both ends of the pattern is within the conditions set in the pattern matching condition setting unit 143, the image on the input image line Elinepattern52 patternsData 52 and image on input image line Glinepattern53 patternsIt is determined that the data 53 match.
[0046]
  Also, images in the section of input image lines E-17, 18, 19, 20, 21, 22, 23linepattern42 patternsImages in the section of data 42 and input image lines G-25, 26, 27, 28, 29, 30, 31linepattern63 patternsWith data 63,Image lineSince the increase / decrease direction of the luminance in the pattern is reverse, the pattern on the input image line E is not matched with the condition set in the pattern matching condition setting unit 143.linepattern42 patternsData 42 and image on input image line Glinepattern63 patternsIt is determined that the data 63 does not match.
[0047]
  At this time,Base pattern data andTwo images on the left and rightlinepatternPatternThis match determination is performed on the data, but both the left and right patternsBoth of the basic pattern data andIf it is determined that they match, since there is a high possibility of erroneous extraction, both the left and right match determinations are discarded and both are handled as not matching.
  As a result, as shown in FIG.ToAn imagelinepatternPatterndataInIt is specified that candidate pattern data exists only in one direction.
[0048]
Next, the interpolation direction determination unit 144 connects the candidate pattern data determined to match with the base pattern data, the candidate pattern data input from the interpolation direction prediction unit 121 of the interpolation pattern prediction unit 120, and the base pattern data. Judgment is made between the interpolable direction / non-interpolable direction of each pattern data.
[0049]
  Using the position information of the base pattern data and candidate pattern data,First, base pattern dataFrom image line dataCandidate pattern dataImage line dataDirection in whichThis direction isIt is determined whether the direction is interpolable, and then the candidate pattern dataImage line dataTo base pattern dataImage line dataDirection in whichDerive this directionIt is determined whether or not is in the interpolation possible direction. If both the determinations are valid, it is determined that the candidate pattern data is in a direction in which interpolation is possible.
  For example, the image of the image line Elinepattern52 patternsImage of data 52 and image line Glinepattern53 patternsIn the determination between the data 53, first, the image of the image line E which is the basic pattern datalinepattern52 patternsIt is determined whether the lower left direction of the data 52 is an interpolable direction, and then the image of the image line G that is candidate pattern datalinepattern53 patternsIt is determined whether the upper right direction of the data 53 is an interpolation possible direction.
[0050]
Next, in the interpolation execution distance determination unit 145, based on the interpolation execution distance input from the execution distance prediction unit 123 between the interpolation pattern prediction units 120, between the candidate pattern data extracted as matching and the base pattern data Make a determination about the distance. If the distance between the candidate pattern data and the base pattern data is smaller than the interpolation execution distance, it is determined that the candidate pattern data exists at an interpolable distance.
[0051]
  Furthermore, there are cases where there are fine lines or edge portions that are interrupted in an actual image, and vector determination is performed to prevent erroneous extraction of matching patterns.
  Now, the interpolation pattern determination unit 140 is registered in the image database 130.RuWhen processing turn data, it is assumed that the processing is sequentially advanced line by line from the upper line to the lower line for each line of the field image. Then, the base pattern data that is the target of the current determination andOne line above the line where the image line data of the base pattern data existsOn the lineOf existing image line patternsWhether or not there is a coincidence between pattern data has already been determined. Therefore, the vector determination unit 146 uses the base pattern data as candidate pattern data for the base pattern data currently being determined.One line above the line where the image line data of the base pattern data existsOn the lineOf existing image line patternsAn inquiry is made to the image database 130 for pattern data.
[0052]
  Use base pattern data as candidate pattern dataIf the pattern data does not exist, the current basic pattern data and the candidate pattern data are registered in the image database 130, and the process ends.
  Use base pattern data as candidate pattern dataWhen pattern data exists, vector determination is performed for three patterns including the current base pattern data and candidate pattern data. This is based on the setting of the vector determination condition setting unit 147.The paPerforms judgment (vector judgment) on the start position, length, overlap amount, etc. of the turn data.The paTurn data should be continuously interpolatedImage lineIt is determined whether it is a pattern.
[0053]
  For example, an image on the input image line ElinePattern data 42Pattern data 42When is base pattern data, PaThe turn data 42 includes an image on the input image line G as candidate pattern data.linepattern43 patternsData 43 exists. At this time, the image on the input image line C on one line has already beenlinepattern41 patternsData 41 and imagelinepattern42 patternsSince the matching relationship of the data 42 is determined, threeThe paTurn data 41, 42, 43Respective image line patterns 41, 42, 43The start position / length / overlap amount is determined.
  In the present embodiment, as shown in FIG. 7, three image pattern data 41, 42, 43Respective image line patterns 41, 42, 43Both are the same length and threeThe paTurn dataEach image line patternBoth of them are on a straight line, so they should be interpolated continuously.Image lineIt is determined to be a pattern.
[0054]
<Interpolation execution unit>
  Next, the interpolation execution process in the interpolation execution unit 150 will be described.
  The interpolation execution unit 150 includes an interpolation execution section determination unit 151, a correction unit 153, an interpolation pixel string calculation unit 152, and a motion information processing unit 154.
  In the interpolation execution section determination unit 151, the coincidence relationship information input from the interpolation pattern determination unit 140, the base pattern data obtained from the image database 130, and candidate pattern dataEach image line patternInterpolation from the start position and length dataTheExecutionDosection(Position and length)To decide.
[0055]
  interpolationTheExecutionDoThe length of the section is the base pattern dataImage line pattern corresponding toLength and candidate pattern dataImage line pattern corresponding toAverage length ofTossThe Also interpolationTheExecutionDoThe position of the section is the base pattern dataImage line pattern corresponding toUpper image line and candidate pattern dataImage line pattern corresponding toThe base pattern data on the interpolation line between the lower image line withImage line pattern corresponding toCenter point and candidate pattern dataImage line pattern corresponding toCenter pointStraight line connectingThe center of is interpolatedTheExecutionDoIt is determined to be the center point of the section.
  However, interpolationTheExecutionDoThe method for determining the position and length of the section is not limited to the above method.
[0056]
  The interpolation determined by the interpolation execution interval determination unit 151 in FIGS. 8 and 9TheExecutionDoIndicates the section. In this embodiment, the basic pattern data of the image lineImage line pattern corresponding toAnd candidate pattern dataImage line pattern corresponding toSince the length of is expressed the same, interpolationTheExecutionDoThe section is the same length.
  Image line E base pattern data 42The image line pattern 42 corresponding toAnd candidate pattern data 43 of the image line GImage line pattern 43 corresponding toInterpolationTheExecutionDoThe section is a section 72 on the interpolation line F, and the basic pattern data 52 of the image line EThe image line pattern 52 corresponding toAnd candidate pattern data 53 of the image line GImage line pattern 53 corresponding toInterpolationTheExecutionDoThe section is the section 82 on the interpolation line F.
[0057]
  Next, in the interpolation pixel string calculation unit 152, the interpolation determined by the interpolation execution section determination unit 151 is performed.TheExecutionDoOn the intervalOverwrite pixel string (Interpolated pixel row)Create
  Base pattern dataImage line pattern length corresponding toAnd candidate pattern dataImage line pattern corresponding toIf the lengths are the same, the base pattern dataImage line pattern corresponding toAnd candidate pattern dataImage line pattern corresponding toEach pixelEveryThe average is the interpolated pixel row.
  Base pattern dataImage line pattern length corresponding toAnd candidate pattern dataImage line pattern corresponding toIf the lengths are different, the base pattern dataImage line pattern corresponding toAnd candidate pattern dataThe image line pattern corresponding tointerpolationTheExecutionDoWardAnd betweenAn interpolated pixel array is obtained by averaging each pixel after enlarging or reducing the same length. Base pattern data without using enlargement / reductionImage line pattern corresponding toAnd candidate pattern dataImage line pattern corresponding toThere is also a method of adjusting the start position / length of the, and is not limited to the above method.
[0058]
  The image data created by the interpolation pixel string calculation unit 152 in FIGS. 10 and 11 is replaced with the interpolation determined by the interpolation execution interval determination unit 151.TheExecutionDoShown in the state of overwriting the section. In this embodiment, on the image lineIt is inMatchAnd the length of the image line pattern corresponding toInterpolation lineIt's aboveinterpolationTheExecutionDoSince the lengths of the sections are expressed in the same way, processing for adjusting the length such as enlargement / reduction is not performed. For example, the base pattern data 42 of the image line EThe image line pattern 42 corresponding toAnd candidate pattern data 43 of the image line GImage line pattern 43 corresponding toSince the image pixel columns are the same, interpolationTheExecutionDosectionIsThe pixel column overwritten in the section 72 on the interpolation line F is the basic pattern data 42.Image line pattern corresponding to42 and candidate pattern data 43Image line pattern 43 corresponding toIs exactly the same.
[0059]
  Through the above processing, an interpolation pixel sequence for each interpolation execution section is set, and the motion information processing unit 154 uses the input motion information to harmonize with another field, and the correction unit 153 determines the pixels around the interpolation line. Interpolation with interpolated pixel array while maintaining harmonyTheExecutionDosectionTheOverwrite or existing interpolationTheExecutionDoInterval pixelsColumnLine interpolation is executed by blending with. However, the motion information processing unit 154 and the correction unit 153 are not necessarily necessary units.
[0060]
  Interpolation on the interpolation lineTheExecutionDoPixels other than the interval are interpolated by a conventional interpolation method. The interpolation method of the prior art is, for example, a method of supplementing an interpolation line with the average value of the image data of the upper and lower input image lines, a method of supplementing the interpolation line with the image data of the upper input line, or an interpolation line with the next field image There are methods.
[0061]
【The invention's effect】
  The following effects are brought about by the present invention described above.
  According to the present invention,Extract pixel rows that have common luminance difference characteristics and continue in the line direction, generate information about the pixel rows, determine pixel rows that can be interpolated between lines from the generated information data, and perform interpolation Between pixel columnsSince interpolation is performed by setting an interpolation pixel row, the processing speed can be greatly reduced. Furthermore, even when there is an image break between lines in a field image, interpolation can be performed with a matching pixel row on an adjacent line, and a smooth frame image without break can be generated.
[0062]
According to the present invention, the pattern information generating means collects information on the pixel columns of the image line pattern and eliminates the calculation in units of pixels, thereby improving the processing speed. In particular, the information collection means collects information of continuous pixel columns as a pattern from the input image, so that the search for matching patterns can be performed without using pixel column calculation, and the interpolation processing speed can be greatly improved.
[0063]
According to the present invention, by performing coring processing, distortion and noise are detected, and inconspicuous parts that do not affect image display and parts that are difficult to judge are deleted, so that the interpolation processing speed is greatly increased while maintaining image quality. Can be improved.
[0064]
According to the present invention, since the position where an interpolable image line pattern exists is predicted, line interpolation without error is possible.
[0065]
According to the present invention, it is determined whether or not the pattern information of the image line pattern matches, and the image line pattern that can be interpolated is determined. Therefore, the arithmetic processing can be executed speedily. In particular, since vector determination is performed on image line patterns determined to match, line interpolation without misperception is possible.
[0066]
According to the present invention, since a pixel row between image line patterns having the same pattern information is set and interpolated, a smooth frame image that is not interrupted even when the image is interrupted between lines, such as a horizontally thin line image. Can be generated.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an embodiment of an image interpolation apparatus according to the present invention.
FIG. 2 is an explanatory diagram of a monitor screen in which a field image of a black thin line image is projected on a white background.
FIG. 3 is an enlarged view of the field image of FIG. 2;
FIG. 4 is an explanatory diagram showing an image line pattern at an image line position.
FIG. 5 is an explanatory diagram for performing interpolation pattern prediction from both ends of an image line pattern.
FIG. 6 is an explanatory diagram for searching for a matching image line pattern.
FIG. 7 is an explanatory diagram showing a vector direction at the end of matching pattern search.
FIG. 8 is a relationship diagram between an image line pattern and an interpolation execution position value when one line interpolation is performed.
FIG. 9 is a relationship diagram between an enlarged frame after one line interpolation and an interpolation execution position.
FIG. 10 is a relationship diagram between an image line pattern over a plurality of lines and an interpolation execution position.
FIG. 11 is a relationship diagram between an enlarged frame after interpolation of a plurality of lines and an interpolation execution position.
FIG. 12 is an enlarged view of a frame after multiple line interpolation.
FIG. 13 is an explanatory diagram showing a positional relationship between an image line and each pixel column on the interpolation line in the image interpolation method according to the related art.
FIG. 14 is an explanatory diagram illustrating processing for obtaining a correlation between a neighboring pixel column and a target pixel column in an image interpolation method according to a conventional technique.
FIG. 15 is an explanatory diagram illustrating processing for obtaining a correlation between another neighboring pixel column and a target pixel column in an image interpolation method according to a conventional technique.
FIG. 16 is an explanatory diagram illustrating interpolation at an edge portion in an image interpolation method according to a conventional technique.
[Explanation of symbols]
100 pattern information generator
101 Two-time difference calculation unit for luminance values in the vertical direction
102 Normalization processing unit
103 Pattern extraction unit
104 Longitudinal correlation detector
105 Information gathering department
110 Coring processor
111 Image distortion / noise detector in pattern
112 Pattern edit determination unit
113 Pattern editing execution unit
120 Interpolation pattern prediction unit
121 Interpolation direction prediction unit
122 Search distance prediction unit
123 Interpolation execution distance prediction unit
130 Image Database
140 Interpolation pattern determination unit
141 Pattern search part
142 Pattern match determination unit
143 Pattern matching condition setting part
144 Interpolation direction determination unit
145 Interpolation execution distance determination unit
146 Vector judgment part
147 Vector judgment condition setting part
150 Interpolation execution unit
151 Interpolation execution section determination unit
152 Interpolated pixel string calculation unit
153 Correction means
154 Motion Information Processing Unit

Claims (6)

インターレース走査映像信号の入力フィールド画像に対し各画像ライン間の補間を行うことによって順次走査映像信号の画像を生成する画像補間装置において、
入力フィールド画像の対象画素と、該対象画素の直上直下に隣接する画素との輝度差分特性を求めて、ライン方向に共通の差分特性を有する連続画素列である画像ラインパターンを抽出するとともに、該画像ラインパターンの位置と輝度差分特性に関するパターン情報を生成するパターン情報生成手段と、
各ライン間において、前記画像ラインパターンのうち輝度差分特性に関する前記パターン情報が一致するものを取り出し、ライン間補間に用いる画像ラインパターンを決定する補間パターン決定手段と、
決定した画像ラインパターンを用いて補間画素列を設定して補間を実行する補間実行手段とを具備し、
前記パターン情報生成手段は、
入力フィールド画像の対象画素と該対象画素の直上直下に対向する隣接ラインの画素との輝度値の各差を加えた2回差分値を求める2回差分値演算手段と、
各画像ラインについて、前記2回差分値に基づく輝度差分特性がライン方向に共通である連続する画素列を画像ラインパターンとして認識して抽出するパターン抽出手段と、
抽出された画像ラインパターンの前記パターン情報を収集する情報収集手段とを具備し、
前記補間パターン決定手段は、
前記パターン情報から一致している可能性のある画像ラインパターンを検索する一致パターン検索手段と、
検索された画像ラインパターン同士の前記パターン情報が一致するかを判定するパターン一致判定手段と、
一致すると判定された画像ラインパターンの開始位置と長さから連続的に補間に用いるべき画像ラインパターンであるかを判定するベクトル判定を行うベクトル判定手段とを具備し、
前記補間実行手段は、
前記補間パターン決定手段により決定された画像ラインパターンのパターン情報に基づいて、補間を実行する区間の位置と長さを決定する補間実行区間決定手段と、
決定された前記区間に前記補間パターン決定手段により決定された画像ラインパターンに基づいて、前記補間する画素列を作成する補間画素作成手段とを具備することを特徴とする画像補間装置。
In an image interpolating apparatus for sequentially generating an image of a scanning video signal by performing interpolation between image lines for an input field image of an interlace scanning video signal ,
The luminance difference characteristic between the target pixel of the input field image and a pixel adjacent immediately below the target pixel is obtained, and an image line pattern that is a continuous pixel row having a common differential characteristic in the line direction is extracted, and the Pattern information generating means for generating pattern information related to the position of the image line pattern and the luminance difference characteristic ;
And have you between each line, the pattern information relating to the luminance difference characteristic of the image line pattern is taken out for a match, the interpolation pattern determining means for determining an image line pattern used for interpolation between lines,
Interpolation execution means for executing interpolation by setting an interpolation pixel row using the determined image line pattern ,
The pattern information generating means
A twice-difference value calculating means for obtaining a twice-difference value obtained by adding each difference of luminance values between a target pixel of the input field image and a pixel on an adjacent line directly above and below the target pixel;
For each image line, pattern extraction means for recognizing and extracting a continuous pixel sequence having a luminance difference characteristic based on the twice difference value in the line direction as an image line pattern;
Comprising information collecting means for collecting the pattern information of the extracted image line pattern,
The interpolation pattern determining means includes
Matching pattern search means for searching for an image line pattern that may match from the pattern information;
Pattern matching determination means for determining whether the pattern information of the searched image line patterns matches;
Vector determining means for performing a vector determination for determining whether the image line pattern is to be used for interpolation continuously from the start position and length of the image line pattern determined to match,
The interpolation execution means includes
Interpolation execution interval determination means for determining the position and length of the interval for executing interpolation based on the pattern information of the image line pattern determined by the interpolation pattern determination means;
An image interpolation apparatus comprising: interpolation pixel generation means for generating the pixel row to be interpolated based on the image line pattern determined by the interpolation pattern determination means in the determined section .
さらに、前記パターン情報に基づいて、補間に使用可能な画像ラインパターンの存在位置に関する予測情報を生成する補間予測手段を具備し、
該補間パターン予測手段は、
前記パターン情報から補間可能方向/補間不可能方向を予測する補間方向予測手段と、
前記パターン情報が一致する画像ラインパターンが存在する位置までの距離を予測する検索距離予測手段と、
一致する画像ラインパターンと補間しても画像に破たんが生じない距離を予測する補間実行距離予測手段とを具備することを特徴とする請求項1に記載の画像補間装置。
Furthermore, based on the pattern information , comprising an interpolation prediction means for generating prediction information related to the position of the image line pattern that can be used for interpolation ,
The interpolation pattern prediction means includes:
Interpolation direction prediction means for predicting an interpolable direction / non-interpolable direction from the pattern information;
A search distance prediction means for predicting a distance to a position where an image line pattern matching the pattern information exists;
The image interpolation apparatus according to claim 1, further comprising an interpolation execution distance predicting unit that predicts a distance at which the image does not break even when interpolated with the matching image line pattern .
前記パターン情報生成手段は、さらに、画素毎の縦方向の2回差分値を正規化処理して複数の輝度差分特性を示す種類に分類する正規化手段を具備し、
前記パターン抽出手段は、前記正規化手段により求めた輝度差分特性を示す分類に基づいて画像ラインパターンの抽出を行うことを特徴とする請求項1又は2記載の画像補間装置。
The pattern information generation means further comprises normalization means for normalizing the vertical difference value twice for each pixel and classifying the difference values into types indicating a plurality of luminance difference characteristics,
The pattern extraction unit, the image interpolation apparatus according to claim 1 or 2, characterized in that to extract an image line pattern based on the classification indicating the luminance difference characteristic obtained by the normalization means.
前記パターン情報生成手段は、さらに、前記パターン抽出手段が抽出した画像ラインパターンが画像の歪みやノイズの場合に、この画像ラインパターンを取り除くコアリング処理を行うコアリング手段を具備し、
前記コアリング手段は、
前記画像ラインパターン内の輝度波形に複数の極大/極小点やパターン内の輝度波形に鋭角な変化点を有する画像を歪みとし、基準画素数に届かない画素列をノイズとして検出する検出手段と、
前記検出手段の検出データに基づいて、前記画像ラインパターンを削除する編集が必要か否かを判定する編集判定手段と、
編集が必要と判定された画像ラインパターンに対して削除編集を実行する編集実行手段とを具備することを特徴とする請求項1乃至3のいずれかに記載の画像補間装置。
The pattern information generating means further comprises coring means for performing coring processing to remove the image line pattern when the image line pattern extracted by the pattern extracting means is image distortion or noise,
The coring means is
Detecting means for detecting, as distortion, an image having a plurality of maximum / minimum points in the luminance waveform in the image line pattern and an acute change point in the luminance waveform in the pattern, and detecting a pixel row not reaching the reference pixel number as noise;
Editing determination means for determining whether or not editing for deleting the image line pattern is necessary based on detection data of the detection means;
Image interpolation apparatus according to any one of claims 1 to 3, characterized in that it comprises the editing execution means for executing a deletion editing the image line pattern is determined to require editing.
前記情報収集手段は、
前記画像ラインパターン内の最大輝度値を収集する手段と、
前記画像ラインパターン開始位置からの最大輝度位置までの最大輝度増加量を収集する手段と、
最大輝度位置から前記画像ラインパターン終了位置までの最大輝度減少量を収集する手段とを具備することを特徴とする請求項1乃至4のいずれかに記載の画像補間装置。
The information collecting means includes
Means for collecting a maximum luminance value in the image line pattern;
Means for collecting a maximum luminance increase amount from the image line pattern start position to a maximum luminance position;
Image interpolation device according to the maximum luminance position to any one of claims 1 to 4, characterized in that it comprises a means for collecting the maximum luminance reduction amount to the image line pattern end position.
前記情報収集手段は、
前記画像ラインパターン内の最小輝度値を収集する手段と、
前記画像ラインパターン開始位置からの最小輝度位置までの最大輝度減少量を収集する手段と、
最小輝度位置から前記画像ラインパターン終了位置までの最大輝度増加量を収集する手段と具備することを特徴とする請求項1乃至4のいずれかに記載の画像補間装置。
The information collecting means includes
Means for collecting a minimum luminance value in the image line pattern;
Means for collecting a maximum luminance decrease amount from the image line pattern start position to a minimum luminance position;
Image interpolation apparatus according to any one of claims 1 to 4, characterized in that it comprises a means for collecting the maximum brightness increment until the image line pattern end position from the minimum luminance position.
JP2001276651A 2001-09-12 2001-09-12 Image interpolation device Expired - Fee Related JP3862531B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001276651A JP3862531B2 (en) 2001-09-12 2001-09-12 Image interpolation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001276651A JP3862531B2 (en) 2001-09-12 2001-09-12 Image interpolation device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2006149020A Division JP2006270997A (en) 2006-05-29 2006-05-29 Image interpolation device

Publications (2)

Publication Number Publication Date
JP2003087750A JP2003087750A (en) 2003-03-20
JP3862531B2 true JP3862531B2 (en) 2006-12-27

Family

ID=19101317

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001276651A Expired - Fee Related JP3862531B2 (en) 2001-09-12 2001-09-12 Image interpolation device

Country Status (1)

Country Link
JP (1) JP3862531B2 (en)

Also Published As

Publication number Publication date
JP2003087750A (en) 2003-03-20

Similar Documents

Publication Publication Date Title
US6487313B1 (en) Problem area location in an image signal
US7379625B2 (en) Edge direction based image interpolation method
US7012649B2 (en) Image processing apparatus and method, program, and recording medium
JP4847040B2 (en) Ticker processing in video sequences
US8199252B2 (en) Image-processing method and device
US7907209B2 (en) Content adaptive de-interlacing algorithm
US7391920B2 (en) Image processing method, apparatus, and program
JP2005287048A (en) Improvement of motion vector estimation at image border
JP2011509617A (en) Sparse geometry for super-resolution video processing
JP2007235947A (en) Method and device for de-interlacing video image
KR100422575B1 (en) An Efficient Spatial and Temporal Interpolation system for De-interlacing and its method
JP4699776B2 (en) Pull-down detection apparatus and pull-down detection method
EP1849301B1 (en) Conversion of video data from interlaced to non-interlaced format
CN104580978A (en) Video detecting and processing method and video detecting and processing device
JP3862531B2 (en) Image interpolation device
US20090046202A1 (en) De-interlace method and apparatus
EP0687104B1 (en) A method for detecting edge direction in an interlaced television image
KR100931110B1 (en) Deinterlacing apparatus and method using fuzzy rule-based edge recovery algorithm
US20080111916A1 (en) Image de-interlacing method
US7991246B2 (en) Image deinterlacing
JP2006270997A (en) Image interpolation device
JP2001094951A (en) Scanning line interpolation method
JPH09200575A (en) Image data interpolation device
KR100351160B1 (en) Apparatus and method for compensating video motions
KR20050023983A (en) Image adaptive deinterlacing method using spatial correlation based on edge

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060328

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060926

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091006

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101006

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111006

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121006

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131006

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees