JP2000148724A - データ処理装置およびデータ処理方法 - Google Patents

データ処理装置およびデータ処理方法

Info

Publication number
JP2000148724A
JP2000148724A JP10317101A JP31710198A JP2000148724A JP 2000148724 A JP2000148724 A JP 2000148724A JP 10317101 A JP10317101 A JP 10317101A JP 31710198 A JP31710198 A JP 31710198A JP 2000148724 A JP2000148724 A JP 2000148724A
Authority
JP
Japan
Prior art keywords
processing
data
tap
class
circuit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10317101A
Other languages
English (en)
Other versions
JP4517409B2 (ja
JP2000148724A5 (ja
Inventor
Tetsujiro Kondo
哲二郎 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP31710198A priority Critical patent/JP4517409B2/ja
Application filed by Sony Corp filed Critical Sony Corp
Priority to DE69942656T priority patent/DE69942656D1/de
Priority to EP99308835A priority patent/EP1001371B1/en
Priority to US09/434,662 priority patent/US7031513B1/en
Priority to EP05077936A priority patent/EP1650709B1/en
Priority to KR1019990049423A priority patent/KR100624349B1/ko
Publication of JP2000148724A publication Critical patent/JP2000148724A/ja
Publication of JP2000148724A5 publication Critical patent/JP2000148724A5/ja
Priority to US11/348,775 priority patent/US7747069B2/en
Priority to US12/509,530 priority patent/US7912277B2/en
Application granted granted Critical
Publication of JP4517409B2 publication Critical patent/JP4517409B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
    • H04N5/213Circuitry for suppressing or minimising impulsive noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/46Receiver circuitry for the reception of television signals according to analogue transmission standards for receiving on more than one standard at will
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/0145Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes the interpolation being class adaptive, i.e. it uses the information of class which is determined for a pixel based upon certain characteristics of the neighbouring pixels

Abstract

(57)【要約】 【課題】 入力データの処理結果としての出力データを
改善する。 【解決手段】 実時間学習部1では、入力データが適応
的に処理されることにより、出力データが時間の経過と
ともに改善されるように、処理方式が、実時間で学習さ
れ、データ処理部2では、その処理方式で、入力データ
が処理されて、出力データが出力される。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、データ処理装置お
よびデータ処理方法に関し、特に、入力データを処理す
る処理方式を、実時間で学習することにより、入力デー
タが適応的に処理され、その結果得られる出力データ
が、時間の経過とともに改善されるようにするデータ処
理装置およびデータ処理方法に関する。
【0002】
【従来の技術】図18は、従来のデータ処理装置の一例
の構成を示している。
【0003】処理すべき入力データは、判定部91、お
よび処理部921乃至92Mに供給される。処理部921
乃至92Mでは、入力データが、それぞれ異なった処理
方式で処理され、選択部93に供給される。
【0004】一方、判定部91では、例えば、入力デー
タの特徴量が抽出され、その特徴量に基づいて、処理部
921乃至92Mの出力のうちのいずれかを選択するよう
に、選択部93が制御される。選択部93では、判定部
91の制御にしたがい、処理部921乃至92Mの出力の
うちのいずれかが選択され、出力データとして出力され
る。
【0005】即ち、処理部921乃至92Mでは、それぞ
れ異なった処理方式で入力データが処理されるようにな
されており、判定部91は、入力データの特徴量に基づ
き、それらの処理方式から最も適したものを選択し、そ
の処理方式による入力データの処理結果を、選択部93
に選択させるようになされている。
【0006】従って、図18のデータ処理装置では、例
えば、入力データが画像データであり、処理部921
至92Mそれぞれが、画像データをフィルタリングす
る、タップ係数の異なるフィルタであるとすると、判定
部91においては、処理部921乃至92Mのうち、デー
タ処理装置の設計者が最も適切であると考えるタップ係
数を有するフィルタとして機能するものが、入力データ
の特徴量に基づいて決定され、選択部93において、そ
のフィルタリング結果が、出力データとして選択され
る。
【0007】
【発明が解決しようとする課題】以上のように、従来の
データ処理装置では、処理部921乃至92Mのうち、デ
ータ処理装置の設計者が最も適切であると考えるタップ
係数を有するフィルタとして機能するものの処理結果が
選択されるが、そのようなタップ係数によって入力デー
タを処理することが、真に、入力データにとって適切で
あるとは限らない。
【0008】即ち、処理部921乃至92Mそれぞれが有
するタップ係数のいずれでもないタップ係数によってフ
ィルタリングを行った方が、入力データに適しており、
その結果、出力データも、より改善されたものが得られ
ることがある。
【0009】本発明は、このような状況に鑑みてなされ
たものであり、入力データを処理する処理方式を、実時
間で学習することにより、入力データが適応的に処理さ
れ、その結果得られる出力データが、時間の経過ととも
に改善されるようにするものである。
【0010】
【課題を解決するための手段】本発明のデータ処理装置
は、入力データを、所定の処理方式で処理し、出力デー
タを出力するデータ処理手段と、入力データが適応的に
処理されることにより、出力データが時間の経過ととも
に改善されるように、処理方式を、実時間で学習し、そ
の処理方式で処理を行うように、データ処理手段を制御
する実時間学習手段とを備えることを特徴とする。
【0011】本発明のデータ処理方法は、入力データ
を、所定の処理方式で処理し、出力データを出力するデ
ータ処理ステップと、入力データが適応的に処理される
ことにより、出力データが時間の経過とともに改善され
るように、処理方式を、実時間で学習し、その処理方式
で処理を行うように、データ処理ステップを制御する実
時間学習ステップとを備えることを特徴とする。
【0012】本発明のデータ処理装置においては、デー
タ処理手段は、入力データを、所定の処理方式で処理し
て、出力データを出力し、実時間学習手段は、入力デー
タが適応的に処理されることにより、出力データが時間
の経過とともに改善されるように、処理方式を、実時間
で学習し、その処理方式で処理を行うように、データ処
理手段を制御するようになされている。
【0013】本発明のデータ処理方法においては、入力
データが適応的に処理されることにより、出力データが
時間の経過とともに改善されるように、処理方式を、実
時間で学習し、その処理方式で、入力データを処理し
て、出力データを出力するようになされている。
【0014】
【発明の実施の形態】図1は、本発明を適用した自己適
応処理回路の一実施の形態の構成例を示している。
【0015】この自己適応処理回路においては、処理対
象の入力データ(ここでは、例えば、ディジタルデータ
とする)である処理用入力データに対して最適な処理方
式による処理が施され、その結果得られる出力データが
出力されるようになされている。
【0016】即ち、自己適応処理回路は、実時間学習部
1(実時間学習手段)と、データ処理部2(データ処理
手段)とから構成されている。
【0017】実時間学習部1には、処理用入力データを
処理する処理方式の学習に用いられる学習用入力データ
が供給されるようになされており、実時間学習部1は、
その学習用入力データに基づき、処理用入力データが適
応的に処理されることにより、出力データが時間の経過
とともに改善されるように、処理方式を、実時間で学習
し、その学習の結果得られた処理方式で処理を行うよう
に、データ処理部2を制御する。
【0018】データ処理部2では、実時間学習部1から
指示された処理方式によって、処理用入力データが適応
的に処理され、その処理の結果得られる出力データが出
力される。
【0019】従って、データ処理部2では、上述したよ
うな実時間学習された処理方式で、処理用入力データが
処理されるので、その処理用入力データに対して、適応
的に処理が施され、これにより、その出力データは時間
の経過とともに改善される。
【0020】即ち、データ処理部2が、処理用入力デー
タを処理する処理方式は、実時間学習部1における実時
間学習によって改善されていく。データ処理部2は、実
時間学習部1から指示される処理方式によって、処理用
入力データが適応的に処理され、時間の経過(処理用入
力データの処理量)に伴い、いわば学習の効果が徐々に
現れ、データ処理部2が出力する出力データは、時間の
経過とともに改善されていく(これは、データ処理部2
の処理方式が、時間の経過とともに、処理用入力データ
を処理するのに適したものに改善されていっているとい
うこともできる)。
【0021】以上のように、自己適応処理回路では、処
理用入力データが適応的に処理されることにより、出力
データが時間の経過とともに改善されるように、処理方
式が、実時間で学習され、その学習の結果得られた処理
方式で処理が行われる結果、処理用入力データには、そ
れ自身(自己)に適した処理が施される。このことか
ら、図1の自己適応処理回路が行う処理は、自己適応処
理ということができる。
【0022】ここで、出力データの改善とは、例えば、
処理用入力データが画像であれば、その画質が向上する
こと等、具体的には、例えば、S/Nや解像度が向上す
ることなどを意味する。また、データ処理部2における
処理の目的が、スムージングやエッジ強調であれば、そ
の効果が顕著に現れることを意味する。従って、出力デ
ータの改善とは、ユーザが希望する状態の出力データと
することを意味する。
【0023】なお、実時間学習部1においては、そこに
入力される学習用入力データに基づいて、処理用入力デ
ータを処理する処理方式の実時間学習が行われるが、学
習用入力データとしては、図1において点線で示すよう
に、データ処理部2に入力される処理用入力データや、
データ処理部2から出力される出力データ(例えば、そ
の周波数特性など)、さらには、自己適応処理回路に対
して、処理用入力データの処理方式の学習を行うために
供給される補助入力データなどを用いることが可能であ
る。また、学習用入力データとしては、上述のデータの
うちの2以上を用いることもできる。
【0024】次に、自己適応処理回路において、データ
処理部2の処理方式は、実時間学習部1が実時間学習す
ることで時々刻々改善されることになるが(従って、自
己適応処理回路は、いわば時変システムである)、処理
方式の改善は、大きく、処理のアルゴリズムが変更され
る場合と、一連の処理を構成する処理ステップ(処理の
構成要素)の内容が変更される場合とに分けることがで
きる。
【0025】即ち、例えば、いま、処理用入力データを
xと、出力データをyと表すと、データ処理部2におけ
る処理は、関数f()を用いて、式y=f(x)と表す
ことができる。
【0026】例えば、f(x)=a02+b0x+c0
した場合、データ処理部2の処理は、例えば、図2
(A)に示すようなフローチャートで表すことができ
る。
【0027】即ち、ステップS1において、a02が計
算され、ステップS2に進み、b0xが計算される。そ
して、ステップS3において、a02+b0x+c0が計
算され、これにより、出力データyが求められる。
【0028】この場合において、関数f(x)の、いわ
ば形を変更するのが、処理のアルゴリズムの変更に相当
する。即ち、例えば、関数f(x)=a02+b0x+
0を、f(x)=(a02+b0x+c02などに変更
するのが、処理のアルゴリズムの変更に相当する。
【0029】この場合、データ処理部2の処理は、例え
ば、図2(B)に示すようなフローチャートで表すこと
ができる。
【0030】即ち、ステップS1乃至S3それぞれにお
いて、図2(A)における場合と同様の処理が行われ、
ステップS4に進み、(a02+b0x+c02が計算
され、これにより、出力データyが求められる。
【0031】図2(A)のフローチャートと、図2
(B)のフローチャートとを比較して分かるように、処
理のアルゴリズムが変更された場合には、その処理を表
現するフローチャートも変更されることになる。
【0032】また、関数f(x)における係数を変更す
るのが、処理を構成する構成要素の内容の変更に相当す
る。即ち、例えば、関数f(x)=a02+b0x+c0
を、f(x)=a12+b1x+c1に変更するのが、処
理の構成要素の内容の変更に相当する。
【0033】この場合、データ処理部2の処理は、図2
(A)と同様の図3(A)のフローチャートで表される
ものから、例えば、図3(B)のフローチャートで表さ
れるものに変更される。
【0034】即ち、この場合、ステップS1において、
12が計算され、ステップS2に進み、b1xが計算
される。そして、ステップS3において、a12+b1
x+c1が計算され、これにより、出力データyが求め
られる。
【0035】図3(A)のフローチャートと、図3
(B)のフローチャートとを比較して分かるように、関
数f(x)における係数が変更された場合には、処理を
構成する処理ステップの内容が変更される(図3では、
ステップS1は、a02の計算からa12の計算に、ス
テップS2は、b0xの計算からb1xの計算に、ステッ
プS3は、a02+b0x+c0の計算からa12+b1
x+c1の計算に、それぞれ変更されている)。
【0036】なお、処理方式の改善は、処理のアルゴリ
ズムの変更と、処理の構成要素の内容の変更との両方に
より行われる場合もある。
【0037】また、図2および図3の説明に用いた関数
は、処理方式の改善を説明するためだけに用いた例であ
り、データ処理部2における処理を表す関数が、図2や
図3で説明したように変更された場合に、実際に、出力
データが改善されるかどうかといった問題とは無関係で
ある。
【0038】ここで、自己適応処理回路では、関数f
(x)における係数の変更が、実時間学習により、いわ
ば新たに生成された適応的な係数に基づいて行われる点
で、従来における、例えば、ディジタルフィルタなどと
は異なる。即ち、従来のディジタルフィルタでは、その
タップ係数を、入力データなどに基づいて変更する場合
があるが、変更されるタップ係数は、あらかじめ用意さ
れたものであり、実時間学習により生成されたものでは
ない。言い換えれば、従来のディジタルフィルタでは、
あらかじめ用意されたタップ係数の中で、入力データに
適しているとシステムの設計者が考えたものが選択され
るだけであり、入力データに対して、適応的なタップ係
数が求められるわけではない。その結果、入力データに
対してより適したタップ係数があっても、あらかじめ用
意されていなければ用いることができない。従って、上
述のような従来のディジタルフィルタ等は、「適応的」
にタップ係数を変更するシステム等と呼ばれることがあ
るが、正確には、「適応的」でははく、「選択的」なだ
けである。即ち、入力データに対して適応的なタップ係
数が生成されるのではなく、入力データに対して一意的
に選択されるタップ係数が用いられるシステムである。
【0039】これに対して、自己適応処理回路では、入
力データが適応的に処理されるようなタップ係数が、実
時間学習により生成される結果、入力データに対して真
に最適なタップ係数を用いることができる。より具体的
には、例えば、従来のディジタルフィルタでは、例え
ば、2セットのタップ係数が、あらかじめ用意されてい
る場合には、その2セットのタップ係数のうちの、入力
データに対して適しているとシステムの設計者が考える
ものが一意的に選択されて用いられることになるが、自
己適応処理回路では、入力データを処理するためのタッ
プ係数が、実時間学習により時々刻々と改善されていく
ことで、入力データに対してより適したタップ係数が求
められ、そのようなタップ係数を用いて、処理(従っ
て、入力データに対して適応的な処理)が行われること
になる。
【0040】さらに、自己適応処理回路では、出力デー
タが時々刻々と改善されていく点で、入力データに対し
て適応的な処理を施すが、出力データが改善されること
がない従来の、例えば、ADRC(Adaptive Dynamic R
ange Coding)処理などとは異なる。即ち、ADRC処
理においては、例えば、画像のあるブロックについて、
そのブロックを構成する画素の画素値の最大値MAXと
最小値MINが検出される。そして、DR=MAX−M
INを、ブロックの局所的なダイナミックレンジとし、
このダイナミックレンジDRに基づいて、ブロックを構
成する画素の画素値がKビットに再量子化される。具体
的には、ブロック内の各画素値から、最小値MINが減
算され、その減算値がDR/2Kで除算(量子化)され
る。従って、画素値の量子化ステップDR/2Kが、ブ
ロックのダイナミックレンジDRに基づいて求められ、
その量子化ステップDR/2Kで、画素値が量子化され
る点では、入力データに対して適応的な処理が施されて
いるが、その量子化結果としての出力データは時々刻々
と改善されていくといった性質のものではない。
【0041】次に、実時間学習部1では、例えば、現在
時刻をtとするとき、その現在時刻tにおける実時間学
習において、出力データを時間の経過とともに改善する
ために、基本的に、いままでの学習用入力データのサン
プル値すべてを考慮するが、現在時刻tと時間的に近い
位置のサンプル値に重みをおき、遠い位置のサンプル値
はあまり考慮しない方が、出力データが効果的に改善さ
れることがある。従って、実時間学習部1では、学習用
入力データに対して、そのような重み付けをして、即
ち、現在時刻tから時間的に離れた学習用入力データの
サンプル値を、その離れ具合に対応した割合で忘却する
ようにして、実時間学習を行うことが可能である。極端
には、現在時刻tから、所定の時間的範囲内にある学習
用入力データのみを用いるようにすることが可能であ
る。即ち、例えば、図4に示すように、現在時刻tから
±4サンプルの範囲にある学習用入力データのみを、現
在時刻tにおける実時間学習において用いるようにする
ことが可能である。これは、現在時刻tから5サンプル
以上離れている学習用入力データに対する重みを0とす
ることで行うことが可能である。
【0042】また、現在時刻tにおける実時間学習で
は、その現在時刻tにおける学習用入力データのサンプ
ル値から所定の範囲内にあるサンプル値だけを用いるよ
うにすることも可能である。即ち、例えば、図4におい
て、時刻t−2における学習用データのサンプル値は、
現在時刻tにおける学習用入力データのサンプル値とは
大きく異なっているが、このようなサンプル値は、学習
に悪影響を与えることがある。そこで、現在時刻tにお
ける学習用入力データのサンプル値とは大きく異なって
いるサンプル値は、その現在時刻tにおける実時間学習
においては用いないようにすること(重みを0とするこ
と)が可能である。
【0043】次に、図5は、図1の自己適応処理回路を
適用したNR(Noise Reduction)処理回路の一実施の
形態の構成例を示している。
【0044】このNR処理回路においては、そこにノイ
ズを有する入力データが入力されると、入力データに対
して自己適応処理が施されることにより、入力データか
らノイズを効果的に除去した出力データが出力されるよ
うになされている。
【0045】即ち、例えば、いま、説明を簡単にするた
めに、図6(A)に示すような、真値が一定で、かつ時
間的に変動するノイズが重畳された入力データについ
て、その平均をとることで、時間的に変動するノイズを
除去することを考えると、ノイズの度合いとしての、例
えば、ノイズのレベルが大きい入力データ(従って、S
/Nの悪いデータ)については、その重みを小さくし
(あまり考慮しないようにする)、ノイズのレベルの小
さい入力データ(従って、S/Nの良いデータ)につい
ては、その重みを大きくすることにより、ノイズを効果
的に除去することができる。
【0046】そこで、図5のNR処理回路では、入力デ
ータの評価値として、例えば、図6(B)に示すよう
な、入力データの、真値に対する近さ、即ち、入力デー
タが真値であることの信頼性を表す信頼度を実時間学習
により求め、その信頼度に対応した重み付けを入力デー
タに対して行いながら、その平均を計算することで、ノ
イズを効果的に除去するようになっている。
【0047】従って、図5のNR処理回路では、入力デ
ータについて、その信頼度に対応した重みを用いた重み
付け平均が求められ、出力データとして出力されるか
ら、いま、時刻tにおける入力データ、出力データ、入
力データの信頼度を、それぞれx(t),y(t),α
x(t)と表すと、次式にしたがって、出力データy(t)
が求められることになる。
【0048】
【数1】 ・・・(1) なお、ここでは、入力データの信頼度αx(t)が大きいほ
ど、大きな重みを与えることとしている。
【0049】式(1)から、現在時刻tから1サンプル
前の出力データy(t−1)は、次式で求められる。
【0050】
【数2】 ・・・(2)
【0051】また、出力データy(t)についても、そ
の出力データy(t)の評価値として、真値に対する近
さ、即ち、出力データy(t)が真値であることの信頼
性を表す信頼度αy(t)を導入し、現在時刻tから1サン
プル前の出力データy(t−1)の信頼度αy(t-1)を、
次式で定義する。
【0052】
【数3】 ・・・(3)
【0053】この場合、式(1)乃至(3)から、出力
データy(t)およびその信頼度αy(t)は、次のように
表すことができる。
【0054】
【数4】 ・・・(4)
【0055】また、時刻tにおいて、出力データy
(t)を求めるのに用いる重みを、w(t)と表し、こ
れを、次式で定義する。
【0056】 w(t)=αy(t-1)/(αy(t-1)+αx(t)) ・・・(5)
【0057】式(5)から、次式が成り立つ。
【0058】 1−w(t)=αx(t)/(αy(t-1)+αx(t)) ・・・(6)
【0059】式(5)および(6)を用いると、式
(4)における出力データy(t)は、次のような乗算
と加算による重み付け平均によって表すことができる。
【0060】 y(t)=w(t)y(t−1)+(1−w(t))x(t) ・・・(7)
【0061】なお、式(7)で用いる重みw(t)(お
よび1−w(t))は、式(5)から、1サンプル前の
出力データy(t−1)の信頼度αy(t-1)と、現在の入
力データx(t)の信頼度αx(t)とから求めることがで
きる。また、式(4)における現在の出力データy
(t)の信頼度αy(t)も、その1サンプル前の出力デー
タy(t−1)の信頼度αy(t-1)と、現在の入力データ
x(t)の信頼度αx(t)とから求めることができる。
【0062】ここで、入力データx(t)の信頼度α
x(t)、または出力データy(t)の信頼度αy(t)とし
て、それぞれの分散σx(t) 2、またはσy(t) 2の逆数を用
いることとすると、即ち、信頼度αx(t),信頼度αy(t)
を、式 αx(t)=1/σx(t) 2 αy(t)=1/σy(t) 2 ・・・(8) とおくと、式(5)で定義される重みw(t)は、次式
で表される。
【0063】 w(t)=σx(t) 2/(σy(t-1) 2+σx(t) 2) ・・・(9)
【0064】また、式(6)で定義される1−w(t)
は、次式で表される。
【0065】 1−w(t)=σy(t-1) 2/(σy(t-1) 2+σx(t) 2) ・・・(10)
【0066】なお、σy(t) 2は、式(4),(8),
(9)から、次式で表される。
【0067】 σy(t) 2=w(t)2σy(t-1) 2+(1−w(t))2σx(t) 2 ・・・(11)
【0068】図5のNR処理回路は、入力データx
(t)および出力データy(t)を学習用入力データと
して、式(5)にしたがい、重みw(t)を実時間学習
(および式(6)にしたがって1−w(t)を実時間学
習)し、その結果得られる重みw(t)を用いて、式
(7)にしたがい、1サンプル前の出力データy(t−
1)と、現在の入力データx(t)との重み付け平均を
計算することで、入力データx(t)を適応的に処理
し、その入力データx(t)に含まれるノイズを効果的
に除去するようになされている。即ち、これにより、N
R処理回路が出力する出力データy(t)のS/Nは、
時間の経過とともに改善されていくようになされてい
る。
【0069】ラッチ回路111には、入力データが供給
されるようになされており、ラッチ回路111は、そこ
に供給される入力データを、例えば、その入力データが
供給されるタイミングに同期してラッチ(記憶)し、そ
の後段のラッチ回路112および入力信頼度計算部12
に供給するようになされている。ラッチ回路112また
はラッチ回路113それぞれは、ラッチ回路111と同様
に、その前段のラッチ回路111または112が出力する
入力データをラッチし、その後段のラッチ回路113
たは114と、入力信頼度計算部12に供給するように
なされている。ラッチ回路114は、その前段のラッチ
回路113が出力する入力データをラッチし、入力信頼
度計算部12に供給するようになされている。
【0070】入力信頼度計算部12には、ラッチ回路1
1乃至114でラッチされた入力データが供給される
他、ラッチ回路111に供給されるのと同一の入力デー
タが供給されるようになされている。従って、いま、ラ
ッチ回路111および入力信頼度計算部12に、入力デ
ータx(t)が供給されたとすると、入力信頼度計算部
12には、さらに、ラッチ回路111乃至114それぞれ
でラッチされた入力データx(t−1)乃至x(t−
4)も供給されるようになされている。そして、入力信
頼度計算部12は、入力データx(t)乃至x(t−
4)から、例えば、その分散を計算し、その分散の逆数
を、入力データx(t)の信頼度(以下、適宜、入力信
頼度という)αx(t)として、出力信頼度計算部13およ
び重み計算部15に供給するようになされている。
【0071】出力信頼度計算部13は、入力信頼度計算
部12からの入力信頼度αx(t)と、ラッチ回路14の出
力とから、式(4)にしたがって、出力データy(t)
の信頼度(以下、適宜、出力信頼度という)αy(t)を求
め、ラッチ回路14に出力するようになされている。
【0072】ラッチ回路14は、出力信頼度計算部13
からの出力信頼度αy(t)を、例えば、入力データx
(t)に同期してラッチし、出力信頼度計算部13およ
び重み計算部15に供給するようになされている。従っ
て、ラッチ回路14から、出力信頼度計算部13および
重み計算部15には、1サンプル前の出力信頼度α
y(t-1)が供給されるようになされている。
【0073】重み計算部15は、入力信頼度計算部12
からの入力信頼度αx(t)、およびラッチ回路14からの
出力信頼度αy(t-1)を用い、式(5)にしたがって、重
みw(t)を求め、重み付け部16および演算器17に
出力するようになされている。
【0074】ここで、以上のラッチ回路111乃至1
4、入力信頼度計算部12、出力信頼度計算部13、
ラッチ回路14、および重み計算部15が、図1の実時
間学習部1に相当する。
【0075】重み付け部16は、重み計算部15からの
重みw(t)を、ラッチ回路20の出力に乗算し、その
乗算結果を、演算器19に供給するようになされてい
る。演算器17は、重み計算部15からの重みw(t)
を1から減算し、その減算値1−w(t)を、重み付け
部18に供給するようになされている。重み付け部18
には、演算器17の出力の他、入力データx(t)が供
給されるようになされており、重み付け部18は、演算
器17の出力と、入力データx(t)とを乗算し、その
乗算結果を、演算器19に供給するようになされてい
る。演算器19は、重み付け部16と18の出力どうし
を加算し、その加算結果を、出力データy(t)として
出力するとともに、ラッチ回路20に供給するようにな
されている。ラッチ回路20は、演算器19からの出力
データを、例えば、入力データx(t)に同期してラッ
チし、重み付け部16に供給するようになされている。
【0076】ここで、以上の重み付け部16、演算器1
7、重み付け部18、演算器19、およびラッチ回路2
0が、図1のデータ処理部2に相当し、式(7)にした
がった重み付け平均を計算して、出力データy(t)と
して出力するようになされている。
【0077】次に、図7のフローチャートを参照して、
図5のNR処理回路の動作について説明する。
【0078】まず最初に、ステップS11において、入
力データx(t)が、ラッチ回路111、入力信頼度計
算部12、および重み付け部18に入力される。
【0079】そして、ステップS12に進み、入力信頼
度計算部12において、入力信頼度αx(t)が求められ
る。
【0080】即ち、ラッチ回路111は、そこに供給さ
れる入力データを、その入力データが供給されるタイミ
ングに同期してラッチし、その後段のラッチ回路112
および入力信頼度計算部12に供給する。ラッチ回路1
2またはラッチ回路113それぞれは、ラッチ回路11
1と同様に、その前段のラッチ回路111または112
出力する入力データをラッチし、その後段のラッチ回路
113または114と、入力信頼度計算部12に供給す
る。そして、ラッチ回路114は、その前段のラッチ回
路113が出力する入力データをラッチし、入力信頼度
計算部12に供給する。従って、入力信頼度計算部12
には、入力データx(t)が供給されるのと同時に、ラ
ッチ回路111乃至114それぞれから入力データx(t
−1)乃至x(t−4)が供給される。入力信頼度計算
部12は、上述したように、入力データx(t)乃至x
(t−4)を用いて、入力信頼度αx(t)を求め、出力信
頼度計算部13および重み計算部15に供給する。
【0081】入力信頼度計算部12から重み計算部15
に対して、入力信頼度αx(t)が供給されるタイミングに
おいては、ラッチ回路14において、出力信頼度計算部
13が1サンプル前に出力した出力信頼度αy(t-1)がラ
ッチされており、重み計算部15では、ステップS13
において、入力信頼度計算部12からの入力信頼度α
x(t)と、ラッチ回路14にラッチされている出力信頼度
αy(t-1)とを用い、式(5)にしたがって、重みw
(t)が求められる。この重みw(t)は、重み付け部
16および演算器17に供給される。
【0082】そして、重み付け部16、演算器17、重
み付け部18、演算器19、およびラッチ回路20で
は、ステップS14において、重み計算部15が出力す
る重み(t)を用い、式(7)にしたがって、入力デー
タx(t)と、1サンプル前の出力データy(t−1)
との重み付け平均値が計算される。
【0083】即ち、重み付け部16では、重み計算部1
5からの重みw(t)が、ラッチ回路20の出力に乗算
され、その乗算結果が、演算器19に供給される。ここ
で、ラッチ回路20は、重み計算部15が重みw(t)
を出力するタイミングにおいて、演算器19が前回出力
した出力データy(t−1)をラッチしており、従っ
て、重み付け部16では、出力データy(t−1)と重
みw(t)との積w(t)y(t−1)が求められ、演
算器19に供給される。
【0084】また、演算器17では、重み計算部15か
らの重みw(t)が1から減算され、その減算値1−w
(t)が、重み付け部18に供給される。重み付け部1
8は、演算器17の出力1−w(t)と、入力データx
(t)とを乗算し、その乗算結果(1−w(t))x
(t)を、演算器19に供給する。
【0085】演算器19では、重み付け部16の出力w
(t)y(t−1)と、重み付け部18の出力(1−w
(t))x(t)とが加算される。即ち、重み計算部1
5が出力する重み(t)を用い、式(7)にしたがっ
て、入力データx(t)と、1サンプル前の出力データ
y(t−1)との重み付け平均値が計算される。
【0086】この重み付け平均値は、ステップS15に
おいて、出力データy(t)として出力される。さら
に、出力データy(t)は、ラッチ回路20に供給され
てラッチされる。
【0087】そして、ステップS16に進み、まだ、処
理すべき入力データが存在するかどうかが判定され、ま
だ存在すると判定された場合、ステップS17に進み、
出力信頼度計算部13において、出力信頼度が更新され
る。即ち、出力信頼度計算部13は、ステップS12で
入力信頼度計算部12が計算した入力信頼度αx(t)と、
ラッチ回路14がラッチしている1サンプル前の出力信
頼度αy(t-1)とを、式(4)にしたがって加算すること
で、現在の出力信頼度αy(t)を求め、ラッチ回路14に
出力する。そして、ステップS11に戻り、次の入力デ
ータを対象に、同様の処理が繰り返される。
【0088】一方、ステップS16において、処理すべ
き入力データが存在しないと判定された場合、処理を終
了する。
【0089】以上のように、現在の入力データx(t)
の信頼度(入力信頼度)αx(t)を求め、それと、1サン
プル前の出力信頼度αy(t-1)とを加味して、重みw
(t)を計算する。さらに、この重みw(t)を用い
て、現在の入力データx(t)と、1サンプル前の出力
データy(t−1)との重み付け平均値を計算し、その
平均値を、入力データx(t)の処理結果としての出力
データy(t)とする。そして、その出力データy
(t)の信頼度(出力信頼度)αy(t)を、現在の入力信
頼度αx(t)と、1サンプル前の出力信頼度αy(t-1)とを
加算することで求め、次の入力データx(t+1)を処
理することを繰り返す。従って、重みw(t)は、過去
の入力データにおいて、ノイズの多い部分はあまり加味
せずに、かつノイズの少ない部分は十分に加味するよう
にして学習されていき、即ち、入力データに対して適応
的な重みw(t)が求められていき、その結果、出力デ
ータは、重みw(t)の学習が進むにつれて時々刻々と
改善されていき、入力データから効果的にノイズを除去
したものが得られるようになる。
【0090】なお、上述の場合においては、入力信頼度
αx(t)として、入力データの分散の逆数を用いるように
したが、入力信頼度αx(t)としては、その他、例えば、
入力データの平均値に対する、現在の入力データの自乗
誤差の逆数や、分散の逆数と自乗誤差の逆数とを加算し
たものなどを用いることが可能である。
【0091】さらに、図5のNR処理回路は、例えば、
画像データや音声データなどからのノイズの除去に適用
可能である。
【0092】また、以上においては、図5のNR処理回
路について、ノイズの除去という観点から説明を行った
が、入力データが適応的に処理されることにより、出力
データが時間の経過とともに改善されるように、処理方
式(ここでは重み係数w(t))が、実時間で学習さ
れ、その学習の結果得られた処理方式で処理が行われる
結果、入力データには、それ自身に適した処理が施され
るという自己適応処理の性質上、図5のNR処理回路で
は、例えば、入力データの波形整形(波形等化)などを
行うことも可能である。
【0093】さらに、上述の場合には、式(7)におい
て、出力データy(t−1)に対して重みw(t)を乗
算するとともに、入力データx(t)に対して重み1−
w(t)を乗算して、出力データy(t)を求めるよう
にしたが、出力データy(t−1)または入力データx
(t)のいずれか一方にのみ重みを乗算して、出力デー
タy(t)を求めるようにすることも可能である。
【0094】次に、図8は、図1の自己適応処理回路を
適用した画像処理装置の一実施の形態の構成例を示して
いる。
【0095】この画像処理装置においては、クラス分類
適応処理が行われ、これにより、SD(Standard Densi
ty)画像がHD(High Density)画像に変換されるよう
になされている。
【0096】ここで、クラス分類適応処理は、クラス分
類処理と適応処理とからなり、クラス分類処理によっ
て、データを、その構造(性質)に基づいてクラス分け
し、各クラスごとに適応処理を施すものであり、適応処
理は、以下のような手法のものである。
【0097】即ち、適応処理では、例えば、SD画像
と、所定の予測係数との線形結合により、HD画像の画
素の予測値を求めることで、SD画像には含まれていな
い高周波成分が復元されるようになされている。
【0098】具体的には、例えば、いま、HD画像を構
成する画素(以下、適宜、HD画素という)の画素値y
の予測値E[y]を、幾つかのSD画素(SD画像を構
成する画素)の画素値(以下、適宜、学習データとい
う)x1,x2,・・・と、所定の予測係数w1,w2,・
・・の線形結合により規定される線形1次結合モデルに
より求めることを考える。この場合、予測値E[y]
は、次式で表すことができる。
【0099】 E[y]=w11+w22+・・・・・・(12)
【0100】式(12)を一般化するために、予測係数
wの集合でなる行列W、学習データの集合でなる行列
X、および予測値E[y]の集合でなる行列Y’を、
【数5】 で定義すると、次のような観測方程式が成立する。
【0101】XW=Y’・・・(13)
【0102】そして、この観測方程式に最小自乗法を適
用して、HD画素の画素値yに近い予測値E[y]を求
めることを考える。この場合、教師データとなるHD画
素の真の画素値yの集合でなる行列Y、およびHD画素
の画素値yに対する予測値E[y]の残差eの集合でな
る行列Eを、
【数6】 で定義すると、式(13)から、次のような残差方程式
が成立する。
【0103】XW=Y+E・・・(14)
【0104】この場合、HD画素の画素値yに近い予測
値E[y]を求めるための予測係数wiは、自乗誤差
【数7】 を最小にすることで求めることができる。
【0105】従って、上述の自乗誤差を予測係数wi
微分したものが0になる場合、即ち、次式を満たす予測
係数wiが、HD画素の画素値yに近い予測値E[y]
を求めるため最適値ということになる。
【0106】
【数8】 ・・・(15)
【0107】そこで、まず、式(14)を、予測係数w
iで微分することにより、次式が成立する。
【0108】
【数9】 ・・・(16)
【0109】式(15)および(16)より、式(1
7)が得られる。
【0110】
【数10】 ・・・(17)
【0111】さらに、式(14)の残差方程式における
学習データx、予測係数w、教師データy、および残差
eの関係を考慮すると、式(17)から、次のような正
規方程式を得ることができる。
【0112】
【数11】 ・・・(18)
【0113】式(18)の正規方程式は、学習データx
および教師データyを、ある程度の数だけ用意すること
で、求めるべき予測係数wの数と同じ数だけたてること
ができ、従って、式(18)を解くことで(但し、式
(18)を解くには、式(18)において、予測係数w
にかかる係数で構成される行列が正則である必要があ
る)、最適な予測係数wを求めることができる。なお、
式(18)を解くにあたっては、例えば、掃き出し法
(Gauss-Jordanの消去法)などを用いることが可能であ
る。
【0114】以上のようにして、最適な予測係数wを求
めておき、さらに、その予測係数wを用い、式(12)
により、HD画素の画素値yに近い予測値E[y]を求
めるのが適応処理である。
【0115】なお、適応処理は、SD画像には含まれて
いない、HD画像に含まれる成分が再現される点で、補
間処理とは異なる。即ち、適応処理では、式(12)だ
けを見る限りは、いわゆる補間フィルタを用いての補間
処理と同一であるが、その補間フィルタのタップ係数に
相当する予測係数wが、教師データyを用いての、いわ
ば学習により求められるため、HD画像に含まれる成分
を再現することができる。即ち、容易に、高解像度の画
像を得ることができる。このことから、適応処理は、い
わば画像の創造(解像度想像)作用がある処理というこ
とができる。
【0116】図8の画像処理装置は、以上のような適応
処理により、SD画像をHD画像に変換するようになさ
れている。
【0117】即ち、この画像処理装置には、SD画像が
処理用入力データとして、HD画像が学習用入力データ
として、それぞれ入力されるようになされている。ここ
で、処理用入力データとしてのSD画像は、例えば、テ
レビジョン放送として放送されてきたものを利用するこ
とができる。また、学習用入力データとしてのHD画像
は、例えば、テレビジョン放送として、SD画像ととも
に放送するようにし、そのようにして放送されてきたも
のを利用することができる。さらに、学習用入力データ
としてのHD画像は、SD画像をクラス分類適応処理す
る等して、HD画像にしたものを利用することも可能で
ある。なお、SD画像とHD画像の内容は、同一である
ことが望ましい。
【0118】図8において、フレームメモリ21、間引
き回路22、フレームメモリ23、クラスタップ生成回
路24、予測タップ生成回路25、クラス分類回路2
6、加算回路27、予測タップメモリ28、加算回路2
9、教師データメモリ30、および演算回路31は、図
1の実時間学習部1に相当し、フレームメモリ41、ク
ラスタップ生成回路42、予測タップ生成回路43、ク
ラス分類回路44、係数RAM(Random Access Memor
y)45、および予測演算回路46は、図1のデータ処
理部2に相当している。そして、学習用入力データとし
てのHD画像は、実時間学習部1のフレームメモリ21
に、処理用入力データとしてのSD画像は、データ処理
部2のフレームメモリ41に、それぞれ供給されるよう
になされている。
【0119】データ処理部2において、フレームメモリ
41は、そこに供給される処理用入力データとしてのS
D画像を、例えば、フレーム単位で一時記憶するように
なされている。
【0120】クラスタップ生成回路42は、適応処理に
より予測値を求めようとするHD画素(以下、適宜、注
目画素という)の周辺にあるSD画素として、例えば、
注目画素からの距離が所定値以下のSD画素でなるブロ
ック(以下、適宜、処理ブロックという)を、SD画像
から抽出し、これを、クラス分類処理に用いるクラスタ
ップとして、クラス分類回路44に出力するようになさ
れている。
【0121】即ち、クラスタップ生成回路42は、例え
ば、図9に示すように、注目画素を中心とする4×4の
SD画素(同図において○印で示す)でなるクラスタッ
プを、SD画像から抽出し、これを、注目画素について
のクラスタップとして、クラス分類回路44に出力する
ようになされている。なお、図9の実施の形態では、S
D画像は、HD画像の横または縦の画素数を、それぞれ
1/2にしたものとなっている。
【0122】予測タップ生成回路43は、予測演算回路
46において注目画素の予測値を求めるのに用いるSD
画素を抽出し、これを予測タップとして、予測演算回路
46に供給するようになされている。即ち、予測タップ
生成回路43は、SD画像から、例えば、図9に示した
ように、クラスタップ生成回路42で抽出されたクラス
タップと同一のSD画素を予測タップとして抽出し、予
測演算回路46に供給するようになされている。
【0123】なお、ここでは、クラスタップと予測タッ
プとを、同一のSD画素から構成するようにしたが、ク
ラスタップと予測タップとは、必ずしも、同一のSD画
素から構成する必要はない。
【0124】クラス分類回路44は、クラスタップ生成
回路42からのクラスタップに基づいて、注目画素をク
ラス分類し、その結果得られるクラスを、係数RAM4
5に対し、アドレスとして与えるようになされている。
即ち、クラス分類回路44は、クラスタップを構成す
る、例えば、すべてのSD画素の画素値のパターンにあ
らかじめ割り当てられた値を、注目画素のクラスとし、
そのクラスを、係数RAM45のアドレスとして出力す
るようになされている。
【0125】具体的には、ここでは、クラス分類回路4
4は、例えば、図9に示した、クラスタップとしての、
注目画素を中心とする4×4の16のSD画素の画素値
のパターンに対応する値を、注目画素のクラスとして出
力するようになされている。
【0126】ここで、各SD画素の画素値を表すのに、
例えば、8ビットなどの多くのビット数が割り当てられ
ている場合、16のSD画素の画素値のパターン数は、
(2816通りという莫大な数となり、その後の処理の
迅速化が困難となる。
【0127】そこで、クラス分類を行う前の前処理とし
て、クラスタップには、それを構成するSD画素のビッ
ト数を低減するための処理である、例えば、上述したA
DRC処理などを施すことができる。
【0128】ADRC処理によって、クラスタップを構
成する各画素値を1ビットで表現するすることとした場
合、16のSD画素の画素値のパターン数は、(21
16通りになり、ADRC処理を行わない場合に比較し
て、パターン数を非常に少ないものとすることができ
る。
【0129】係数RAM45は、実時間学習部1が実時
間学習を行うことにより得られるクラスごとの予測係数
を記憶するようになされており、クラス分類回路44か
らクラスが供給されると、そのクラスに対応するアドレ
スに記憶されている予測係数を読み出し、予測演算回路
46に供給するようになされている。なお、係数RAM
45は、実時間学習部1からクラスごとの予測係数が供
給されるごとに、その予測係数に、記憶内容を更新する
ようになされている。また、係数RAM45に対して、
実時間学習部1から、最初の予測係数が供給される前に
おいては、係数RAM45には、クラスごとの予測係数
の、所定の初期値が記憶されている。
【0130】予測演算回路46は、係数RAM45から
供給される、注目画素のクラスについての予測係数w,
2,・・・と、予測タップ生成回路43からの予測タ
ップx1,x2,・・・とを用いて、式(12)に示した
演算を行うことにより、注目画素yの予測値E[y]を
求め、HD画素の画素値として出力するようになされて
いる。
【0131】一方、実時間学習部1においては、フレー
ムメモリ21は、そこに供給される学習用入力データと
してのHD画像を、例えば、フレーム単位で一時記憶す
るようになされている。間引き回路22は、フレームメ
モリ21に記憶された、予測係数の実時間学習において
教師データyとなるべきHD画像を読み出し、その画素
数を間引くことで、SD画像とし、フレームメモリ23
に供給するようになされている。フレームメモリ23
は、間引き回路22からのSD画像を一時記憶するよう
になされている。
【0132】クラスタップ生成回路24または予測タッ
プ生成回路25は、フレームメモリ23に記憶されたS
D画像を構成するSD画素を用い、クラスタップ生成回
路42または予測タップ生成回路43と同様にして、注
目画素のクラスタップまたは予測タップを構成し、クラ
ス分類回路26または加算回路27にそれぞれ供給する
ようになされている。
【0133】クラス分類回路26は、クラス分類回路4
4と同様にして、クラスタップ生成回路24からのクラ
スタップを用いてクラス分類を行うことにより、注目画
素についてのクラスを求め、そのクラスを、予測タップ
メモリ28および教師データメモリ30に対して、アド
レスとして与えるようになされている。
【0134】加算回路27は、クラス分類回路26が出
力するクラスに対応するアドレスの記憶値を、予測タッ
プメモリ28から読み出し、その記憶値と、予測タップ
生成回路25からの予測タップを構成するSD画素とを
加算することで、式(18)の正規方程式の左辺におけ
る、予測係数wの乗数となっているサメーション(Σ)
に相当する演算を行う。そして、加算回路27は、その
演算結果を、クラス分類回路26が出力するクラスに対
応するアドレスに、上書きする形で記憶させるようにな
されている。
【0135】予測タップメモリ28は、クラス分類回路
26が出力するクラスに対応するアドレスの記憶値を読
み出し、加算回路27に供給するとともに、そのアドレ
スに、加算回路27の出力値を記憶するようになされて
いる。
【0136】加算回路29は、フレームメモリ21に記
憶されたHD画像を構成するHD画素のうちの注目画素
を、教師データとして読み出すとともに、クラス分類回
路26が出力するクラスに対応するアドレスの記憶値
を、教師データメモリ30から読み出し、その記憶値
と、フレームメモリ21から読み出した注目画素とを加
算することで、式(18)の正規方程式の右辺における
サメーション(Σ)に相当する演算を行う。そして、加
算回路29は、その演算結果を、クラス分類回路26が
出力するクラスに対応するアドレスに、上書きする形で
記憶させるようになされている。
【0137】なお、正確には、加算回路27および29
では、式(18)における乗算も行われる。また、式
(18)の右辺には、教師データyと、SD画素xとの
乗算が含まれ、従って、加算回路29で行われる乗算に
は、教師データyの他に、SD画素xが必要となるが、
これは、加算回路29において、フレームメモリ21に
記憶されたHD画素から求められる。
【0138】教師データメモリ30は、クラス分類回路
26が出力するクラスに対応するアドレスの記憶値を読
み出し、加算回路29に供給するとともに、そのアドレ
スに、加算回路29の出力値を記憶するようになされて
いる。
【0139】演算回路31は、予測タップメモリ28ま
たは教師データメモリ30それぞれから、各クラスに対
応するアドレスに記憶されている記憶値を順次読み出
し、式(18)に示した正規方程式をたてて、これを解
くことにより、クラスごとの予測係数を求めるようにな
されている。即ち、演算回路31は、予測タップメモリ
28または教師データメモリ30それぞれの、各クラス
に対応するアドレスに記憶されている記憶値から、式
(18)の正規方程式をたて、これを解くことにより、
クラスごとの予測係数を求め、係数RAM45に供給す
るようになされている。
【0140】次に、図10のフローチャートを参照し
て、図8のデータ処理部2の処理について説明する。
【0141】データ処理部2には、処理用入力データと
してのSD画像が供給され、フレームメモリ41は、そ
の処理用入力データとしてのSD画像を、例えば、フレ
ーム単位で順次記憶していく。
【0142】そして、データ処理部2では、ステップS
21において、クラスタップ生成回路42または予測タ
ップ生成回路43が、適応処理により予測値を求めよう
とするHD画素を注目画素として、その周辺にあるSD
画素を、フレームメモリ41から読み出し、クラスタッ
プまたは予測タップを構成する。このクラスタップまた
は予測タップは、クラス分類回路44または予測演算回
路46にそれぞれ供給される。
【0143】クラス分類回路44は、クラスタップ生成
回路42からクラスタップを受信すると、ステップS2
2において、そのクラスタップに基づき、注目画素のク
ラスを求め、係数RAM45に対し、アドレスとして与
える。係数RAM45は、ステップS23において、ク
ラス分類回路44からのクラスに対応するアドレスに記
憶されている予測係数を読み出し、予測演算回路46に
供給する。
【0144】予測演算回路46では、ステップS24に
おいて、予測タップ生成回路43からの予測タップと、
係数RAM45からの予測係数とを用いて、式(12)
に示した演算が行われることにより、注目画素yの予測
値E[y]が求められ、ステップS25に進む。ステッ
プS25では、予測係数演算回路46が、ステップS2
4で求めた注目画素yの予測値E[y]を、HD画素の
画素値として出力し、ステップS26に進む。
【0145】ステップS26では、フレームメモリ41
に記憶された1フレームのSD画像に対応する1フレー
ムのHD画像を構成するHD画素すべてを、注目画素と
して処理を行ったか否かが判定され、まだ行っていない
と判定された場合、ステップS21に戻り、まだ注目画
素としていないHD画素を、新たに注目画素として、以
下、同様の処理が繰り返される。
【0146】一方、ステップS26において、1フレー
ムのHD画像を構成するHD画素すべてを、注目画素と
して処理を行ったと判定された場合、処理を終了する。
【0147】なお、図10のフローチャートに示した処
理は、例えば、フレームメモリ41に、新たなSD画像
が記憶されるごとに行われる。
【0148】次に、図11のフローチャートを参照し
て、図8の実時間学習部1の処理について説明する。
【0149】実時間学習部1には、学習用入力データと
してのHD画像が供給され、フレームメモリ21は、そ
の学習用入力データとしてのHD画像を、例えば、フレ
ーム単位で順次記憶していく。
【0150】そして、ステップS31において、間引き
回路22は、フレームメモリ21に記憶されたHD画像
を読み出し、その画素数を間引くことで、SD画像とす
る。このSD画像は、フレームメモリ23に供給されて
記憶される。
【0151】フレームメモリ23にSD画像が記憶され
ると、ステップS32において、クラスタップ生成回路
24または予測タップ生成回路25は、フレームメモリ
23に記憶されたSD画像を構成するSD画素を用い、
フレームメモリ21に記憶されたHD画像を構成するH
D画素のうちの所定のものを注目画素として、クラスタ
ップまたは予測タップを構成し、クラス分類回路26ま
たは加算回路27にそれぞれ供給する。
【0152】クラス分類回路26は、ステップS33に
おいて、クラスタップ生成回路24からのクラスタップ
を用いてクラス分類を行うことにより、注目画素につい
てのクラスを求め、そのクラスを、予測タップメモリ2
8および教師データメモリ30に対して、アドレスとし
て与える。
【0153】そして、ステップS34に進み、予測タッ
プまたは教師データそれぞれの足し込みが行われる。
【0154】即ち、ステップS34において、予測タッ
プメモリ28は、クラス分類回路26が出力するクラス
に対応するアドレスの記憶値を読み出し、加算回路27
に供給する。加算回路27は、予測タップメモリ28か
ら供給される記憶値と、予測タップ生成回路25から供
給されるの予測タップを構成するSD画素とを用いて、
式(18)の正規方程式の左辺における、予測係数の乗
数となっているサメーション(Σ)に相当する演算を行
う。そして、加算回路27は、その演算結果を、クラス
分類回路26が出力するクラスに対応する、予測タップ
メモリ28のアドレスに、上書きする形で記憶させる。
【0155】さらに、ステップS34では、教師データ
メモリ30は、クラス分類回路26が出力するクラスに
対応するアドレスの記憶値を読み出し、加算回路29に
供給する。加算回路29は、フレームメモリ21に記憶
されたHD画像を構成するHD画素のうちの注目画素
を、教師データとして読み出し(正確には、さらに、上
述したような必要なデータも読み出し)、その教師デー
タと、教師データメモリ30から供給された記憶値とを
用いて、式(18)の正規方程式の右辺におけるサメー
ション(Σ)に相当する演算を行う。そして、加算回路
29は、その演算結果を、クラス分類回路26が出力す
るクラスに対応する、教師データメモリ30のアドレス
に、上書きする形で記憶させる。
【0156】その後、ステップS35に進み、フレーム
メモリ21に記憶された1フレームのHD画像を構成す
るHD画素すべてを、注目画素として処理を行ったか否
かが判定され、まだ行っていないと判定された場合、ス
テップS31に戻り、まだ注目画素としていないHD画
素を、新たに注目画素として、以下、同様の処理が繰り
返される。
【0157】一方、ステップS35において、1フレー
ムのHD画像を構成するHD画素すべてを、注目画素と
して処理を行ったと判定された場合、ステップS36に
進み、演算回路31は、予測タップメモリ28または教
師データメモリ30それぞれから、各クラスに対応する
アドレスに記憶されている記憶値を順次読み出し、式
(18)に示した正規方程式をたてて、これを解くこと
により、クラスごとの予測係数を求める。さらに、演算
回路31は、ステップS37において、その求めたクラ
スごとの予測係数を、係数RAM45に転送して記憶さ
せ、処理を終了する。
【0158】これにより、係数RAM45に記憶された
クラスごとの予測係数は、図11のフローチャートに示
した処理が行われるごとに更新されていく。
【0159】なお、図11のフローチャートに示した処
理は、例えば、フレームメモリ21に、新たなHD画像
が記憶されるごとに行われる。
【0160】また、実時間学習部1で行われる、以上の
ような予測係数の学習処理において、予測係数を求める
のに必要な数の正規方程式が得られないクラスが生じる
場合があるが、そのようなクラスについては、例えば、
係数RAM45に記憶された予測係数が更新されずに、
そのまま、データ処理部2の処理において用いられる。
【0161】さらに、図10および図11のフローチャ
ートに示した処理は、並列的に行われるようになされて
いる。
【0162】以上のように、実時間学習部1において、
予測タップメモリ28および教師データメモリ30の記
憶内容をリセットせずに、予測タップまたは教師データ
それぞれの足し込みが行われていき、その足し込み結果
を用いて、式(18)の正規方程式がたてられ、クラス
ごとの予測係数が実時間で求められていく結果、そのク
ラスごとの予測係数は、学習用入力データとしてのHD
画像を用いての学習処理が行われるごとに、処理用入力
データとしてのSD画像に適したものとなっていき、こ
れにより、データ処理部2において、SD画像は適応的
に処理され、その処理結果として得られるHD画像は、
学習が進むにつれて時々刻々と改善されていく。即ち、
データ処理部2が出力するHD画像の解像度等は、時々
刻々と向上していく。
【0163】なお、実時間学習部1において、加算回路
27における予測タップの足し込みは、予測タップメモ
リ28から供給される記憶値、または予測タップ生成回
路25から供給されるの予測タップを構成するSD画素
の少なくとも一方に、所定の重みを乗算してから行うこ
とが可能である。例えば、予測タップメモリ28から供
給される記憶値に、予測タップ生成回路25から供給さ
れるの予測タップを構成するSD画素よりも小さい重み
を乗算する場合には、過去の学習用入力データとしての
HD画像を、所定の割合で忘却しながら、予測係数の学
習を行うことができる。ここで、加算回路27において
上述のような重み付けを行う場合には、加算回路29に
おける足し込みにおいても、同様の重み付けが必要とな
る。
【0164】さらに、上述のように重み(忘却)を採用
する場合においては、例えば、テレビジョン放送におけ
るブランキング区間の信号から、そのS/Nを判定し、
S/Nが高い場合に得られた予測タップについての重み
は大きくし、S/Nが低い場合に得られた予測タップに
ついての重みは小さくするようにすることなどが可能で
ある。この場合、ノイズの影響を低減した学習を行うこ
とができる。
【0165】また、シーンチェンジを検出するように
し、シーンチェンジがあった場合には、予測タップメモ
リ28から供給される記憶値に対する重みを0とするよ
うにすることができる。この場合、シーンチェンジがあ
ると、過去の学習をすべて忘却し、いわば一から学習を
やり直すことになるため、シーンチェンジ直後に、デー
タ処理部2が出力するHD画像の画質は劣化するが、そ
の後に学習が進むにつれて、データ処理部2が出力する
HD画像の画質は、時々刻々と改善されていく。
【0166】また、上述の場合においては、処理用入力
データとしてのSD画像とともに、それと同一内容の学
習用入力データとしてのHD画像が放送されてくるもの
としたが、処理用入力データとしてのSD画像と、学習
用入力データとしてのHD画像とは、異なるタイミング
で放送するようにすることも可能である。但し、この場
合、図8の画像処理装置において、処理用入力データと
してのSD画像を受信した場合には、そのSD画像を、
データ処理部2に供給し、学習用入力データとしてのH
D画像を受信した場合には、そのHD画像を、実時間学
習部1に供給するようにする必要がある。
【0167】次に、図12は、図1の自己適応処理回路
を適用した画像処理装置の他の実施の形態の構成例を示
している。なお、図中、図8における場合と対応する部
分については、同一の符号を付してあり、以下では、そ
の説明は、適宜省略する。
【0168】この画像処理装置においても、図8の画像
処理装置における場合と同様にクラス分類適応処理が行
われ、これにより、SD画像がHD画像に変換されるよ
うになされている。但し、図8の画像処理装置では、ク
ラスタップおよび予測タップの構造については、図9に
示したように、注目画素を中心とする4×4のSD画素
のまま固定とし、クラスごとの予測係数についてのみ、
実時間学習が行われるようになされていたが、図12の
画像処理装置では、クラスごとの予測係数の他、クラス
タップおよび予測タップの構造についても、実時間学習
が行われるようになされている。
【0169】即ち、図12の実時間学習部1は、フレー
ムメモリ21、間引き回路22、特徴量抽出回路51、
タップ候補生成回路52、N個の学習処理部531乃至
53N、および判定回路54で構成されている。
【0170】そして、特徴量抽出回路51は、フレーム
メモリ23に記憶された、学習用入力データとしてのH
D画像を間引いて得られたSD画像を読み出し、その特
徴量を抽出して、タップ候補生成回路52に供給するよ
うになされている。
【0171】即ち、特徴量抽出回路51は、例えば、フ
レームメモリ23に記憶されたSD画像を構成するSD
画素を、順次、処理対象画素として、その処理対象画素
の近傍(空間的または時間的に近傍)にあるSD画素と
の相関を演算する。そして、特徴量抽出回路51は、フ
レームメモリ23に記憶されたSD画像を構成するSD
画素すべてについての相関の平均値などを、SD画像の
特徴量として求め、タップ候補生成回路52に供給す
る。
【0172】タップ候補生成回路52は、特徴量抽出回
路51からの特徴量に基づいて、複数のクラスタップお
よび予測タップの構造を、クラスタップおよび予測タッ
プの候補として生成するようになされている。
【0173】即ち、タップ候補生成回路52は、SD画
像の特徴量としての相関が高い場合には、注目画素の近
傍にあるSD画素を多く使用するクラスタップおよび予
測タップ(以下、適宜、両方含めて、タップという)の
候補を生成する。また、タップ候補生成回路52は、S
D画像の特徴量としての相関が低い場合には、注目画素
から比較的遠い位置にあるSD画素をも使用するタップ
の候補を生成する。具体的には、例えば、SD画像の特
徴量としての相関が高い場合には、互いに隣接するSD
画素を用いたタップの候補が生成され、SD画像の特徴
量としての相関が低い場合には、数画素(例えば、1画
素や2画素など)おきのSD画素を用いたタップの候補
が生成される。
【0174】なお、複数のタップの候補は、例えば、S
D画像の特徴量に対して基準のタップの構造を用意して
おき、その水平方向、垂直方向、または時間方向のうち
の1以上の方向のSD画素の間隔を、広くしたり、ある
いは狭くしたりすることで生成することができる。ここ
で、例えば、図9の実施の形態等では、注目画素に対し
て空間方向に位置するSD画素でタップを構成するよう
にしたが、タップは、注目画素に対して時間方向に位置
するSD画素を用いて構成することも可能である。
【0175】図12の実施の形態では、タップ候補生成
回路52において、N個のタップの候補が生成されるよ
うになされており、そのN個のタップの候補それぞれ
は、学習処理部531乃至53Nのうちの対応するものに
供給されるようになされている。即ち、例えば、N個の
タップの候補のうち、n番目(n=1,2,・・・,
N)のものの構造を表す情報を、タップ構造情報#nと
いうものとすると、そのタップ構造情報#nは、学習処
理部53nに供給されるようになされている。
【0176】学習処理部53nには、タップ構造情報#
nの他、フレームメモリ21または23にそれぞれ記憶
されたHD画像またはSD画像も供給されるようになさ
れている。学習処理部53nは、タップ構造情報#nに
対応する構造のクラスタップおよび予測タップを構成
し、図8の実時間学習部1と同様にして、クラスごとの
予測係数を学習により求める。さらに、学習処理部53
nは、そのクラスごとの予測係数を用いて、フレームメ
モリ23からのSD画像に対して、クラス分類適応処理
を施すことで、そのSD画像をHD画像に変換する。そ
して、学習処理部53nは、その変換後のHD画像の、
フレームメモリ21に記憶されたHD画像に対する誤差
(予測誤差)を求め、学習により求めたクラスごとの予
測係数、およびタップ候補生成回路52からのタップ構
造情報#nとともに、判定回路54に出力するようにな
されている。
【0177】判定回路54は、学習処理部531乃至5
Nからの予測誤差のうちの最小値を検出し、学習処理
部531乃至53Nのうち、最小の予測誤差が得られてい
るもの(以下、適宜、最適学習処理部という)が出力し
たクラスごとの予測係数を、係数RAM45に供給する
とともに、その最適学習処理部が出力したタップ構造情
報を、クラスタップ生成回路42および予測タップ生成
回路43に供給するようになされている。
【0178】次に、図13は、図12の学習処理部53
nの構成例を示している。
【0179】学習処理部53nは、予測係数学習部6
1、クラス分類適応処理部62、および予測誤差算出部
63から構成されており、予測係数学習部61には、フ
レームメモリ21からのHD画像、フレームメモリ23
からのSD画像、およびタップ候補生成回路52からの
タップ構造情報#nが、クラス分類適応処理部62に
は、フレームメモリ23からのSD画像、およびタップ
候補生成回路52からのタップ構造情報#nが、予測誤
差算出部63には、フレームメモリ21からのHD画像
が、それぞれ供給されるようになされている。
【0180】予測係数学習部61は、HD画像およびS
D画像に基づき、タップ構造情報#nに対応する構造の
クラスタップおよび予測タップを用いて、図8の実時間
学習部1における場合と同様にして、クラスごとの予測
係数を学習により求め、クラス分類適応処理部62に供
給する。なお、予測係数学習部61において求められた
クラスごとの予測係数は、判定回路54にも供給され
る。
【0181】クラス分類適応処理部62は、予測係数学
習部61からのクラスごとの予測係数を用いて、図8の
データ処理部2における場合と同様のクラス分類適応処
理が行われることにより、SD画像を構成するSD画素
から、HD画素の予測値が求められ、その予測値でなる
HD画像が、予測誤差算出部63に供給される。
【0182】予測誤差算出部63では、フレームメモリ
21に記憶されたHD画像を構成するHD画素と、その
HD画素に対応する、クラス分類適応処理部62からの
HD画素の予測値との差分の自乗和などが、予測誤差と
して求められ、判定回路54に供給される。
【0183】なお、学習処理部53nでは、そこで求め
られたクラスごとの予測係数および予測誤差の他、タッ
プ候補生成回路52から供給されたタップ構造情報#n
も、判定回路54に供給される。
【0184】次に、図14は、図13の予測係数学習部
61の構成例を示している。
【0185】予測係数学習部61は、図8のクラスタッ
プ生成回路24、予測タップ生成回路25、クラス分類
回路26、加算回路27、予測タップメモリ28、加算
回路29、教師データメモリ30、または演算回路31
とそれぞれ同様に構成されるクラスタップ生成回路7
1、予測タップ生成回路72、クラス分類回路73、加
算回路74、予測タップメモリ75、加算回路76、教
師データメモリ77、または演算回路78から構成され
ている。
【0186】そして、クラスタップ生成回路71および
予測タップ生成回路72には、フレームメモリ23に記
憶されたSD画像が、加算回路76には、フレームメモ
リ21に記憶されたHD画像が、それぞれ供給されるよ
うになされており、図8の実時間学習処理部1における
場合と同様にして、クラスごとの予測係数が求められ
る。
【0187】但し、クラスタップ生成回路71および予
測タップ生成回路72には、タップ候補生成回路52が
出力するタップ構造情報#nも供給されるようになされ
ており、クラスタップ生成回路71または予測タップ生
成回路72それぞれでは、そのタップ構造情報#nに対
応した構造のクラスタップまたは予測タップが構成され
るようになされている。
【0188】なお、ここでも、クラスタップおよび予測
タップは同一構造にしているが、クラスタップと予測タ
ップの構造は異なるものにすることも可能である。
【0189】次に、図15は、図13のクラス分類適応
処理部62の構成例を示している。
【0190】クラス分類適応処理部62は、図8のクラ
スタップ生成回路42、予測タップ生成回路43、クラ
ス分類回路44、係数RAM45、または予測演算回路
46とそれぞれ同様に構成されるクラスタップ生成回路
81、予測タップ生成回路82、クラス分類回路83、
係数RAM84、または予測演算回路85から構成され
ている。
【0191】そして、クラスタップ生成回路81および
予測タップ生成回路82には、フレームメモリ23に記
憶されたSD画像が、係数RAM84には、図14の予
測係数学習部61(演算回路78)で求められたクラス
ごとの予測係数が、それぞれ供給されるようになされて
おり、図8のデータ処理部2における場合と同様にし
て、係数RAM84に記憶されたクラスごとの予測係数
を用いて、SD画像がHD画像に変換される。
【0192】但し、クラスタップ生成回路81および予
測タップ生成回路82には、タップ候補生成回路52が
出力するタップ構造情報#nも供給されるようになされ
ており、クラスタップ生成回路81または予測タップ生
成回路82それぞれでは、そのタップ構造情報#nに対
応した構造のクラスタップまたは予測タップ(従って、
図14のクラスタップ生成回路71または予測タップ生
成回路72でそれぞれ構成されるクラスタップまたは予
測タップと同一構造のもの)が構成されるようになされ
ている。
【0193】次に、図16のフローチャートを参照し
て、図12の実時間学習部1の処理について説明する。
【0194】実時間学習部1には、学習用入力データと
してのHD画像が供給され、フレームメモリ21は、そ
の学習用入力データとしてのHD画像を、例えば、フレ
ーム単位で順次記憶していく。
【0195】そして、ステップS41において、間引き
回路22は、フレームメモリ21に記憶されたHD画像
を読み出し、その画素数を間引くことで、SD画像とす
る。このSD画像は、フレームメモリ23に供給されて
記憶される。
【0196】フレームメモリ23にSD画像が記憶され
ると、ステップS42において、特徴量抽出回路51
は、そのSD画像の特徴量を抽出し、タップ候補生成回
路52に供給する。タップ候補生成回路52では、ステ
ップS43において、特徴量抽出回路51からの特徴量
に基づいて、N個のタップの候補が生成され、その構造
を表すタップ構造情報#1乃至#Nが、学習処理部53
1乃至53Nにそれぞれ供給される。
【0197】学習処理部53n(図13)を構成する予
測係数学習部61(図14)のクラスタップ生成回路7
1または予測タップ生成回路72では、ステップS44
において、タップ構造情報#nに対応する構造のクラス
タップまたは予測タップ(であって、フレームメモリ2
1に記憶されたHD画像を構成するHD画素のうちの所
定のものを注目画素としたもの)が、フレームメモリ2
1に記憶されたSD画素から構成され、クラス分類回路
73または加算回路74にそれぞれ供給される。
【0198】クラス分類回路73では、ステップS45
において、クラスタップ生成回路71からのクラスタッ
プを用いてクラス分類を行うことにより、注目画素につ
いてのクラスが求められ、そのクラスが、予測タップメ
モリ28および教師データメモリ30に対して、アドレ
スとして与えられる。
【0199】一方、加算回路76には、注目画素として
のHD画素が、フレームメモリ21から読み出されて供
給される。
【0200】そして、ステップS46に進み、加算回路
74または76において、図11のステップS34にお
ける場合と同様に、予測タップまたは教師データそれぞ
れの足し込みが行われ、その足し込み結果が、予測タッ
プメモリ75または教師データメモリ77に供給され、
クラス分類回路73が出力するクラスに対応するアドレ
スに記憶される。
【0201】その後、ステップS47において、フレー
ムメモリ21に記憶された1フレームのHD画像を構成
するHD画素すべてを、注目画素として処理を行ったか
否かが判定され、まだ行っていないと判定された場合、
ステップS44に戻り、まだ注目画素としていないHD
画素を、新たに注目画素として、以下、同様の処理が繰
り返される。
【0202】一方、ステップS47において、1フレー
ムのHD画像を構成するHD画素すべてを、注目画素と
して処理を行ったと判定された場合、ステップS48に
進み、演算回路78は、予測タップメモリ28または教
師データメモリ30それぞれから、各クラスに対応する
アドレスに記憶されている記憶値を順次読み出し、式
(18)に示した正規方程式をたてて、これを解くこと
により、クラスごとの予測係数を求める。さらに、演算
回路78は、その求めたクラスごとの予測係数を、クラ
ス分類適応処理部62(図15)の係数RAM84に転
送して記憶させる(係数RAM84の記憶内容を更新す
る)。
【0203】クラス分類適応処理部62では、ステップ
S49において、係数RAM84に記憶されたクラスご
との予測係数を用いて、クラス分類適応処理が行われる
ことにより、フレームメモリ23に記憶されたSD画像
が、HD画像(フレームメモリ21に記憶されたHD画
像の予測値)に変換される。
【0204】即ち、クラス分類適応処理部62(図1
5)では、クラスタップ生成回路81または予測タップ
生成回路82において、フレームメモリ23からのSD
画素を用いて、タップ構造情報#nに対応する構造のク
ラスタップまたは予測タップが構成され、クラス分類回
路83または予測演算回路85にそれぞれ供給される。
【0205】クラス分類回路83では、クラスタップ生
成回路81からのクラスタップに基づき、注目画素のク
ラスが求められ、係数RAM84に対し、アドレスとし
て与えられる。係数RAM84は、クラス分類回路83
からのクラスに対応するアドレスに記憶されている予測
係数を読み出し、予測演算回路85に供給する。
【0206】予測演算回路85では、予測タップ生成回
路82からの予測タップと、係数RAM84からの予測
係数とを用いて、式(12)に示した演算を行うことに
より、注目画素yの予測値E[y]が求められ、予測誤
差算出部63(図13)に供給される。
【0207】予測誤差算出部63では、ステップS50
において、クラス分類適応処理部62が出力するHD画
像の、フレームメモリ21に記憶されたHD画像に対す
る予測誤差が求められ、予測係数学習部61が出力する
クラスごとの予測係数、およびタップ構造情報#nとと
もに、判定回路54(図12)に供給される。
【0208】判定回路54は、ステップS51におい
て、学習処理部531乃至53Nからの予測誤差のうちの
最小値を検出し、ステップS52に進み、学習処理部5
1乃至53Nのうち、最小の予測誤差が得られている最
適学習処理部が出力したクラスごとの予測係数を、デー
タ処理部2の係数RAM45に供給するとともに、その
最適学習処理部が出力したタップ構造情報を、データ処
理部2のクラスタップ生成回路42および予測タップ生
成回路43に供給して、処理を終了する。
【0209】なお、図16のフローチャートに示した処
理は、例えば、フレームメモリ21に、新たなHD画像
が記憶されるごとに行われる。
【0210】そして、データ処理部2(図12)では、
係数RAM45において、実時間学習部1(判定回路5
4)からのクラスごとの予測係数に、その記憶内容が更
新される。さらに、データ処理部2のクラスタップ生成
回路42または予測タップ生成回路43では、実時間学
習部1からのタップ構造情報に対応する構造のクラスタ
ップまたは予測タップが構成され、図8における場合と
同様にして、SD画像がHD画像に変換される。
【0211】以上のように、クラスごとの予測係数の
他、クラスタップおよび予測タップの構造についても実
時間で学習を行うようにした場合には、画質がさらに向
上したHD画像を得ることができる。
【0212】ここで、クラスタップ等の構造を実時間で
学習する場合にも、図16のステップS46において、
クラスごとの予測タップまたは教師データそれぞれの足
し込み時に、上述したような重みを導入することで、過
去の学習用入力データとしてのHD画像を、所定の割合
で忘却しながら、クラスタップ等の構造についての学習
を行うことができる。
【0213】なお、クラスタップの構造の実時間学習を
行う場合においては、注目画素について構成されるクラ
スタップの構造が変わるので、クラスタップに基づいて
行うクラス分類結果としての注目画素のクラスも変わる
ことになる。
【0214】即ち、例えば、いま説明を簡単にするため
に、クラスタップを構成するSD画素が1ビットで表現
されているとし、さらに、クラスタップの構造が、例え
ば、図9に示したように、注目画素を中心とする4×4
の隣接するSD画素で構成される場合と、注目画素を中
心とする4×4の1画素ごとのSD画素で構成される場
合との2つの場合のいずれかに変化するものとすると、
クラス数は、216+216個だけ必要となる。
【0215】つまり、クラスタップが、注目画素を中心
とする4×4の隣接するSD画素で構成される場合、ま
たは注目画素を中心とする4×4の1画素ごとのSD画
素で構成される場合のいずれかの場合しか存在しなけれ
ば、必要なクラス数は、いずれの場合も、216個であ
る。これに対して、クラスタップの構造が、注目画素を
中心とする4×4の隣接するSD画素で構成される場合
と、注目画素を中心とする4×4の1画素ごとのSD画
素で構成される場合との両方ありうる場合には、注目画
素を中心とする4×4の隣接するSD画素でクラスタッ
プを構成するときに必要となる216個のクラスの他に、
注目画素を中心とする4×4の1画素ごとのSD画素で
クラスタップを構成するときに必要となる216個のクラ
スが、さらに必要となる。
【0216】そして、注目画素を中心とする4×4の隣
接するSD画素でクラスタップを構成するときに必要と
なる216個のクラスと、注目画素を中心とする4×4の
1画素ごとのSD画素でクラスタップを構成するときに
必要となる216個のクラスとは、異なるクラスであるか
ら、クラスタップの構造が変わった場合に、例えば、図
16のステップS46において、クラスごとの予測タッ
プの足し込み(教師データの足し込みについても同様)
などを、どのように行うかが問題となるが、これは、例
えば、次のようにして行うことができる。
【0217】即ち、実時間学習により採用されうるクラ
スタップの構造それぞれについて必要となるクラス数の
総和に一致するだけ数のクラスをあらかじめ用意してお
き、ある構造のクラスタップを採用する場合には、その
構造のクラスタップに割り当てられたクラス以外のクラ
スは用いない(無視する)ようにすれば良い。
【0218】具体的には、実時間学習により採用されう
るクラスタップが、例えば、図17に示すように、注目
画素を中心とする10×10のSD画素からなる第1の
クラスタップと、注目画素を中心とする4×4のSD画
素からなる第2のクラスタップとである場合には、第1
または第2のクラスタップについて、それぞれ2100
または216個のクラスが必要となるから(但し、SD画
素は1ビットとする)、2100+216個のクラスを用意
しておく。そして、2100+216個のクラスのうちの2
100個または216個のクラスを、第1または第2のクラ
スタップにそれぞれ割り当て、第1のクラスタップが採
用された場合には、それに割り当てられた210 0個のク
ラスのみを対象として処理を行い、第2のクラスタップ
が採用された場合には、それに割り当てられた216個の
クラスのみを対象として処理を行うようにすれば良い。
【0219】また、予測タップの構造が変わる場合に
は、式(12)において、予測タップを構成するSD画
素xと乗算される予測係数wも変わるが(式(18)に
おける予測係数についても同様)、これについては、例
えば、注目画素に対して予測タップとなりうるSD画素
すべてについて予測係数を用意しておき、その予測係数
に対する、式(12)における乗数としてのSD画素の
画素値のうち、予測タップとして採用されなかったSD
画素の画素値は0として演算を行うことで対処可能であ
る。
【0220】なお、クラスタップの構造は固定にしてお
き、その固定のクラスタップにおいて必要となるクラス
の統廃合を、実時間学習部1に行わせるようにすること
も可能である。即ち、例えば、クラスタップが、A個の
SD画素で構成され、そのクラスタップを構成する各S
D画素がBビットで表現されている場合には、単純に
は、(2AB個のクラスが必要となるが、あるクラスを
廃止したり(なくしたり)、また、ある1のクラスと他
の1のクラスとを1のクラスに統合したりした方が、デ
ータ処理部2が出力するHD画像の画質が向上すること
がある。即ち、クラスの統廃合を行うことで、クラスタ
ップの構造を変えた場合と同様の効果が得られる場合が
ある。そこで、実時間学習部1には、例えば、上述した
予測誤差が小さくなるように、クラスの統廃合について
の実時間学習を行わせるようにすることも可能である。
【0221】また、上述の場合においては、データ処理
部2において、線形処理を行うようにしたが、データ処
理部2において非線形な処理を行う場合にも、本発明は
適用可能である。
【0222】さらに、図12の実施の形態では、学習処
理部53nにおいて、タップ候補生成回路52からのタ
ップ構造情報#nに対応する構造のクラスタップおよび
予測タップを、新たなタップ構造情報#nが供給される
までは、そのまま用いて、予測係数を求めるようにした
が、学習処理部53nでは、例えば、注目画素の周辺に
あるSD画素どうしの相関などを、その注目画素の特徴
量として求め、タップ構造情報#nに対応する構造のク
ラスタップおよび予測タップを、注目画素ごとに、その
特徴量に基づいた構造に変形して、予測係数を求めるよ
うにすることが可能である。
【0223】但し、この場合、例えば、タップ構造情報
#nに対応する構造のクラスタップおよび予測タップを
変形するバリエーションの数に対応するだけ、クラス数
を多く用意する必要がある。また、データ処理部2で
は、上述した場合と同様にして注目画素の特徴量を求
め、クラスタップ生成回路42または予測タップ生成回
路43では、その特徴量に基づいて、判定回路54から
供給されるタップ構造情報#nに対応する構造を変形し
たクラスタップまたは予測タップをそれぞれ構成する必
要がある。
【0224】
【発明の効果】以上の如く、本発明のデータ処理装置お
よびデータ処理方法によれば、入力データが適応的に処
理されることにより、出力データが時間の経過とともに
改善されるように、処理方式が、実時間で学習され、そ
の処理方式で、入力データが処理されて、出力データが
出力される。従って、時間の経過とともに改善された出
力データを得ることができる。
【図面の簡単な説明】
【図1】本発明を適用した自己適応処理回路の一実施の
形態の構成例を示すブロック図である。
【図2】処理方式の改善について説明するための図であ
る。
【図3】処理方式の改善について説明するための図であ
る。
【図4】学習に用いる学習用入力データを説明するため
の図である。
【図5】本発明を適用したNR処理回路の一実施の形態
の構成例を示すブロック図である。
【図6】図5のNR処理回路の処理対象となる入力デー
タと、その信頼度を示す図である。
【図7】図5のNR処理回路の処理を説明するためのフ
ローチャートである。
【図8】本発明を適用した画像処理装置の一実施の形態
の構成例を示すブロック図である。
【図9】クラスタップおよび予測タップを示す図であ
る。
【図10】図8のデータ処理部2の処理を説明するため
のフローチャートである。
【図11】図8の実時間学習部1の処理を説明するため
のフローチャートである。
【図12】本発明を適用した画像処理装置の他の実施の
形態の構成例を示すブロック図である。
【図13】図12の学習処理部53nの構成例を示すブ
ロック図である。
【図14】図13の予測係数学習部61の構成例を示す
ブロック図である。
【図15】図13のクラス分類適応処理部62の構成例
を示すブロック図である。
【図16】図12の実時間学習部1の処理を説明するた
めのフローチャートである。
【図17】クラスタップを示す図である。
【図18】従来のデータ処理装置の一例の構成を示すブ
ロック図である。
【符号の説明】
1 実時間学習部(実時間学習手段), 2 データ処
理部(データ処理手段), 111乃至114 ラッチ回
路, 12 入力信頼度計算部, 13 出力信頼度計
算部, 14 ラッチ回路, 15 重み計算部, 1
6 重み付け部, 17 演算器, 18 重み付け
部, 19 演算器, 20 ラッチ回路, 21 フ
レームメモリ, 22 間引き回路, 23 フレーム
メモリ,24 クラスタップ生成回路, 25 予測タ
ップ生成回路, 26 クラス分類回路, 27 加算
回路, 28 予測タップメモリ, 29 加算回路,
30 教師データメモリ, 31 演算回路, 41
フレームメモリ, 42クラスタップ生成回路, 43
予測タップ生成回路, 44 クラス分類回路, 4
5 係数RAM, 46 予測演算回路, 51 特徴
量抽出回路,52 タップ候補生成回路, 531乃至
53N 学習処理部, 54 判定回路, 61 予測
係数学習部, 62 クラス分類適応処理部, 63
予測誤差算出部, 71 クラスタップ生成回路, 7
2 予測タップ生成回路, 73クラス分類回路, 7
4 加算回路, 75 予測タップメモリ, 76 加
算回路, 77 教師データメモリ, 78 演算回
路, 81 クラスタップ生成回路, 82 予測タッ
プ生成回路, 83 クラス分類回路, 84 係数R
AM, 85 予測演算回路

Claims (7)

    【特許請求の範囲】
  1. 【請求項1】 入力データを処理し、その処理結果とし
    ての出力データを出力するデータ処理装置であって、 前記入力データを、所定の処理方式で処理し、前記出力
    データを出力するデータ処理手段と、 前記入力データが適応的に処理されることにより、前記
    出力データが時間の経過とともに改善されるように、前
    記処理方式を、実時間で学習し、その処理方式で処理を
    行うように、前記データ処理手段を制御する実時間学習
    手段とを備えることを特徴とするデータ処理装置。
  2. 【請求項2】 前記実時間学習手段は、前記入力データ
    または出力データに基づいて、前記処理方式を学習する
    ことを特徴とする請求項1に記載のデータ処理装置。
  3. 【請求項3】 前記実時間学習手段は、前記処理方式の
    学習のための専用のデータに基づいて、前記処理方式を
    学習することを特徴とする請求項1に記載のデータ処理
    装置。
  4. 【請求項4】 前記実時間学習手段は、時系列に入力さ
    れる学習用のデータを用いて、前記処理方式を学習する
    ことを特徴とする請求項1に記載のデータ処理装置。
  5. 【請求項5】 前記実時間学習手段は、時系列に入力さ
    れる学習用のデータのうち、現在の値から所定の範囲内
    にある値のものを用いて、前記処理方式を学習すること
    を特徴とする請求項4に記載のデータ処理装置。
  6. 【請求項6】 前記実時間学習手段は、過去の前記学習
    用のデータを、所定の割合で忘却しながら、前記処理方
    式を学習することを特徴とする請求項4に記載のデータ
    処理装置。
  7. 【請求項7】 入力データを処理し、その処理結果とし
    ての出力データを出力するデータ処理方法であって、 前記入力データを、所定の処理方式で処理し、前記出力
    データを出力するデータ処理ステップと、 前記入力データが適応的に処理されることにより、前記
    出力データが時間の経過とともに改善されるように、前
    記処理方式を、実時間で学習し、その処理方式で処理を
    行うように、前記データ処理ステップを制御する実時間
    学習ステップとを備えることを特徴とするデータ処理方
    法。
JP31710198A 1998-11-09 1998-11-09 データ処理装置およびデータ処理方法 Expired - Fee Related JP4517409B2 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP31710198A JP4517409B2 (ja) 1998-11-09 1998-11-09 データ処理装置およびデータ処理方法
EP99308835A EP1001371B1 (en) 1998-11-09 1999-11-05 Data processing apparatus and data processing methods
US09/434,662 US7031513B1 (en) 1998-11-09 1999-11-05 Data processing apparatus and data processing method
EP05077936A EP1650709B1 (en) 1998-11-09 1999-11-05 Data processing apparatus and data processing methods
DE69942656T DE69942656D1 (de) 1998-11-09 1999-11-05 Datenverarbeitungsanlage und -verfahren
KR1019990049423A KR100624349B1 (ko) 1998-11-09 1999-11-09 데이터 처리 장치 및 데이터 처리 방법
US11/348,775 US7747069B2 (en) 1998-11-09 2006-02-07 Data processing apparatus and data processing method
US12/509,530 US7912277B2 (en) 1998-11-09 2009-07-27 Data processing apparatus and data processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP31710198A JP4517409B2 (ja) 1998-11-09 1998-11-09 データ処理装置およびデータ処理方法

Publications (3)

Publication Number Publication Date
JP2000148724A true JP2000148724A (ja) 2000-05-30
JP2000148724A5 JP2000148724A5 (ja) 2005-11-10
JP4517409B2 JP4517409B2 (ja) 2010-08-04

Family

ID=18084458

Family Applications (1)

Application Number Title Priority Date Filing Date
JP31710198A Expired - Fee Related JP4517409B2 (ja) 1998-11-09 1998-11-09 データ処理装置およびデータ処理方法

Country Status (5)

Country Link
US (3) US7031513B1 (ja)
EP (2) EP1001371B1 (ja)
JP (1) JP4517409B2 (ja)
KR (1) KR100624349B1 (ja)
DE (1) DE69942656D1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003092284A1 (fr) * 2002-04-26 2003-11-06 Sony Corporation Procede et dispositif de conversion de donnees, procede et dispositif d'apprentissage, logiciel, et support d'enregistrement
WO2003092283A1 (fr) * 2002-04-26 2003-11-06 Sony Corporation Procede et dispositif de conversion de donnees, procede et dispositif d'apprentissage, et support d'enregistrement
US7814039B2 (en) 2001-02-21 2010-10-12 Sony Corporation Signal processing device and method which learn a prediction coefficient by least-Nth-power error minimization of student teacher data error to detect a telop within image signals which are input signals by selectively outputting input signals following decision of the processing deciding means

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4517409B2 (ja) * 1998-11-09 2010-08-04 ソニー株式会社 データ処理装置およびデータ処理方法
EP1887514B1 (en) * 2002-02-21 2009-07-01 Sony Corporation Signal processing device
JP4265237B2 (ja) * 2003-02-27 2009-05-20 ソニー株式会社 画像処理装置および方法、学習装置および方法、記録媒体、並びにプログラム
JP4265291B2 (ja) 2003-06-06 2009-05-20 ソニー株式会社 情報信号の処理装置および処理方法、並びに情報信号の処理方法を実行するためのプログラム
KR100541961B1 (ko) 2004-06-08 2006-01-12 삼성전자주식회사 선명도 향상 및 잡음처리가 가능한 영상신호 처리장치 및방법
KR100555868B1 (ko) * 2004-06-09 2006-03-03 삼성전자주식회사 아티팩트 처리 장치 및 방법
US7840061B2 (en) * 2007-02-28 2010-11-23 Mitsubishi Electric Research Laboratories, Inc. Method for adaptively boosting classifiers for object tracking
JP5476879B2 (ja) * 2008-09-29 2014-04-23 ソニー株式会社 画像処理装置および係数学習装置。
KR102310241B1 (ko) * 2015-04-29 2021-10-08 삼성전자주식회사 소스 디바이스, 그의 제어 방법, 싱크 디바이스 및 그의 화질 개선 처리 방법
GB2566369B (en) * 2016-03-17 2021-08-25 Avigilon Corp System and method for training object classifier by machine learning
CN109977989B (zh) * 2019-01-17 2021-04-20 北京工业大学 一种图像张量数据的处理方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0366230A (ja) * 1989-08-04 1991-03-20 Matsushita Electric Ind Co Ltd 雑音除去回路
JPH0411466A (ja) * 1990-04-28 1992-01-16 Sony Corp ノイズリデューサ
JPH04101579A (ja) * 1990-08-21 1992-04-03 Toshiba Corp テレビジョン信号の処理装置
JPH0561845A (ja) * 1991-08-07 1993-03-12 Fujitsu Ltd 適応型データ処理装置の自己学習処理方式
JPH07236074A (ja) * 1993-09-21 1995-09-05 Mitsubishi Electric Corp 画像雑音除去装置
JPH0818977A (ja) * 1994-06-30 1996-01-19 Toshiba Corp 動画像符号化/復号化装置
JPH08163410A (ja) * 1994-12-01 1996-06-21 Oki Electric Ind Co Ltd ノイズ低減回路
JPH1079024A (ja) * 1996-07-24 1998-03-24 Philips Electron Nv ディジタル画像のシーケンスの画像のノイズを時間フィルタリングする方法及び装置

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3950733A (en) * 1974-06-06 1976-04-13 Nestor Associates Information processing system
US4276620A (en) 1978-10-27 1981-06-30 Geosource Inc. Method and apparatus for obtaining a composite field response _to a variable source array using weighting coefficients
US4761819A (en) 1987-02-27 1988-08-02 Picker International, Inc. Adaptive noise reduction filter for reconstructed images
US4887306A (en) 1987-11-04 1989-12-12 Advanced Technology Laboratories, Inc. Adaptive temporal filter for ultrasound imaging system
US4941122A (en) * 1989-01-12 1990-07-10 Recognition Equipment Incorp. Neural network image processing system
JP2533942B2 (ja) * 1989-03-13 1996-09-11 株式会社日立製作所 知識抽出方法およびプロセス運転支援システム
US5038388A (en) 1989-05-15 1991-08-06 Polaroid Corporation Method for adaptively sharpening electronic images
US5136529A (en) 1989-09-29 1992-08-04 Hitachi, Ltd. Digital signal weighting processing apparatus and method
US5295061A (en) * 1990-04-20 1994-03-15 Sanyo Electric Co., Ltd. Control parameter tuning unit and a method of tuning parameters for a control unit
US5263120A (en) 1991-04-29 1993-11-16 Bickel Michael A Adaptive fast fuzzy clustering system
US5408588A (en) * 1991-06-06 1995-04-18 Ulug; Mehmet E. Artificial neural network method and architecture
KR930001678A (ko) 1991-06-13 1993-01-16 강진구 영상 신호에 있어서의 잡음 검출 알고리즘
CA2076099A1 (en) 1991-09-03 1993-03-04 Howard Leroy Lester Automatic simulcast alignment
US5253329A (en) * 1991-12-26 1993-10-12 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Neural network for processing both spatial and temporal data with time based back-propagation
US5402520A (en) 1992-03-06 1995-03-28 Schnitta; Bonnie S. Neural network method and apparatus for retrieving signals embedded in noise and analyzing the retrieved signals
US5446829A (en) * 1993-06-24 1995-08-29 The United States Of America As Represented By The Department Of Health And Human Services Artificial network for temporal sequence processing
US6285710B1 (en) 1993-10-13 2001-09-04 Thomson Licensing S.A. Noise estimation and reduction apparatus for video signal processing
US5602761A (en) 1993-12-30 1997-02-11 Caterpillar Inc. Machine performance monitoring and fault classification using an exponentially weighted moving average scheme
US5835901A (en) * 1994-01-25 1998-11-10 Martin Marietta Corporation Perceptive system including a neural network
DE4417628C1 (de) 1994-05-19 1995-09-28 Siemens Ag Verfahren zur adaptiven Rauschverminderung für digitale Bildsequenzen
US5539774A (en) 1994-06-15 1996-07-23 International Business Machines Corporation Dual decision equalization method and device
WO1997016923A1 (en) 1995-11-01 1997-05-09 Philips Electronics N.V. Video signal scan conversion
US5802220A (en) 1995-12-15 1998-09-01 Xerox Corporation Apparatus and method for tracking facial motion through a sequence of images
US5970093A (en) 1996-01-23 1999-10-19 Tiernan Communications, Inc. Fractionally-spaced adaptively-equalized self-recovering digital receiver for amplitude-Phase modulated signals
US6038272A (en) 1996-09-06 2000-03-14 Lucent Technologies Inc. Joint timing, frequency and weight acquisition for an adaptive array
US5812993A (en) 1996-03-07 1998-09-22 Technion Research And Development Foundation Ltd. Digital hardware architecture for realizing neural network
JP3184092B2 (ja) * 1996-05-27 2001-07-09 シャープ株式会社 画像処理方法
US5809178A (en) * 1996-06-11 1998-09-15 Apple Computer, Inc. Elimination of visible quantizing artifacts in a digital image utilizing a critical noise/quantizing factor
US6157403A (en) 1996-08-05 2000-12-05 Kabushiki Kaisha Toshiba Apparatus for detecting position of object capable of simultaneously detecting plural objects and detection method therefor
JPH1075274A (ja) 1996-08-29 1998-03-17 Mitsubishi Electric Corp 軟判定復号器
US5694342A (en) 1996-10-24 1997-12-02 The United States Of America As Represented By The Secretary Of The Navy Method for detecting signals in non-Gaussian background clutter
US6049793A (en) * 1996-11-15 2000-04-11 Tomita; Kenichi System for building an artificial neural network
JPH10172251A (ja) 1996-12-06 1998-06-26 Sony Corp 光学式情報再生方法及び再生装置
EP0848347A1 (en) * 1996-12-11 1998-06-17 Sony Corporation Method of extracting features characterising objects
JP3888561B2 (ja) * 1997-01-24 2007-03-07 ソニー株式会社 画像信号処理装置および方法
US6064997A (en) * 1997-03-19 2000-05-16 University Of Texas System, The Board Of Regents Discrete-time tuning of neural network controllers for nonlinear dynamical systems
US6278961B1 (en) 1997-07-02 2001-08-21 Nonlinear Solutions, Inc. Signal and pattern detection or classification by estimation of continuous dynamical models
US5963447A (en) 1997-08-22 1999-10-05 Hynomics Corporation Multiple-agent hybrid control architecture for intelligent real-time control of distributed nonlinear processes
US5909178A (en) 1997-11-28 1999-06-01 Sensormatic Electronics Corporation Signal detection in high noise environments
US6256619B1 (en) * 1997-12-23 2001-07-03 Caterpillar Inc. Self optimizing neural network analog data processing system
US6347310B1 (en) * 1998-05-11 2002-02-12 Torrent Systems, Inc. Computer system and process for training of analytical models using large data sets
JP4258045B2 (ja) * 1998-11-09 2009-04-30 ソニー株式会社 ノイズ低減装置、ノイズ低減方法、および記録媒体
JP4517409B2 (ja) * 1998-11-09 2010-08-04 ソニー株式会社 データ処理装置およびデータ処理方法
JP4164712B2 (ja) * 1999-02-09 2008-10-15 ソニー株式会社 データ処理装置およびデータ処理方法
US6581047B1 (en) * 1999-04-07 2003-06-17 Inesa, Inc. Method for a sequential prediction of binary element's state in a binary process and the system for the method implementation

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0366230A (ja) * 1989-08-04 1991-03-20 Matsushita Electric Ind Co Ltd 雑音除去回路
JPH0411466A (ja) * 1990-04-28 1992-01-16 Sony Corp ノイズリデューサ
JPH04101579A (ja) * 1990-08-21 1992-04-03 Toshiba Corp テレビジョン信号の処理装置
JPH0561845A (ja) * 1991-08-07 1993-03-12 Fujitsu Ltd 適応型データ処理装置の自己学習処理方式
JPH07236074A (ja) * 1993-09-21 1995-09-05 Mitsubishi Electric Corp 画像雑音除去装置
JPH0818977A (ja) * 1994-06-30 1996-01-19 Toshiba Corp 動画像符号化/復号化装置
JPH08163410A (ja) * 1994-12-01 1996-06-21 Oki Electric Ind Co Ltd ノイズ低減回路
JPH1079024A (ja) * 1996-07-24 1998-03-24 Philips Electron Nv ディジタル画像のシーケンスの画像のノイズを時間フィルタリングする方法及び装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7814039B2 (en) 2001-02-21 2010-10-12 Sony Corporation Signal processing device and method which learn a prediction coefficient by least-Nth-power error minimization of student teacher data error to detect a telop within image signals which are input signals by selectively outputting input signals following decision of the processing deciding means
WO2003092284A1 (fr) * 2002-04-26 2003-11-06 Sony Corporation Procede et dispositif de conversion de donnees, procede et dispositif d'apprentissage, logiciel, et support d'enregistrement
WO2003092283A1 (fr) * 2002-04-26 2003-11-06 Sony Corporation Procede et dispositif de conversion de donnees, procede et dispositif d'apprentissage, et support d'enregistrement
US7679675B2 (en) 2002-04-26 2010-03-16 Sony Corporation Data converting apparatus, data converting method, learning apparatus, leaning method, program, and recording medium
KR100968987B1 (ko) 2002-04-26 2010-07-09 소니 주식회사 데이터 변환 장치 및 데이터 변환 방법, 학습 장치 및 학습 방법, 및 기록 매체
KR100971821B1 (ko) 2002-04-26 2010-07-22 소니 주식회사 데이터 변환 장치 및 데이터 변환 방법, 학습 장치 및학습 방법, 및 기록 매체
US8355603B2 (en) 2002-04-26 2013-01-15 Sony Corporation Data converting apparatus and data converting method, learning device and learning method, and recording medium

Also Published As

Publication number Publication date
US7912277B2 (en) 2011-03-22
US7747069B2 (en) 2010-06-29
EP1650709B1 (en) 2012-01-04
JP4517409B2 (ja) 2010-08-04
DE69942656D1 (de) 2010-09-23
US20060126930A1 (en) 2006-06-15
US7031513B1 (en) 2006-04-18
KR100624349B1 (ko) 2006-09-18
EP1650709A1 (en) 2006-04-26
KR20000047608A (ko) 2000-07-25
EP1001371B1 (en) 2010-08-11
EP1001371A1 (en) 2000-05-17
US20090285472A1 (en) 2009-11-19

Similar Documents

Publication Publication Date Title
JP4093621B2 (ja) 画像変換装置および画像変換方法、並びに学習装置および学習方法
US7747069B2 (en) Data processing apparatus and data processing method
EP0449516A2 (en) Image processing using neural network
JP4362895B2 (ja) データ処理装置およびデータ処理方法、並びに記録媒体
JPH0795475A (ja) 信号変換装置
US5949916A (en) Modified automatic regressive filter and filtering method therefor
JP2002223374A (ja) ノイズ除去装置およびノイズ除去方法
JPH0795591A (ja) ディジタル画像信号処理装置
JPH07115569A (ja) ノイズ低減装置及び方法
JPH10155139A (ja) 画像処理装置および画像処理方法
JP4035895B2 (ja) 画像変換装置および方法、並びに記録媒体
JP4066146B2 (ja) データ変換装置およびデータ変換方法、学習装置および学習方法、並びにプログラムおよび記録媒体
JP4062771B2 (ja) 画像変換装置および方法、並びに記録媒体
JP3723995B2 (ja) 画像情報変換装置および方法
JP4457276B2 (ja) 画像処理装置および画像処理方法、並びに記録媒体
JP2007251690A (ja) 画像処理装置および方法、学習装置および方法、並びにプログラム
JPH0730859A (ja) フレーム補間装置
JP4552262B2 (ja) ノイズ低減装置および方法
EP1033886A1 (en) Arithmetic device, converter, and their methods
JP4512956B2 (ja) データ処理装置およびデータ処理方法、並びに記録媒体
JP2000151723A (ja) データ処理装置およびデータ処理方法
JP3767019B2 (ja) 積和演算回路および方法
JP2000151434A (ja) データ処理装置およびデータ処理方法
JP2000138904A (ja) 画像情報変換装置および変換方法
JPH11355731A (ja) 画像信号の変換装置および変換方法、並びにそれに使用される係数データの生成装置および生成方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050926

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081222

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20091224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100323

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20100330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100427

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100510

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130528

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees