JP4258045B2 - ノイズ低減装置、ノイズ低減方法、および記録媒体 - Google Patents

ノイズ低減装置、ノイズ低減方法、および記録媒体 Download PDF

Info

Publication number
JP4258045B2
JP4258045B2 JP31710098A JP31710098A JP4258045B2 JP 4258045 B2 JP4258045 B2 JP 4258045B2 JP 31710098 A JP31710098 A JP 31710098A JP 31710098 A JP31710098 A JP 31710098A JP 4258045 B2 JP4258045 B2 JP 4258045B2
Authority
JP
Japan
Prior art keywords
input data
data
processing
output
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP31710098A
Other languages
English (en)
Other versions
JP2000151723A5 (ja
JP2000151723A (ja
Inventor
哲二郎 近藤
一隆 安藤
小林  直樹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP31710098A priority Critical patent/JP4258045B2/ja
Priority to US09/434,666 priority patent/US6564180B1/en
Priority to DE69923747T priority patent/DE69923747T2/de
Priority to EP99308839A priority patent/EP1001373B1/en
Priority to KR1019990049195A priority patent/KR100706557B1/ko
Publication of JP2000151723A publication Critical patent/JP2000151723A/ja
Publication of JP2000151723A5 publication Critical patent/JP2000151723A5/ja
Application granted granted Critical
Publication of JP4258045B2 publication Critical patent/JP4258045B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Algebra (AREA)
  • Evolutionary Biology (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Operations Research (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Picture Signal Circuits (AREA)
  • Dc Digital Transmission (AREA)
  • Noise Elimination (AREA)
  • Complex Calculations (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、ノイズ低減装置、ノイズ低減方法、および記録媒体に関し、特に、例えば、データに含まれるノイズの除去を、より効果的に行うことができるようにするノイズ低減装置、ノイズ低減方法、および記録媒体に関する。
【0002】
【従来の技術】
例えば、伝送や再生等された画像データや音声データなどのデータには、一般に、時間的に変動するノイズが含まれているが、データに含まれるノイズを除去する方法としては、従来より、入力データ全体の平均(以下、適宜、全平均という)や、入力データの局所的な平均である移動平均を求めるものなどが知られている。
【0003】
【発明が解決しようとする課題】
しかしながら、全平均を計算する方法は、データに含まれるノイズの度合い、即ち、データのS/N(Signal/Noise)が一定である場合は有効であるが、データのS/Nが変動する場合には、S/Nの悪いデータが、S/Nの良いデータに影響し、効果的にノイズを除去することが困難となることがある。
【0004】
また、移動平均を計算する方法では、入力されたデータから時間的に近い位置にあるデータの平均が求められるため、その処理結果は、データのS/Nの変動の影響を受ける。即ち、データのS/Nの良い部分については、処理結果のS/Nも良くなるが、S/Nの悪い部分については、処理結果のS/Nも悪くなる。
【0005】
本発明は、このような状況に鑑みてなされたものであり、データに含まれるノイズの度合いが一定の場合だけでなく、時間的に変動する場合であっても、そのノイズを、効果的に除去することができるようにするものである。
【0006】
【課題を解決するための手段】
本発明のノイズ低減装置は、入力データ、及び入力データに対する出力データを評価し、評価に基づき、出力データが時間の経過とともに改善されるように入力データを処理する処理方式を実時間で学習する実時間学習手段と、実時間学習手段が学習した処理方式に従って、入力データを適応的に処理し、出力データを出力するデータ処理手段とを有する第1の処理手段と、第1の処理手段が処理した入力データである注目入力データより時間的に先行する入力データである先行入力データを、注目入力データに対する出力データである注目出力データ、及び注目出力データに対する評価に基づいて処理することにより、先行入力データに対する出力データである先行出力データを出力する第2の処理手段とを備える。
【0007】
本発明のノイズ低減方法は、入力データ、及び入力データに対する出力データを評価し、評価に基づき、出力データが時間の経過とともに改善されるように入力データを処理する処理方式を実時間で学習する実時間学習ステップと、実時間学習ステップの処理で学習された処理方式に従って、入力データを適応的に処理し、出力データを出力するデータ処理ステップとを含む第1の処理ステップと、第1の処理ステップの処理で処理された入力データである注目入力データより時間的に先行する入力データである先行入力データを、注目入力データに対する出力データである注目出力データ、及び注目出力データに対する評価に基づいて処理することにより、先行入力データに対する出力データである先行出力データを出力する第2の処理ステップとを含む。
【0008】
本発明の記録媒体のプログラムは、入力データ、及び入力データに対する出力データを評価し、評価に基づき、出力データが時間の経過とともに改善されるように入力データを処理する処理方式を実時間で学習する実時間学習ステップと、実時間学習ステップの処理で学習された処理方式に従って、入力データを適応的に処理し、出力データを出力するデータ処理ステップとを含む第1の処理ステップと、第1の処理ステップの処理で処理された入力データである注目入力データより時間的に先行する入力データである先行入力データを、注目入力データに対する出力データである注目出力データ、及び注目出力データに対する評価に基づいて処理することにより、先行入力データに対する出力データである先行出力データを出力する第2の処理ステップとを含む。
【0009】
本発明のノイズ低減装置および方法、並びに記録媒体のプログラムにおいては、入力データ、及び入力データに対する出力データが評価され、評価に基づき、出力データが時間の経過とともに改善されるように入力データを処理する処理方式が実時間で学習され、学習された処理方式に従って、入力データが適応的に処理され、出力データが出力され、処理された入力データである注目入力データより時間的に先行する入力データである先行入力データが、注目入力データに対する出力データである注目出力データ、及び注目出力データに対する評価に基づいて処理されることにより、先行入力データに対する出力データである先行出力データが出力される。
【0010】
【発明の実施の形態】
以下に、本発明の実施の形態を説明するが、その前に、特許請求の範囲に記載の発明の各手段と以下の実施の形態との対応関係を明らかにするために、各手段の後の括弧内に、対応する実施の形態(但し、一例)を付加して、本発明の特徴を記述すると、次のようになる。
【0011】
請求項1に記載のノイズ低減装置は、入力データ、及び入力データに対する出力データを評価し、評価に基づき、出力データが時間の経過とともに改善されるように入力データを処理する処理方式を実時間で学習する実時間学習手段(例えば、図7に示す実時間学習部1など)と、実時間学習手段が学習した処理方式に従って、入力データを適応的に処理し、出力データを出力するデータ処理手段(例えば、図7に示す信号処理部2など)とを有する第1の処理手段(例えば、図15に示すNR部52f1や、52f2、52f3など)と、第1の処理手段が処理した入力データである注目入力データより時間的に先行する入力データである先行入力データを、注目入力データに対する出力データである注目出力データ、及び注目出力データに対する評価に基づいて処理することにより、先行入力データに対する出力データである先行出力データを出力する第2の処理手段(例えば、図15に示すNR部52r1や52r2など)とを備える。
【0012】
請求項2に記載のノイズ低減装置は、時系列に入力される入力データを所定数のみ記憶する入力データ記憶手段(例えば、図7に示すラッチ回路111乃至114など)をさらに備える。
【0013】
請求項7に記載のノイズ低減装置は、データ処理手段(例えば、図7に示す演算器24など)は、出力データが、現在の入力データとを加算することにより、現在の入力データに対する出力データを求める。
【0014】
請求項9に記載のノイズ低減装置は、第2の処理手段が、先行入力データを評価すると共に、注目出力データの評価に基づいて、先行出力データを評価し、評価に基づき先行出力データが時間の経過と共に改善されるように、先行入力データを処理する処理方式を、実時間で学習するfurther実時間学習手段(例えば、図7に示す実時間学習部1など)と、further実時間学習手段が学習した処理方式に従って、先行入力データを適応的に処理し、先行出力データを出力するfurtherデータ処理手段(例えば、図7に示す信号処理部2など)とを備える。
【0015】
なお、勿論この記載は、各手段を上記したものに限定することを意味するものではない。
【0016】
図1は、本発明の前提となる自己適応処理回路の一実施の形態の構成例を示している。
【0017】
この自己適応処理回路においては、処理対象の入力信号(ここでは、例えば、ディジタルデータとする)である処理用入力信号に対して最適な処理方式による処理が施され、その結果得られる出力信号が出力されるようになされている。
【0018】
即ち、自己適応処理回路は、実時間学習部1と、信号処理部2とから構成されている。
【0019】
実時間学習部1には、処理用入力信号を処理する処理方式の学習に用いられる学習用入力信号が供給されるようになされており、実時間学習部1は、その学習用入力信号に基づき、処理用入力信号が適応的に処理されることにより、出力信号が時間の経過とともに改善されるように、処理方式を、実時間で学習し、その学習の結果得られた処理方式で処理を行うように、信号処理部2を制御する。
【0020】
信号処理部2では、実時間学習部1から指示された処理方式によって、処理用入力信号が適応的に処理され、その処理の結果得られる出力信号が出力される。
【0021】
従って、信号処理部2では、上述したような実時間学習された処理方式で、処理用入力信号が処理されるので、その処理用入力信号に対して、適応的に処理が施され、その結果得られる出力信号は時間の経過とともに改善されていく。
【0022】
即ち、信号処理部2が、処理用入力信号を処理する処理方式は、実時間学習部1における実時間学習によって改善されていく。信号処理部2は、実時間学習部1から指示される処理方式によって、処理用入力信号が適応的に処理され、時間の経過(処理用入力信号の処理量)に伴い、いわば学習の効果が徐々に現れ、信号処理部2が出力する出力信号は、時間の経過とともに改善されていく(これは、信号処理部2の処理方式が、時間の経過とともに改善されていっているということもできる)。
【0023】
以上のように、自己適応処理回路では、処理用入力信号が適応的に処理されることにより、出力信号が時間の経過とともに改善されるように、処理方式が、実時間で学習され、その学習の結果得られた処理方式で処理が行われる結果、処理用入力信号には、それ自身(自己)に適した処理が施される。このことから、図1の自己適応処理回路が行う処理は、自己適応処理ということができる。
【0024】
ここで、出力信号の改善とは、例えば、処理用入力信号が画像であれば、その画質が向上すること等、具体的には、例えば、S/Nや解像度が向上することなどを意味する。また、信号処理部2における処理の目的が、スムージングやエッジ強調であれば、その効果が顕著に現れることを意味する。従って、出力信号の改善とは、ユーザが希望する状態の出力信号とすることを意味する。
【0025】
なお、実時間学習部1においては、そこに入力される学習用入力信号に基づいて、処理用入力信号を処理する処理方式の実時間学習が行われるが、学習用入力信号としては、図1において点線で示すように、信号処理部2に入力される処理用入力信号や、信号処理部2から出力される出力信号、さらには、自己適応処理回路に対して、処理用入力信号の処理方式の学習を行うために供給される補助入力信号などを用いることが可能である。また、学習用入力信号としては、上述の信号のうちの2以上を用いることもできる。
【0026】
次に、自己適応処理回路において、信号処理部2の処理方式は、実時間学習部1が実時間学習することで時々刻々改善されることになるが(従って、自己適応処理回路は、いわば時変システムである)、処理方式の改善は、大きく、処理のアルゴリズムが変更される場合と、一連の処理を構成する処理ステップ(処理の構成要素)の内容が変更される場合とに分けることができる。
【0027】
即ち、例えば、いま、処理用入力信号をxと、出力信号をyと表すと、信号処理部2における処理は、関数f()を用いて、式y=f(x)と表すことができる。
【0028】
例えば、f(x)=a02+b0x+c0とした場合、信号処理部2の処理は、例えば、図2(A)に示すようなフローチャートで表すことができる。
【0029】
即ち、ステップS1において、a02が計算され、ステップS2に進み、b0xが計算される。そして、ステップS3において、a02+b0x+c0が計算され、これにより、出力信号yが求められる。
【0030】
この場合において、例えば、関数f(x)の、いわば形を変更するのが、処理のアルゴリズムの変更に相当する。即ち、例えば、関数f(x)=a02+b0x+c0を、f(x)=(a02+b0x+c02などに変更するのが、処理のアルゴリズムの変更に相当する。
【0031】
この場合、信号処理部2の処理は、例えば、図2(B)に示すようなフローチャートで表すことができる。
【0032】
即ち、ステップS1乃至S3それぞれにおいて、図2(A)における場合と同様の処理が行われ、ステップS4に進み、(a02+b0x+c02が計算され、これにより、出力信号yが求められる。
【0033】
図2(A)のフローチャートと、図2(B)のフローチャートとを比較して分かるように、処理のアルゴリズムが変更された場合には、その処理を表現するフローチャートも変更されることになる。
【0034】
また、例えば、関数f(x)における係数を変更するのが、処理を構成する構成要素の内容の変更に相当する。即ち、例えば、関数f(x)=a02+b0x+c0を、f(x)=a12+b1x+c1に変更するのが、処理の構成要素の内容の変更に相当する。
【0035】
この場合、信号処理部2の処理は、図2(A)と同様の図3(A)のフローチャートで表されるものから、例えば、図3(B)のフローチャートで表されるものに変更される。
【0036】
即ち、この場合、ステップS1において、a12が計算され、ステップS2に進み、b1xが計算される。そして、ステップS3において、a12+b1x+c1が計算され、これにより、出力信号yが求められる。
【0037】
図3(A)のフローチャートと、図3(B)のフローチャートとを比較して分かるように、関数f(x)における係数が変更された場合には、処理を構成する処理ステップの内容が変更される(図3では、ステップS1は、a02の計算からa12の計算に、ステップS2は、b0xの計算からb1xの計算に、ステップS3は、a02+b0x+c0の計算からa12+b1x+c1の計算に、それぞれ変更されている)。
【0038】
なお、処理方式の改善は、処理のアルゴリズムの変更と、処理の構成要素の内容の変更との両方により行われる場合もある。
【0039】
また、図2および図3の説明に用いた関数は、処理方式の改善を説明するためだけに用いた例であり、信号処理部2における処理を表す関数が、図2や図3で説明したように変更された場合に、実際に、出力信号が改善されるかどうかといった問題とは無関係である。
【0040】
ここで、自己適応処理回路では、関数f(x)における係数の変更が、実時間学習により、いわば新たに生成された適応的な係数に基づいて行われる点で、従来における、例えば、ディジタルフィルタなどとは異なる。即ち、従来のディジタルフィルタでは、そのタップ係数を、入力データなどに基づいて変更する場合があるが、変更されるタップ係数は、あらかじめ用意されたものであり、実時間学習により生成されたものではない。言い換えれば、従来のディジタルフィルタでは、あらかじめ用意されたタップ係数の中で、入力データに適しているとシステムの設計者が考えたものが選択されるだけであり、入力データに対して、適応的なタップ係数が求められるわけではない。その結果、入力データに対してより適したタップ係数があっても、あらかじめ用意されていなければ用いることができない。従って、上述のような従来のディジタルフィルタ等は、「適応的」にタップ係数を変更するシステム等と呼ばれることがあるが、正確には、「適応的」でははく、「選択的」なだけである。即ち、入力データに対して適応的なタップ係数が生成されるのではなく、入力データに対して一意的に選択されるタップ係数が用いられるシステムである。
【0041】
これに対して、自己適応処理回路では、入力データが適応的に処理されるようなタップ係数が、実時間学習により生成される結果、入力データに対して真に最適なタップ係数を用いることができる。より具体的には、例えば、従来のディジタルフィルタでは、例えば、2セットのタップ係数が、あらかじめ用意されている場合には、その2セットのタップ係数のうちの、入力データに対して適しているとシステムの設計者が考えるものが一意的に選択されて用いられることになるが、自己適応処理回路では、入力データを処理するためのタップ係数が、実時間学習により時々刻々と改善されていくことで、入力データに対してより適したタップ係数が求められ、そのようなタップ係数を用いて、処理(従って、入力データに対して適応的な処理)が行われることになる。
【0042】
さらに、自己適応処理回路では、出力データが時々刻々と改善されていく点で、入力データに対して適応的な処理を施すが、出力データが改善されることがない従来の、例えば、ADRC(Adaptive Dynamic Range Coding)処理などとは異なる。即ち、ADRC処理においては、例えば、画像のあるブロックについて、そのブロックを構成する画素の画素値の最大値MAXと最小値MINが検出される。そして、DR=MAX−MINを、ブロックの局所的なダイナミックレンジとし、このダイナミックレンジDRに基づいて、ブロックを構成する画素の画素値がKビットに再量子化される。具体的には、ブロック内の各画素値から、最小値MINが減算され、その減算値がDR/2Kで除算(量子化)される。従って、画素値の量子化ステップDR/2Kが、ブロックのダイナミックレンジDRに基づいて求められ、その量子化ステップDR/2Kで、画素値が量子化される点では、入力データに対して適応的な処理が施されているが、その量子化結果としての出力データは時々刻々と改善されていくといった性質のものではない。
【0043】
次に、実時間学習部1では、例えば、現在時刻をtとするとき、その現在時刻tにおける実時間学習において、出力信号を時間の経過とともに改善するために、基本的に、いままでの学習用入力信号のサンプル値すべてを考慮するが、現在時刻tと時間的に近い位置のサンプル値に重みをおき、遠い位置のサンプル値はあまり考慮しない方が、出力信号が効果的に改善されることがある。従って、実時間学習部1では、学習用入力信号に対して、そのような重み付けをして、即ち、例えば、現在時刻tから時間的に離れた学習用入力信号のサンプル値を、その離れ具合に対応した割合で忘却するようにして、実時間学習を行うことが可能である。極端には、現在時刻tから、所定の時間的範囲内にある学習用入力信号のみを用いるようにすることが可能である。即ち、例えば、図4に示すように、現在時刻tから±4サンプルの範囲にある学習用入力信号のみを、現在時刻tにおける実時間学習において用いるようにすることが可能である。これは、現在時刻tから5サンプル以上離れている学習用入力信号に対する重みを0とすることで行うことが可能である。
【0044】
また、現在時刻tにおける実時間学習では、その現在時刻tにおける学習用入力信号のサンプル値から所定の範囲内にあるサンプル値だけを用いるようにすることも可能である。即ち、例えば、図4において、時刻t−2における学習用信号のサンプル値は、現在時刻tにおける学習用入力信号のサンプル値とは大きく異なっているが、このようなサンプル値は、学習に悪影響を与えることがある。そこで、現在時刻tにおける学習用入力信号のサンプル値とは大きく異なっているサンプル値は、その現在時刻tにおける実時間学習においては用いないようにすることが可能である。
【0045】
次に、図5は、図1の自己適応処理回路を適用したNR(Noise Reduction)処理回路の一実施の形態の構成例を示している。
【0046】
このNR処理回路においては、そこに(ノイズを有する)入力データが入力されると、入力データに対して自己適応処理が施されることにより、入力データからノイズを効果的に除去した出力データが出力されるようになされている。
【0047】
即ち、例えば、いま、説明を簡単にするために、図6(A)に示すような、真値が一定で、かつ時間的に変動するノイズが重畳された入力データについて、その加算を行うことで、時間的に変動するノイズを除去することを考えると、ノイズの度合いとしての、例えば、ノイズのレベルが大きい入力データ(従って、S/Nの悪いデータ)については、その重みを小さくし(あまり考慮しないようにする)、ノイズのレベルの小さい入力データ(従って、S/Nの良いデータ)については、その重みを大きくすることにより、ノイズを効果的に除去することができる。
【0048】
そこで、NR処理回路では、入力データの評価値として、例えば、図6(B)に示すような、入力データの、真値に対する近さ、即ち、入力データが真値であることの信頼性を表す信頼度を実時間学習により求め、その信頼度に対応した重み付けを入力データに対して行いながら、その加算(重み付け加算)(重み付け平均)を行うことで、ノイズを効果的に除去するようになっている。
【0049】
従って、NR処理回路では、入力データについて、その信頼度に対応した重みを用いた重み付け平均が求められ、出力データとして出力されるが、いま、時刻tにおける入力データ、出力データ、入力データの信頼度を、それぞれx(t),y(t),αx(t)と表すと、次式にしたがって、出力データy(t)が求められることになる。
【0050】
【数1】
Figure 0004258045
・・・(1)
なお、ここでは、入力データの信頼度αx(t)が大きいほど、大きな重みを与えることとしている。
【0051】
式(1)から、現在時刻tから1サンプル前の出力データy(t−1)は、次式で求められる。
【0052】
【数2】
Figure 0004258045
・・・(2)
【0053】
また、出力データy(t)についても、その出力データy(t)の評価値として、真値に対する近さ、即ち、出力データy(t)が真値であることの信頼性を表す信頼度αy(t)を導入し、現在時刻tから1サンプル前の出力データy(t−1)の信頼度αy(t-1)を、入力データの信頼度αx(t)を用いて、次式で定義する。
【0054】
【数3】
Figure 0004258045
・・・(3)
【0055】
この場合、式(1)乃至(3)から、出力データy(t)およびその信頼度αy(t)は、次のように表すことができる。
【0056】
【数4】
Figure 0004258045
・・・(4)
【0057】
また、時刻tにおいて、出力データy(t)を求めるのに用いる重みを、w(t)と表し、これを、次式で定義する。
【0058】
w(t)=αy(t-1)/(αy(t-1)+αx(t))・・・(5)
【0059】
式(5)から、次式が成り立つ。
【0060】
1−w(t)=αx(t)/(αy(t-1)+αx(t))・・・(6)
【0061】
式(5)および(6)を用いると、式(4)における出力データy(t)は、次のような乗算と加算による重み付け平均によって表すことができる。
【0062】
y(t)=w(t)y(t−1)+(1−w(t))x(t)・・・(7)
【0063】
なお、式(7)で用いる重みw(t)(および1−w(t))は、式(5)から、1サンプル前の出力データy(t−1)の信頼度αy(t-1)と、現在の入力データx(t)の信頼度αx(t)とから求めることができる。また、式(4)における現在の出力データy(t)の信頼度αy(t)も、その1サンプル前の出力データy(t−1)の信頼度αy(t-1)と、現在の入力データx(t)の信頼度αx(t)とから求めることができる。
【0064】
ここで、入力データx(t)の信頼度αx(t)、または出力データy(t)の信頼度αy(t)として、それぞれの分散σx(t) 2、またはσy(t) 2の逆数を用いることとすると、即ち、信頼度αx(t),信頼度αy(t)を、式
αx(t)=1/σx(t) 2
αy(t)=1/σy(t) 2・・・(8)
とおくと、式(7)における重みw(t)は、次式で求めることができる。
【0065】
w(t)=σx(t) 2/(σy(t-1) 2+σx(t) 2)・・・(9)
【0066】
この場合、式(7)における1−w(t)は、次式で求めることができる。
【0067】
1−w(t)=σy(t-1) 2/(σy(t-1) 2+σx(t) 2
・・・(10)
【0068】
また、σy(t) 2は、次式で求めることができる。
【0069】
σy(t) 2=w(t)2σy(t-1) 2+(1−w(t))2σx(t) 2・・・(11)
【0070】
図5のNR処理回路は、入力データx(t)を学習用入力信号として、式(5)にしたがい、重みw(t)を実時間学習(および式(6)にしたがって1−w(t)を実時間学習)し、その結果得られる重みw(t)を用いて、式(7)にしたがい、1サンプル前の出力データy(t−1)と、現在の入力データx(t)との重み付け平均を計算することで、入力データx(t)を適応的に処理し、その入力データx(t)に含まれるノイズを効果的に除去するようになされている。即ち、これにより、NR処理回路が出力する出力データy(t)のS/Nは、時間の経過とともに改善されていくようになされている。
【0071】
図7は、そのようなNR処理回路の構成例を示している。
【0072】
ラッチ回路111には、入力データが供給されるようになされており、ラッチ回路111は、そこに供給される入力データを、例えば、その入力データが供給されるタイミングに同期してラッチ(記憶)し、その後段のラッチ回路112および入力信頼度計算部12に供給するようになされている。ラッチ回路112またはラッチ回路113それぞれは、ラッチ回路111と同様に、その前段のラッチ回路111または112が出力する入力データをラッチし、その後段のラッチ回路113または114と、入力信頼度計算部12に供給するようになされている。ラッチ回路114は、その前段のラッチ回路113が出力する入力データをラッチし、入力信頼度計算部12に供給するようになされている。
【0073】
入力信頼度計算部12には、ラッチ回路111乃至114でラッチされた入力データが供給される他、ラッチ回路111に供給されるのと同一の入力データが供給されるようになされている。従って、いま、ラッチ回路111および入力信頼度計算部12に、入力データx(t)が供給されたとすると、入力信頼度計算部12には、さらに、ラッチ回路111乃至114それぞれでラッチされた入力データx(t−1)乃至x(t−4)も供給されるようになされている。そして、入力信頼度計算部12は、入力データx(t)乃至x(t−4)から、例えば、その分散を計算し、その分散の逆数を、入力データx(t)の信頼度(以下、適宜、入力信頼度という)αx(t)として、出力信頼度計算部13および重み計算部15に供給するようになされている。
【0074】
出力信頼度計算部13は、入力信頼度計算部12からの入力信頼度αx(t)と、ラッチ回路14の出力とから、式(4)にしたがって、出力データy(t)の信頼度(以下、適宜、出力信頼度という)αy(t)を求め、ラッチ回路14に出力するようになされている。
【0075】
ラッチ回路14は、出力信頼度計算部13からの出力信頼度αy(t)を、例えば、入力データx(t)に同期してラッチし、出力信頼度計算部13および重み計算部15に供給するようになされている。従って、ラッチ回路14から、出力信頼度計算部13および重み計算部15には、1サンプル前の出力信頼度αy(t-1)が供給されるようになされている。
【0076】
重み計算部15は、入力信頼度計算部12からの入力信頼度αx(t)、およびラッチ回路14からの出力信頼度αy(t-1)を用い、式(5)にしたがって、重みw(t)を求め、重み付け部21および演算器22に出力するようになされている。
【0077】
ここで、例えば、以上のラッチ回路111乃至114、入力信頼度計算部12、出力信頼度計算部13、ラッチ回路14、および重み計算部15が、図1の実時間学習部1に相当する。
【0078】
重み付け部21は、重み計算部15からの重みw(t)を、ラッチ回路25の出力に乗算し、その乗算結果を、演算器24に供給するようになされている。演算器22は、重み計算部15からの重みw(t)を1から減算し、その減算値1−w(t)を、重み付け部23に供給するようになされている。重み付け部23には、演算器22の出力の他、入力データx(t)が供給されるようになされており、重み付け部23は、演算器22の出力と、入力データx(t)とを乗算し、その乗算結果を、演算器24に供給するようになされている。演算器24は、重み付け部21と23の出力どうしを加算し、その加算結果を、出力データy(t)として出力するとともに、ラッチ回路25に供給するようになされている。ラッチ回路25は、演算器24からの出力データを、例えば、入力データx(t)に同期してラッチし、重み付け部21に供給するようになされている。
【0079】
ここで、例えば、以上の重み付け部21、演算器22、重み付け部23、演算器24、およびラッチ回路25が、図1の信号処理部2に相当し、式(7)にしたがった重み付け平均を計算して、出力データy(t)として出力するようになされている。
【0080】
次に、図8は、図7の入力信頼度計算部12の構成例を示している。
【0081】
上述したように、入力信頼度計算部12には、現在の入力データx(t)の他、その4サンプル前までの入力データx(t−1)乃至x(t−4)が入力されるようになされており、入力信頼度計算部12では、図9に示すように、その5サンプルの入力データx(t)乃至x(t−4)についての分散が求められ、その逆数が、入力信頼度αx(t)として出力されるようになされている。
【0082】
即ち、入力データx(t)乃至x(t−4)は、平均値計算回路31および分散計算回路32に供給されるようになされている。平均値計算部31は、次式にしたがって、5サンプルの入力データx(t)乃至x(t−4)の平均値m(t)を計算し、分散計算回路32に供給する。
【0083】
【数5】
Figure 0004258045
・・・(12)
なお、図8の実施の形態においては、式(12)におけるNは、5である。
【0084】
分散計算回路32は、そこに入力される入力データx(t)乃至x(t−4)、および平均値計算回路31からの平均値m(t)を用い、式(13)にしたがって、分散σx(t)を計算し、逆数計算回路33に出力する。
【0085】
【数6】
Figure 0004258045
・・・(13)
なお、式(12)における場合と同様に、図8の実施の形態では、式(13)におけるNも、5である。
【0086】
逆数計算回路33は、次式に示すように、分散計算回路32からの分散σx(t)の逆数を求め、それを、入力信頼度αx(t)として出力する。
【0087】
【数7】
Figure 0004258045
・・・(14)
【0088】
次に、図10は、図7の出力信頼度計算部13の構成例を示している。
【0089】
同図に示すように、出力信頼度計算部13は、演算器41から構成されており、演算器41には、入力信頼度計算部12からの現在の入力信頼度αx(t)と、ラッチ回路14からの1サンプル前の出力信頼度αy(t-1)が供給されるようになされている。そして、演算器41は、式(4)にしたがい、入力信頼度αx(t)と出力信頼度αy(t-1)とを加算し、その加算値を、現在の出力信頼度αy(t)として出力する。
【0090】
次に、図11および図12を参照して、図7のNR処理回路の動作について説明する。
【0091】
図7のNR処理回路では、図11(A)に示すように、現在の入力データx(t)に、その4サンプル前までの入力データx(t−1)乃至x(t−4)を加えた5サンプルを用いて、その分散σx(t) 2が求められ、さらに、その逆数が、入力信頼度αx(t)として求められる。
【0092】
また、入力信頼度αx(t)と、1サンプル前の出力信頼度αy(t-1)から、重みw(t)が求められ、図11(B)に示すように、その重みw(t)に基づき、入力データx(t)と1サンプル前の出力データy(t−1)との重み付け平均値が計算され、その重み付け平均値が、出力データy(t)として出力される。
【0093】
即ち、図12のフローチャートに示すように、まず最初に、ステップS11において、入力データx(t)が、ラッチ回路111、入力信頼度計算部12、および重み付け部23に入力される。
【0094】
そして、ステップS12に進み、入力信頼度計算部12において、入力信頼度αx(t)が求められる。
【0095】
即ち、ラッチ回路111は、そこに供給される入力データを、その入力データが供給されるタイミングに同期してラッチし、その後段のラッチ回路112および入力信頼度計算部12に供給する。ラッチ回路112またはラッチ回路113それぞれは、ラッチ回路111と同様に、その前段のラッチ回路111または112が出力する入力データをラッチし、その後段のラッチ回路113または114と、入力信頼度計算部12に供給する。そして、ラッチ回路114は、その前段のラッチ回路113が出力する入力データをラッチし、入力信頼度計算部12に供給する。従って、入力信頼度計算部12には、入力データx(t)が供給されるのと同時に、ラッチ回路111乃至114それぞれから入力データx(t−1)乃至x(t−4)が供給される。入力信頼度計算部12は、上述したように、入力データx(t)乃至x(t−4)を用いて、入力信頼度αx(t)を求め、出力信頼度計算部13および重み計算部15に供給する。
【0096】
入力信頼度計算部12から重み計算部15に対して、入力信頼度αx(t)が供給されるタイミングにおいては、ラッチ回路14において、出力信頼度計算部13が1サンプル前に出力した出力信頼度αy(t-1)がラッチされており、重み計算部15では、ステップS13において、入力信頼度計算部12からの入力信頼度αx(t)と、ラッチ回路14にラッチされている出力信頼度αy(t-1)とを用い、式(5)にしたがって、重みw(t)が求められる。この重みw(t)は、重み付け部21および演算器22に供給される。
【0097】
そして、重み付け部21、演算器22、重み付け部23、演算器24、およびラッチ回路25では、ステップS14において、重み計算部15が出力する重み(t)を用い、式(7)にしたがって、入力データx(t)と、1サンプル前の出力データy(t−1)との重み付け平均値が計算される。
【0098】
即ち、重み付け部21では、重み計算部15からの重みw(t)が、ラッチ回路25の出力に乗算され、その乗算結果が、演算器24に供給される。ここで、ラッチ回路25は、重み計算部15が重みw(t)を出力するタイミングにおいて、演算器24が前回出力した出力データy(t−1)をラッチしており、従って、重み付け部21では、出力データy(t−1)と重みw(t)との積w(t)y(t−1)が求められ、演算器24に供給される。
【0099】
また、演算器22では、重み計算部15からの重みw(t)が1から減算され、その減算値1−w(t)が、重み付け部23に供給される。重み付け部23は、演算器22の出力1−w(t)と、入力データx(t)とを乗算し、その乗算結果(1−w(t))x(t)を、演算器24に供給する。
【0100】
演算器24では、重み付け部21の出力w(t)y(t−1)と、重み付け部23の出力(1−w(t))x(t)とが加算される。即ち、重み計算部15が出力する重み(t)を用い、式(7)にしたがって、入力データx(t)と、1サンプル前の出力データy(t−1)との重み付け平均値が計算される。
【0101】
この重み付け平均値は、ステップS15において、出力データy(t)として出力される。さらに、出力データy(t)は、ラッチ回路25に供給されてラッチされる。
【0102】
そして、ステップS16に進み、まだ、入力データが存在するかどうかが判定され、まだ存在すると判定された場合、ステップS17に進み、出力信頼度計算部13において、出力信頼度が更新される。即ち、出力信頼度計算部13は、ステップS12で入力信頼度計算部12が計算した入力信頼度αx(t)と、ラッチ回路14がラッチしている1サンプル前の出力信頼度αy(t-1)とを、式(4)にしたがって加算することで、現在の出力信頼度αy(t)を求め、ラッチ回路14に出力する。そして、ステップS11に戻り、次の入力データを対象に、同様の処理が繰り返される。
【0103】
一方、ステップS16において、処理すべき入力データが存在しないと判定された場合、処理を終了する。
【0104】
以上のように、現在の入力データx(t)の信頼度(入力信頼度)αx(t)を求め、それと、1サンプル前の出力信頼度αy(t-1)とを加味して、重みw(t)を計算する。さらに、この重みw(t)を用いて、現在の入力データx(t)と、1サンプル前の出力データy(t−1)との重み付け平均値を計算し、その平均値を、入力データx(t)の処理結果としての出力データy(t)とする。そして、その出力データy(t)の信頼度(出力信頼度)αy(t)を、現在の入力信頼度αx(t)と、1サンプル前の出力信頼度αy(t-1)とを加算することで求め、次の入力データx(t+1)を処理することを繰り返す。従って、重みw(t)は、過去の入力データにおいて、ノイズの多い部分はあまり加味せずに、かつノイズの少ない部分は十分に加味するようにして学習されていき、即ち、入力データに対して適応的な重みw(t)が求められていき、その結果、出力データは、重みw(t)の学習が進むにつれて時々刻々と改善されていき、入力データから効果的にノイズを除去したものが得られるようになる。
【0105】
なお、図7の実施の形態では、5サンプルの入力データx(t)乃至x(t−5)を用いて分散σx(t) 2を求めるようにしたため、その逆数である入力信頼度αx(t)は、入力データの入力が開始されてから、5サンプル分の時間が経過しないと求めることができないが、その5サンプル分の時間が経過するまでは、例えば、入力信頼度および出力信頼度のいずれも計算せず、また、出力データとしては、いままで入力された入力データの単純な平均値を求めて出力するようにすることができる。但し、入力データの入力が開始された直後の処理方法は、これに限定されるものではない。
【0106】
次に、上述の場合には、入力信頼度αx(t)として、入力データの分散の逆数を用いたことから、その入力信頼度αx(t)は、ある時間的範囲の入力データのばらつきを表しており、従って、入力データに含まれるノイズの度合いとしての、例えば、その入力データのS/Nが変動する場合には、非常に効果的なノイズの除去を行うことができる。
【0107】
しかしながら、入力信頼度αx(t)として、入力データの分散の逆数を用いた場合には、分散の性質上、ノイズのレベルの局所的な変化分(ごく狭い範囲における変化)については、ノイズ除去の効果が幾分薄れることになる。
【0108】
そこで、ノイズのレベルの局所的な変化分については、例えば、入力データの平均値に対する、現在の入力データの自乗誤差の逆数などを、入力信頼度αx(t)として用いることで、効果的に対処することが可能である。
【0109】
この場合、入力信頼度αx(t)は、次のようにして計算することができる。
【0110】
即ち、例えば、図13に示すように、5サンプルの入力データx(t)乃至x(t−4)の平均値m(t)を、式(15)にしたがって計算する。
【0111】
【数8】
Figure 0004258045
・・・(15)
なお、図13の実施の形態においては、式(15)におけるNは、5である。
【0112】
さらに、入力データx(t)および平均値m(t)を用い、式(16)にしたがって、入力データx(t)の平均値m(t)に対する自乗誤差dx(t) 2を計算する。
【0113】
【数9】
Figure 0004258045
・・・(16)
【0114】
そして、次式に示すように、自乗誤差dx(t) 2の逆数を求めることで、入力信頼度αx(t)を求める。
【0115】
【数10】
Figure 0004258045
・・・(17)
【0116】
以上のように、自乗誤差の逆数を、入力信頼度αx(t)として用いる手法は、平均値m(t)が、真値に近い値となる場合には、特に有効である。
【0117】
なお、入力信頼度αx(t)は、上述したように、分散σx(t) 2、または自乗誤差dx(t) 2のいずれか一方だけに基づいて求める他、その2つに基づいて求めることも可能である。即ち、例えば、分散σx(t) 2の逆数と、自乗誤差dx(t) 2逆数との加算値を、入力信頼度αx(t)として用いることが可能である。
【0118】
分散σx(t) 2は、入力データについて、ある程度広い範囲における局所的な散らばり具合を表し、また、自乗誤差dx(t) 2は、狭い範囲の局所的な散らばり具合を表すから、それらを組み合わせたものを、入力信頼度αx(t)として用いた場合には、入力データのS/Nが変動しており、かつその入力データに含まれるノイズの局所的なレベルも変動しているようなときであっても、効果的に対処することが可能となる。
【0119】
次に、図14は、入力信頼度αx(t)として、分散σx(t) 2を用い、画像を入力データとして自己適応処理を行ったシミュレーション結果を示している。
【0120】
図14において、横軸または縦軸はフレーム数(フレーム番号)またはS/Nをそれぞれ表しており、◇印が、入力データとした画像データのS/Nを表している。そして、+印が移動平均による出力データのS/Nを、×印が図7のNR処理回路による出力データのS/Nを、それぞれ表している。なお、移動平均の計算、および入力信頼度αx(t)の計算には、いずれも5サンプルを用いている。
【0121】
図14から明らかなように、移動平均による出力データのS/Nは、入力データである画像データのS/Nに追随し、従って、画像データのS/Nが良くなれば良くなり、悪くなれば悪くなっていく。これに対して、図7のNR処理回路による出力データのS/Nは、重みw(t)の学習の効果により、時々刻々と高くなっていき、画像データのS/Nの変化による影響をほとんど受けない。
【0122】
次に、図15は、図1の自己適応処理回路を適用したNR処理回路の他の実施の形態の構成例を示している。
【0123】
入力データとしての、例えば、ディジタル画像データは、時系列に入力バッファ51に供給されるようになされている。入力バッファ51は、そこに供給される画像データを、例えば、フレーム単位で、順次記憶するようになされている。さらに、入力バッファ51は、記憶した画像データのフレーム(以下、適宜、入力第xフレームという)を、所定のタイミングで読み出し、NR部52f1乃至52f3、並びにNR部52r1および52r2に、適宜供給するようになされている。
【0124】
即ち、図15の実施の形態では、例えば、3フレームを、いわば1の処理単位として処理が行われるようになされており、入力バッファ51は、入力第3n+1フレームを、NR部52f1および52r1に、入力第3n+2フレームを、NR部52f2および52r2に、入力第3n+3フレームを、NR部52f3に、それぞれ供給するようになされている(但し、n=0,1,2,・・・)。
【0125】
NR部52f1乃至52f3、並びにNR部52r1および52r2は、いずれも、図7のNR処理回路と、基本的に同様に構成されており、従って、そこに入力される画像データを、図7のNR処理回路における場合と、基本的に同様に処理して出力するようになされている。
【0126】
なお、NR部52f1には、入力第3n+1フレームの他、NR部52f3による入力第3n+3フレーム(入力第3(n−1)+3フレーム)の処理結果(以下、適宜、中間第3n+3フレームという)、およびNR部52f3で求められた中間第3n+3フレーム(中間第3(n−1)+3フレーム)の出力信頼度が供給されるようになされている。また、NR部52f1からは、そこでの入力第3n+1フレームの処理結果(以下、適宜、中間第3n+1フレームという)、およびその中間第3n+1フレームの出力信頼度が、NR部52f2に対して供給されるようになされている。
【0127】
さらに、NR部52f2には、入力第3n+2フレームの他、上述したように、NR部52f1から、中間第3n+1フレームおよびその出力信頼度が供給されるようになされている。また、NR部52f2からは、そこでの入力第3n+2フレームの処理結果(以下、適宜、中間第3n+2フレームという)、およびその中間第3n+2フレームの出力信頼度が、NR部52f3に対して供給されるようになされている。
【0128】
さらに、NR部52f3には、入力第3n+3フレームの他、上述したように、NR部52f2から、中間第3n+2フレームおよびその出力信頼度が供給されるようになされている。また、NR部52f3からは、上述したように、中間第3n+3フレーム(中間第3(n−1)+3フレーム)、およびその出力信頼度が、NR部52f1に対して供給される他、NR部52r2に対しても供給され、さらに、中間第3n+3フレームが、出力バッファ53に対して供給されるようになされている。
【0129】
さらに、NR部52r2には、入力第3n+2フレームの他、上述したように、NR部52f3から、中間第3n+3フレームおよびその出力信頼度が供給されるようになされている。また、NR部52r2からは、そこでの入力第3n+2フレームの処理結果(以下、適宜、出力第3n+2フレームという)、およびその出力第3n+2フレームの出力信頼度が、NR部52r1に対して供給されるとともに、出力第3n+2フレームが、出力バッファ53に対して供給されるようになされている。
【0130】
さらに、NR部52r1には、入力第3n+1フレームの他、上述したように、NR部52r2から、出力第3n+2フレームおよびその出力信頼度が供給されるようになされている。また、NR部52r1からは、そこでの入力第3n+1フレームの処理結果(以下、適宜、出力第3n+1フレームという)が、出力バッファ53に対して供給されるようになされている。
【0131】
出力バッファ53は、NR部52f3からの中間第3n+3フレーム、NR部52r2からの出力第3n+2フレーム、およびNR部52r1からの出力第3n+1フレームを一時記憶し、その3フレームの画像データを、時系列に、順次読み出して出力するようになされている。
【0132】
次に、図16は、図15のNR部52f1乃至52f3、並びにNR部52r1および52r2(以下、適宜、まとめて、NR部52という)それぞれの構成例を示している。なお、図中、図7における場合と対応する部分については、同一の符号を付してある。即ち、NR部52は、ラッチ回路14および25が設けられていないことを除けば、図7におけるNR処理回路と同様に構成されている。
【0133】
但し、NR部52において、そこに入力される入力データを処理するのに用いる、その入力データに対する出力データの出力信頼度を計算するのに必要な、他の出力データの出力信頼度は、他のNR部から、出力信頼度計算部13に供給されるようになされている。また、NR部52において、そこに入力される入力データと重み付け加算される出力データも、他のNR部から、重み付け部21に供給されるようになされている。さらに、NR部52(但し、後述する図17に示すように、NR部52r1を除く)において、その出力信頼度計算部13で計算された出力信頼度は、自身の重み計算部15に供給される他、他のNR部に供給されるようになされている。
【0134】
即ち、図17は、図16に示したように構成されるNR部52f1乃至52f3、並びにNR部52r1および52r2の接続関係を示している。
【0135】
図17に示すように、NR部52f1の出力信頼度計算部13には、NR部52f3の出力信頼度計算部13が出力する、中間第3(n−1)+3フレームの出力信頼度が供給されるようになされている。そして、NR部52f1の出力信頼度計算部13では、その中間第3(n−1)+3フレームの出力信頼度と、NR部52f1の入力信頼度計算部12が出力する入力第3n+1フレームの入力信頼度とから、NR部52f1が出力する中間第3n+1フレームの出力信頼度が計算され、即ち、いま、3n+1=tとおくと、3(n−1)+3=3n=t−1であるから、式(4)にしたがって、中間第tフレームの出力信頼度αy(t)(中間第3n+1フレームの出力信頼度αy(3n+1))が計算され、自身の重み計算部15、およびNR部52f2の出力信頼度計算部13に供給されるようになされている。
【0136】
従って、NR部52f1の重み計算部15では、そこに入力される入力第3n+1フレームの入力信頼度αx(3n+1)と、中間第3n+1フレームの出力信頼度αy(3n+1)とから、重みw(3n+1)が求められる。即ち、図7の重み計算部15では、上述したように、現在の入力データx(t)の入力信頼度αx(t)と、1サンプル前の出力データy(t−1)の出力信頼度αy(t-1)とから、重みw(t)が求められるようになされているが、NR部52f1の重み計算部15(NR部52f2および52f3の重み計算部15も同様)では、現在の入力データx(t)の入力信頼度αx(t)と、その入力データに対する出力データのy(t)の出力信頼度αy(t)とから、重みw(t)が求められるようになされている。
【0137】
ここで、式(4)を用いて、式(5)における1サンプル前の出力信頼度αy(t-1)を消去すると、重みw(t)は、次式のように表すことができる。
【0138】
w(t)=(αy(t)−αx(t))/αy(t)・・・(18)
【0139】
式(18)から、重みw(t)は、現在の入力データx(t)の入力信頼度αx(t)と、その入力データに対する出力データのy(t)の出力信頼度αy(t)から求めることができ、NR部52f1の重み計算部15では、そのようにして重みw(t)が求められるようになされている(図7のNR処理回路でも、同様にして、重みw(t)を求めるようにすることが可能である)。
【0140】
また、NR部52f1の重み付け部21には、NR部52f3の演算器24が出力する中間第3(n−1)+3フレーム(入力第3(n−1)+3フレームの処理結果)が供給されるようになされている。そして、NR部52f1の重み付け部21では、その中間第3(n−1)+3フレームが、重みw(t)と乗算され、演算器24に供給されるようになされている。従って、NR部52f1の演算器24では、3n+1=tとおくと、3(n−1)+3=3n=t−1であるから、式(7)にしたがって、入力第tフレームx(t)の処理結果である中間第tフレームy(t)(中間第3n+1フレームy(3n+1))が計算されて出力される。
【0141】
次に、NR部52f2の出力信頼度計算部13には、上述したように、NR部52f1の出力信頼度計算部13が出力する、中間第3n+1フレームの出力信頼度が供給されるようになされている。そして、NR部52f2の出力信頼度計算部13では、その中間第3n+1フレームの出力信頼度と、NR部52f2の入力信頼度計算部12が出力する入力第3n+2フレームの入力信頼度とから、NR部52f2が出力する中間第3n+2フレームの出力信頼度が計算され、即ち、いま、3n+2=tとおくと、3n+1=t−1であるから、式(4)にしたがって、中間第tフレームの出力信頼度αy(t)(中間第3n+2フレームの出力信頼度αy(3n+2))が計算され、自身の重み計算部15、およびNR部52f3の出力信頼度計算部13に供給されるようになされている。
【0142】
従って、NR部52f2の重み計算部15では、そこに入力される入力第3n+2フレームの入力信頼度αx(3n+2)と、中間第3n+2フレームの出力信頼度αy(3n+2)とから、式(4)におけるw(t)を求める式と等価な式(18)にしたがって、重みw(3n+2)が求められる。
【0143】
また、NR部52f2の重み付け部21には、NR部52f1の演算器24が出力する中間第3n+1フレーム(入力第3n+1フレームの処理結果)が供給されるようになされている。そして、NR部52f2の重み付け部21では、その中間第3n+1フレームが、重みw(t)と乗算され、演算器24に供給されるようになされている。従って、NR部52f2の演算器24では、3n+1=tとおくと、式(7)にしたがって、入力第tフレームx(t)の処理結果である中間第tフレームy(t)(中間第3n+2フレームy(3n+2))が計算されて出力される。
【0144】
次に、NR部52f3の出力信頼度計算部13には、上述したように、NR部52f2の出力信頼度計算部13が出力する、中間第3n+2フレームの出力信頼度が供給されるようになされている。そして、NR部52f3の出力信頼度計算部13では、その中間第3n+2フレームの出力信頼度と、NR部52f3の入力信頼度計算部12が出力する入力第3n+3フレームの入力信頼度とから、NR部52f3が出力する中間第3n+3フレームの出力信頼度が計算され、即ち、いま、3n+3=tとおくと、3n+2=t−1であるから、式(4)にしたがって、中間第tフレームの出力信頼度αy(t)(中間第3n+3フレームの出力信頼度αy(3n+3))が計算され、自身の重み計算部15、およびNR部52f1の出力信頼度計算部13に供給されるようになされている。
【0145】
従って、NR部52f3の重み計算部15では、そこに入力される入力第3n+3フレームの入力信頼度αx(3n+3)と、中間第3n+3フレームの出力信頼度αy(3n+3)とから、式(4)におけるw(t)を求める式と等価な式(18)にしたがって、重みw(3n+3)が求められる。
【0146】
また、NR部52f3の重み付け部21には、NR部52f2の演算器24が出力する中間第3n+2フレーム(入力第3n+2フレームの処理結果)が供給されるようになされている。そして、NR部52f3の重み付け部21では、その中間第3n+2フレームが、重みw(t)と乗算され、演算器24に供給されるようになされている。従って、NR部52f3の演算器24では、3n+2=tとおくと、式(7)にしたがって、入力第tフレームx(t)の処理結果である中間第tフレームy(t)(中間第3n+3フレームy(3n+3))が計算されて出力される。
【0147】
ここで、中間第3n+3フレームの出力信頼度αy(3n+3)が、NR部52f3の出力信頼度計算部13から、NR部52f1の出力信頼度計算部13に供給されると、NR部52f1には、入力第3(n+1)+1(=3n+4)フレームが供給され、NR部52f1では、その入力第3(n+1)+1フレームについて、上述したような処理(上述したNR部52f1についての説明におけるnをn+1に置き換えた処理)が行われる。
【0148】
従って、図17のNR処理回路では、NR部52f1乃至52f3だけに注目すれば、その3つのNR部52f1乃至52f3において、3フレーム単位で、図7に示したNR処理回路と同様の処理が行われるで、NR部52f1乃至52f3それぞれが出力する中間第3n+1フレーム、中間第3n+2フレーム、中間第3n+3フレームは、図7のNR処理回路が出力する出力データと変わらない。
【0149】
次に、図17では、NR部52f3の出力信頼度計算部13が出力する出力信頼度は、NR部52f1に供給される他、NR部52r1の出力信頼度計算部13にも供給されるようになされている。さらに、NR部52f3の演算器24が出力する中間第3n+3フレームは、NR部52f1に供給される他、出力バッファ53(図15)に供給されて記憶されるとともに、NR部52r2の重み付け部21に供給されるようになされている。
【0150】
そして、NR部52r2は、NR部52f3が処理した入力第3n+3フレーム(注目入力データ)より時間的に先行する、例えば入力第3n+2フレーム(先行入力データ)を、入力第3n+3フレームに対する中間第3n+3フレーム(注目出力データ)、およびその中間第3n+3フレームの出力信頼度等に基づいて処理することにより、その処理結果としての出力第3n+2フレーム(先行出力データ)を出力するようになされている。
【0151】
即ち、図17のNR部52f1乃至52f3のうち、NR部52r2と同様に、入力第3n+2フレームを処理するNR部52f2に注目すれば、NR部52f2は、NR部52f1が処理した入力第3n+1フレームより時間的に1フレームだけ後行する入力第3n+2フレームを、入力第3n+1フレームに対する中間第3n+1フレーム、およびその中間第3n+1フレームの出力信頼度等に基づいて処理することにより、その処理結果としての中間第3n+2フレームを出力するようになされている。このNR部52f2が入力第3n+2フレームの処理に用いる中間第3n+2フレームの出力信頼度αy(3n+2)は、式(4)にしたがい、NR部52f1から供給される中間第3n+1フレームの出力信頼度αy(3n+1)から求められるものであり、式(4)は、現在時刻tの出力信頼度αy(t)を、過去の出力信頼度(時間的に先行する出力信頼度)αy(t-1)から求める漸化式となっている。
【0152】
これに対して、NR部52r2では、入力第3n+2フレームの処理に用いる出力信頼度αy(3n+2)が、NR部52f3から供給される中間第3n+3フレームの出力信頼度αy(3n+3)から求められるようになされている。
【0153】
即ち、現在時刻tの出力信頼度αy(t)が、未来の出力信頼度(時間的に後行する出力信頼度)αy(t+1)から、次のような漸化式にしたがって求められるようになされている。
【0154】
αy(t)=αy(t+1)+αx(t)・・・(19)
【0155】
式(19)は、式(4)におけるαy(t)を求める漸化式のt−1を、t+1に置き換えたものであり、この置き換えに対応して、NR部52r2では、入力データx(t)の処理結果である出力データy(t)、またはその出力データy(t)を求めるために用いる重みw(t)も、式(7)または式(5)それぞれにおけるt−1を、t+1に置き換えた次式にしたがって求められるようになされている。
【0156】
y(t)=w(t)y(t+1)+(1−w(t))x(t)・・・(20)
w(t)=αy(t+1)/(αy(t+1)+αx(t))・・・(21)
【0157】
なお、式(21)は、式(19)を用いることにより、式(5)を式(18)にした場合と同様の変形を行うことで、次のように表すことができる。
【0158】
w(t)=(αy(t)−αx(t))/αy(t)・・・(22)
【0159】
NR部52r2は、式(19)にしたがい、現在時刻tの出力信頼度αy(t)を、未来の出力信頼度αy(t+1)から求め、その出力信頼度αy(t)を用いて、式(22)にしたがい、重みw(t)を計算し、さらに、その重みw(t)を用いて、現在の入力データx(t)と、未来の出力データy(t+1)との重み付け加算を、式(20)にしたがって行うことで、その入力データx(t)に対する出力データy(t)を求めるようになされている。
【0160】
即ち、NR部52r2の出力信頼度計算部13では、NR部52r3からの中間第3n+3フレームの出力信頼度と、自身の入力信頼度計算部12が出力する入力第3n+2フレームの入力信頼度とから、自身が処理する入力第3n+2フレームの処理結果(以下、適宜、出力第3n+2フレームという)の出力信頼度が計算される。具体的には、いま、3n+2=tとおくと、式(19)にしたがって、出力第tフレームの出力信頼度αy(t)(中間第3n+2フレームの出力信頼度αy(3n+2))が計算され、自身の重み計算部15、およびNR部52r1の出力信頼度計算部13に供給される。
【0161】
さらに、NR部52r2の重み計算部15では、そこに入力される入力第3n+2フレームの入力信頼度αx(3n+2)と、出力第3n+2フレームの出力信頼度αy(3n+2)とから、重みw(3n+2)が求められる。即ち、NR部52r2の重み計算部15(NR部52r1の重み計算部15も同様)では、現在の入力データx(t)の入力信頼度αx(t)と、その入力データに対する出力データのy(t)の出力信頼度αy(t)とから、式(22)にしたがって、重みw(t)(この重みw(t)は、NR部52f2で求められる重みw(t)と偶然に一致する場合もあるが、基本的には異なる)が求められる。
【0162】
また、NR部52r2の重み付け部21では、NR部52f3からの中間第3n+3フレームが、重みw(t)と乗算され、演算器24に供給される。従って、NR部52r2の演算器24では、3n+2=tとおくと、式(20)にしたがって、入力第tフレームx(t)の処理結果である出力第tフレームy(t)(出力第3n+2フレームy(3n+2))が計算されて出力される。
【0163】
次に、NR部52r1の出力信頼度計算部13には、上述したように、NR部52r2の出力信頼度計算部13が出力する、出力第3n+2フレームの出力信頼度が供給されるようになされている。そして、NR部52r1の出力信頼度計算部13では、その出力第3n+2フレームの出力信頼度と、NR部52r1の入力信頼度計算部12が出力する入力第3n+1フレームの入力信頼度とから、自身が入力第3n+1フレームを処理することにより得られる処理結果(以下、適宜、出力第3n+1フレームという)の出力信頼度が計算され、即ち、いま、3n+1=tとおくと、3n+2=t+1であるから、式(19)にしたがって、出力第tフレームの出力信頼度αy(t)(出力第3n+1フレームの出力信頼度αy(3n+1))が計算され、自身の重み計算部15に供給される。
【0164】
そして、NR部52r1の重み計算部15では、そこに入力される入力第3n+1フレームの入力信頼度αx(3n+1)と、出力第3n+1フレームの出力信頼度αy(3n+1)とから、式(22)にしたがって、重みw(3n+1)(この重みw(3n+1)は、NR部52f1で求められる重みw(3n+1)と偶然に一致する場合もあるが、基本的には異なる)が求められる。
【0165】
また、NR部52r1の重み付け部21には、NR部52r2の演算器24が出力する出力第3n+2フレーム(入力第3n+2フレームの処理結果)が供給されるようになされている。そして、NR部52r1の重み付け部21では、その出力第3n+2フレームが、重みw(t)と乗算され、演算器24に供給されるようになされている。従って、NR部52r1の演算器24では、3n+1=tとおくと、式(20)にしたがって、入力第tフレームx(t)の処理結果である出力第tフレームy(t)(出力第3n+1フレームy(3n+1))が計算されて出力される。
【0166】
従って、図17のNR処理回路では、上段の3つのNR部52f1乃至52f1において、時系列に入力される画像データが、時間的に順方向に順次処理されていくのに対し、下段の2つのNR部52r1および52r2において、時系列に入力される画像データが、時間的に逆方向に順次処理されていく。そして、NR部52r1および52r2において用いられる出力信頼度は、画像データを、時間的に順方向に処理して得られる出力信頼度から、いわばリカーシブ(recursive)に求められるものであり、従って、それまでの処理において得られた出力データの信頼性の、いわば履歴が反映されている。その結果、NR部52f1が出力する中間第3n+1フレーム、またはNR部52f2が出力する中間第3n+2フレームよりは、NR部52r1が出力する出力第3n+1フレーム、またはNR部52r2が出力する出力第3n+2フレームの方が、ノイズがより低減されることとなる。
【0167】
なお、図7に示したNR処理回路では、時系列の入力データの最初の部分については、入力信頼度および出力信頼度を計算することができないため、出力データとしては、例えば、入力信頼度および出力信頼度を計算することができるようになるまで、それまでに入力された入力データの単純な平均値を求めて出力するようにしたが、図17に示したNR処理回路では、上述したように、リカーシブに処理が行われる結果、時系列の入力データの最初の部分についても、入力信頼度および出力信頼度に基づいて処理することが可能となり、その結果、ノイズが効果的に低減された出力データを得ることが可能となる。
【0168】
次に、図18のフローチャートを参照して、図15のNR処理回路の処理について説明する。
【0169】
まず最初に、ステップS21において、フレーム数をカウントするための第1の変数nが0に初期化され、ステップS22に進み、フレーム数をカウントするための第2の変数mが1に初期化される。そして、ステップS23に進み、入力第Mn+mフレームが、入力バッファ51からNR部52f#mに入力され、NR部52f#mにおいて、その入力第Mn+mフレームが処理される。ここで、Mは、NR処理回路を構成する上段のNR部の数を表し、従って、図15の実施の形態では、Mは3である。
【0170】
その後、ステップS24に進み、第2の変数mがMに等しいかどうかが判定され、等しくないと判定された場合、ステップS25に進む。ステップS25では、mが1だけインクリメントされ、ステップS23に戻り、以下、同様の処理が繰り返される。
【0171】
また、ステップS25において、第2の変数mがMに等しいと判定された場合、ステップS26に進み、NR部52f#Mが入力第Mn+Mフレームを処理することにより得られる中間第Mn+Mフレームが出力バッファ53に供給されて記憶される。
【0172】
そして、ステップS27に進み、第2の変数mが1だけデクリメントされ、ステップS28に進む。ステップS28では、入力第Mn+mフレームが、入力バッファ51からNR部52r#mに入力され、NR部52f#mにおいて、その入力第Mn+mフレームが処理され、ステップS29に進む。ステップS29では、NR部52f#mが入力第Mn+mフレームを処理することにより得られる出力第Mn+mフレームが出力バッファ53に供給されて記憶され、ステップS30に進み、第2の変数mが1に等しいかどうかが判定される。
【0173】
ステップS30において、第2の変数mが1に等しくないと判定された場合、ステップS27に戻り、以下、同様の処理が繰り返される。
【0174】
また、ステップS30において、第2の変数mが1に等しいと判定された場合、ステップS31に進み、出力バッファ53に記憶されたデータが、時系列に読み出される。即ち、図15の実施の形態においては、中間第3n+3フレーム、出力第3n+2フレーム、出力第3n+1フレームの順番で、出力データが出力バッファ53に記憶される。そこで、その3つのフレームを時間的に正しい順番に並べ替えるために、ステップS31では、出力バッファ53から、出力第3n+1フレーム、出力第3n+2フレーム、中間第3n+3フレームの順番で、読み出しが行われる。
【0175】
そして、ステップS32に進み、第1の変数nが1だけインクリメントされ、次に処理すべきフレーム、即ち、入力第Mn+1フレームが存在するかどうかが判定される。ステップS32において、次に処理すべきフレームがあると判定された場合、ステップS22に戻り、以下、同様の処理が繰り返される。
【0176】
また、ステップS32において、次に処理すべきフレームがないと判定された場合、処理を終了する。
【0177】
なお、本発明は、画像データの他、例えば、音声データからのノイズの除去などにも適用可能である。
【0178】
また、本実施の形態では、本発明について、ノイズの除去という観点から説明を行ったが、入力データが適応的に処理されることにより、出力データが時間の経過とともに改善されるように、処理方式(ここでは重み係数w(t))が、実時間で学習され、その学習の結果得られた処理方式で処理が行われる結果、入力データには、それ自身に適した処理が施されるという自己適応処理の性質上、例えば、入力データの波形整形(波形等化)などを行うことも可能である。
【0179】
さらに、本実施の形態では、式(7)(および式(20))において、出力データy(t−1)(式(20)では、y(t+1))に対して重みw(t)を乗算するとともに、入力データx(t)に対して重み1−w(t)を乗算して、出力データy(t)を求めるようにしたが、出力データy(t−1)または入力データx(t)のいずれか一方にのみ重みを乗算して、出力データy(t)を求めるようにすることも可能である。
【0180】
また、図15(図17)では、例えば、入力第3n+1フレームに注目した場合に、NR部52f1に、入力第3n+1フレームを入力する他、NR部52r1にも、入力第3n+1フレームを入力するようにしたが、NR部52r1には、入力第3n+1フレームに替えて、NR部52f1が入力第3n+1フレームを処理した処理結果である中間第3n+1フレームを入力するようにすることが可能である。なお、本件発明者が行ったシミュレーションによれば、NR部52r1に対して、入力第3n+1フレームを入力した場合と、中間第3n+1フレームを入力した場合とで、得られる出力第3n+1フレームのS/Nにはほとんど差が見られなかった。
【0181】
さらに、図15では、上段に3つのNR部を、下段に2つのNR部をそれぞれ設けるようにしたが、上段および下段に設けるNR部の数は、これに限定されるものではない。但し、上段には、2以上のNR部が必要であり、また、下段には、上段のNR部の数をMとすると、原則として、M−1個のNR部が必要である。
【0182】
また、図15では、下段に、上段のNR部と同様に構成されるNR部を設けるようにしたが、下段には、その他、例えば、単純な平均や移動平均によるノイズの低減を行うNR部を設けるようにすることも可能である。
【0183】
【発明の効果】
以上の如く、本発明のノイズ低減装置、ノイズ低減方法、および記録媒体のプログラムによれば、例えば、入力データに含まれるノイズを、効果的に除去すること等が可能となる。
【図面の簡単な説明】
【図1】自己適応処理回路の構成例を示すブロック図である。
【図2】処理方式の改善について説明するための図である。
【図3】処理方式の改善について説明するための図である。
【図4】学習に用いる学習用入力信号を説明するための図である。
【図5】NR処理回路を示すブロック図である。
【図6】図5のNR処理回路の処理対象となる入力データと、その信頼度を示す図である。
【図7】図5のNR処理回路の構成例を示すブロック図である。
【図8】図7の入力信頼度計算部12の構成例を示すブロック図である。
【図9】図8の入力信頼度計算部12の処理を説明するための図である。
【図10】図7の出力信頼度計算部13の構成例を示すブロック図である。
【図11】図7のNR処理回路の処理を説明するための図である。
【図12】図7のNR処理回路の処理を説明するためのフローチャートである。
【図13】入力信頼度の算出方法を説明するための図である。
【図14】図7のNR処理回路のシミュレーション結果を示す図である。
【図15】本発明を適用したNR処理回路の一実施の形態の構成例を示すブロック図である。
【図16】図15のNR部52f1乃至52f3、並びにNR部52r1および52r2それぞれの構成例を示すブロック図である。
【図17】図15のNR部52f1乃至52f3、並びにNR部52r1および52r2の接続関係を説明するための図である。
【図18】図15のNR処理回路の動作を説明するためのフローチャートである。
【符号の説明】
1 実時間学習部, 2 信号処理部, 111乃至114 ラッチ回路, 12 入力信頼度計算部, 13 出力信頼度計算部, 14 ラッチ回路, 15 重み計算部, 21 重み付け部, 22 演算器, 23 重み付け部,24 演算器, 25 ラッチ回路, 31 平均値計算回路, 32 分散計算回路, 33 逆数計算回路, 41 演算器, 51 入力バッファ, 52f1乃至52f3,52r1,52r2 NR部, 53 出力バッファ

Claims (19)

  1. 入力データを処理すると共に、処理された前記データを出力データとして出力するノイズ低減装置において、
    前記入力データ、及び前記入力データに対する前記出力データを評価し、前記評価に基づき、前記出力データが時間の経過とともに改善されるように前記入力データを処理する処理方式を実時間で学習する実時間学習手段と、
    前記実時間学習手段が学習した前記処理方式に従って、前記入力データを適応的に処理し、前記出力データを出力するデータ処理手段と
    を有する第1の処理手段と、
    前記第1の処理手段が処理した前記入力データである注目入力データより時間的に先行する前記入力データである先行入力データを、前記注目入力データに対する前記出力データである注目出力データ、及び前記注目出力データに対する前記評価に基づいて処理することにより、前記先行入力データに対する前記出力データである前記先行出力データを出力する第2の処理手段と
    を備えるノイズ低減装置。
  2. 時系列に入力される前記入力データを所定数のみ記憶する入力データ記憶手段
    をさらに備える請求項1に記載のノイズ低減装置。
  3. 前記実時間学習手段は、前記入力データ記憶手段に記憶された前記所定数の前記入力データより分散を演算し、前記分散に基づいて現在の入力データを評価する
    請求項2に記載のノイズ低減装置。
  4. 前記実時間学習手段は、前記入力データ記憶手段に記憶された前記所定数の前記入力データより平均を演算し、前記各入力データの平均値に対する誤差に基づいて、現在の入力データを評価する
    請求項2に記載のノイズ低減装置。
  5. 前記実時間学習手段は、前記入力データ記憶手段に記憶された前記所定数の前記入力データより分散及び平均値を演算し、前記各入力データの平均値に対する誤差を求め、前記分散及び前記誤差に基づいて、現在の入力データを評価する
    請求項2に記載のノイズ低減装置。
  6. 前記実時間学習手段は、前記入力データの評価と、前記出力するデータの評価との加算値に基づいて、現在の前記出力データを評価する
    請求項1に記載のノイズ低減装置。
  7. 前記データ処理手段は、前記出力データと、現在の前記入力データとを加算することにより、現在の前記入力データに対する出力データを求める
    請求項1に記載のノイズ低減装置。
  8. 前記実時間学習手段は、前記入力データの評価と、前記出力データの評価とに基づいて、所定の重み係数を学習し、
    前記データ処理手段は、前記重み係数に基づいて、現在の前記入力データに対する前記出力データを求める
    請求項7に記載のノイズ低減装置。
  9. 前記第2の処理手段は、
    前記先行入力データを評価すると共に、前記注目出力データの評価に基づいて、前記先行出力データを評価し、前記評価に基づき前記先行出力データが時間の経過と共に改善されるように、前記先行入力データを処理する処理方式を、実時間で学習するfurther実時間学習手段と、
    前記further実時間学習手段が学習した前記処理方式に従って、前記先行入力データを適応的に処理し、前記先行出力データを出力するfurtherデータ処理手段と
    を備える請求項1に記載のノイズ低減装置。
  10. 入力データを処理すると共に、処理された前記データを出力データとして出力するノイズ低減方法において、
    前記入力データ、及び前記入力データに対する前記出力データを評価し、前記評価に基づき、前記出力データが時間の経過とともに改善されるように前記入力データを処理する処理方式を実時間で学習する実時間学習ステップと、
    前記実時間学習ステップの処理で学習された前記処理方式に従って、前記入力データを適応的に処理し、前記出力データを出力するデータ処理ステップと
    を含む第1の処理ステップと、
    前記第1の処理ステップの処理で処理された前記入力データである注目入力データより時間的に先行する前記入力データである先行入力データを、前記注目入力データに対する前記出力データである注目出力データ、及び前記注目出力データに対する前記評価に基づいて処理することにより、前記先行入力データに対する前記出力データである前記先行出力データを出力する第2の処理ステップと
    を含むノイズ低減方法。
  11. 時系列に入力される前記入力データを所定数のみ記憶する入力データ記憶ステップを
    さらに含む請求項10に記載のノイズ低減方法。
  12. 前記実時間学習ステップは、前記入力データ記憶ステップの処理で記憶された前記所定数の前記入力データより分散を演算し、前記分散に基づいて現在の入力データを評価する
    請求項11に記載のノイズ低減方法。
  13. 前記実時間学習ステップは、前記入力データ記憶ステップにおいて記憶された前記所定数の前記入力データより平均を演算し、前記各入力データの平均値に対する誤差に基づいて、現在の入力データを評価する
    請求項11に記載のノイズ低減方法。
  14. 前記実時間学習ステップは、前記入力データ記憶ステップに記憶された前記所定数の前記入力データより分散及び平均値を演算し、前記各入力データの平均値に対する誤差を求め、前記分散及び前記誤差に基づいて、現在の入力データを評価する
    請求項11に記載のノイズ低減方法。
  15. 前記実時間学習ステップは、前記入力データの評価と、前記出力するデータの評価との加算値に基づいて、現在の前記出力データを評価する
    請求項10に記載のノイズ低減方法。
  16. 前記データ処理ステップは、前記出力データと、現在の前記入力データとを加算することにより、現在の前記入力データに対する出力データを求める
    請求項10に記載のノイズ低減方法。
  17. 前記実時間学習ステップは、前記入力データの評価と、前記出力データの評価とに基づいて、所定の重み係数を学習し、
    前記データ処理ステップは、前記重み係数に基づいて、現在の前記入力データに対する前記出力データを求める
    請求項16に記載のノイズ低減方法。
  18. 前記第2の処理ステップは、
    前記先行入力データを評価すると共に、前記注目出力データの評価に基づいて、前記先行出力データを評価し、前記評価に基づき前記先行出力データが時間の経過と共に改善されるように、前記先行入力データを処理する処理方式を、実時間で学習するfurther実時間学習ステップと、
    前記他の実時間学習ステップにおいて学習した前記処理方式に従って、前記先行入力データを適応的に処理し、前記先行出力データを出力するfurtherデータ処理ステップと
    を含む請求項10に記載のノイズ低減方法。
  19. 入力データを処理すると共に、処理された前記データを出力データとして出力するノイズ低減処理を、コンピュータに実行させるプログラムが記憶される記憶媒体において、
    前記入力データ、及び前記入力データに対する前記出力データを評価し、前記評価に基づき、前記出力データが時間の経過とともに改善されるように前記入力データを処理する処理方式を実時間で学習する実時間学習ステップと、
    前記実時間学習ステップの処理で学習された前記処理方式に従って、前記入力データを適応的に処理し、前記出力データを出力するデータ処理ステップと
    を含む第1の処理ステップと、
    前記第1の処理ステップの処理で処理された前記入力データである注目入力データより時間的に先行する前記入力データである先行入力データを、前記注目入力データに対する前記出力データである注目出力データ、及び前記注目出力データに対する前記評価に基づいて処理することにより、前記先行入力データに対する前記出力データである前記先行出力データを出力する第2の処理ステップと
    を含むプログラムが記録されている記録媒体。
JP31710098A 1998-11-09 1998-11-09 ノイズ低減装置、ノイズ低減方法、および記録媒体 Expired - Fee Related JP4258045B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP31710098A JP4258045B2 (ja) 1998-11-09 1998-11-09 ノイズ低減装置、ノイズ低減方法、および記録媒体
US09/434,666 US6564180B1 (en) 1998-11-09 1999-11-05 Data processing apparatus and data processing method
DE69923747T DE69923747T2 (de) 1998-11-09 1999-11-05 Datenverarbeitungsanlage und -verfahren
EP99308839A EP1001373B1 (en) 1998-11-09 1999-11-05 Data processing apparatus and data processing methods
KR1019990049195A KR100706557B1 (ko) 1998-11-09 1999-11-08 데이터 처리 장치 및 데이터 처리 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP31710098A JP4258045B2 (ja) 1998-11-09 1998-11-09 ノイズ低減装置、ノイズ低減方法、および記録媒体

Publications (3)

Publication Number Publication Date
JP2000151723A JP2000151723A (ja) 2000-05-30
JP2000151723A5 JP2000151723A5 (ja) 2005-11-17
JP4258045B2 true JP4258045B2 (ja) 2009-04-30

Family

ID=18084448

Family Applications (1)

Application Number Title Priority Date Filing Date
JP31710098A Expired - Fee Related JP4258045B2 (ja) 1998-11-09 1998-11-09 ノイズ低減装置、ノイズ低減方法、および記録媒体

Country Status (5)

Country Link
US (1) US6564180B1 (ja)
EP (1) EP1001373B1 (ja)
JP (1) JP4258045B2 (ja)
KR (1) KR100706557B1 (ja)
DE (1) DE69923747T2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4517409B2 (ja) * 1998-11-09 2010-08-04 ソニー株式会社 データ処理装置およびデータ処理方法
JP4344964B2 (ja) 1999-06-01 2009-10-14 ソニー株式会社 画像処理装置および画像処理方法
CN1271564C (zh) * 2001-02-21 2006-08-23 索尼公司 信号处理设备
US7499895B2 (en) 2002-02-21 2009-03-03 Sony Corporation Signal processor

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4276620A (en) * 1978-10-27 1981-06-30 Geosource Inc. Method and apparatus for obtaining a composite field response _to a variable source array using weighting coefficients
US4761819A (en) * 1987-02-27 1988-08-02 Picker International, Inc. Adaptive noise reduction filter for reconstructed images
US4887306A (en) 1987-11-04 1989-12-12 Advanced Technology Laboratories, Inc. Adaptive temporal filter for ultrasound imaging system
JPH0580626A (ja) * 1991-03-12 1993-04-02 Canon Inc 情報処理装置
US5263120A (en) * 1991-04-29 1993-11-16 Bickel Michael A Adaptive fast fuzzy clustering system
US5402520A (en) * 1992-03-06 1995-03-28 Schnitta; Bonnie S. Neural network method and apparatus for retrieving signals embedded in noise and analyzing the retrieved signals
JPH08123486A (ja) * 1994-10-28 1996-05-17 Nippondenso Co Ltd 時系列信号フィルタ及びその学習方法
JPH08123485A (ja) * 1994-10-28 1996-05-17 Sony Corp 雑音除去装置
JPH0997319A (ja) * 1995-09-28 1997-04-08 Fujitsu Ltd 色空間画像を補正する画像処理装置および方法
US5812993A (en) * 1996-03-07 1998-09-22 Technion Research And Development Foundation Ltd. Digital hardware architecture for realizing neural network
FR2751825A1 (fr) * 1996-07-24 1998-01-30 Philips Electronics Nv Procede de filtrage temporel du bruit dans une image d'une sequence d'images numerisees et dispositif mettant en oeuvre ce procede
US6157403A (en) * 1996-08-05 2000-12-05 Kabushiki Kaisha Toshiba Apparatus for detecting position of object capable of simultaneously detecting plural objects and detection method therefor
JPH1155132A (ja) 1997-07-30 1999-02-26 Nec Corp 無線機及び無線通信方法
US5963447A (en) * 1997-08-22 1999-10-05 Hynomics Corporation Multiple-agent hybrid control architecture for intelligent real-time control of distributed nonlinear processes

Also Published As

Publication number Publication date
DE69923747D1 (de) 2005-03-24
EP1001373A1 (en) 2000-05-17
KR20000047605A (ko) 2000-07-25
KR100706557B1 (ko) 2007-04-13
US6564180B1 (en) 2003-05-13
JP2000151723A (ja) 2000-05-30
EP1001373B1 (en) 2005-02-16
DE69923747T2 (de) 2006-03-30

Similar Documents

Publication Publication Date Title
JP4344964B2 (ja) 画像処理装置および画像処理方法
US7418149B2 (en) Apparatus and method for adaptive 3D noise reduction
JP2000050109A (ja) ノイズを除去するための非線形イメ―ジフィルタ
JP4517409B2 (ja) データ処理装置およびデータ処理方法
JP4258045B2 (ja) ノイズ低減装置、ノイズ低減方法、および記録媒体
JP2002223374A (ja) ノイズ除去装置およびノイズ除去方法
KR100816593B1 (ko) 화상 처리 장치, 화상 처리 방법, 및 기록 매체
JP4147647B2 (ja) データ処理装置およびデータ処理方法、並びに記録媒体
JP3657145B2 (ja) 輪郭補正装置
JP4164712B2 (ja) データ処理装置およびデータ処理方法
JPH07307942A (ja) 画像雑音除去装置
JP4225039B2 (ja) データ処理装置および方法、記録媒体、並びにプログラム
US6366612B1 (en) Automatic equalizer
JP2543535B2 (ja) デイジタルノイズリデユ―サ
JPH09107472A (ja) 画像データ変換方法及び画像データ変換装置
JP3635761B2 (ja) 画像処理装置
KR20000026152A (ko) 양자화 퍼지 삼각함수의 고속 가중 퍼지결정 신경망 장치
JPH06334900A (ja) 波形等化装置
JPH05300408A (ja) ノイズ低減装置
JPH05325413A (ja) 情報再生装置
JPH09102869A (ja) 画像処理装置
KR19990040817A (ko) 영상의 재귀적 히스토그램 등화 방법 및 장치

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050930

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050930

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080303

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080502

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090113

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090126

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120220

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120220

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130220

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130220

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140220

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees