JP4363054B2 - Information processing apparatus and information processing method - Google Patents
Information processing apparatus and information processing method Download PDFInfo
- Publication number
- JP4363054B2 JP4363054B2 JP2003036099A JP2003036099A JP4363054B2 JP 4363054 B2 JP4363054 B2 JP 4363054B2 JP 2003036099 A JP2003036099 A JP 2003036099A JP 2003036099 A JP2003036099 A JP 2003036099A JP 4363054 B2 JP4363054 B2 JP 4363054B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- information processing
- processing unit
- image
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Picture Signal Circuits (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、情報処理装置および情報処理方法に関し、特に、1つの情報処理装置に対して、複数の情報処理ユニットを装着することが可能な場合に用いて好適な、情報処理装置および情報処理方法に関する。
【0002】
【従来の技術】
従来の情報機器においては、内部の制御基板を交換することによって、機能のバージョンアップを図ることができるようになされていたり、もしくは、内部の制御基板を増設することにより、新たな機能を追加することができるようになされていた。
【0003】
具体的には、例えば、パーソナルコンピュータなどにおいて、主制御基板(いわゆるマザーボード)を、性能の良いCPU(Central Processing Unit)を搭載したものに交換することにより、パーソナルコンピュータの処理能力を向上させるようにしたり、ビデオカード、グラフィックカード、サウンドボードなどの拡張カードを増設したり、交換することなどにより、パーソナルコンピュータに新たな機能を追加したり、機能をバージョンアップさせることなどが可能であった。
【0004】
【発明が解決しようとする課題】
しかしながら、従来の技術において、交換、または、増設される基板は、それぞれ個々の処理を実行するものである。すなわち、複数の基板のうちのいずれかの基板が交換されても、交換された基板に対応する処理機能のみが向上される。例えば、基板Aによって処理Aが実行され、処理Aの結果に基づいて、基板Bによって処理Bが実行され、更に、処理Bの結果に基づいて、基板Cによって処理Cが実行されるようになされている場合、基板Bが交換されることによって処理能力が向上する処理は、処理Bのみであり、処理Aおよび処理Bの処理能力には、なんら影響を及ぼさない。
【0005】
本発明はこのような状況に鑑みてなされたものであり、複数の基板の処理を相互作用させることができるようにし、例えば、複数の情報処理ユニットが交換された場合や、新たな情報処理ユニットが装着された場合に、他の情報処理ユニットが実行する処理の処理能力も向上させるようにすることができるようにするものである。
【0006】
【課題を解決するための手段】
本発明の第1の情報処理装置は、複数の情報処理ユニットを装着する装着手段と、装着手段により装着された情報処理ユニットに画像情報を供給する情報供給手段と、装着手段により装着された情報処理ユニットにより処理された画像情報を取得する情報取得手段とを備え、装着手段に装着された情報処理ユニットのそれぞれは、画像情報の歪を除去する処理をする第1の情報処理手段と、第1の情報処理手段により処理される画像情報とは異なる情報であって、後段の他の情報処理ユニットの第1の情報処理手段による画像情報の処理に用いる画像情報の歪の特性情報を生成する第2の情報処理手段とを備えることを特徴とする。
【0019】
本発明の第1の情報処理方法は、複数装着された情報処理ユニットの、第1の情報処理部で画像情報の歪を除去する処理をし、第2の情報処理部で、第1の情報処理部により処理される画像情報とは異なる情報であって、後段の他の情報処理ユニットの第1の情報処理部による画像情報の処理に用いる画像情報の歪の特性情報を生成することを特徴とする。
【0020】
本発明の第1の情報処理装置および第1の情報処理方法においては、情報処理ユニットが装着され、装着された情報処理ユニットの、第1の情報処理部で画像情報の歪を除去する処理がされ、第2の情報処理部で、第1の情報処理部により処理される画像情報とは異なる情報であって、後段の他の情報処理ユニットの第1の情報処理部による画像情報の処理に用いる画像情報の歪の特性情報が生成される。
【0034】
本発明の第2の情報処理装置は、複数の情報処理ユニットを装着する装着手段と、装着手段により装着された情報処理ユニットに画像情報を供給する情報供給手段と、装着手段により装着された情報処理ユニットにより処理された画像情報を取得する情報取得手段とを備え、装着手段に装着された情報処理ユニットのそれぞれは、画像情報の解像度を上げる処理を実行する第1の情報処理手段と、第1の情報処理手段により処理される画像情報とは異なる情報であって、後段の他の情報処理ユニットの第1の情報処理手段による画像情報の処理に用いる画像情報の時間または空間における画像情報の変化を示す情報を生成する第2の情報処理手段とを備えることを特徴とする。
本発明の第2の情報処理方法は、複数装着された情報処理ユニットの、第1の情報処理部で画像情報の解像度を上げる処理を実行し、第2の情報処理部で、第1の情報処理部により処理される画像情報とは異なる情報であって、後段の他の情報処理ユニットの第1の情報処理部による画像情報の処理に用いる画像情報の時間または空間における画像情報の変化を示す情報を生成することを特徴とする。
本発明の第2の情報処理装置および第2の情報処理方法においては、情報処理ユニットが装着され、装着された情報処理ユニットの、第1の情報処理部で画像情報の歪を除去する処理が実行され、第2の情報処理部で、第1の情報処理部により処理される画像情報とは異なる情報であって、後段の他の情報処理ユニットの第1の情報処理部による画像情報の処理に用いる画像情報の歪の特性情報が生成される。
本発明の第3の情報処理装置は、複数の情報処理ユニットを装着する装着手段と、装着手段により装着された情報処理ユニットに画像情報を供給する情報供給手段と、装着手段により装着された情報処理ユニットにより処理された画像情報を取得する情報取得手段とを備え、装着手段に装着された情報処理ユニットのそれぞれは、画像情報の階調を上げる処理を実行する第1の情報処理手段と、第1の情報処理手段により処理される画像情報とは異なる情報であって、後段の他の情報処理ユニットの第1の情報処理手段による画像情報の処理に用いる画像情報の時間または空間における画像情報の変化を示す情報を生成する第2の情報処理手段とを備えることを特徴とする。
本発明の第3の情報処理方法は、複数装着された情報処理ユニットの、第1の情報処理部で画像情報の階調を上げる処理を実行し、第2の情報処理部で、第1の情報処理部により処理される画像情報とは異なる情報であって、後段の他の情報処理ユニットの第1の情報処理部による画像情報の処理に用いる画像情報の時間または空間における画像情報の変化を示す情報を生成することを特徴とする。
本発明の第3の情報処理装置および第3の情報処理方法においては、複数装着された情報処理ユニットの、第1の情報処理部で画像情報の階調を上げる処理が実行され、第2の情報処理部で、第1の情報処理部により処理される画像情報とは異なる情報であって、後段の他の情報処理ユニットの第1の情報処理部による画像情報の処理に用いる画像情報の時間または空間における画像情報の変化を示す情報が生成される。
【0035】
【発明の実施の形態】
以下、図を参照して、本発明の実施の形態について説明する。
【0036】
図1は、本発明を適用した、テレビジョン受像機1の外観構成を示す図である。
【0037】
テレビジョン受像機1には、表示部11、ユーザによる操作入力を受ける操作入力部12、および、情報処理ユニット14−1乃至情報処理ユニット14−nが装着可能なスロット部13が設けられている。表示部11は、例えば、CRT(Cathode Ray Tube),LCD(Liquid Crystal Display:液晶ディスプレイ)、もしくは、プラズマディスプレイなどにより構成される。操作入力部12は、例えば、ボタン、ダイヤル、もしくは、リモートコマンダから送信される赤外線を受光する赤外線受光部などで構成される。
【0038】
スロット部13に装着可能な情報処理ユニット14−1乃至情報処理ユニット14−nは、テレビジョン受像機1に表示される画像に対応する画像信号、または、出力される音声に対応する音声信号などの処理を行うものであり、例えば、基板、もしくは、基板を内蔵した筐体などで構成され、その外形寸法は、スロット部13の形状に合致するように、予め定められている。スロット部13および情報処理ユニット14−1乃至情報処理ユニット14−nには、スロット部13に情報処理ユニット14−1乃至情報処理ユニット14−nのいずれかを装着した場合に、それぞれ電気的に接続されるためのコネクタもしくは接触端子などが設けられており、コネクタもしくは接触端子の信号線およびピンアサインは、共通化されており、図2を用いて後述するテレビジョン受像機1のシステムコントローラと、情報処理ユニット14−1乃至情報処理ユニット14−nが、電気的に接続可能なようになされている。
【0039】
以下、情報処理ユニット14−1乃至情報処理ユニット14−nを個々に区別する必要がない場合、単に情報処理ユニット14と総称する。
【0040】
また、ここでは、1つのスロット部13に、複数の情報処理ユニット14が装着可能であるものとして説明したが、1つ、または複数の情報処理ユニット14が装着可能なスロット部13が、複数設けられるようにしても良い。
【0041】
図2は、テレビジョン受像機1の内部構成を示すブロック図である。なお、図2においては、映像信号の処理に関連する部分だけを図示し、音声信号に関する部分については、記載を省略している。
【0042】
ユーザが、リモートコマンダ21を用いて、テレビジョン受像機1に対する操作入力を行う場合、操作入力部12の赤外線受光部22は、ユーザの操作入力を示す赤外線信号を受けて、システムコントローラ23に供給する。
【0043】
システムコントローラ23は、テレビジョン受像機1の内部処理を制御するものであり、コントロール・バス24を介して、テレビジョン受像機1の各部に制御信号を出力する。
【0044】
アンテナ25により受信された放送信号は、チューナ部26に供給される。チューナ部26は、コントロール・バス24を介して、システムコントローラ23から供給された制御信号を基に、放送信号を選局し、映像信号選択部27に供給する。映像信号選択部27には、再生部28は、例えば、ビデオカセットテープ、CD(Compact Disc)またはDVD(Digital Versatile Disk)などの記録メディアに記録された映像信号を再生する。映像信号選択部27には、再生部28により再生された映像信号や、デジタル入力端子29から入力される各種の映像信号などが供給される。映像信号選択部27は、コントロール・バス24を介して、システムコントローラ23から供給された制御信号に基づいて、ユーザが所望する映像信号を選択し、フォーマット変換部30に供給する。
【0045】
フォーマット変換部30は、供給された映像信号に対して、色信号やタイミングにかかわるフォーマットを変換し、スロット部13に装着されている情報処理ユニット14に供給する。
【0046】
スロット部13に装着されている情報処理ユニット14は、コントロールバス41およびビデオバス42で接続されており、システムコントローラ23から供給された制御信号や、情報処理ユニット14のそれぞれの間で授受される情報(例えば、それぞれの処理に必要な係数などのデータ)は、コントロールバス41を介して授受される。また、フォーマット変換部30から供給されたビデオ信号は、ビデオバス42を介して授受される。スロット部13に装着されている情報処理ユニット14は、供給されたビデオ信号に、所定の処理を施して、デバイスドライバ31に供給する。情報処理ユニット14の処理の詳細については、後述する。
【0047】
デバイスドライバ31は、システムコントローラ23から供給される制御信号に基づいて、表示部11を構成する表示デバイスを駆動して、表示部11にビデオ信号に対応する画像を表示する。
【0048】
図3は、情報処理ユニット14の基本的な構成を示すブロック図である。
【0049】
情報処理ユニット14は、第1の処理を行う画像処理部61と、第2の処理を行う協調処理部62で構成されている。具体的には、画像処理部61は、ビデオ信号の供給を受けて、画像処理を実行するものであり、協調処理部62は、画像処理部61の処理により生成された情報を用いて、後段に接続されている情報処理ユニット14の画像処理部61が実行する処理の機能を向上させるための処理を実行するものである。
【0050】
画像処理部61にビデオ信号を供給する入力端子66と、処理後のビデオ信号が出力される出力端子67は、図2のビデオバス42に接続され、協調処理部62に供給される制御信号、もしくは、係数などの各種情報が入力される入力端子63と、協調処理部62により生成される各種情報が出力される出力端子65は、図2のコントロールバス41に接続されている。
【0051】
画像処理部61のクラス分類処理部81は、入力端子66を介して供給されたビデオ信号の処理中のフレームのうち、画像処理において注目されている画素である注目画素を、クラス分類する。なお、複数のクラス分類処理部81を並列に接続するようにし、異なる特徴量を用いたクラス分類処理が、平行して行われるようにしてもよい。
【0052】
図4は、クラス分類処理部81の構成を示すブロック図である。
【0053】
クラスタップ取得部101は、供給されたビデオ信号の処理中のフレーム画像から、注目画素に対応する、所定の数のクラスタップを取得し、取得したクラスタップを、クラス分類部102および遅延部84に供給する。クラス分類部102は、供給されたクラスタップを基に、例えば、ノイズの定常性や非定常性の特徴量、動き特徴量などの特徴量を基に、注目画素を、所定の数のクラスのうちの、1つのクラスに分類し、分類されたクラスに対応するクラス番号(クラス分類)を、クラス縮退部82に供給する。
【0054】
ここで、クラス分類を行う方法としては、例えば、ADRC(Adaptive Dynamic Range Coding)等を採用することができる。ADRCを用いた場合、クラスタップを構成する画素が、ADRC処理され、その結果得られるADRCコードにしたがって、注目画素のクラスが決定される。
【0055】
なお、クラス分類部102には、例えば、クラスタップを構成する各画素の特徴量レベル分布のパターンを、そのままクラス分類として出力させることも可能である。しかしながら、この場合、クラスタップが、N個の画素サンプルで構成され、各画素サンプルに、Kビットが割り当てられているとすると、クラス分類部102が出力するクラス情報の場合の数は、画素サンプルのビット数Kに指数的に比例する膨大な数となってしまう。
【0056】
したがって、クラス分類部102においては、クラスタップの情報量を、上述したADRC処理、もしくは、ベクトル量子化等によって圧縮することにより、クラス分類を行うのが好ましい。
【0057】
クラス縮退部82は、クラス分類処理部81により求められた、1つ、もしくは複数のクラス番号と、前段に異なる処理を実行する情報処理ユニット14が接続されている場合は、その情報処理ユニットの協調処理部62の処理により得られる協調伝達情報との供給を受け、それらの情報を、クラス情報(クラスコード)にまとめ、係数メモリ83に供給する。
【0058】
図5は、クラス縮退部82の構成を示すブロック図である。
【0059】
図5の例においては、クラス分類処理部81から、2ビットの動きクラスのデータMV1とMB0、4ビットの空間クラスのデータSP3乃至SP0が供給され、縮退される場合について説明するが、供給されるクラス情報の種類や、協調伝達情報の種類、情報数などが異なる場合においても、基本的に同様の処理が実行される。
【0060】
2ビットの動きクラスMV1とMB0は、オア(OR)回路121に供給されている。オア回路121の出力は、加算器122の一方の入力のMSB(最上位ビット)端子(図中、下部の端子を最上位ビットとする)に入力されている。動きクラスのMV1は、加算器122の一方の入力のMSBから2ビット目に入力されている。加算器122の一方の入力の下位3ビットは接地され、0とされている。
【0061】
空間クラスのデータSP3乃至SP0のうち、MSBのSP3は、シフタ123のMSBから2番目の端子に、SP2はMSBから2番目の端子に、SP1はMSBから3番目の端子に、そして、SP0はLSBの端子に、それぞれ入力されている。シフタ123のMSBの端子は接地され、0とされている。
【0062】
シフタ123は、動きクラスに対応して動作し、動きクラスが0である場合、入力された下位4ビットのデータを、そのまま加算器122の他方の入力の下位4ビットに入力させる。これに対して、動きクラスが0ではない場合(1または2である場合)、シフタ123は、下位4ビットのデータをLSB側に1ビットずつシフトさせる。すなわち、入力されたデータを、実質的に1/2の値とする。そして、ビットシフトした後のデータを、加算器122の他方の入力の下位4ビットに供給する。加算器122の他方の入力のMSBは、接地され、常に0とされている。
【0063】
加算器122は、一方の入力から供給された5ビットのデータと、他方の入力から供給された5ビットのデータとを加算し、加算結果をクラス情報として、係数メモリ83および適応予測処理部85に出力する。
【0064】
係数メモリ83は、各クラス情報に対応するアドレスに、そのクラス情報に対応するクラスのタップ係数を記憶しており、クラス縮退部82から供給されるクラス情報に対応するアドレスに記憶されているタップ係数を、適応予測処理部85に供給する。
【0065】
遅延部84は、クラスタップ取得部101により取得されたクラスタップの供給を受け、クラス分類部102、クラス縮退部82、および係数メモリ83の処理速度に対応する時間だけ、クラスタップの適応予測処理部85への供給を遅延させる。
【0066】
適応予測処理部85は、遅延部84から供給されたクラスタップと、係数メモリ83から供給されたタップ係数とを基に、例えば、線形予測演算などにより、注目画素に対応する適応予測値を求めて、出力端子67より出力する。
【0067】
ここでは、画像処理部61が実行する処理として、クラス分類適応処理を用いた画像処理を例に挙げて説明しているが、画像処理部61は、クラス分類適応予測以外の方法を用いて、画像処理を行うようにしてもよいことは言うまでもない。
【0068】
遅延部64は、対応する情報処理ユニット14が、異なる情報処理ユニット14の後段にある場合、前段の情報処理ユニット14の協調処理部62により生成された協調伝達情報を、入力端子63を介して入力され、所定の時間遅延し、協調伝達情報変換部71に供給する。協調伝達情報変換部71は、対応する情報処理ユニット14が、異なる情報処理ユニット14の後段にある場合、遅延部64から、前段の情報処理ユニット14において生成された協調伝達情報の供給を受けるとともに、クラス分類処理部81の処理により生成されるクラス分類結果の供給を受け、後段の情報処理ユニット14の画像処理部61の処理において用いられるのに好適な付加情報である協調伝達情報への変換処理を行い、遅延部72に出力する。
【0069】
なお、対応する情報処理ユニット14が、画像処理の最も前段の処理を実行する場合、協調伝達情報変換部71は、クラス分類処理部81の処理により生成されるクラス分類結果のみを用いて、後段の情報処理ユニット14の画像処理部61の処理において用いられるのに好適な付加情報である協調伝達情報への変換処理を行い、協調伝達情報を生成する。すなわち、対応する情報処理ユニット14が、画像処理の最も前段の処理を実行する場合、入力端子63および遅延部64は省略されるようにしても良い。
【0070】
遅延部72は、適応予測処理部85による適応予測情報の出力タイミングにあわせて、供給された協調伝達情報を一定時間遅延し、出力端子65から出力させる。
【0071】
なお、対応する情報処理ユニット14の後段に、異なる情報処理ユニットが接続されない場合、すなわち、対応する情報処理ユニット14が、情報処理の最も後段の処理を実行する場合、協調処理部62は、処理を実行しないようにしても良いし、もしくは、協調処理部62を省略するようにしても良い。
【0072】
次に、図6のフローチャートを参照して、情報処理ユニット14が実行する画像処理について説明する。
【0073】
画像処理部61のクラス分類処理部81は、ステップS1において、ビデオバス42を介して供給される画像信号を取得し、ステップS2において、供給された画像信号の注目画素に対して、クラス分類を実行する。
【0074】
具体的には、例えば、情報処理ユニット14が入力SD信号(525i信号)を、HD信号(1050i)に変換する、解像度創造処理を実行する場合、クラス分類部81のクラスタップ取得部101は、予測に使用する注目画素近辺の所定数のSD画素、すなわち、予測タップと、作成するHD画素の近傍のSD画素のレベル分布のパターンに対応するクラス分類に使用するSD画素、すなわち、空間クラスタップと、作成するHD画素の近傍のSD画素に基づいて動きに対応するクラス分類に使用するSD画素、すなわち、動きクラスタップを抽出する。なお、空間クラスを複数フィールドに属するSD画素を使用して決定する場合、空間クラスにも、動き情報が含まれる。予測タップは、遅延部84に供給され、所定の時間だけ遅延された後、適応予測処理部85に供給される。
【0075】
クラス分類部102は、空間クラスタップを用いて、空間クラスを検出し、動きクラスタップを用いて、動きクラスを検出する。なお、クラスタップ取得部101およびクラス分類部102は、取得するクラスタップの種類、および、検出するクラスの種類に応じて、それぞれ個別に、複数設けるようにしても良いことは言うまでもない。
【0076】
ステップS3において、協調処理部62の協調伝達情報変換部71は、後段に情報処理ユニット14が存在するか否かを判断する。ステップS3において、後段に情報処理ユニット14が存在しないと判断された場合、協調伝達情報変換部71は、協調伝達情報の生成を行わないので、処理は、ステップS5に進む。
【0077】
ステップS3において、後段に情報処理ユニット14が存在すると判断された場合、ステップS4において、協調伝達情報変換部71は、ステップS2におけるクラス分類結果、および、前段に他の情報処理ユニット14が存在していた場合、その情報処理ユニット14から供給された協調伝達情報を基に、協調伝達情報を生成し、遅延部72に供給する。遅延部72は、所定の期間だけ、協調伝達情報を遅延させて、出力する。
【0078】
なお、後段に情報処理ユニット14が存在しない情報処理ユニット14において、協調処理部62が省略されている場合、ステップS3およびステップS4はスキップされる。
【0079】
ステップS3において、後段に情報処理ユニット14が存在しないと判断された場合、または、ステップS4の処理の終了後、ステップS5において、クラス縮退部82は、前段に情報処理ユニット14が存在するか否かを判断する。
【0080】
ステップS5において、前段に情報処理ユニット14が存在すると判断された場合、クラス縮退部82は、ステップS6において、前段の情報処理ユニットから供給された協調伝達情報を取得し、取得された協調伝達情報およびステップS2におけるクラス分類結果を基に、クラス縮退を行う。
【0081】
ステップS5において、前段に情報処理ユニット14が存在しないと判断された場合、ステップS8において、クラス縮退部82は、ステップS2におけるクラス分類結果を基に、クラス縮退を行う。
【0082】
ステップS9において、係数メモリ83および適応予測処理部85の処理により、適応予測が実行され、予測結果が出力されて処理が終了される。
【0083】
具体的には、クラス縮退部82の処理によって得られたクラス情報が係数メモリ83に対して、アドレスとして供給され、係数メモリ83からクラス情報に対応する係数データが読出され、適応予測処理部85に供給される。また、遅延部84より、予測タップが適応予測処理部85に供給される。適応予測処理部85は、予測タップ(525i信号の画素)と係数データとの線形推定式を用いて、SDデータに対応するHDデータ(1050i 信号のデータ)を算出する。
【0084】
このような処理が、複数の情報処理ユニット14において連続的に実行されるので、例えば、複数の情報処理ユニット14のうちの一部が交換されて、その機能が向上された場合、例えば、交換された情報処理ユニット14−2が実行する処理の性能が向上するのみでなく、交換された情報処理ユニット−2において生成された協調伝達情報が用いられることにより、その後段の情報処理ユニット14−3が実行する処理も向上する。
【0085】
次に、協調伝達情報と、後段の情報処理ユニット14の画像処理部61が実行する処理との関係の具体例について説明する。
【0086】
図7は、スロット部13に情報処理ユニット14−1乃至情報処理ユニット14−3が装着された場合の、情報処理ユニット14−1乃至情報処理ユニット14−3の具体的な構成と、それぞれのユニットの接続を示すブロック図である。なお、図7においては、コントロールバス41およびビデオバス42を省略し、画像信号および画像信号が、それぞれのユニットで直接入出力されるように記載されているが、画像信号および画像信号は、それぞれ、コントロールバス41およびビデオバス42を介して授受されていることは言うまでもない。
【0087】
スロット部13に装着されている情報処理ユニット14−1乃至情報処理ユニット14−3は、それぞれ、画像処理部61−1乃至画像処理部61−3において、それだけで独立した機能を果たすものである。まず、情報処理ユニット14−1乃至情報処理ユニット14−3における、画像処理部61−1乃至画像処理部61−3の処理について説明する。
【0088】
情報処理ユニット14−1は、画像処理部61−1において、クラス分類適応処理によって、供給された画像信号から、歪を除去する処理を実行するものであり、通常のTV信号に含まれる弱電界ノイズ除去はもちろん、適応処理の係数を変えたり、MPEGのサイド情報を用いることで、MPEGデジタル放送のブロック歪やモスキート歪などの歪を除去することができるものである。
【0089】
具体的には、サイド情報クラス分類部81−1aは、MPEGのサイド情報を基に、クラス分類を実行する。非定常特徴量クラス分類部81−1bは、ノイズの非定常特徴量を基に、クラス分類を実行する。定常特徴量クラス分類部81−1cは、ノイズの定常特徴量を基に、クラス分類を実行する。動き評価クラス分類部81−1dは、動き特徴量抽を基に、クラス分類を実行する。そして、クラス縮退部82−1は、サイド情報クラス分類部81−1a乃至動き評価クラス分類部81−1dにより検出されたクラス分類のうち、除去する歪の種類に対応したクラス分類を縮退して、クラス情報にまとめ、係数メモリ83−1に供給する。係数メモリ83−1は、歪除去のための適応予測に必要な係数を保存しており、このうち、供給されたクラス情報に対応する係数を適応予測処理部85−1に供給する。遅延部84−1は、予測タップの供給を受け、所定の時間だけ遅延し、適応予測処理部85−1に供給する。適応予測処理部85−1は、クラスに応じて適応予測処理を行い、ノイズ除去された画像信号を出力する。
【0090】
情報処理ユニット14−2は、画像処理部61−2において、クラス分類適応処理によって、画像信号の時空間の解像度を創造する処理を行うものであり、時間方向(フレーム数)、空間方向(画素数、ライン数)の密度の変換を行うとともに、もともと持っていない帯域の情報を創り出すことで、例えば、標準テレビジョン画像からハイビジョン画像へ変換したり、24コマの映画ソースから60コマのテレビジョン放送信号フォーマットへ変換するなどの処理のように、より高精細な画像を創り出すことができるものである。
【0091】
時空間クラス分類部81−2は、空間クラスタップおよび動きクラスタップを抽出し、時間方向(フレーム数)、空間方向(画素数、ライン数)の動きの特徴量を基に、クラス分類を実行する。クラス縮退部82−2は、時空間クラス分類部81−2により検出されたクラス分類と、情報処理ユニット14−1の協調処理部62−1から供給された協調伝達情報とを縮退して、クラス情報にまとめ、係数メモリ83−2に供給する。係数メモリ83−2は、解像度創造のための適応予測に必要な係数を保存しており、このうち、供給されたクラス情報に対応する係数を適応予測処理部85−2に供給する。遅延部84−2は、クラスタップの供給を受け、所定の時間だけ遅延し、適応予測処理部85−2に供給する。適応予測処理部85−2は、クラスに応じて適応予測処理を行い、解像度創造された画像信号を出力する。
【0092】
情報処理ユニット14−3は、画像処理部61−3において、階調に応じたクラス分類適応処理によって、供給された画像信号の階調特性を、人の目に対してリニアな特性をもたらす階調特性に変換して、階調を創造する処理を行うものであり、例えば、表示のデバイスがCRTであるか、プラズマであるか、もしくは、LCDであるかによって、主にガンマ特性の違いにより、表示に適した階調特性が異なるが、画像処理部61−3は、いずれの場合おいても、最適な階調変化を創り出すことができるようにするものであり、この処理により、より自然な映像が、表示部11に表示されるようになる。
【0093】
階調クラス分類部81−3は、階調クラスタップを抽出し、クラス分類を実行する。クラス縮退部82−3は、階調クラス分類部81−3により検出されたクラス分類と、情報処理ユニット14−2の協調処理部62−2から供給された協調伝達情報とを縮退して、クラス情報にまとめ、係数メモリ83−3に供給する。係数メモリ83−3は、階調創造のための適応予測に必要な係数を保存しており、このうち、供給されたクラス情報に対応する係数を適応予測処理部85−3に供給する。遅延部84−3は、クラスタップの供給を受け、所定の時間だけ遅延し、適応予測処理部85−3に供給する。適応予測処理部85−3は、クラスに応じて適応予測処理を行い、解像度創造された画像信号を出力する。
【0094】
ここで、画像処理部61−1においては、通常のTV信号に含まれる弱電界ノイズ、または、MPEGデジタル放送のブロック歪もしくはモスキート歪などのうち、いかなる歪を除去することができるようにするかに基づいて、回路構成を決めるようにしても良いし、画像処理部61−2においては、いかなる入力信号から、どのような出力信号を創造することができるかに基づいて、回路構成を決めるようにしても良いし、画像処理部63−3においては、どのような階調特性を用いて階調度創造を行うかに基づいて、回路構成を決めるようにしても良い。また、これらの画像処理部61を有する情報処理ユニット14においては、例えば、特開2000−41223号公報に記載されている技術を用いることにより、ハードウェアの規模を増加させることなく、複数の信号処理や画像変換処理を実行することができるようにしてもよい。
【0095】
具体的には、例えば、入力された525i信号を、1050i信号、または、525p信号に変換させる解像度創造処理を行うために必要なハードウェアの大部分は、共通して利用することができるので、画像処理部61−2においては、入力された525i信号を、1050i信号に変換させる解像度創造処理、および、525p信号に変換させる解像度創造処理をいずれも実行することができるようにし、ユーザの操作に基づいて、もしくは、入力画像信号の絵柄の検出結果に応じて自動的に、変換方法選択信号を発生させて、出力される信号を、1050i信号、または、525p信号のうちのいずれかから選択することができるようにしてもよい。
【0096】
上述したように、情報処理ユニット14−1乃至情報処理ユニット14−3は、それぞれ、画像処理部61−1乃至61−3において、それだけで独立した機能を果たすものであるが、更に、協調処理部62−1乃至62−3をそれぞれ有する。協調処理部62−1乃至62−3は、画像処理部61−1乃至61−3において抽出された特長量の供給を受け、これらの特徴量を、後段の情報処理ユニット14の画像処理部61において使用される協調伝達情報を生成して出力する。
【0097】
協調処理部62−1の協調伝達情報変換部71−1は、画像処理部61のサイド情報クラス分類部81−1a乃至動き評価クラス分類部81−1dから、抽出した特徴量の供給を受け、歪の特性を表現する協調伝達情報に変換して、遅延部72−1に供給する。遅延部72−1は、供給された協調伝達情報を、所定の時間だけ遅延し、情報処理ユニット14−2の遅延部64−2に供給する。
【0098】
情報処理ユニット14−2の遅延部64−2は、歪の特性を表現する協調伝達情報の供給を受け、所定の時間だけ遅延して、協調処理部62−2の協調伝達情報変換部71−2および画像処理部61−2のクラス縮退部82−2に供給する。
【0099】
ここで、画像処理部61−2において、解像度を創り出す際に、前段の画像処理部61−1において歪が除去された画像信号を用いるか否かによって、解像度創造の性能が大幅に異なる場合がある。例えば、モスキート歪が映像のある場所にあって、画像処理部61−1において、そのモスキート歪が除去されていた場合について説明する。
【0100】
モスキート歪除去後の画像は、歪成分が抑圧されているが、歪が除去されたことにより、歪除去後の画像は、もともとの画像信号にあったディテールの情報であるか、歪が抑圧されて少し残された成分であるかを区別しにくくなる場合がある。これに対して、画像処理部61−1における歪の特性情報を、画像の位置に対応して画像処理部61−2に伝達させるようにすることにより、画像処理部61−1における解像度の創造を、生成される画像信号に、どの程度効かすべきであるかの判断を正しく行わせるようにすることができる。画像処理部61−2は、例えば、画像処理部61−1における歪の特性情報を参照して、歪が発生していた部分に対しては、解像度を抑える方向に作用させ、歪が発生していない部分のディテールに対しては、解像度を向上させる方向に作用させることで、画像処理の性能を大幅に改善させることができる。
【0101】
協調処理部62−2の協調伝達情報変換部71−2は、情報処理ユニット14−1の協調処理部62−1から供給された協調伝達情報と、時空間クラス分類部81−2から供給された時空間のクラス情報とを、後段の画像処理部61−3における処理において用いられて好適な、時空間変化情報を表現する協調伝達情報に変換して、遅延部72−2に供給する。遅延部72−2は、供給された協調伝達情報を、所定の時間だけ遅延し、情報処理ユニット14−3の遅延部64−3に供給する。
【0102】
情報処理ユニット14−3の遅延部64−3は、時空間変化情報を表現する協調伝達情報の供給を受け、所定の時間だけ遅延して、協調処理部62−3の協調伝達情報変換部71−3および画像処理部61−3のクラス縮退部82−3に供給する。
【0103】
階調特性は、主にガンマ特性の違いにより異なるものであると上述したが、これはあくまでも静特性であり、動画像における場合の階調特性は、注目点の周囲の画素の空間的な変化や時間的な変化によって、微妙に変化する動特性を持っている。具体的には、例えば、直前のフレームとの輝度レベルの変化が右上がりか、左下がりかによって、同じ輝度であっても見え方が異なる場合が発生する。したがって、前段の処理で作られた時空間の変化情報は、階調創造処理において非常に重要である。画像処理部61−3は、例えば、画像処理部61−2における時空間の変化の状態に応じて、階調特性の変化を与えるようにすることにより、より決め細やかな階調創造処理の制御を行うことができ、画像処理の性能を大幅に改善させることができる。
【0104】
協調処理部62−3の協調伝達情報変換部71−3は、更に後段に情報処理ユニット14−4が接続されている場合、供給された協調伝達情報と、階調クラス分類部81−3から供給された、時空間のクラス情報とを、後段の画像処理部61−4における処理において用いられて好適な情報を表現する協調伝達情報に変換して、遅延部72−3に供給する。遅延部72−3は、供給された協調伝達情報を、所定の時間だけ遅延し、情報処理ユニット14−4の遅延部64−4に供給する。また、更に後段に情報処理ユニット14−4が接続されていない場合、協調処理部62−3を省略するようにしても良い。
【0105】
このように、異なる情報処理ユニット14間で協調して処理が実行されるので、例えば、情報処理ユニット14−1が交換されるなどしてひずみ除去の性能が向上した場合、そこで得られる歪の特性情報を用いて解像度創造処理を実行する情報処理ユニット14−2の性能も向上する。また、同様にして、情報処理ユニット14−2が交換されるなどして解像度創造の性能が向上した場合、そこで得られる時空間変化情報を用いて階調創造処理を実行する情報処理ユニット14−3の性能も向上する。
【0106】
以上説明した情報処理ユニット14は、処理が共通する部分を、同一のLSI(Large Scale Integration)により構成するなどすることにより、製造コストを削減することができる。
【0107】
具体的には、図8に示されるように、画像処理部61のうちクラス分類を実行する処理を行う部分を、アドオン処理を行う一方の部分として処理ブロック151とし、協調処理部62を、アドオン処理を行う他方の部分として処理ブロック152とし、画像処理部61のうち、クラス縮退および適応予測を行う部分を、メイン処理を行う処理ブロック151として、それぞれを同一のLSIで構成するようにすれば良い。
【0108】
すなわち、サイド情報クラス分類部81−1a乃至動き評価クラス分類部81−1d、時空間クラス分類部82、および、階調クラス分類部83は、クラス分類処理機能を有する同一のLSIにより構成可能(処理ブロック151−1乃至151−3)である。そして、協調伝達情報変換部71−1および遅延部72−1、協調伝達情報変換部71−2および遅延部72−2、並びに、協調伝達情報変換部71−3および遅延部72−3は、協調伝達情報を生成する機能を有する同一のLSIにより構成可能(処理ブロック152−1乃至152−3)である。また、クラス縮退部82−1、係数メモリ83−1、遅延部84−1、および、適応予測処理部85−1、クラス縮退部82−2、係数メモリ83−2、遅延部84−2、および、適応予測処理部85−2、並びに、クラス縮退部82−3、係数メモリ83−3、遅延部84−3、および、適応予測処理部85−3は、クラス縮退および適応予測の機能を有する同一のLSIにより構成可能(処理ブロック153−1乃至153−3)である。
【0109】
なお、これらの処理ブロック151乃至153は、その処理内容により、全く同一のLSIにより構成することができない場合が発生したとしても、それぞれ共通する部分を多く有するLSIによって構成することができる。
【0110】
また、それぞれのLSIは、例えば、国際公開番号WO96/07987号公報に記載されている技術を適用して、1つのLSIチップ上に構成される共通のハードウェアによって、複数の機能のデジタル信号処理が可能であるようにしても良い。
【0111】
具体的には、LSIに、複数の入力端子および出力端子、並びに、制御信号入力端子を設けるとともに、複数の回路群を形成する。回路群としては、例えば、演算回路、メモリ、積和演算回路、アダー、乗算器、レジスタなどがそれぞれ必要に応じて1つ、もしくは複数形成される。そして、供給される制御信号に基づいて、入力/出力あるいは相互間(回路群あるいは回路間の相互接続、および回路群の内部における回路間の相互接続の両者を意味する)の接続状態を切り換えるための切換器が、これらの回路群あるいは回路に対して設けられる。換言すると、LSI内のデジタル信号の流れと各回路群の機能とが、制御信号により切り替えられる切替え器の動作によって制御可能となるように構成される。
【0112】
処理ブロック151−1乃至151−3、処理ブロック152−1乃至152−3、または、処理ブロック153−1乃至153−3に、このような構成を有し、複数の機能のデジタル信号処理が可能であるLSIを用いるようにすることにより、情報処理ユニット14の構成を変更させることなく、機能変化に柔軟に対応させるようにすることが可能となる。
【0113】
また、処理ブロックごとにLSI化することにより、情報処理ユニット14ごと交換を行うのではなく、特定のLSIのみを交換することによって、より低コストでテレビジョン受像機1全体の機能の向上を図ることが可能になる。
【0114】
以上の説明においては、テレビジョン受像機1を例として説明したが、本発明は、複数の処理ユニット(もしくは処理ブロック)を用いて情報を処理する、いかなる情報処理機器においても適用可能であることは言うまでもない。
【0115】
【発明の効果】
このように、本発明によれば、供給された情報を処理することができる。特に、装着された複数の情報処理ユニットにおいて、協調して情報を処理することができる。
【図面の簡単な説明】
【図1】本発明を適用した、テレビジョン受像機の外観を示す図である。
【図2】図1のテレビジョン受像機の内部構造を示すブロック図である。
【図3】図1および図2の情報処理ユニットの構成を示すブロック図である。
【図4】図3のクラス分類処理部の構成を示すブロック図である。
【図5】図3のクラス縮退部の構成を示すブロック図である。
【図6】図3の情報処理ユニットが実行する処理を説明するフローチャートである。
【図7】図3の情報処理ユニットの具体的な構成について説明する図である。
【図8】図7の情報処理ユニットを、LSIを用いて構成することについて説明するための図である。
【符号の説明】
1 テレビジョン受像機, 11 表示部, 12 操作入力部, 13 スロット部, 14 情報処理ユニット, 23 システムコントローラ, 41コントロールバス, 42 ビデオバス, 61 画像処理部, 62 協調処理部, 71 協調伝達情報変換部, 72 遅延部, 81 クラス分類処理部, 82 クラス縮退部, 83 係数メモリ, 84 遅延部, 85 適応予測処理部, 151乃至153 処理ブロック[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an information processing apparatus and an information processing method.To the lawIn particular, an information processing apparatus and an information processing method suitable for use when a plurality of information processing units can be attached to one information processing apparatus.To the lawRelated.
[0002]
[Prior art]
In conventional information equipment, the function can be upgraded by replacing the internal control board, or a new function is added by adding an internal control board. It was made to be able to.
[0003]
Specifically, for example, in a personal computer or the like, the processing capacity of the personal computer is improved by replacing the main control board (so-called motherboard) with one having a high performance CPU (Central Processing Unit). By adding or replacing expansion cards such as video cards, graphic cards, and sound boards, it was possible to add new functions or upgrade functions to personal computers.
[0004]
[Problems to be solved by the invention]
However, in the conventional technology, the substrates to be replaced or added execute individual processes. That is, even if any one of the plurality of substrates is replaced, only the processing function corresponding to the replaced substrate is improved. For example, the process A is executed by the substrate A, the process B is executed by the substrate B based on the result of the process A, and further, the process C is executed by the substrate C based on the result of the process B. In this case, the process whose processing capability is improved by exchanging the substrate B is only the process B, and the processing capability of the process A and the process B is not affected at all.
[0005]
The present invention has been made in view of such a situation, and enables processing of a plurality of substrates to interact with each other. For example, when a plurality of information processing units are exchanged or a new information processing unit is provided. When the is mounted, it is possible to improve the processing capability of the processing executed by other information processing units.
[0006]
[Means for Solving the Problems]
Of the present inventionFirstAn information processing apparatus includes: a mounting unit that mounts a plurality of information processing units; and an information processing unit that is mounted by the mounting unit.Image informationProcessed by an information supply unit that supplies information and an information processing unit mounted by the mounting unitImage informationEach of the information processing units mounted on the mounting means,Remove image information distortionprocessingTheProcessed by the first information processing means and the first information processing meansImage informationInformation that is different fromOf other information processing unitsBy first information processing meansImage informationUsed for processingDistortion characteristic information of image informationAnd second information processing means for generatingRuIt is characterized by that.
[0019]
Of the present inventionFirstThe information processing method is performed by a first information processing unit of a plurality of information processing units mounted.Remove image information distortionprocessingTheAnd processed by the first information processing unit in the second information processing unit.Image informationInformation that is different fromOf other information processing unitsBy the first information processing unitImage informationUsed for processingDistortion characteristic information of image informationIs generated.
[0020]
Of the present inventionFirstInformation processing apparatus andFirstIn an information processing method, an information processing unit is mounted and the mounted information processing unitThe first information processing unit performs processing for removing distortion of the image information, and the second information processing unit is different from the image information processed by the first information processing unit, Distortion characteristic information of image information used for processing of image information by the first information processing unit of another information processing unitGenerated.
[0034]
A second information processing apparatus according to the present invention includes a mounting unit that mounts a plurality of information processing units, an information supply unit that supplies image information to the information processing unit that is mounted by the mounting unit, and information that is mounted by the mounting unit. Information acquisition means for acquiring image information processed by the processing unit, and each of the information processing units attached to the attachment means includes a first information processing means for executing a process for increasing the resolution of the image information; The image information is different from the image information processed by one information processing unit, and the image information in the time or space of the image information used for the processing of the image information by the first information processing unit of the other information processing unit in the subsequent stage And second information processing means for generating information indicating a change.
The second information processing method of the present invention executes a process of increasing the resolution of the image information in the first information processing unit of the plurality of information processing units mounted, and the second information processing unit performs the first information processing. The image information is different from the image information processed by the processing unit, and indicates a change in the image information in time or space of the image information used for processing the image information by the first information processing unit of the other information processing unit in the subsequent stage. It is characterized by generating information.
In the second information processing apparatus and the second information processing method of the present invention, the information processing unit is mounted, and the first information processing unit of the mounted information processing unit removes distortion of the image information. Processing of image information by the first information processing unit of another information processing unit in the subsequent stage, which is different from the image information processed by the first information processing unit in the second information processing unit The distortion characteristic information of the image information used for is generated.
A third information processing apparatus according to the present invention includes a mounting unit that mounts a plurality of information processing units, an information supply unit that supplies image information to the information processing unit that is mounted by the mounting unit, and information that is mounted by the mounting unit. An information acquisition unit that acquires image information processed by the processing unit, and each of the information processing units attached to the attachment unit includes a first information processing unit that executes a process of increasing the gradation of the image information; Image information in time or space of image information that is different from the image information processed by the first information processing means and is used for processing the image information by the first information processing means of another information processing unit in the subsequent stage And second information processing means for generating information indicating a change in the number of times.
According to a third information processing method of the present invention, the first information processing unit performs a process of increasing the gradation of image information in a plurality of information processing units mounted, and the second information processing unit Change in image information in time or space of image information that is different from the image information processed by the information processing unit and is used for processing the image information by the first information processing unit of the other information processing unit in the subsequent stage. The information to show is produced | generated.
In the third information processing apparatus and the third information processing method of the present invention, processing for increasing the gradation of the image information is executed by the first information processing unit of the plurality of information processing units mounted, The time of the image information that is different from the image information processed by the first information processing unit in the information processing unit and is used for the processing of the image information by the first information processing unit of the other information processing unit in the subsequent stage Alternatively, information indicating a change in image information in the space is generated.
[0035]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0036]
FIG. 1 is a diagram showing an external configuration of a television receiver 1 to which the present invention is applied.
[0037]
The television receiver 1 is provided with a
[0038]
The information processing units 14-1 to 14-n that can be mounted in the
[0039]
Hereinafter, when it is not necessary to distinguish the information processing units 14-1 to 14-n from each other, they are simply referred to as the
[0040]
In addition, here, it has been described that a plurality of
[0041]
FIG. 2 is a block diagram showing an internal configuration of the television receiver 1. In FIG. 2, only the portion related to the processing of the video signal is shown, and the portion related to the audio signal is omitted.
[0042]
When a user performs an operation input to the television receiver 1 using the remote commander 21, the infrared
[0043]
The
[0044]
The broadcast signal received by the
[0045]
The
[0046]
The
[0047]
The
[0048]
FIG. 3 is a block diagram showing a basic configuration of the
[0049]
The
[0050]
An
[0051]
The class
[0052]
FIG. 4 is a block diagram illustrating a configuration of the class
[0053]
The class
[0054]
Here, as a method of classifying, for example, ADRC (Adaptive Dynamic Range Coding) or the like can be employed. When ADRC is used, the pixels constituting the class tap are subjected to ADRC processing, and the class of the pixel of interest is determined according to the ADRC code obtained as a result.
[0055]
Note that the
[0056]
Therefore, the
[0057]
If the
[0058]
FIG. 5 is a block diagram illustrating a configuration of the
[0059]
In the example of FIG. 5, a case will be described in which 2-bit motion class data MV1 and MB0 and 4-bit space class data SP3 to SP0 are supplied from the class
[0060]
The 2-bit motion classes MV1 and MB0 are supplied to an OR
[0061]
Of the space class data SP3 to SP0, the MSB SP3 is the second terminal from the MSB of the
[0062]
The
[0063]
The
[0064]
The
[0065]
The
[0066]
Based on the class tap supplied from the
[0067]
Here, image processing using class classification adaptive processing has been described as an example of processing executed by the
[0068]
When the corresponding
[0069]
When the corresponding
[0070]
The
[0071]
When a different information processing unit is not connected to the subsequent stage of the corresponding
[0072]
Next, image processing executed by the
[0073]
The class
[0074]
Specifically, for example, when executing the resolution creation process in which the
[0075]
The
[0076]
In step S3, the cooperative transmission
[0077]
When it is determined in step S3 that the
[0078]
Note that, in the
[0079]
In step S3, when it is determined that the
[0080]
If it is determined in step S5 that the
[0081]
If it is determined in step S5 that the
[0082]
In step S9, adaptive prediction is executed by the processing of the
[0083]
Specifically, the class information obtained by the processing of the
[0084]
Since such processing is continuously executed in the plurality of
[0085]
Next, a specific example of the relationship between the cooperative transmission information and the processing executed by the
[0086]
FIG. 7 shows a specific configuration of the information processing unit 14-1 to the information processing unit 14-3 when the information processing unit 14-1 to the information processing unit 14-3 is mounted in the
[0087]
The information processing units 14-1 to 14-3 mounted in the
[0088]
The information processing unit 14-1 executes processing for removing distortion from the supplied image signal by the class classification adaptive processing in the image processing unit 61-1, and a weak electric field included in a normal TV signal In addition to noise removal, distortion such as block distortion and mosquito distortion of MPEG digital broadcasting can be removed by changing the coefficient of adaptive processing or using MPEG side information.
[0089]
Specifically, the side information class classification unit 81-1a executes class classification based on MPEG side information. The non-stationary feature quantity class classification unit 81-1b performs class classification based on the non-stationary feature quantity of noise. The steady feature class classification unit 81-1c executes class classification based on the steady feature of noise. The motion evaluation class classification unit 81-1d executes class classification based on the motion feature amount extraction. Then, the class reduction unit 82-1 reduces the class classification corresponding to the type of distortion to be removed among the class classifications detected by the side information class classification unit 81-1a to the motion evaluation class classification unit 81-1d. The class information is collected and supplied to the coefficient memory 83-1. The coefficient memory 83-1 stores coefficients necessary for adaptive prediction for distortion removal, and supplies coefficients corresponding to the supplied class information to the adaptive prediction processing unit 85-1. The delay unit 84-1 receives the prediction tap, delays it for a predetermined time, and supplies it to the adaptive prediction processing unit 85-1. The adaptive prediction processing unit 85-1 performs adaptive prediction processing according to the class and outputs an image signal from which noise has been removed.
[0090]
In the image processing unit 61-2, the information processing unit 14-2 performs processing for creating a temporal and spatial resolution of an image signal by class classification adaptive processing. The information processing unit 14-2 performs temporal processing (number of frames), spatial processing (pixels). The number of lines and the number of lines) are converted, and information on the band that is not originally possessed is created, for example, conversion from a standard television image to a high-definition image, or from a 24-frame movie source to a 60-frame television. Like processing such as conversion to a broadcast signal format, a higher definition image can be created.
[0091]
The spatio-temporal class classification unit 81-2 extracts the space class tap and the motion class tap, and executes class classification based on the motion feature quantity in the time direction (number of frames) and space direction (number of pixels, number of lines). To do. The class degeneration unit 82-2 degenerates the class classification detected by the spatio-temporal class classification unit 81-2 and the cooperative transmission information supplied from the cooperative processing unit 62-1 of the information processing unit 14-1, The class information is collected and supplied to the coefficient memory 83-2. The coefficient memory 83-2 stores coefficients necessary for adaptive prediction for resolution creation, and supplies coefficients corresponding to the supplied class information to the adaptive prediction processing unit 85-2. The delay unit 84-2 receives the supply of the class tap, delays it for a predetermined time, and supplies it to the adaptive prediction processing unit 85-2. The adaptive prediction processing unit 85-2 performs adaptive prediction processing according to the class, and outputs a resolution-created image signal.
[0092]
The information processing unit 14-3 causes the gradation characteristics of the supplied image signal to be linear with respect to the human eye through the class classification adaptation process according to the gradation in the image processing unit 61-3. This is a process for creating gradation by converting to a tonal characteristic. For example, depending on whether the display device is a CRT, a plasma, or an LCD, mainly due to a difference in a gamma characteristic. Although the gradation characteristics suitable for display are different, the image processing unit 61-3 makes it possible to create an optimum gradation change in any case. A correct image is displayed on the
[0093]
The gradation class classification unit 81-3 extracts gradation class taps and executes class classification. The class degeneration unit 82-3 degenerates the class classification detected by the gradation class classification unit 81-3 and the cooperative transmission information supplied from the cooperative processing unit 62-2 of the information processing unit 14-2, The class information is collected and supplied to the coefficient memory 83-3. The coefficient memory 83-3 stores coefficients necessary for adaptive prediction for gradation creation, and supplies coefficients corresponding to the supplied class information to the adaptive prediction processing unit 85-3. The delay unit 84-3 receives the supply of the class tap, delays it for a predetermined time, and supplies it to the adaptive prediction processing unit 85-3. The adaptive prediction processing unit 85-3 performs adaptive prediction processing according to the class, and outputs an image signal with a resolution created.
[0094]
Here, in the image processing unit 61-1, what kind of distortion can be removed from weak electric field noise included in a normal TV signal or block distortion or mosquito distortion of MPEG digital broadcasting? The circuit configuration may be determined based on the above, and the image processing unit 61-2 may determine the circuit configuration based on what input signal can be created from what input signal. Alternatively, in the image processing unit 63-3, the circuit configuration may be determined based on what gradation characteristics are used to create the gradation degree. Further, in the
[0095]
Specifically, for example, most of hardware necessary for performing resolution creation processing for converting an input 525i signal into a 1050i signal or a 525p signal can be used in common. The image processing unit 61-2 can execute both a resolution creation process for converting an input 525i signal into a 1050i signal and a resolution creation process for conversion into a 525p signal. Based on the detection result of the input image signal or automatically, a conversion method selection signal is generated and an output signal is selected from either a 1050i signal or a 525p signal. You may be able to do that.
[0096]
As described above, the information processing units 14-1 to 14-3 perform independent functions only in the image processing units 61-1 to 61-3, respectively. Each of the units 62-1 to 62-3 is included. The cooperative processing units 62-1 to 62-3 are supplied with the feature amounts extracted by the image processing units 61-1 to 61-3, and use these feature amounts as the
[0097]
The cooperative transmission information conversion unit 71-1 of the cooperative processing unit 62-1 receives supply of the extracted feature amount from the side information class classification unit 81-1a to the motion evaluation class classification unit 81-1d of the
[0098]
The delay unit 64-2 of the information processing unit 14-2 receives the supply of the cooperative transmission information expressing the distortion characteristics, delays by a predetermined time, and cooperates with the cooperative transmission information conversion unit 71- of the cooperative processing unit 62-2. 2 and the class reduction unit 82-2 of the image processing unit 61-2.
[0099]
Here, when the image processing unit 61-2 creates a resolution, the resolution creation performance may vary greatly depending on whether or not the image signal from which distortion has been removed in the preceding image processing unit 61-1 is used. is there. For example, a case will be described in which the mosquito distortion is in a place where an image is present and the mosquito distortion is removed in the image processing unit 61-1.
[0100]
In the image after mosquito distortion removal, the distortion component is suppressed, but because the distortion is removed, the image after distortion is the detail information that was originally in the image signal or the distortion is suppressed. In some cases, it may be difficult to distinguish whether the component is a little left behind. On the other hand, the creation of resolution in the image processing unit 61-1 is performed by transmitting the distortion characteristic information in the image processing unit 61-1 to the image processing unit 61-2 corresponding to the position of the image. Can be made to correctly determine how much effect should be applied to the generated image signal. For example, the image processing unit 61-2 refers to the distortion characteristic information in the image processing unit 61-1, and acts on the portion where the distortion has occurred in a direction to suppress the resolution, thereby generating the distortion. By applying the effect to the detail to improve the resolution, the image processing performance can be greatly improved.
[0101]
The cooperative transmission information conversion unit 71-2 of the cooperative processing unit 62-2 is supplied from the cooperative transmission information supplied from the cooperative processing unit 62-1 of the information processing unit 14-1 and the spatio-temporal class classification unit 81-2. The spatiotemporal class information is converted into cooperative transmission information that expresses spatiotemporal change information suitable for use in the processing in the subsequent image processing unit 61-3, and is supplied to the delay unit 72-2. The delay unit 72-2 delays the supplied cooperative transmission information by a predetermined time and supplies the information to the delay unit 64-3 of the information processing unit 14-3.
[0102]
The delay unit 64-3 of the information processing unit 14-3 receives the supply of the cooperative transmission information that expresses the spatio-temporal change information, delays by a predetermined time, and the cooperative transmission
[0103]
As described above, the gradation characteristics are mainly different depending on the difference in the gamma characteristics. However, this is only a static characteristic, and the gradation characteristics in the case of a moving image are spatial changes of pixels around the attention point. It has dynamic characteristics that change slightly with time and changes. Specifically, for example, the appearance may be different even if the luminance is the same depending on whether the change in luminance level with the immediately preceding frame is rising to the right or falling to the left. Therefore, the spatio-temporal change information created in the previous process is very important in the gradation creation process. For example, the image processing unit 61-3 gives more detailed control of gradation creation processing by giving the change of the gradation characteristics according to the state of change of the space-time in the image processing unit 61-2. Image processing performance can be greatly improved.
[0104]
When the information processing unit 14-4 is further connected in the subsequent stage, the cooperative transmission information conversion unit 71-3 of the cooperative processing unit 62-3 receives the supplied cooperative transmission information and the gradation class classification unit 81-3. The supplied spatio-temporal class information is converted into cooperative transmission information that is used in the processing in the subsequent image processing unit 61-4 to express suitable information, and is supplied to the delay unit 72-3. The delay unit 72-3 delays the supplied cooperative transmission information by a predetermined time and supplies the information to the delay unit 64-4 of the information processing unit 14-4. Further, when the information processing unit 14-4 is not connected to the subsequent stage, the cooperation processing unit 62-3 may be omitted.
[0105]
As described above, since the processing is executed in cooperation between the different
[0106]
The
[0107]
Specifically, as shown in FIG. 8, a part of the
[0108]
That is, the side information class classification unit 81-1a to the motion evaluation class classification unit 81-1d, the spatio-temporal
[0109]
Note that these processing blocks 151 to 153 can be configured by LSIs having many common parts, even if it may not be possible to configure the processing blocks 151 to 153 by the same LSI.
[0110]
In addition, each LSI applies, for example, a technique described in International Publication No. WO96 / 07987 to digital signal processing of a plurality of functions by common hardware configured on one LSI chip. May be possible.
[0111]
Specifically, the LSI is provided with a plurality of input terminals and output terminals, and a control signal input terminal, and a plurality of circuit groups are formed. As the circuit group, for example, one or a plurality of arithmetic circuits, memories, product-sum arithmetic circuits, adders, multipliers, registers, and the like are formed as necessary. Based on the supplied control signal, the input / output or mutual connection state (which means both circuit groups or interconnections between circuits, and interconnections between circuits within the circuit group) is switched. Are provided for these circuit groups or circuits. In other words, it is configured such that the flow of digital signals in the LSI and the function of each circuit group can be controlled by the operation of a switcher that is switched by a control signal.
[0112]
The processing blocks 151-1 to 151-3, the processing blocks 152-1 to 152-3, or the processing blocks 153-1 to 153-3 have such a configuration, and digital signal processing of a plurality of functions is possible. By using such an LSI, it is possible to flexibly cope with a function change without changing the configuration of the
[0113]
In addition, by replacing each
[0114]
In the above description, the television receiver 1 has been described as an example. However, the present invention can be applied to any information processing device that processes information using a plurality of processing units (or processing blocks). Needless to say.
[0115]
【The invention's effect】
Thus, according to the present invention, the supplied information can be processed. In particular, information can be processed in a coordinated manner in a plurality of installed information processing units.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating an appearance of a television receiver to which the present invention is applied.
FIG. 2 is a block diagram showing an internal structure of the television receiver of FIG.
3 is a block diagram showing a configuration of the information processing unit of FIGS. 1 and 2. FIG.
4 is a block diagram illustrating a configuration of a class classification processing unit in FIG. 3;
5 is a block diagram showing a configuration of a class degeneration unit in FIG. 3. FIG.
6 is a flowchart illustrating processing executed by the information processing unit of FIG.
7 is a diagram illustrating a specific configuration of the information processing unit in FIG. 3;
FIG. 8 is a diagram for explaining that the information processing unit of FIG. 7 is configured using an LSI.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Television receiver, 11 Display part, 12 Operation input part, 13 Slot part, 14 Information processing unit, 23 System controller, 41 Control bus, 42 Video bus, 61 Image processing part, 62 Cooperation processing part, 71 Cooperation transmission information Conversion unit, 72 delay unit, 81 class classification processing unit, 82 class degeneration unit, 83 coefficient memory, 84 delay unit, 85 adaptive prediction processing unit, 151 to 153 processing blocks
Claims (7)
複数の前記情報処理ユニットを装着する装着手段と、
前記装着手段により装着された前記情報処理ユニットに前記画像情報を供給する情報供給手段と、
前記装着手段により装着された前記情報処理ユニットにより処理された前記画像情報を取得する情報取得手段と
を備え、
前記装着手段に装着された前記情報処理ユニットのそれぞれは、
前記画像情報の歪を除去する処理をする第1の情報処理手段と、
前記第1の情報処理手段により処理される前記画像情報とは異なる情報であって、後段の他の前記情報処理ユニットの前記第1の情報処理手段による前記画像情報の処理に用いる前記画像情報の歪の特性情報を生成する第2の情報処理手段と
を備える
ことを特徴とする情報処理装置。In an information processing apparatus that is equipped with a plurality of information processing units and processes image information ,
Mounting means for mounting a plurality of the information processing units;
Information supply means for supplying the image information to the information processing unit mounted by the mounting means;
Information acquisition means for acquiring the image information processed by the information processing unit mounted by the mounting means;
Each of the information processing units mounted on the mounting means is
A first information processing means for processing for removing the distortion of the image information,
A information different from the image information processed by said first processing means, the image information by the first information processing means of the other of said information processing unit in the subsequent stage Ru used for processing of the image information Ru and a second information processing means for generating characteristic information of strain
An information processing apparatus characterized by that.
複数装着された前記情報処理ユニットは、
第1の情報処理部で前記画像情報の歪を除去する処理をし、
第2の情報処理部で、前記第1の情報処理部により処理される前記画像情報とは異なる情報であって、後段の他の前記情報処理ユニットの前記第1の情報処理部による前記画像情報の処理に用いる前記画像情報の歪の特性情報を生成する
ことを特徴とする情報処理方法。In an information processing method of an information processing apparatus that is equipped with a plurality of information processing units and processes image information ,
A plurality of the information processing units mounted are
A process of removing distortion of the image information in a first information processing unit;
The second information processing unit is information different from the image information processed by the first information processing unit, and the image information by the first information processing unit of the other information processing unit in the subsequent stage. the information processing method characterized by generating a distortion characteristic information of the image information Ru used for the processing.
複数の前記情報処理ユニットを装着する装着手段と、 Mounting means for mounting a plurality of the information processing units;
前記装着手段により装着された前記情報処理ユニットに前記画像情報を供給する情報供給手段と、 Information supply means for supplying the image information to the information processing unit mounted by the mounting means;
前記装着手段により装着された前記情報処理ユニットにより処理された前記画像情報を取得する情報取得手段と Information acquisition means for acquiring the image information processed by the information processing unit mounted by the mounting means;
を備え、 With
前記装着手段に装着された前記情報処理ユニットのそれぞれは、 Each of the information processing units mounted on the mounting means is
前記画像情報の解像度を上げる処理を実行する第1の情報処理手段と、 First information processing means for executing processing for increasing the resolution of the image information;
前記第1の情報処理手段により処理される前記画像情報とは異なる情報であって、後段の他の前記情報処理ユニットの前記第1の情報処理手段による前記画像情報の処理に用いる前記画像情報の時間または空間における画像情報の変化を示す情報を生成する第2の情報処理手段と The image information is different from the image information processed by the first information processing means, and is used for processing the image information by the first information processing means of the other information processing unit in the subsequent stage. Second information processing means for generating information indicating a change in image information in time or space;
を備える With
ことを特徴とする情報処理装置。 An information processing apparatus characterized by that.
ことを特徴とする請求項3に記載の情報処理装置。 The information processing apparatus according to claim 3.
複数装着された前記情報処理ユニットは、 A plurality of the information processing units mounted are
第1の情報処理部で前記画像情報の解像度を上げる処理を実行し、 Executing a process of increasing the resolution of the image information in the first information processing unit;
第2の情報処理部で、前記第1の情報処理部により処理される前記画像情報とは異なる情報であって、後段の他の前記情報処理ユニットの前記第1の情報処理部による前記画像情報の処理に用いる前記画像情報の時間または空間における画像情報の変化を示す情報を生成する The second information processing unit is information different from the image information processed by the first information processing unit, and the image information by the first information processing unit of the other information processing unit in the subsequent stage. Generating information indicating a change in image information in time or space of the image information used in the processing of
ことを特徴とする情報処理方法。 An information processing method characterized by the above.
複数の前記情報処理ユニットを装着する装着手段と、 Mounting means for mounting a plurality of the information processing units;
前記装着手段により装着された前記情報処理ユニットに前記画像情報を供給する情報供給手段と、 Information supply means for supplying the image information to the information processing unit mounted by the mounting means;
前記装着手段により装着された前記情報処理ユニットにより処理された前記画像情報を取得する情報取得手段と Information acquisition means for acquiring the image information processed by the information processing unit mounted by the mounting means;
を備え、 With
前記装着手段に装着された前記情報処理ユニットのそれぞれは、 Each of the information processing units mounted on the mounting means is
前記画像情報の階調を上げる処理を実行する第1の情報処理手段と、 First information processing means for executing processing for increasing the gradation of the image information;
前記第1の情報処理手段により処理される前記画像情報とは異なる情報であって、後段の他の前記情報処理ユニットの前記第1の情報処理手段による前記画像情報の処理に用いる前記画像情報の時間または空間における画像情報の変化を示す情報を生成する第2の情報処理手段と The image information is different from the image information processed by the first information processing means, and is used for processing the image information by the first information processing means of the other information processing unit in the subsequent stage. Second information processing means for generating information indicating a change in image information in time or space;
を備える With
ことを特徴とする情報処理装置。 An information processing apparatus characterized by that.
複数装着された前記情報処理ユニットは、 A plurality of the information processing units mounted are
第1の情報処理部で前記画像情報の階調を上げる処理を実行し、 Executing a process of increasing the gradation of the image information in the first information processing unit;
第2の情報処理部で、前記第1の情報処理部により処理される前記画像情報とは異なる情報であって、後段の他の前記情報処理ユニットの前記第1の情報処理部による前記画像情報の処理に用いる前記画像情報の時間または空間における画像情報の変化を示す情報を生成する The second information processing unit is information different from the image information processed by the first information processing unit, and the image information by the first information processing unit of the other information processing unit in the subsequent stage. Generating information indicating a change in image information in time or space of the image information used in the processing of
ことを特徴とする情報処理方法。 An information processing method characterized by the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003036099A JP4363054B2 (en) | 2003-02-14 | 2003-02-14 | Information processing apparatus and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003036099A JP4363054B2 (en) | 2003-02-14 | 2003-02-14 | Information processing apparatus and information processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004247989A JP2004247989A (en) | 2004-09-02 |
JP4363054B2 true JP4363054B2 (en) | 2009-11-11 |
Family
ID=33021294
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003036099A Expired - Fee Related JP4363054B2 (en) | 2003-02-14 | 2003-02-14 | Information processing apparatus and information processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4363054B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020016836A1 (en) * | 2018-07-18 | 2020-01-23 | Advenio Tecnosys Pvt. Ltd. | System and method for managing the quality of an image |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013094054A1 (en) * | 2011-12-22 | 2013-06-27 | 三洋電機株式会社 | Display device |
-
2003
- 2003-02-14 JP JP2003036099A patent/JP4363054B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020016836A1 (en) * | 2018-07-18 | 2020-01-23 | Advenio Tecnosys Pvt. Ltd. | System and method for managing the quality of an image |
Also Published As
Publication number | Publication date |
---|---|
JP2004247989A (en) | 2004-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7085323B2 (en) | Enhanced resolution video construction method and apparatus | |
US6353460B1 (en) | Television receiver, video signal processing device, image processing device and image processing method | |
US7630576B2 (en) | Signal processing apparatus and method, and command-sequence data structure | |
TWI432017B (en) | Systems and methods for a motion compensated picture rate converter | |
US7006156B2 (en) | Image data output device and receiving device | |
CN100505889C (en) | Image and sound output system and device, audio processing program and recording medium | |
US20100245372A1 (en) | Method and apparatus for frame interpolation | |
JPWO2007063912A1 (en) | Playback device | |
US7602442B2 (en) | Apparatus and method for processing information signal | |
EP1554874A1 (en) | A unit for and method of image conversion | |
JP4363054B2 (en) | Information processing apparatus and information processing method | |
JP2003069998A (en) | Image processor and image processing method | |
JP6134267B2 (en) | Image processing apparatus, image processing method, and recording medium | |
JP2002199277A (en) | Image data output device | |
JP4582681B2 (en) | Signal processing apparatus, signal processing method, program, recording medium, and signal processing system | |
US9749579B2 (en) | Apparatus and method for frame rate conversion | |
JP4816722B2 (en) | Image signal processing device | |
KR100922244B1 (en) | Signal processing device, and image output device | |
JP2014236241A (en) | Display device | |
US7263239B2 (en) | Method for resizing images using the inverse discrete cosine transform | |
JP2007527139A (en) | Interpolation of motion compensated image signal | |
JP2005236633A (en) | Signal processing apparatus and method | |
Solari | Architecture for a digital video recorder | |
US8374493B2 (en) | Playback apparatus | |
EP1547378A1 (en) | A unit for and method of image conversion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060126 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090119 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090129 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090330 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090728 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090810 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120828 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120828 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130828 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |