JP4363054B2 - Information processing apparatus and information processing method - Google Patents

Information processing apparatus and information processing method Download PDF

Info

Publication number
JP4363054B2
JP4363054B2 JP2003036099A JP2003036099A JP4363054B2 JP 4363054 B2 JP4363054 B2 JP 4363054B2 JP 2003036099 A JP2003036099 A JP 2003036099A JP 2003036099 A JP2003036099 A JP 2003036099A JP 4363054 B2 JP4363054 B2 JP 4363054B2
Authority
JP
Japan
Prior art keywords
information
information processing
processing unit
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003036099A
Other languages
Japanese (ja)
Other versions
JP2004247989A (en
Inventor
秀雄 中屋
哲二郎 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003036099A priority Critical patent/JP4363054B2/en
Publication of JP2004247989A publication Critical patent/JP2004247989A/en
Application granted granted Critical
Publication of JP4363054B2 publication Critical patent/JP4363054B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Picture Signal Circuits (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、情報処理装置および情報処理方法に関し、特に、1つの情報処理装置に対して、複数の情報処理ユニットを装着することが可能な場合に用いて好適な、情報処理装置および情報処理方法に関する。
【0002】
【従来の技術】
従来の情報機器においては、内部の制御基板を交換することによって、機能のバージョンアップを図ることができるようになされていたり、もしくは、内部の制御基板を増設することにより、新たな機能を追加することができるようになされていた。
【0003】
具体的には、例えば、パーソナルコンピュータなどにおいて、主制御基板(いわゆるマザーボード)を、性能の良いCPU(Central Processing Unit)を搭載したものに交換することにより、パーソナルコンピュータの処理能力を向上させるようにしたり、ビデオカード、グラフィックカード、サウンドボードなどの拡張カードを増設したり、交換することなどにより、パーソナルコンピュータに新たな機能を追加したり、機能をバージョンアップさせることなどが可能であった。
【0004】
【発明が解決しようとする課題】
しかしながら、従来の技術において、交換、または、増設される基板は、それぞれ個々の処理を実行するものである。すなわち、複数の基板のうちのいずれかの基板が交換されても、交換された基板に対応する処理機能のみが向上される。例えば、基板Aによって処理Aが実行され、処理Aの結果に基づいて、基板Bによって処理Bが実行され、更に、処理Bの結果に基づいて、基板Cによって処理Cが実行されるようになされている場合、基板Bが交換されることによって処理能力が向上する処理は、処理Bのみであり、処理Aおよび処理Bの処理能力には、なんら影響を及ぼさない。
【0005】
本発明はこのような状況に鑑みてなされたものであり、複数の基板の処理を相互作用させることができるようにし、例えば、複数の情報処理ユニットが交換された場合や、新たな情報処理ユニットが装着された場合に、他の情報処理ユニットが実行する処理の処理能力も向上させるようにすることができるようにするものである。
【0006】
【課題を解決するための手段】
本発明の第1の情報処理装置は、複数の情報処理ユニットを装着する装着手段と、装着手段により装着された情報処理ユニットに画像情報を供給する情報供給手段と、装着手段により装着された情報処理ユニットにより処理された画像情報を取得する情報取得手段とを備え、装着手段に装着された情報処理ユニットのそれぞれは、画像情報の歪を除去する処理する第1の情報処理手段と、第1の情報処理手段により処理される画像情報とは異なる情報であって、後段の他の情報処理ユニットの第1の情報処理手段による画像情報の処理に用いる画像情報の歪の特性情報を生成する第2の情報処理手段とを備えことを特徴とする。
【0019】
本発明の第1の情報処理方法は、複数装着された情報処理ユニットの、第1の情報処理部で画像情報の歪を除去する処理し、第2の情報処理部で、第1の情報処理部により処理される画像情報とは異なる情報であって、後段の他の情報処理ユニットの第1の情報処理部による画像情報の処理に用いる画像情報の歪の特性情報を生成することを特徴とする。
【0020】
本発明の第1の情報処理装置および第1の情報処理方法においては、情報処理ユニットが装着され、装着された情報処理ユニットの、第1の情報処理部で画像情報の歪を除去する処理がされ、第2の情報処理部で、第1の情報処理部により処理される画像情報とは異なる情報であって、後段の他の情報処理ユニットの第1の情報処理部による画像情報の処理に用いる画像情報の歪の特性情報が生成される。
【0034】
本発明の第2の情報処理装置は、複数の情報処理ユニットを装着する装着手段と、装着手段により装着された情報処理ユニットに画像情報を供給する情報供給手段と、装着手段により装着された情報処理ユニットにより処理された画像情報を取得する情報取得手段とを備え、装着手段に装着された情報処理ユニットのそれぞれは、画像情報の解像度を上げる処理を実行する第1の情報処理手段と、第1の情報処理手段により処理される画像情報とは異なる情報であって、後段の他の情報処理ユニットの第1の情報処理手段による画像情報の処理に用いる画像情報の時間または空間における画像情報の変化を示す情報を生成する第2の情報処理手段とを備えることを特徴とする。
本発明の第2の情報処理方法は、複数装着された情報処理ユニットの、第1の情報処理部で画像情報の解像度を上げる処理を実行し、第2の情報処理部で、第1の情報処理部により処理される画像情報とは異なる情報であって、後段の他の情報処理ユニットの第1の情報処理部による画像情報の処理に用いる画像情報の時間または空間における画像情報の変化を示す情報を生成することを特徴とする。
本発明の第2の情報処理装置および第2の情報処理方法においては、情報処理ユニットが装着され、装着された情報処理ユニットの、第1の情報処理部で画像情報の歪を除去する処理が実行され、第2の情報処理部で、第1の情報処理部により処理される画像情報とは異なる情報であって、後段の他の情報処理ユニットの第1の情報処理部による画像情報の処理に用いる画像情報の歪の特性情報が生成される。
本発明の第3の情報処理装置は、複数の情報処理ユニットを装着する装着手段と、装着手段により装着された情報処理ユニットに画像情報を供給する情報供給手段と、装着手段により装着された情報処理ユニットにより処理された画像情報を取得する情報取得手段とを備え、装着手段に装着された情報処理ユニットのそれぞれは、画像情報の階調を上げる処理を実行する第1の情報処理手段と、第1の情報処理手段により処理される画像情報とは異なる情報であって、後段の他の情報処理ユニットの第1の情報処理手段による画像情報の処理に用いる画像情報の時間または空間における画像情報の変化を示す情報を生成する第2の情報処理手段とを備えることを特徴とする。
本発明の第3の情報処理方法は、複数装着された情報処理ユニットの、第1の情報処理部で画像情報の階調を上げる処理を実行し、第2の情報処理部で、第1の情報処理部により処理される画像情報とは異なる情報であって、後段の他の情報処理ユニットの第1の情報処理部による画像情報の処理に用いる画像情報の時間または空間における画像情報の変化を示す情報を生成することを特徴とする。
本発明の第3の情報処理装置および第3の情報処理方法においては、複数装着された情報処理ユニットの、第1の情報処理部で画像情報の階調を上げる処理が実行され、第2の情報処理部で、第1の情報処理部により処理される画像情報とは異なる情報であって、後段の他の情報処理ユニットの第1の情報処理部による画像情報の処理に用いる画像情報の時間または空間における画像情報の変化を示す情報が生成される。
【0035】
【発明の実施の形態】
以下、図を参照して、本発明の実施の形態について説明する。
【0036】
図1は、本発明を適用した、テレビジョン受像機1の外観構成を示す図である。
【0037】
テレビジョン受像機1には、表示部11、ユーザによる操作入力を受ける操作入力部12、および、情報処理ユニット14−1乃至情報処理ユニット14−nが装着可能なスロット部13が設けられている。表示部11は、例えば、CRT(Cathode Ray Tube),LCD(Liquid Crystal Display:液晶ディスプレイ)、もしくは、プラズマディスプレイなどにより構成される。操作入力部12は、例えば、ボタン、ダイヤル、もしくは、リモートコマンダから送信される赤外線を受光する赤外線受光部などで構成される。
【0038】
スロット部13に装着可能な情報処理ユニット14−1乃至情報処理ユニット14−nは、テレビジョン受像機1に表示される画像に対応する画像信号、または、出力される音声に対応する音声信号などの処理を行うものであり、例えば、基板、もしくは、基板を内蔵した筐体などで構成され、その外形寸法は、スロット部13の形状に合致するように、予め定められている。スロット部13および情報処理ユニット14−1乃至情報処理ユニット14−nには、スロット部13に情報処理ユニット14−1乃至情報処理ユニット14−nのいずれかを装着した場合に、それぞれ電気的に接続されるためのコネクタもしくは接触端子などが設けられており、コネクタもしくは接触端子の信号線およびピンアサインは、共通化されており、図2を用いて後述するテレビジョン受像機1のシステムコントローラと、情報処理ユニット14−1乃至情報処理ユニット14−nが、電気的に接続可能なようになされている。
【0039】
以下、情報処理ユニット14−1乃至情報処理ユニット14−nを個々に区別する必要がない場合、単に情報処理ユニット14と総称する。
【0040】
また、ここでは、1つのスロット部13に、複数の情報処理ユニット14が装着可能であるものとして説明したが、1つ、または複数の情報処理ユニット14が装着可能なスロット部13が、複数設けられるようにしても良い。
【0041】
図2は、テレビジョン受像機1の内部構成を示すブロック図である。なお、図2においては、映像信号の処理に関連する部分だけを図示し、音声信号に関する部分については、記載を省略している。
【0042】
ユーザが、リモートコマンダ21を用いて、テレビジョン受像機1に対する操作入力を行う場合、操作入力部12の赤外線受光部22は、ユーザの操作入力を示す赤外線信号を受けて、システムコントローラ23に供給する。
【0043】
システムコントローラ23は、テレビジョン受像機1の内部処理を制御するものであり、コントロール・バス24を介して、テレビジョン受像機1の各部に制御信号を出力する。
【0044】
アンテナ25により受信された放送信号は、チューナ部26に供給される。チューナ部26は、コントロール・バス24を介して、システムコントローラ23から供給された制御信号を基に、放送信号を選局し、映像信号選択部27に供給する。映像信号選択部27には、再生部28は、例えば、ビデオカセットテープ、CD(Compact Disc)またはDVD(Digital Versatile Disk)などの記録メディアに記録された映像信号を再生する。映像信号選択部27には、再生部28により再生された映像信号や、デジタル入力端子29から入力される各種の映像信号などが供給される。映像信号選択部27は、コントロール・バス24を介して、システムコントローラ23から供給された制御信号に基づいて、ユーザが所望する映像信号を選択し、フォーマット変換部30に供給する。
【0045】
フォーマット変換部30は、供給された映像信号に対して、色信号やタイミングにかかわるフォーマットを変換し、スロット部13に装着されている情報処理ユニット14に供給する。
【0046】
スロット部13に装着されている情報処理ユニット14は、コントロールバス41およびビデオバス42で接続されており、システムコントローラ23から供給された制御信号や、情報処理ユニット14のそれぞれの間で授受される情報(例えば、それぞれの処理に必要な係数などのデータ)は、コントロールバス41を介して授受される。また、フォーマット変換部30から供給されたビデオ信号は、ビデオバス42を介して授受される。スロット部13に装着されている情報処理ユニット14は、供給されたビデオ信号に、所定の処理を施して、デバイスドライバ31に供給する。情報処理ユニット14の処理の詳細については、後述する。
【0047】
デバイスドライバ31は、システムコントローラ23から供給される制御信号に基づいて、表示部11を構成する表示デバイスを駆動して、表示部11にビデオ信号に対応する画像を表示する。
【0048】
図3は、情報処理ユニット14の基本的な構成を示すブロック図である。
【0049】
情報処理ユニット14は、第1の処理を行う画像処理部61と、第2の処理を行う協調処理部62で構成されている。具体的には、画像処理部61は、ビデオ信号の供給を受けて、画像処理を実行するものであり、協調処理部62は、画像処理部61の処理により生成された情報を用いて、後段に接続されている情報処理ユニット14の画像処理部61が実行する処理の機能を向上させるための処理を実行するものである。
【0050】
画像処理部61にビデオ信号を供給する入力端子66と、処理後のビデオ信号が出力される出力端子67は、図2のビデオバス42に接続され、協調処理部62に供給される制御信号、もしくは、係数などの各種情報が入力される入力端子63と、協調処理部62により生成される各種情報が出力される出力端子65は、図2のコントロールバス41に接続されている。
【0051】
画像処理部61のクラス分類処理部81は、入力端子66を介して供給されたビデオ信号の処理中のフレームのうち、画像処理において注目されている画素である注目画素を、クラス分類する。なお、複数のクラス分類処理部81を並列に接続するようにし、異なる特徴量を用いたクラス分類処理が、平行して行われるようにしてもよい。
【0052】
図4は、クラス分類処理部81の構成を示すブロック図である。
【0053】
クラスタップ取得部101は、供給されたビデオ信号の処理中のフレーム画像から、注目画素に対応する、所定の数のクラスタップを取得し、取得したクラスタップを、クラス分類部102および遅延部84に供給する。クラス分類部102は、供給されたクラスタップを基に、例えば、ノイズの定常性や非定常性の特徴量、動き特徴量などの特徴量を基に、注目画素を、所定の数のクラスのうちの、1つのクラスに分類し、分類されたクラスに対応するクラス番号(クラス分類)を、クラス縮退部82に供給する。
【0054】
ここで、クラス分類を行う方法としては、例えば、ADRC(Adaptive Dynamic Range Coding)等を採用することができる。ADRCを用いた場合、クラスタップを構成する画素が、ADRC処理され、その結果得られるADRCコードにしたがって、注目画素のクラスが決定される。
【0055】
なお、クラス分類部102には、例えば、クラスタップを構成する各画素の特徴量レベル分布のパターンを、そのままクラス分類として出力させることも可能である。しかしながら、この場合、クラスタップが、N個の画素サンプルで構成され、各画素サンプルに、Kビットが割り当てられているとすると、クラス分類部102が出力するクラス情報の場合の数は、画素サンプルのビット数Kに指数的に比例する膨大な数となってしまう。
【0056】
したがって、クラス分類部102においては、クラスタップの情報量を、上述したADRC処理、もしくは、ベクトル量子化等によって圧縮することにより、クラス分類を行うのが好ましい。
【0057】
クラス縮退部82は、クラス分類処理部81により求められた、1つ、もしくは複数のクラス番号と、前段に異なる処理を実行する情報処理ユニット14が接続されている場合は、その情報処理ユニットの協調処理部62の処理により得られる協調伝達情報との供給を受け、それらの情報を、クラス情報(クラスコード)にまとめ、係数メモリ83に供給する。
【0058】
図5は、クラス縮退部82の構成を示すブロック図である。
【0059】
図5の例においては、クラス分類処理部81から、2ビットの動きクラスのデータMV1とMB0、4ビットの空間クラスのデータSP3乃至SP0が供給され、縮退される場合について説明するが、供給されるクラス情報の種類や、協調伝達情報の種類、情報数などが異なる場合においても、基本的に同様の処理が実行される。
【0060】
2ビットの動きクラスMV1とMB0は、オア(OR)回路121に供給されている。オア回路121の出力は、加算器122の一方の入力のMSB(最上位ビット)端子(図中、下部の端子を最上位ビットとする)に入力されている。動きクラスのMV1は、加算器122の一方の入力のMSBから2ビット目に入力されている。加算器122の一方の入力の下位3ビットは接地され、0とされている。
【0061】
空間クラスのデータSP3乃至SP0のうち、MSBのSP3は、シフタ123のMSBから2番目の端子に、SP2はMSBから2番目の端子に、SP1はMSBから3番目の端子に、そして、SP0はLSBの端子に、それぞれ入力されている。シフタ123のMSBの端子は接地され、0とされている。
【0062】
シフタ123は、動きクラスに対応して動作し、動きクラスが0である場合、入力された下位4ビットのデータを、そのまま加算器122の他方の入力の下位4ビットに入力させる。これに対して、動きクラスが0ではない場合(1または2である場合)、シフタ123は、下位4ビットのデータをLSB側に1ビットずつシフトさせる。すなわち、入力されたデータを、実質的に1/2の値とする。そして、ビットシフトした後のデータを、加算器122の他方の入力の下位4ビットに供給する。加算器122の他方の入力のMSBは、接地され、常に0とされている。
【0063】
加算器122は、一方の入力から供給された5ビットのデータと、他方の入力から供給された5ビットのデータとを加算し、加算結果をクラス情報として、係数メモリ83および適応予測処理部85に出力する。
【0064】
係数メモリ83は、各クラス情報に対応するアドレスに、そのクラス情報に対応するクラスのタップ係数を記憶しており、クラス縮退部82から供給されるクラス情報に対応するアドレスに記憶されているタップ係数を、適応予測処理部85に供給する。
【0065】
遅延部84は、クラスタップ取得部101により取得されたクラスタップの供給を受け、クラス分類部102、クラス縮退部82、および係数メモリ83の処理速度に対応する時間だけ、クラスタップの適応予測処理部85への供給を遅延させる。
【0066】
適応予測処理部85は、遅延部84から供給されたクラスタップと、係数メモリ83から供給されたタップ係数とを基に、例えば、線形予測演算などにより、注目画素に対応する適応予測値を求めて、出力端子67より出力する。
【0067】
ここでは、画像処理部61が実行する処理として、クラス分類適応処理を用いた画像処理を例に挙げて説明しているが、画像処理部61は、クラス分類適応予測以外の方法を用いて、画像処理を行うようにしてもよいことは言うまでもない。
【0068】
遅延部64は、対応する情報処理ユニット14が、異なる情報処理ユニット14の後段にある場合、前段の情報処理ユニット14の協調処理部62により生成された協調伝達情報を、入力端子63を介して入力され、所定の時間遅延し、協調伝達情報変換部71に供給する。協調伝達情報変換部71は、対応する情報処理ユニット14が、異なる情報処理ユニット14の後段にある場合、遅延部64から、前段の情報処理ユニット14において生成された協調伝達情報の供給を受けるとともに、クラス分類処理部81の処理により生成されるクラス分類結果の供給を受け、後段の情報処理ユニット14の画像処理部61の処理において用いられるのに好適な付加情報である協調伝達情報への変換処理を行い、遅延部72に出力する。
【0069】
なお、対応する情報処理ユニット14が、画像処理の最も前段の処理を実行する場合、協調伝達情報変換部71は、クラス分類処理部81の処理により生成されるクラス分類結果のみを用いて、後段の情報処理ユニット14の画像処理部61の処理において用いられるのに好適な付加情報である協調伝達情報への変換処理を行い、協調伝達情報を生成する。すなわち、対応する情報処理ユニット14が、画像処理の最も前段の処理を実行する場合、入力端子63および遅延部64は省略されるようにしても良い。
【0070】
遅延部72は、適応予測処理部85による適応予測情報の出力タイミングにあわせて、供給された協調伝達情報を一定時間遅延し、出力端子65から出力させる。
【0071】
なお、対応する情報処理ユニット14の後段に、異なる情報処理ユニットが接続されない場合、すなわち、対応する情報処理ユニット14が、情報処理の最も後段の処理を実行する場合、協調処理部62は、処理を実行しないようにしても良いし、もしくは、協調処理部62を省略するようにしても良い。
【0072】
次に、図6のフローチャートを参照して、情報処理ユニット14が実行する画像処理について説明する。
【0073】
画像処理部61のクラス分類処理部81は、ステップS1において、ビデオバス42を介して供給される画像信号を取得し、ステップS2において、供給された画像信号の注目画素に対して、クラス分類を実行する。
【0074】
具体的には、例えば、情報処理ユニット14が入力SD信号(525i信号)を、HD信号(1050i)に変換する、解像度創造処理を実行する場合、クラス分類部81のクラスタップ取得部101は、予測に使用する注目画素近辺の所定数のSD画素、すなわち、予測タップと、作成するHD画素の近傍のSD画素のレベル分布のパターンに対応するクラス分類に使用するSD画素、すなわち、空間クラスタップと、作成するHD画素の近傍のSD画素に基づいて動きに対応するクラス分類に使用するSD画素、すなわち、動きクラスタップを抽出する。なお、空間クラスを複数フィールドに属するSD画素を使用して決定する場合、空間クラスにも、動き情報が含まれる。予測タップは、遅延部84に供給され、所定の時間だけ遅延された後、適応予測処理部85に供給される。
【0075】
クラス分類部102は、空間クラスタップを用いて、空間クラスを検出し、動きクラスタップを用いて、動きクラスを検出する。なお、クラスタップ取得部101およびクラス分類部102は、取得するクラスタップの種類、および、検出するクラスの種類に応じて、それぞれ個別に、複数設けるようにしても良いことは言うまでもない。
【0076】
ステップS3において、協調処理部62の協調伝達情報変換部71は、後段に情報処理ユニット14が存在するか否かを判断する。ステップS3において、後段に情報処理ユニット14が存在しないと判断された場合、協調伝達情報変換部71は、協調伝達情報の生成を行わないので、処理は、ステップS5に進む。
【0077】
ステップS3において、後段に情報処理ユニット14が存在すると判断された場合、ステップS4において、協調伝達情報変換部71は、ステップS2におけるクラス分類結果、および、前段に他の情報処理ユニット14が存在していた場合、その情報処理ユニット14から供給された協調伝達情報を基に、協調伝達情報を生成し、遅延部72に供給する。遅延部72は、所定の期間だけ、協調伝達情報を遅延させて、出力する。
【0078】
なお、後段に情報処理ユニット14が存在しない情報処理ユニット14において、協調処理部62が省略されている場合、ステップS3およびステップS4はスキップされる。
【0079】
ステップS3において、後段に情報処理ユニット14が存在しないと判断された場合、または、ステップS4の処理の終了後、ステップS5において、クラス縮退部82は、前段に情報処理ユニット14が存在するか否かを判断する。
【0080】
ステップS5において、前段に情報処理ユニット14が存在すると判断された場合、クラス縮退部82は、ステップS6において、前段の情報処理ユニットから供給された協調伝達情報を取得し、取得された協調伝達情報およびステップS2におけるクラス分類結果を基に、クラス縮退を行う。
【0081】
ステップS5において、前段に情報処理ユニット14が存在しないと判断された場合、ステップS8において、クラス縮退部82は、ステップS2におけるクラス分類結果を基に、クラス縮退を行う。
【0082】
ステップS9において、係数メモリ83および適応予測処理部85の処理により、適応予測が実行され、予測結果が出力されて処理が終了される。
【0083】
具体的には、クラス縮退部82の処理によって得られたクラス情報が係数メモリ83に対して、アドレスとして供給され、係数メモリ83からクラス情報に対応する係数データが読出され、適応予測処理部85に供給される。また、遅延部84より、予測タップが適応予測処理部85に供給される。適応予測処理部85は、予測タップ(525i信号の画素)と係数データとの線形推定式を用いて、SDデータに対応するHDデータ(1050i 信号のデータ)を算出する。
【0084】
このような処理が、複数の情報処理ユニット14において連続的に実行されるので、例えば、複数の情報処理ユニット14のうちの一部が交換されて、その機能が向上された場合、例えば、交換された情報処理ユニット14−2が実行する処理の性能が向上するのみでなく、交換された情報処理ユニット−2において生成された協調伝達情報が用いられることにより、その後段の情報処理ユニット14−3が実行する処理も向上する。
【0085】
次に、協調伝達情報と、後段の情報処理ユニット14の画像処理部61が実行する処理との関係の具体例について説明する。
【0086】
図7は、スロット部13に情報処理ユニット14−1乃至情報処理ユニット14−3が装着された場合の、情報処理ユニット14−1乃至情報処理ユニット14−3の具体的な構成と、それぞれのユニットの接続を示すブロック図である。なお、図7においては、コントロールバス41およびビデオバス42を省略し、画像信号および画像信号が、それぞれのユニットで直接入出力されるように記載されているが、画像信号および画像信号は、それぞれ、コントロールバス41およびビデオバス42を介して授受されていることは言うまでもない。
【0087】
スロット部13に装着されている情報処理ユニット14−1乃至情報処理ユニット14−3は、それぞれ、画像処理部61−1乃至画像処理部61−3において、それだけで独立した機能を果たすものである。まず、情報処理ユニット14−1乃至情報処理ユニット14−3における、画像処理部61−1乃至画像処理部61−3の処理について説明する。
【0088】
情報処理ユニット14−1は、画像処理部61−1において、クラス分類適応処理によって、供給された画像信号から、歪を除去する処理を実行するものであり、通常のTV信号に含まれる弱電界ノイズ除去はもちろん、適応処理の係数を変えたり、MPEGのサイド情報を用いることで、MPEGデジタル放送のブロック歪やモスキート歪などの歪を除去することができるものである。
【0089】
具体的には、サイド情報クラス分類部81−1aは、MPEGのサイド情報を基に、クラス分類を実行する。非定常特徴量クラス分類部81−1bは、ノイズの非定常特徴量を基に、クラス分類を実行する。定常特徴量クラス分類部81−1cは、ノイズの定常特徴量を基に、クラス分類を実行する。動き評価クラス分類部81−1dは、動き特徴量抽を基に、クラス分類を実行する。そして、クラス縮退部82−1は、サイド情報クラス分類部81−1a乃至動き評価クラス分類部81−1dにより検出されたクラス分類のうち、除去する歪の種類に対応したクラス分類を縮退して、クラス情報にまとめ、係数メモリ83−1に供給する。係数メモリ83−1は、歪除去のための適応予測に必要な係数を保存しており、このうち、供給されたクラス情報に対応する係数を適応予測処理部85−1に供給する。遅延部84−1は、予測タップの供給を受け、所定の時間だけ遅延し、適応予測処理部85−1に供給する。適応予測処理部85−1は、クラスに応じて適応予測処理を行い、ノイズ除去された画像信号を出力する。
【0090】
情報処理ユニット14−2は、画像処理部61−2において、クラス分類適応処理によって、画像信号の時空間の解像度を創造する処理を行うものであり、時間方向(フレーム数)、空間方向(画素数、ライン数)の密度の変換を行うとともに、もともと持っていない帯域の情報を創り出すことで、例えば、標準テレビジョン画像からハイビジョン画像へ変換したり、24コマの映画ソースから60コマのテレビジョン放送信号フォーマットへ変換するなどの処理のように、より高精細な画像を創り出すことができるものである。
【0091】
時空間クラス分類部81−2は、空間クラスタップおよび動きクラスタップを抽出し、時間方向(フレーム数)、空間方向(画素数、ライン数)の動きの特徴量を基に、クラス分類を実行する。クラス縮退部82−2は、時空間クラス分類部81−2により検出されたクラス分類と、情報処理ユニット14−1の協調処理部62−1から供給された協調伝達情報とを縮退して、クラス情報にまとめ、係数メモリ83−2に供給する。係数メモリ83−2は、解像度創造のための適応予測に必要な係数を保存しており、このうち、供給されたクラス情報に対応する係数を適応予測処理部85−2に供給する。遅延部84−2は、クラスタップの供給を受け、所定の時間だけ遅延し、適応予測処理部85−2に供給する。適応予測処理部85−2は、クラスに応じて適応予測処理を行い、解像度創造された画像信号を出力する。
【0092】
情報処理ユニット14−3は、画像処理部61−3において、階調に応じたクラス分類適応処理によって、供給された画像信号の階調特性を、人の目に対してリニアな特性をもたらす階調特性に変換して、階調を創造する処理を行うものであり、例えば、表示のデバイスがCRTであるか、プラズマであるか、もしくは、LCDであるかによって、主にガンマ特性の違いにより、表示に適した階調特性が異なるが、画像処理部61−3は、いずれの場合おいても、最適な階調変化を創り出すことができるようにするものであり、この処理により、より自然な映像が、表示部11に表示されるようになる。
【0093】
階調クラス分類部81−3は、階調クラスタップを抽出し、クラス分類を実行する。クラス縮退部82−3は、階調クラス分類部81−3により検出されたクラス分類と、情報処理ユニット14−2の協調処理部62−2から供給された協調伝達情報とを縮退して、クラス情報にまとめ、係数メモリ83−3に供給する。係数メモリ83−3は、階調創造のための適応予測に必要な係数を保存しており、このうち、供給されたクラス情報に対応する係数を適応予測処理部85−3に供給する。遅延部84−3は、クラスタップの供給を受け、所定の時間だけ遅延し、適応予測処理部85−3に供給する。適応予測処理部85−3は、クラスに応じて適応予測処理を行い、解像度創造された画像信号を出力する。
【0094】
ここで、画像処理部61−1においては、通常のTV信号に含まれる弱電界ノイズ、または、MPEGデジタル放送のブロック歪もしくはモスキート歪などのうち、いかなる歪を除去することができるようにするかに基づいて、回路構成を決めるようにしても良いし、画像処理部61−2においては、いかなる入力信号から、どのような出力信号を創造することができるかに基づいて、回路構成を決めるようにしても良いし、画像処理部63−3においては、どのような階調特性を用いて階調度創造を行うかに基づいて、回路構成を決めるようにしても良い。また、これらの画像処理部61を有する情報処理ユニット14においては、例えば、特開2000−41223号公報に記載されている技術を用いることにより、ハードウェアの規模を増加させることなく、複数の信号処理や画像変換処理を実行することができるようにしてもよい。
【0095】
具体的には、例えば、入力された525i信号を、1050i信号、または、525p信号に変換させる解像度創造処理を行うために必要なハードウェアの大部分は、共通して利用することができるので、画像処理部61−2においては、入力された525i信号を、1050i信号に変換させる解像度創造処理、および、525p信号に変換させる解像度創造処理をいずれも実行することができるようにし、ユーザの操作に基づいて、もしくは、入力画像信号の絵柄の検出結果に応じて自動的に、変換方法選択信号を発生させて、出力される信号を、1050i信号、または、525p信号のうちのいずれかから選択することができるようにしてもよい。
【0096】
上述したように、情報処理ユニット14−1乃至情報処理ユニット14−3は、それぞれ、画像処理部61−1乃至61−3において、それだけで独立した機能を果たすものであるが、更に、協調処理部62−1乃至62−3をそれぞれ有する。協調処理部62−1乃至62−3は、画像処理部61−1乃至61−3において抽出された特長量の供給を受け、これらの特徴量を、後段の情報処理ユニット14の画像処理部61において使用される協調伝達情報を生成して出力する。
【0097】
協調処理部62−1の協調伝達情報変換部71−1は、画像処理部61のサイド情報クラス分類部81−1a乃至動き評価クラス分類部81−1dから、抽出した特徴量の供給を受け、歪の特性を表現する協調伝達情報に変換して、遅延部72−1に供給する。遅延部72−1は、供給された協調伝達情報を、所定の時間だけ遅延し、情報処理ユニット14−2の遅延部64−2に供給する。
【0098】
情報処理ユニット14−2の遅延部64−2は、歪の特性を表現する協調伝達情報の供給を受け、所定の時間だけ遅延して、協調処理部62−2の協調伝達情報変換部71−2および画像処理部61−2のクラス縮退部82−2に供給する。
【0099】
ここで、画像処理部61−2において、解像度を創り出す際に、前段の画像処理部61−1において歪が除去された画像信号を用いるか否かによって、解像度創造の性能が大幅に異なる場合がある。例えば、モスキート歪が映像のある場所にあって、画像処理部61−1において、そのモスキート歪が除去されていた場合について説明する。
【0100】
モスキート歪除去後の画像は、歪成分が抑圧されているが、歪が除去されたことにより、歪除去後の画像は、もともとの画像信号にあったディテールの情報であるか、歪が抑圧されて少し残された成分であるかを区別しにくくなる場合がある。これに対して、画像処理部61−1における歪の特性情報を、画像の位置に対応して画像処理部61−2に伝達させるようにすることにより、画像処理部61−1における解像度の創造を、生成される画像信号に、どの程度効かすべきであるかの判断を正しく行わせるようにすることができる。画像処理部61−2は、例えば、画像処理部61−1における歪の特性情報を参照して、歪が発生していた部分に対しては、解像度を抑える方向に作用させ、歪が発生していない部分のディテールに対しては、解像度を向上させる方向に作用させることで、画像処理の性能を大幅に改善させることができる。
【0101】
協調処理部62−2の協調伝達情報変換部71−2は、情報処理ユニット14−1の協調処理部62−1から供給された協調伝達情報と、時空間クラス分類部81−2から供給された時空間のクラス情報とを、後段の画像処理部61−3における処理において用いられて好適な、時空間変化情報を表現する協調伝達情報に変換して、遅延部72−2に供給する。遅延部72−2は、供給された協調伝達情報を、所定の時間だけ遅延し、情報処理ユニット14−3の遅延部64−3に供給する。
【0102】
情報処理ユニット14−3の遅延部64−3は、時空間変化情報を表現する協調伝達情報の供給を受け、所定の時間だけ遅延して、協調処理部62−3の協調伝達情報変換部71−3および画像処理部61−3のクラス縮退部82−3に供給する。
【0103】
階調特性は、主にガンマ特性の違いにより異なるものであると上述したが、これはあくまでも静特性であり、動画像における場合の階調特性は、注目点の周囲の画素の空間的な変化や時間的な変化によって、微妙に変化する動特性を持っている。具体的には、例えば、直前のフレームとの輝度レベルの変化が右上がりか、左下がりかによって、同じ輝度であっても見え方が異なる場合が発生する。したがって、前段の処理で作られた時空間の変化情報は、階調創造処理において非常に重要である。画像処理部61−3は、例えば、画像処理部61−2における時空間の変化の状態に応じて、階調特性の変化を与えるようにすることにより、より決め細やかな階調創造処理の制御を行うことができ、画像処理の性能を大幅に改善させることができる。
【0104】
協調処理部62−3の協調伝達情報変換部71−3は、更に後段に情報処理ユニット14−4が接続されている場合、供給された協調伝達情報と、階調クラス分類部81−3から供給された、時空間のクラス情報とを、後段の画像処理部61−4における処理において用いられて好適な情報を表現する協調伝達情報に変換して、遅延部72−3に供給する。遅延部72−3は、供給された協調伝達情報を、所定の時間だけ遅延し、情報処理ユニット14−4の遅延部64−4に供給する。また、更に後段に情報処理ユニット14−4が接続されていない場合、協調処理部62−3を省略するようにしても良い。
【0105】
このように、異なる情報処理ユニット14間で協調して処理が実行されるので、例えば、情報処理ユニット14−1が交換されるなどしてひずみ除去の性能が向上した場合、そこで得られる歪の特性情報を用いて解像度創造処理を実行する情報処理ユニット14−2の性能も向上する。また、同様にして、情報処理ユニット14−2が交換されるなどして解像度創造の性能が向上した場合、そこで得られる時空間変化情報を用いて階調創造処理を実行する情報処理ユニット14−3の性能も向上する。
【0106】
以上説明した情報処理ユニット14は、処理が共通する部分を、同一のLSI(Large Scale Integration)により構成するなどすることにより、製造コストを削減することができる。
【0107】
具体的には、図8に示されるように、画像処理部61のうちクラス分類を実行する処理を行う部分を、アドオン処理を行う一方の部分として処理ブロック151とし、協調処理部62を、アドオン処理を行う他方の部分として処理ブロック152とし、画像処理部61のうち、クラス縮退および適応予測を行う部分を、メイン処理を行う処理ブロック151として、それぞれを同一のLSIで構成するようにすれば良い。
【0108】
すなわち、サイド情報クラス分類部81−1a乃至動き評価クラス分類部81−1d、時空間クラス分類部82、および、階調クラス分類部83は、クラス分類処理機能を有する同一のLSIにより構成可能(処理ブロック151−1乃至151−3)である。そして、協調伝達情報変換部71−1および遅延部72−1、協調伝達情報変換部71−2および遅延部72−2、並びに、協調伝達情報変換部71−3および遅延部72−3は、協調伝達情報を生成する機能を有する同一のLSIにより構成可能(処理ブロック152−1乃至152−3)である。また、クラス縮退部82−1、係数メモリ83−1、遅延部84−1、および、適応予測処理部85−1、クラス縮退部82−2、係数メモリ83−2、遅延部84−2、および、適応予測処理部85−2、並びに、クラス縮退部82−3、係数メモリ83−3、遅延部84−3、および、適応予測処理部85−3は、クラス縮退および適応予測の機能を有する同一のLSIにより構成可能(処理ブロック153−1乃至153−3)である。
【0109】
なお、これらの処理ブロック151乃至153は、その処理内容により、全く同一のLSIにより構成することができない場合が発生したとしても、それぞれ共通する部分を多く有するLSIによって構成することができる。
【0110】
また、それぞれのLSIは、例えば、国際公開番号WO96/07987号公報に記載されている技術を適用して、1つのLSIチップ上に構成される共通のハードウェアによって、複数の機能のデジタル信号処理が可能であるようにしても良い。
【0111】
具体的には、LSIに、複数の入力端子および出力端子、並びに、制御信号入力端子を設けるとともに、複数の回路群を形成する。回路群としては、例えば、演算回路、メモリ、積和演算回路、アダー、乗算器、レジスタなどがそれぞれ必要に応じて1つ、もしくは複数形成される。そして、供給される制御信号に基づいて、入力/出力あるいは相互間(回路群あるいは回路間の相互接続、および回路群の内部における回路間の相互接続の両者を意味する)の接続状態を切り換えるための切換器が、これらの回路群あるいは回路に対して設けられる。換言すると、LSI内のデジタル信号の流れと各回路群の機能とが、制御信号により切り替えられる切替え器の動作によって制御可能となるように構成される。
【0112】
処理ブロック151−1乃至151−3、処理ブロック152−1乃至152−3、または、処理ブロック153−1乃至153−3に、このような構成を有し、複数の機能のデジタル信号処理が可能であるLSIを用いるようにすることにより、情報処理ユニット14の構成を変更させることなく、機能変化に柔軟に対応させるようにすることが可能となる。
【0113】
また、処理ブロックごとにLSI化することにより、情報処理ユニット14ごと交換を行うのではなく、特定のLSIのみを交換することによって、より低コストでテレビジョン受像機1全体の機能の向上を図ることが可能になる。
【0114】
以上の説明においては、テレビジョン受像機1を例として説明したが、本発明は、複数の処理ユニット(もしくは処理ブロック)を用いて情報を処理する、いかなる情報処理機器においても適用可能であることは言うまでもない。
【0115】
【発明の効果】
このように、本発明によれば、供給された情報を処理することができる。特に、装着された複数の情報処理ユニットにおいて、協調して情報を処理することができる。
【図面の簡単な説明】
【図1】本発明を適用した、テレビジョン受像機の外観を示す図である。
【図2】図1のテレビジョン受像機の内部構造を示すブロック図である。
【図3】図1および図2の情報処理ユニットの構成を示すブロック図である。
【図4】図3のクラス分類処理部の構成を示すブロック図である。
【図5】図3のクラス縮退部の構成を示すブロック図である。
【図6】図3の情報処理ユニットが実行する処理を説明するフローチャートである。
【図7】図3の情報処理ユニットの具体的な構成について説明する図である。
【図8】図7の情報処理ユニットを、LSIを用いて構成することについて説明するための図である。
【符号の説明】
1 テレビジョン受像機, 11 表示部, 12 操作入力部, 13 スロット部, 14 情報処理ユニット, 23 システムコントローラ, 41コントロールバス, 42 ビデオバス, 61 画像処理部, 62 協調処理部, 71 協調伝達情報変換部, 72 遅延部, 81 クラス分類処理部, 82 クラス縮退部, 83 係数メモリ, 84 遅延部, 85 適応予測処理部, 151乃至153 処理ブロック
[0001]
BACKGROUND OF THE INVENTION
  The present invention relates to an information processing apparatus and an information processing method.To the lawIn particular, an information processing apparatus and an information processing method suitable for use when a plurality of information processing units can be attached to one information processing apparatus.To the lawRelated.
[0002]
[Prior art]
In conventional information equipment, the function can be upgraded by replacing the internal control board, or a new function is added by adding an internal control board. It was made to be able to.
[0003]
Specifically, for example, in a personal computer or the like, the processing capacity of the personal computer is improved by replacing the main control board (so-called motherboard) with one having a high performance CPU (Central Processing Unit). By adding or replacing expansion cards such as video cards, graphic cards, and sound boards, it was possible to add new functions or upgrade functions to personal computers.
[0004]
[Problems to be solved by the invention]
However, in the conventional technology, the substrates to be replaced or added execute individual processes. That is, even if any one of the plurality of substrates is replaced, only the processing function corresponding to the replaced substrate is improved. For example, the process A is executed by the substrate A, the process B is executed by the substrate B based on the result of the process A, and further, the process C is executed by the substrate C based on the result of the process B. In this case, the process whose processing capability is improved by exchanging the substrate B is only the process B, and the processing capability of the process A and the process B is not affected at all.
[0005]
The present invention has been made in view of such a situation, and enables processing of a plurality of substrates to interact with each other. For example, when a plurality of information processing units are exchanged or a new information processing unit is provided. When the is mounted, it is possible to improve the processing capability of the processing executed by other information processing units.
[0006]
[Means for Solving the Problems]
  Of the present inventionFirstAn information processing apparatus includes: a mounting unit that mounts a plurality of information processing units; and an information processing unit that is mounted by the mounting unit.Image informationProcessed by an information supply unit that supplies information and an information processing unit mounted by the mounting unitImage informationEach of the information processing units mounted on the mounting means,Remove image information distortionprocessingTheProcessed by the first information processing means and the first information processing meansImage informationInformation that is different fromOf other information processing unitsBy first information processing meansImage informationUsed for processingDistortion characteristic information of image informationAnd second information processing means for generatingRuIt is characterized by that.
[0019]
  Of the present inventionFirstThe information processing method is performed by a first information processing unit of a plurality of information processing units mounted.Remove image information distortionprocessingTheAnd processed by the first information processing unit in the second information processing unit.Image informationInformation that is different fromOf other information processing unitsBy the first information processing unitImage informationUsed for processingDistortion characteristic information of image informationIs generated.
[0020]
  Of the present inventionFirstInformation processing apparatus andFirstIn an information processing method, an information processing unit is mounted and the mounted information processing unitThe first information processing unit performs processing for removing distortion of the image information, and the second information processing unit is different from the image information processed by the first information processing unit, Distortion characteristic information of image information used for processing of image information by the first information processing unit of another information processing unitGenerated.
[0034]
A second information processing apparatus according to the present invention includes a mounting unit that mounts a plurality of information processing units, an information supply unit that supplies image information to the information processing unit that is mounted by the mounting unit, and information that is mounted by the mounting unit. Information acquisition means for acquiring image information processed by the processing unit, and each of the information processing units attached to the attachment means includes a first information processing means for executing a process for increasing the resolution of the image information; The image information is different from the image information processed by one information processing unit, and the image information in the time or space of the image information used for the processing of the image information by the first information processing unit of the other information processing unit in the subsequent stage And second information processing means for generating information indicating a change.
The second information processing method of the present invention executes a process of increasing the resolution of the image information in the first information processing unit of the plurality of information processing units mounted, and the second information processing unit performs the first information processing. The image information is different from the image information processed by the processing unit, and indicates a change in the image information in time or space of the image information used for processing the image information by the first information processing unit of the other information processing unit in the subsequent stage. It is characterized by generating information.
In the second information processing apparatus and the second information processing method of the present invention, the information processing unit is mounted, and the first information processing unit of the mounted information processing unit removes distortion of the image information. Processing of image information by the first information processing unit of another information processing unit in the subsequent stage, which is different from the image information processed by the first information processing unit in the second information processing unit The distortion characteristic information of the image information used for is generated.
A third information processing apparatus according to the present invention includes a mounting unit that mounts a plurality of information processing units, an information supply unit that supplies image information to the information processing unit that is mounted by the mounting unit, and information that is mounted by the mounting unit. An information acquisition unit that acquires image information processed by the processing unit, and each of the information processing units attached to the attachment unit includes a first information processing unit that executes a process of increasing the gradation of the image information; Image information in time or space of image information that is different from the image information processed by the first information processing means and is used for processing the image information by the first information processing means of another information processing unit in the subsequent stage And second information processing means for generating information indicating a change in the number of times.
According to a third information processing method of the present invention, the first information processing unit performs a process of increasing the gradation of image information in a plurality of information processing units mounted, and the second information processing unit Change in image information in time or space of image information that is different from the image information processed by the information processing unit and is used for processing the image information by the first information processing unit of the other information processing unit in the subsequent stage. The information to show is produced | generated.
In the third information processing apparatus and the third information processing method of the present invention, processing for increasing the gradation of the image information is executed by the first information processing unit of the plurality of information processing units mounted, The time of the image information that is different from the image information processed by the first information processing unit in the information processing unit and is used for the processing of the image information by the first information processing unit of the other information processing unit in the subsequent stage Alternatively, information indicating a change in image information in the space is generated.
[0035]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0036]
FIG. 1 is a diagram showing an external configuration of a television receiver 1 to which the present invention is applied.
[0037]
The television receiver 1 is provided with a display unit 11, an operation input unit 12 that receives an operation input by a user, and a slot unit 13 into which the information processing units 14-1 to 14-n can be mounted. . The display unit 11 includes, for example, a CRT (Cathode Ray Tube), an LCD (Liquid Crystal Display), or a plasma display. The operation input unit 12 includes, for example, a button, a dial, or an infrared light receiving unit that receives infrared light transmitted from a remote commander.
[0038]
The information processing units 14-1 to 14-n that can be mounted in the slot unit 13 are image signals corresponding to images displayed on the television receiver 1, audio signals corresponding to output audio, and the like. For example, it is composed of a substrate or a housing with a built-in substrate, and the external dimensions thereof are predetermined so as to match the shape of the slot portion 13. When any one of the information processing unit 14-1 to the information processing unit 14-n is attached to the slot unit 13 and the information processing unit 14-1 to the information processing unit 14-n, respectively, A connector or a contact terminal for connection is provided, and signal lines and pin assignments of the connector or the contact terminal are shared, and a system controller of the television receiver 1 described later with reference to FIG. The information processing units 14-1 to 14-n are configured to be electrically connectable.
[0039]
Hereinafter, when it is not necessary to distinguish the information processing units 14-1 to 14-n from each other, they are simply referred to as the information processing unit 14.
[0040]
In addition, here, it has been described that a plurality of information processing units 14 can be mounted in one slot portion 13, but a plurality of slot portions 13 in which one or a plurality of information processing units 14 can be mounted are provided. You may be allowed to.
[0041]
FIG. 2 is a block diagram showing an internal configuration of the television receiver 1. In FIG. 2, only the portion related to the processing of the video signal is shown, and the portion related to the audio signal is omitted.
[0042]
When a user performs an operation input to the television receiver 1 using the remote commander 21, the infrared light receiving unit 22 of the operation input unit 12 receives an infrared signal indicating the user's operation input and supplies it to the system controller 23. To do.
[0043]
The system controller 23 controls internal processing of the television receiver 1 and outputs a control signal to each part of the television receiver 1 via the control bus 24.
[0044]
The broadcast signal received by the antenna 25 is supplied to the tuner unit 26. The tuner unit 26 selects a broadcast signal based on the control signal supplied from the system controller 23 via the control bus 24 and supplies it to the video signal selection unit 27. In the video signal selection unit 27, the playback unit 28 plays back a video signal recorded on a recording medium such as a video cassette tape, CD (Compact Disc), or DVD (Digital Versatile Disk). The video signal selection unit 27 is supplied with the video signal reproduced by the reproduction unit 28 and various video signals input from the digital input terminal 29. The video signal selection unit 27 selects a video signal desired by the user based on the control signal supplied from the system controller 23 via the control bus 24 and supplies the video signal to the format conversion unit 30.
[0045]
The format conversion unit 30 converts the format related to the color signal and timing of the supplied video signal and supplies the converted signal to the information processing unit 14 mounted in the slot unit 13.
[0046]
The information processing unit 14 mounted in the slot unit 13 is connected by a control bus 41 and a video bus 42, and is exchanged between the control signal supplied from the system controller 23 and each of the information processing units 14. Information (for example, data such as coefficients necessary for each processing) is exchanged via the control bus 41. In addition, the video signal supplied from the format conversion unit 30 is exchanged via the video bus 42. The information processing unit 14 attached to the slot unit 13 performs predetermined processing on the supplied video signal and supplies the processed video signal to the device driver 31. Details of the processing of the information processing unit 14 will be described later.
[0047]
The device driver 31 drives a display device constituting the display unit 11 based on a control signal supplied from the system controller 23 and displays an image corresponding to the video signal on the display unit 11.
[0048]
FIG. 3 is a block diagram showing a basic configuration of the information processing unit 14.
[0049]
The information processing unit 14 includes an image processing unit 61 that performs a first process and a cooperative processing unit 62 that performs a second process. Specifically, the image processing unit 61 receives the video signal and executes the image processing, and the cooperative processing unit 62 uses the information generated by the processing of the image processing unit 61 to perform subsequent processing. The processing for improving the function of the processing executed by the image processing unit 61 of the information processing unit 14 connected to is executed.
[0050]
An input terminal 66 for supplying a video signal to the image processing unit 61 and an output terminal 67 for outputting the processed video signal are connected to the video bus 42 of FIG. Alternatively, the input terminal 63 to which various types of information such as coefficients are input and the output terminal 65 to which various types of information generated by the cooperative processing unit 62 are output are connected to the control bus 41 in FIG.
[0051]
The class classification processing unit 81 of the image processing unit 61 classifies a pixel of interest, which is a pixel of interest in image processing, from among the frames being processed of the video signal supplied via the input terminal 66. A plurality of class classification processing units 81 may be connected in parallel, and class classification processing using different feature amounts may be performed in parallel.
[0052]
FIG. 4 is a block diagram illustrating a configuration of the class classification processing unit 81.
[0053]
The class tap acquisition unit 101 acquires a predetermined number of class taps corresponding to the target pixel from the frame image being processed of the supplied video signal, and the acquired class taps are classified into the class classification unit 102 and the delay unit 84. To supply. Based on the supplied class tap, the class classification unit 102 assigns the target pixel to a predetermined number of classes based on, for example, feature quantities such as noise steadiness and non-stationary feature quantities and motion feature quantities. The class number is classified into one class, and the class number (class classification) corresponding to the classified class is supplied to the class degeneration unit 82.
[0054]
Here, as a method of classifying, for example, ADRC (Adaptive Dynamic Range Coding) or the like can be employed. When ADRC is used, the pixels constituting the class tap are subjected to ADRC processing, and the class of the pixel of interest is determined according to the ADRC code obtained as a result.
[0055]
Note that the class classification unit 102 can output, for example, the feature amount level distribution pattern of each pixel constituting the class tap as it is as the class classification. However, in this case, if the class tap is composed of N pixel samples and K bits are assigned to each pixel sample, the number of class information output by the class classification unit 102 is as follows. It becomes a huge number that is exponentially proportional to the number K of bits.
[0056]
Therefore, the class classification unit 102 preferably performs class classification by compressing the information amount of the class tap by the above-described ADRC processing or vector quantization.
[0057]
If the class reduction unit 82 is connected to one or more class numbers obtained by the class classification processing unit 81 and the information processing unit 14 that executes different processing in the previous stage, the class reduction unit 82 In response to the supply of the cooperative transmission information obtained by the processing of the cooperative processing unit 62, the information is collected into class information (class code) and supplied to the coefficient memory 83.
[0058]
FIG. 5 is a block diagram illustrating a configuration of the class degeneration unit 82.
[0059]
In the example of FIG. 5, a case will be described in which 2-bit motion class data MV1 and MB0 and 4-bit space class data SP3 to SP0 are supplied from the class classification processing unit 81 and are degenerated. The same processing is basically executed even when the type of class information, the type of cooperative transmission information, the number of information, and the like are different.
[0060]
The 2-bit motion classes MV1 and MB0 are supplied to an OR circuit 121. The output of the OR circuit 121 is input to one input MSB (most significant bit) terminal of the adder 122 (the lower terminal in the figure is the most significant bit). The MV1 of the motion class is input to the second bit from the MSB of one input of the adder 122. The lower 3 bits of one input of the adder 122 are grounded and set to 0.
[0061]
Of the space class data SP3 to SP0, the MSB SP3 is the second terminal from the MSB of the shifter 123, SP2 is the second terminal from the MSB, SP1 is the third terminal from the MSB, and SP0 is Each is input to the LSB terminal. The MSB terminal of the shifter 123 is grounded and set to zero.
[0062]
The shifter 123 operates in accordance with the motion class. When the motion class is 0, the input lower 4 bits of data are directly input to the lower 4 bits of the other input of the adder 122. On the other hand, when the motion class is not 0 (1 or 2), the shifter 123 shifts the lower 4 bits of data to the LSB side bit by bit. That is, the input data is substantially ½ value. Then, the data after the bit shift is supplied to the lower 4 bits of the other input of the adder 122. The MSB of the other input of the adder 122 is grounded and is always set to zero.
[0063]
The adder 122 adds the 5-bit data supplied from one input and the 5-bit data supplied from the other input, and uses the addition result as class information to generate the coefficient memory 83 and the adaptive prediction processing unit 85. Output to.
[0064]
The coefficient memory 83 stores the tap coefficient of the class corresponding to the class information at the address corresponding to each class information, and the tap stored at the address corresponding to the class information supplied from the class degeneration unit 82. The coefficients are supplied to the adaptive prediction processing unit 85.
[0065]
The delay unit 84 receives supply of the class tap acquired by the class tap acquisition unit 101, and performs adaptive prediction processing of the class tap only for a time corresponding to the processing speed of the class classification unit 102, the class degeneration unit 82, and the coefficient memory 83. The supply to the unit 85 is delayed.
[0066]
Based on the class tap supplied from the delay unit 84 and the tap coefficient supplied from the coefficient memory 83, the adaptive prediction processing unit 85 obtains an adaptive prediction value corresponding to the target pixel by, for example, linear prediction calculation. And output from the output terminal 67.
[0067]
Here, image processing using class classification adaptive processing has been described as an example of processing executed by the image processing unit 61, but the image processing unit 61 uses a method other than class classification adaptive prediction, Needless to say, image processing may be performed.
[0068]
When the corresponding information processing unit 14 is in the subsequent stage of the different information processing unit 14, the delay unit 64 transmits the cooperative transmission information generated by the cooperative processing unit 62 of the previous information processing unit 14 via the input terminal 63. Input, delayed for a predetermined time, and supplied to the cooperative transmission information conversion unit 71. When the corresponding information processing unit 14 is in a subsequent stage of a different information processing unit 14, the cooperative transmission information conversion unit 71 receives supply of the cooperative transmission information generated in the previous information processing unit 14 from the delay unit 64. Conversion to the cooperative transmission information, which is suitable additional information to be used in the processing of the image processing unit 61 of the information processing unit 14 at the subsequent stage, upon receiving the supply of the classification result generated by the processing of the class classification processing unit 81 Processing is performed and output to the delay unit 72.
[0069]
When the corresponding information processing unit 14 executes the first stage processing of the image processing, the cooperative transmission information conversion unit 71 uses only the class classification result generated by the processing of the class classification processing unit 81, and uses the latter part. Conversion processing to cooperative transmission information, which is suitable additional information to be used in the processing of the image processing unit 61 of the information processing unit 14, to generate cooperative transmission information. That is, when the corresponding information processing unit 14 executes the first stage processing of the image processing, the input terminal 63 and the delay unit 64 may be omitted.
[0070]
The delay unit 72 delays the supplied cooperative transmission information for a predetermined time in accordance with the output timing of the adaptive prediction information by the adaptive prediction processing unit 85 and causes the output terminal 65 to output it.
[0071]
When a different information processing unit is not connected to the subsequent stage of the corresponding information processing unit 14, that is, when the corresponding information processing unit 14 executes the process at the last stage of information processing, the cooperative processing unit 62 performs processing May not be executed, or the cooperation processing unit 62 may be omitted.
[0072]
Next, image processing executed by the information processing unit 14 will be described with reference to the flowchart of FIG.
[0073]
The class classification processing unit 81 of the image processing unit 61 acquires an image signal supplied via the video bus 42 in step S1, and classifies the target pixel of the supplied image signal in step S2. Execute.
[0074]
Specifically, for example, when executing the resolution creation process in which the information processing unit 14 converts the input SD signal (525i signal) into the HD signal (1050i), the class tap acquisition unit 101 of the class classification unit 81 A predetermined number of SD pixels in the vicinity of the target pixel used for prediction, that is, prediction taps, and SD pixels used for class classification corresponding to the level distribution pattern of SD pixels in the vicinity of the HD pixel to be created, that is, spatial class taps Then, SD pixels used for class classification corresponding to motion, that is, motion class taps are extracted based on SD pixels in the vicinity of the HD pixel to be created. When the space class is determined using SD pixels belonging to a plurality of fields, motion information is also included in the space class. The prediction tap is supplied to the delay unit 84, delayed by a predetermined time, and then supplied to the adaptive prediction processing unit 85.
[0075]
The class classification unit 102 detects a space class using a space class tap, and detects a motion class using a motion class tap. Needless to say, a plurality of class tap acquisition units 101 and class classification units 102 may be provided individually according to the type of class tap to be acquired and the type of class to be detected.
[0076]
In step S3, the cooperative transmission information conversion unit 71 of the cooperative processing unit 62 determines whether or not the information processing unit 14 is present in the subsequent stage. In step S3, when it is determined that the information processing unit 14 does not exist in the subsequent stage, the cooperative transmission information conversion unit 71 does not generate the cooperative transmission information, and thus the process proceeds to step S5.
[0077]
When it is determined in step S3 that the information processing unit 14 is present in the subsequent stage, in step S4, the cooperative transmission information conversion unit 71 indicates that the class classification result in step S2 and the other information processing unit 14 is present in the previous stage. If it is, the cooperative transmission information is generated based on the cooperative transmission information supplied from the information processing unit 14 and supplied to the delay unit 72. The delay unit 72 delays and outputs the cooperative transmission information for a predetermined period.
[0078]
Note that, in the information processing unit 14 in which the information processing unit 14 does not exist in the subsequent stage, when the cooperation processing unit 62 is omitted, steps S3 and S4 are skipped.
[0079]
In step S3, when it is determined that the information processing unit 14 does not exist in the subsequent stage, or after the processing in step S4 ends, in step S5, the class degeneration unit 82 determines whether the information processing unit 14 exists in the previous stage. Determine whether.
[0080]
If it is determined in step S5 that the information processing unit 14 is present in the preceding stage, the class degeneration unit 82 acquires the cooperative transmission information supplied from the previous information processing unit in step S6, and the acquired cooperative transmission information. And class degeneration is performed based on the classification result in step S2.
[0081]
If it is determined in step S5 that the information processing unit 14 does not exist in the preceding stage, in step S8, the class degeneration unit 82 performs class degeneration based on the class classification result in step S2.
[0082]
In step S9, adaptive prediction is executed by the processing of the coefficient memory 83 and the adaptive prediction processing unit 85, the prediction result is output, and the processing is terminated.
[0083]
Specifically, the class information obtained by the processing of the class reduction unit 82 is supplied as an address to the coefficient memory 83, the coefficient data corresponding to the class information is read from the coefficient memory 83, and the adaptive prediction processing unit 85. To be supplied. Further, the prediction tap is supplied from the delay unit 84 to the adaptive prediction processing unit 85. The adaptive prediction processing unit 85 calculates HD data (1050i signal data) corresponding to the SD data using a linear estimation formula of the prediction tap (pixel of the 525i signal) and coefficient data.
[0084]
Since such processing is continuously executed in the plurality of information processing units 14, for example, when a part of the plurality of information processing units 14 is replaced and its function is improved, for example, replacement is performed. In addition to improving the performance of the processing executed by the information processing unit 14-2, the cooperative transmission information generated in the exchanged information processing unit-2 is used, so that the subsequent information processing unit 14- The processing executed by 3 is also improved.
[0085]
Next, a specific example of the relationship between the cooperative transmission information and the processing executed by the image processing unit 61 of the information processing unit 14 at the subsequent stage will be described.
[0086]
FIG. 7 shows a specific configuration of the information processing unit 14-1 to the information processing unit 14-3 when the information processing unit 14-1 to the information processing unit 14-3 is mounted in the slot portion 13, It is a block diagram which shows the connection of a unit. In FIG. 7, the control bus 41 and the video bus 42 are omitted, and the image signal and the image signal are described so as to be directly input / output in each unit. Needless to say, the data is transmitted / received via the control bus 41 and the video bus 42.
[0087]
The information processing units 14-1 to 14-3 mounted in the slot unit 13 perform independent functions by themselves in the image processing units 61-1 to 61-3, respectively. . First, the processing of the image processing unit 61-1 to the image processing unit 61-3 in the information processing unit 14-1 to the information processing unit 14-3 will be described.
[0088]
The information processing unit 14-1 executes processing for removing distortion from the supplied image signal by the class classification adaptive processing in the image processing unit 61-1, and a weak electric field included in a normal TV signal In addition to noise removal, distortion such as block distortion and mosquito distortion of MPEG digital broadcasting can be removed by changing the coefficient of adaptive processing or using MPEG side information.
[0089]
Specifically, the side information class classification unit 81-1a executes class classification based on MPEG side information. The non-stationary feature quantity class classification unit 81-1b performs class classification based on the non-stationary feature quantity of noise. The steady feature class classification unit 81-1c executes class classification based on the steady feature of noise. The motion evaluation class classification unit 81-1d executes class classification based on the motion feature amount extraction. Then, the class reduction unit 82-1 reduces the class classification corresponding to the type of distortion to be removed among the class classifications detected by the side information class classification unit 81-1a to the motion evaluation class classification unit 81-1d. The class information is collected and supplied to the coefficient memory 83-1. The coefficient memory 83-1 stores coefficients necessary for adaptive prediction for distortion removal, and supplies coefficients corresponding to the supplied class information to the adaptive prediction processing unit 85-1. The delay unit 84-1 receives the prediction tap, delays it for a predetermined time, and supplies it to the adaptive prediction processing unit 85-1. The adaptive prediction processing unit 85-1 performs adaptive prediction processing according to the class and outputs an image signal from which noise has been removed.
[0090]
In the image processing unit 61-2, the information processing unit 14-2 performs processing for creating a temporal and spatial resolution of an image signal by class classification adaptive processing. The information processing unit 14-2 performs temporal processing (number of frames), spatial processing (pixels). The number of lines and the number of lines) are converted, and information on the band that is not originally possessed is created, for example, conversion from a standard television image to a high-definition image, or from a 24-frame movie source to a 60-frame television. Like processing such as conversion to a broadcast signal format, a higher definition image can be created.
[0091]
The spatio-temporal class classification unit 81-2 extracts the space class tap and the motion class tap, and executes class classification based on the motion feature quantity in the time direction (number of frames) and space direction (number of pixels, number of lines). To do. The class degeneration unit 82-2 degenerates the class classification detected by the spatio-temporal class classification unit 81-2 and the cooperative transmission information supplied from the cooperative processing unit 62-1 of the information processing unit 14-1, The class information is collected and supplied to the coefficient memory 83-2. The coefficient memory 83-2 stores coefficients necessary for adaptive prediction for resolution creation, and supplies coefficients corresponding to the supplied class information to the adaptive prediction processing unit 85-2. The delay unit 84-2 receives the supply of the class tap, delays it for a predetermined time, and supplies it to the adaptive prediction processing unit 85-2. The adaptive prediction processing unit 85-2 performs adaptive prediction processing according to the class, and outputs a resolution-created image signal.
[0092]
The information processing unit 14-3 causes the gradation characteristics of the supplied image signal to be linear with respect to the human eye through the class classification adaptation process according to the gradation in the image processing unit 61-3. This is a process for creating gradation by converting to a tonal characteristic. For example, depending on whether the display device is a CRT, a plasma, or an LCD, mainly due to a difference in a gamma characteristic. Although the gradation characteristics suitable for display are different, the image processing unit 61-3 makes it possible to create an optimum gradation change in any case. A correct image is displayed on the display unit 11.
[0093]
The gradation class classification unit 81-3 extracts gradation class taps and executes class classification. The class degeneration unit 82-3 degenerates the class classification detected by the gradation class classification unit 81-3 and the cooperative transmission information supplied from the cooperative processing unit 62-2 of the information processing unit 14-2, The class information is collected and supplied to the coefficient memory 83-3. The coefficient memory 83-3 stores coefficients necessary for adaptive prediction for gradation creation, and supplies coefficients corresponding to the supplied class information to the adaptive prediction processing unit 85-3. The delay unit 84-3 receives the supply of the class tap, delays it for a predetermined time, and supplies it to the adaptive prediction processing unit 85-3. The adaptive prediction processing unit 85-3 performs adaptive prediction processing according to the class, and outputs an image signal with a resolution created.
[0094]
Here, in the image processing unit 61-1, what kind of distortion can be removed from weak electric field noise included in a normal TV signal or block distortion or mosquito distortion of MPEG digital broadcasting? The circuit configuration may be determined based on the above, and the image processing unit 61-2 may determine the circuit configuration based on what input signal can be created from what input signal. Alternatively, in the image processing unit 63-3, the circuit configuration may be determined based on what gradation characteristics are used to create the gradation degree. Further, in the information processing unit 14 having these image processing units 61, for example, by using the technique described in Japanese Patent Laid-Open No. 2000-41223, a plurality of signals can be obtained without increasing the hardware scale. You may enable it to perform a process and an image conversion process.
[0095]
Specifically, for example, most of hardware necessary for performing resolution creation processing for converting an input 525i signal into a 1050i signal or a 525p signal can be used in common. The image processing unit 61-2 can execute both a resolution creation process for converting an input 525i signal into a 1050i signal and a resolution creation process for conversion into a 525p signal. Based on the detection result of the input image signal or automatically, a conversion method selection signal is generated and an output signal is selected from either a 1050i signal or a 525p signal. You may be able to do that.
[0096]
As described above, the information processing units 14-1 to 14-3 perform independent functions only in the image processing units 61-1 to 61-3, respectively. Each of the units 62-1 to 62-3 is included. The cooperative processing units 62-1 to 62-3 are supplied with the feature amounts extracted by the image processing units 61-1 to 61-3, and use these feature amounts as the image processing unit 61 of the information processing unit 14 at the subsequent stage. Generate and output cooperative transmission information used in
[0097]
The cooperative transmission information conversion unit 71-1 of the cooperative processing unit 62-1 receives supply of the extracted feature amount from the side information class classification unit 81-1a to the motion evaluation class classification unit 81-1d of the image processing unit 61, The information is converted into cooperative transmission information that expresses distortion characteristics, and is supplied to the delay unit 72-1. The delay unit 72-1 delays the supplied cooperative transmission information by a predetermined time and supplies the information to the delay unit 64-2 of the information processing unit 14-2.
[0098]
The delay unit 64-2 of the information processing unit 14-2 receives the supply of the cooperative transmission information expressing the distortion characteristics, delays by a predetermined time, and cooperates with the cooperative transmission information conversion unit 71- of the cooperative processing unit 62-2. 2 and the class reduction unit 82-2 of the image processing unit 61-2.
[0099]
Here, when the image processing unit 61-2 creates a resolution, the resolution creation performance may vary greatly depending on whether or not the image signal from which distortion has been removed in the preceding image processing unit 61-1 is used. is there. For example, a case will be described in which the mosquito distortion is in a place where an image is present and the mosquito distortion is removed in the image processing unit 61-1.
[0100]
In the image after mosquito distortion removal, the distortion component is suppressed, but because the distortion is removed, the image after distortion is the detail information that was originally in the image signal or the distortion is suppressed. In some cases, it may be difficult to distinguish whether the component is a little left behind. On the other hand, the creation of resolution in the image processing unit 61-1 is performed by transmitting the distortion characteristic information in the image processing unit 61-1 to the image processing unit 61-2 corresponding to the position of the image. Can be made to correctly determine how much effect should be applied to the generated image signal. For example, the image processing unit 61-2 refers to the distortion characteristic information in the image processing unit 61-1, and acts on the portion where the distortion has occurred in a direction to suppress the resolution, thereby generating the distortion. By applying the effect to the detail to improve the resolution, the image processing performance can be greatly improved.
[0101]
The cooperative transmission information conversion unit 71-2 of the cooperative processing unit 62-2 is supplied from the cooperative transmission information supplied from the cooperative processing unit 62-1 of the information processing unit 14-1 and the spatio-temporal class classification unit 81-2. The spatiotemporal class information is converted into cooperative transmission information that expresses spatiotemporal change information suitable for use in the processing in the subsequent image processing unit 61-3, and is supplied to the delay unit 72-2. The delay unit 72-2 delays the supplied cooperative transmission information by a predetermined time and supplies the information to the delay unit 64-3 of the information processing unit 14-3.
[0102]
The delay unit 64-3 of the information processing unit 14-3 receives the supply of the cooperative transmission information that expresses the spatio-temporal change information, delays by a predetermined time, and the cooperative transmission information conversion unit 71 of the cooperative processing unit 62-3. -3 and the class reduction unit 82-3 of the image processing unit 61-3.
[0103]
As described above, the gradation characteristics are mainly different depending on the difference in the gamma characteristics. However, this is only a static characteristic, and the gradation characteristics in the case of a moving image are spatial changes of pixels around the attention point. It has dynamic characteristics that change slightly with time and changes. Specifically, for example, the appearance may be different even if the luminance is the same depending on whether the change in luminance level with the immediately preceding frame is rising to the right or falling to the left. Therefore, the spatio-temporal change information created in the previous process is very important in the gradation creation process. For example, the image processing unit 61-3 gives more detailed control of gradation creation processing by giving the change of the gradation characteristics according to the state of change of the space-time in the image processing unit 61-2. Image processing performance can be greatly improved.
[0104]
When the information processing unit 14-4 is further connected in the subsequent stage, the cooperative transmission information conversion unit 71-3 of the cooperative processing unit 62-3 receives the supplied cooperative transmission information and the gradation class classification unit 81-3. The supplied spatio-temporal class information is converted into cooperative transmission information that is used in the processing in the subsequent image processing unit 61-4 to express suitable information, and is supplied to the delay unit 72-3. The delay unit 72-3 delays the supplied cooperative transmission information by a predetermined time and supplies the information to the delay unit 64-4 of the information processing unit 14-4. Further, when the information processing unit 14-4 is not connected to the subsequent stage, the cooperation processing unit 62-3 may be omitted.
[0105]
As described above, since the processing is executed in cooperation between the different information processing units 14, for example, when the distortion removal performance is improved by exchanging the information processing unit 14-1, the distortion obtained there is reduced. The performance of the information processing unit 14-2 that executes resolution creation processing using the characteristic information is also improved. Similarly, when the performance of resolution creation is improved by replacing the information processing unit 14-2 or the like, the information processing unit 14- that executes gradation creation processing using the spatiotemporal change information obtained there. The performance of 3 is also improved.
[0106]
The information processing unit 14 described above can reduce the manufacturing cost by configuring the common processing parts by the same LSI (Large Scale Integration).
[0107]
Specifically, as shown in FIG. 8, a part of the image processing unit 61 that performs processing for class classification is set as a processing block 151 as one part that performs add-on processing, and the cooperative processing unit 62 is If the other part to be processed is the processing block 152, and the part of the image processing unit 61 that performs class degeneration and adaptive prediction is the processing block 151 that performs the main processing, each is configured by the same LSI. good.
[0108]
That is, the side information class classification unit 81-1a to the motion evaluation class classification unit 81-1d, the spatio-temporal class classification unit 82, and the gradation class classification unit 83 can be configured by the same LSI having a class classification processing function ( Processing blocks 151-1 to 151-3). The cooperative transmission information conversion unit 71-1 and the delay unit 72-1, the cooperative transmission information conversion unit 71-2 and the delay unit 72-2, and the cooperative transmission information conversion unit 71-3 and the delay unit 72-3 are: It can be configured by the same LSI having the function of generating cooperative transmission information (processing blocks 152-1 to 152-3). Also, a class degeneration unit 82-1, a coefficient memory 83-1, a delay unit 84-1, and an adaptive prediction processing unit 85-1, a class degeneration unit 82-2, a coefficient memory 83-2, a delay unit 84-2, The adaptive prediction processing unit 85-2, the class degeneration unit 82-3, the coefficient memory 83-3, the delay unit 84-3, and the adaptive prediction processing unit 85-3 have functions of class degeneration and adaptive prediction. The same LSI can be used (processing blocks 153-1 to 153-3).
[0109]
Note that these processing blocks 151 to 153 can be configured by LSIs having many common parts, even if it may not be possible to configure the processing blocks 151 to 153 by the same LSI.
[0110]
In addition, each LSI applies, for example, a technique described in International Publication No. WO96 / 07987 to digital signal processing of a plurality of functions by common hardware configured on one LSI chip. May be possible.
[0111]
Specifically, the LSI is provided with a plurality of input terminals and output terminals, and a control signal input terminal, and a plurality of circuit groups are formed. As the circuit group, for example, one or a plurality of arithmetic circuits, memories, product-sum arithmetic circuits, adders, multipliers, registers, and the like are formed as necessary. Based on the supplied control signal, the input / output or mutual connection state (which means both circuit groups or interconnections between circuits, and interconnections between circuits within the circuit group) is switched. Are provided for these circuit groups or circuits. In other words, it is configured such that the flow of digital signals in the LSI and the function of each circuit group can be controlled by the operation of a switcher that is switched by a control signal.
[0112]
The processing blocks 151-1 to 151-3, the processing blocks 152-1 to 152-3, or the processing blocks 153-1 to 153-3 have such a configuration, and digital signal processing of a plurality of functions is possible. By using such an LSI, it is possible to flexibly cope with a function change without changing the configuration of the information processing unit 14.
[0113]
In addition, by replacing each information processing unit 14 with an LSI for each processing block, the function of the entire television receiver 1 is improved at a lower cost by replacing only a specific LSI. It becomes possible.
[0114]
In the above description, the television receiver 1 has been described as an example. However, the present invention can be applied to any information processing device that processes information using a plurality of processing units (or processing blocks). Needless to say.
[0115]
【The invention's effect】
Thus, according to the present invention, the supplied information can be processed. In particular, information can be processed in a coordinated manner in a plurality of installed information processing units.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating an appearance of a television receiver to which the present invention is applied.
FIG. 2 is a block diagram showing an internal structure of the television receiver of FIG.
3 is a block diagram showing a configuration of the information processing unit of FIGS. 1 and 2. FIG.
4 is a block diagram illustrating a configuration of a class classification processing unit in FIG. 3;
5 is a block diagram showing a configuration of a class degeneration unit in FIG. 3. FIG.
6 is a flowchart illustrating processing executed by the information processing unit of FIG.
7 is a diagram illustrating a specific configuration of the information processing unit in FIG. 3;
FIG. 8 is a diagram for explaining that the information processing unit of FIG. 7 is configured using an LSI.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Television receiver, 11 Display part, 12 Operation input part, 13 Slot part, 14 Information processing unit, 23 System controller, 41 Control bus, 42 Video bus, 61 Image processing part, 62 Cooperation processing part, 71 Cooperation transmission information Conversion unit, 72 delay unit, 81 class classification processing unit, 82 class degeneration unit, 83 coefficient memory, 84 delay unit, 85 adaptive prediction processing unit, 151 to 153 processing blocks

Claims (7)

複数の情報処理ユニットが装着され、画像情報を処理する情報処理装置において、
複数の前記情報処理ユニットを装着する装着手段と、
前記装着手段により装着された前記情報処理ユニットに前記画像情報を供給する情報供給手段と、
前記装着手段により装着された前記情報処理ユニットにより処理された前記画像情報を取得する情報取得手段と
を備え、
前記装着手段に装着された前記情報処理ユニットのそれぞれは、
前記画像情報の歪を除去する処理する第1の情報処理手段と、
前記第1の情報処理手段により処理される前記画像情報とは異なる情報であって、後段の他の前記情報処理ユニットの前記第1の情報処理手段による前記画像情報の処理に用いる前記画像情報の歪の特性情報を生成する第2の情報処理手段と
を備え
ことを特徴とする情報処理装置。
In an information processing apparatus that is equipped with a plurality of information processing units and processes image information ,
Mounting means for mounting a plurality of the information processing units;
Information supply means for supplying the image information to the information processing unit mounted by the mounting means;
Information acquisition means for acquiring the image information processed by the information processing unit mounted by the mounting means;
Each of the information processing units mounted on the mounting means is
A first information processing means for processing for removing the distortion of the image information,
A information different from the image information processed by said first processing means, the image information by the first information processing means of the other of said information processing unit in the subsequent stage Ru used for processing of the image information Ru and a second information processing means for generating characteristic information of strain
An information processing apparatus characterized by that.
複数の情報処理ユニットが装着され、画像情報を処理する情報処理装置の情報処理方法において、
複数装着された前記情報処理ユニットは、
第1の情報処理部で前記画像情報の歪を除去する処理し、
第2の情報処理部で、前記第1の情報処理部により処理される前記画像情報とは異なる情報であって、後段の他の前記情報処理ユニットの前記第1の情報処理部による前記画像情報の処理に用いる前記画像情報の歪の特性情報を生成する
ことを特徴とする情報処理方法。
In an information processing method of an information processing apparatus that is equipped with a plurality of information processing units and processes image information ,
A plurality of the information processing units mounted are
A process of removing distortion of the image information in a first information processing unit;
The second information processing unit is information different from the image information processed by the first information processing unit, and the image information by the first information processing unit of the other information processing unit in the subsequent stage. the information processing method characterized by generating a distortion characteristic information of the image information Ru used for the processing.
複数の情報処理ユニットが装着され、画像情報を処理する情報処理装置において、In an information processing apparatus that is equipped with a plurality of information processing units and processes image information,
複数の前記情報処理ユニットを装着する装着手段と、  Mounting means for mounting a plurality of the information processing units;
前記装着手段により装着された前記情報処理ユニットに前記画像情報を供給する情報供給手段と、  Information supply means for supplying the image information to the information processing unit mounted by the mounting means;
前記装着手段により装着された前記情報処理ユニットにより処理された前記画像情報を取得する情報取得手段と  Information acquisition means for acquiring the image information processed by the information processing unit mounted by the mounting means;
を備え、  With
前記装着手段に装着された前記情報処理ユニットのそれぞれは、  Each of the information processing units mounted on the mounting means is
前記画像情報の解像度を上げる処理を実行する第1の情報処理手段と、    First information processing means for executing processing for increasing the resolution of the image information;
前記第1の情報処理手段により処理される前記画像情報とは異なる情報であって、後段の他の前記情報処理ユニットの前記第1の情報処理手段による前記画像情報の処理に用いる前記画像情報の時間または空間における画像情報の変化を示す情報を生成する第2の情報処理手段と    The image information is different from the image information processed by the first information processing means, and is used for processing the image information by the first information processing means of the other information processing unit in the subsequent stage. Second information processing means for generating information indicating a change in image information in time or space;
を備える  With
ことを特徴とする情報処理装置。  An information processing apparatus characterized by that.
前記第1の情報処理手段は、前段の他の前記情報処理ユニットの前記第2の情報処理手段により生成された前記画像情報の歪の特性情報を用いて、前記画像情報の解像度を上げる処理を実行するThe first information processing unit performs processing for increasing the resolution of the image information using the distortion characteristic information of the image information generated by the second information processing unit of the other information processing unit in the preceding stage. Execute
ことを特徴とする請求項3に記載の情報処理装置。  The information processing apparatus according to claim 3.
複数の情報処理ユニットが装着され、画像情報を処理する情報処理装置の情報処理方法において、In an information processing method of an information processing apparatus that is equipped with a plurality of information processing units and processes image information,
複数装着された前記情報処理ユニットは、  A plurality of the information processing units mounted are
第1の情報処理部で前記画像情報の解像度を上げる処理を実行し、    Executing a process of increasing the resolution of the image information in the first information processing unit;
第2の情報処理部で、前記第1の情報処理部により処理される前記画像情報とは異なる情報であって、後段の他の前記情報処理ユニットの前記第1の情報処理部による前記画像情報の処理に用いる前記画像情報の時間または空間における画像情報の変化を示す情報を生成する    The second information processing unit is information different from the image information processed by the first information processing unit, and the image information by the first information processing unit of the other information processing unit in the subsequent stage. Generating information indicating a change in image information in time or space of the image information used in the processing of
ことを特徴とする情報処理方法。  An information processing method characterized by the above.
複数の情報処理ユニットが装着され、画像情報を処理する情報処理装置において、In an information processing apparatus that is equipped with a plurality of information processing units and processes image information,
複数の前記情報処理ユニットを装着する装着手段と、  Mounting means for mounting a plurality of the information processing units;
前記装着手段により装着された前記情報処理ユニットに前記画像情報を供給する情報供給手段と、  Information supply means for supplying the image information to the information processing unit mounted by the mounting means;
前記装着手段により装着された前記情報処理ユニットにより処理された前記画像情報を取得する情報取得手段と  Information acquisition means for acquiring the image information processed by the information processing unit mounted by the mounting means;
を備え、  With
前記装着手段に装着された前記情報処理ユニットのそれぞれは、  Each of the information processing units mounted on the mounting means is
前記画像情報の階調を上げる処理を実行する第1の情報処理手段と、    First information processing means for executing processing for increasing the gradation of the image information;
前記第1の情報処理手段により処理される前記画像情報とは異なる情報であって、後段の他の前記情報処理ユニットの前記第1の情報処理手段による前記画像情報の処理に用いる前記画像情報の時間または空間における画像情報の変化を示す情報を生成する第2の情報処理手段と    The image information is different from the image information processed by the first information processing means, and is used for processing the image information by the first information processing means of the other information processing unit in the subsequent stage. Second information processing means for generating information indicating a change in image information in time or space;
を備える  With
ことを特徴とする情報処理装置。  An information processing apparatus characterized by that.
複数の情報処理ユニットが装着され、画像情報を処理する情報処理装置の情報処理方法において、In an information processing method of an information processing apparatus that is equipped with a plurality of information processing units and processes image information,
複数装着された前記情報処理ユニットは、  A plurality of the information processing units mounted are
第1の情報処理部で前記画像情報の階調を上げる処理を実行し、    Executing a process of increasing the gradation of the image information in the first information processing unit;
第2の情報処理部で、前記第1の情報処理部により処理される前記画像情報とは異なる情報であって、後段の他の前記情報処理ユニットの前記第1の情報処理部による前記画像情報の処理に用いる前記画像情報の時間または空間における画像情報の変化を示す情報を生成する    The second information processing unit is information different from the image information processed by the first information processing unit, and the image information by the first information processing unit of the other information processing unit in the subsequent stage. Generating information indicating a change in image information in time or space of the image information used in the processing of
ことを特徴とする情報処理方法。  An information processing method characterized by the above.
JP2003036099A 2003-02-14 2003-02-14 Information processing apparatus and information processing method Expired - Fee Related JP4363054B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003036099A JP4363054B2 (en) 2003-02-14 2003-02-14 Information processing apparatus and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003036099A JP4363054B2 (en) 2003-02-14 2003-02-14 Information processing apparatus and information processing method

Publications (2)

Publication Number Publication Date
JP2004247989A JP2004247989A (en) 2004-09-02
JP4363054B2 true JP4363054B2 (en) 2009-11-11

Family

ID=33021294

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003036099A Expired - Fee Related JP4363054B2 (en) 2003-02-14 2003-02-14 Information processing apparatus and information processing method

Country Status (1)

Country Link
JP (1) JP4363054B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020016836A1 (en) * 2018-07-18 2020-01-23 Advenio Tecnosys Pvt. Ltd. System and method for managing the quality of an image

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013094054A1 (en) * 2011-12-22 2013-06-27 三洋電機株式会社 Display device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020016836A1 (en) * 2018-07-18 2020-01-23 Advenio Tecnosys Pvt. Ltd. System and method for managing the quality of an image

Also Published As

Publication number Publication date
JP2004247989A (en) 2004-09-02

Similar Documents

Publication Publication Date Title
US7085323B2 (en) Enhanced resolution video construction method and apparatus
US6353460B1 (en) Television receiver, video signal processing device, image processing device and image processing method
US7630576B2 (en) Signal processing apparatus and method, and command-sequence data structure
TWI432017B (en) Systems and methods for a motion compensated picture rate converter
US7006156B2 (en) Image data output device and receiving device
CN100505889C (en) Image and sound output system and device, audio processing program and recording medium
US20100245372A1 (en) Method and apparatus for frame interpolation
JPWO2007063912A1 (en) Playback device
US7602442B2 (en) Apparatus and method for processing information signal
EP1554874A1 (en) A unit for and method of image conversion
JP4363054B2 (en) Information processing apparatus and information processing method
JP2003069998A (en) Image processor and image processing method
JP6134267B2 (en) Image processing apparatus, image processing method, and recording medium
JP2002199277A (en) Image data output device
JP4582681B2 (en) Signal processing apparatus, signal processing method, program, recording medium, and signal processing system
US9749579B2 (en) Apparatus and method for frame rate conversion
JP4816722B2 (en) Image signal processing device
KR100922244B1 (en) Signal processing device, and image output device
JP2014236241A (en) Display device
US7263239B2 (en) Method for resizing images using the inverse discrete cosine transform
JP2007527139A (en) Interpolation of motion compensated image signal
JP2005236633A (en) Signal processing apparatus and method
Solari Architecture for a digital video recorder
US8374493B2 (en) Playback apparatus
EP1547378A1 (en) A unit for and method of image conversion

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090129

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090728

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090810

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120828

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120828

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130828

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees