JP3693246B2 - Display device, control method, program, recording medium, and display system - Google Patents

Display device, control method, program, recording medium, and display system Download PDF

Info

Publication number
JP3693246B2
JP3693246B2 JP2001399868A JP2001399868A JP3693246B2 JP 3693246 B2 JP3693246 B2 JP 3693246B2 JP 2001399868 A JP2001399868 A JP 2001399868A JP 2001399868 A JP2001399868 A JP 2001399868A JP 3693246 B2 JP3693246 B2 JP 3693246B2
Authority
JP
Japan
Prior art keywords
display device
image data
command
unit
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001399868A
Other languages
Japanese (ja)
Other versions
JP2003195843A (en
Inventor
哲二郎 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001399868A priority Critical patent/JP3693246B2/en
Priority to EP02258939A priority patent/EP1326436B1/en
Priority to US10/330,970 priority patent/US7071990B2/en
Priority to CNB021400334A priority patent/CN1247010C/en
Priority to KR1020020085917A priority patent/KR100953790B1/en
Publication of JP2003195843A publication Critical patent/JP2003195843A/en
Application granted granted Critical
Publication of JP3693246B2 publication Critical patent/JP3693246B2/en
Priority to US11/387,677 priority patent/US7777811B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、表示装置および制御方法、プログラムおよび記録媒体、並びに表示システムに関し、特に、多数の表示装置を接続して使用した場合に、単体で使用する場合よりも高機能を実現することができるようにする表示装置および制御方法、プログラムおよび記録媒体、並びに表示システムに関する。
【0002】
【従来の技術】
例えば、テレビジョン受像機においては、テレビジョン放送信号が受信され、テレビジョン放送番組としての画像が表示されるとともに、その画像に付随する音声が出力される。
【0003】
【発明が解決しようとする課題】
ところで、従来のテレビジョン受像機は、単体で動作することを前提とするものであり、このため、ユーザが、新たに、テレビジョン受像機を購入する場合には、ユーザが所有していたテレビジョン受像機は不要となり、まだ使用可能であっても廃棄されることが多い。
【0004】
従って、多数のテレビジョン受像機を接続した場合に、単体の場合よりも高機能を実現することができれば、使用可能なテレビジョン受像機の廃棄を防止して、資源の有効利用に資することができる。
【0005】
本発明は、このような状況に鑑みてなされたものであり、多数のテレビジョン受像機等の表示装置を接続して使用した場合に、単体で使用する場合よりも高機能を実現することができるようにするものである。
【0006】
【課題を解決するための手段】
本発明の表示装置は、他の表示装置が接続されたことを検出する接続検出手段と、接続検出手段において接続が検出された他の表示装置との間で認証を行う認証手段と、認証が成功した場合に、表示装置の機能を変化させる機能変化手段とを備え、表示装置および他の表示装置には、自身に接続された接続装置を制御しうる親の表示装置と、接続装置から制御しうるが、接続装置を制御できない子の表示装置との2種類が存在し、認証手段は、他の表示装置が正当なものであるかどうかについての認証と、他の表示装置が親または子の表示装置であるかどうかについての認証とを行うことを特徴とする。
【0007】
本発明の制御方法は、他の表示装置が接続されたことを検出する接続検出ステップと、接続検出ステップにおいて接続が検出された他の表示装置との間で認証を行う認証ステップと、認証が成功した場合に、表示装置の機能を変化させる機能変化ステップとを含み、表示装置および他の表示装置には、自身に接続された接続装置を制御しうる親の表示装置と、接続装置から制御しうるが、接続装置を制御できない子の表示装置との2種類が存在し、認証ステップは、他の表示装置が正当なものであるかどうかについての認証と、他の表示装置が前記親または子の表示装置であるかどうかについての認証とを行うステップを含むことを特徴とする。
【0008】
本発明のプログラムは、他の表示装置が接続されたことを検出する接続検出ステップと、接続検出ステップにおいて接続が検出された他の表示装置との間で認証を行う認証ステップと、認証が成功した場合に、表示装置の機能を変化させる機能変化ステップとを含み、表示装置および他の表示装置には、自身に接続された接続装置を制御しうる親の表示装置と、接続装置から制御しうるが、接続装置を制御できない子の表示装置との2種類が存在し、認証ステップは、他の表示装置が正当なものであるかどうかについての認証と、他の表示装置が前記親または子の表示装置であるかどうかについての認証とを行うステップを含むことを特徴とする。
【0009】
本発明の記録媒体のプログラムは、他の表示装置が接続されたことを検出する接続検出ステップと、接続検出ステップにおいて接続が検出された他の表示装置との間で認証を行う認証ステップと、認証が成功した場合に、表示装置の機能を変化させる機能変化ステップとを含み、表示装置および他の表示装置には、自身に接続された接続装置を制御しうる親の表示装置と、接続装置から制御しうるが、接続装置を制御できない子の表示装置との2種類が存在し、認証ステップは、他の表示装置が正当なものであるかどうかについての認証と、他の表示装置が前記親または子の表示装置であるかどうかについての認証とを行うステップを含むことを特徴とする。
【0010】
本発明の表示システムは、親および子の表示装置が、他の表示装置が接続されたことを検出する接続検出手段と、接続検出手段において接続が検出された他の表示装置との間で認証を行う認証手段と、認証が成功した場合に、自身の機能を変化させる機能変化手段とを有し、認証手段は、接続が検出された他の表示装置が正当なものであるかどうかについての認証と、その他の表示装置が親または子の表示装置であるかどうかについての認証とを行うことを特徴とする。
【0011】
本発明の表示装置および制御方法、プログラムおよび記録媒体、並びに表示システムにおいては、他の表示装置が接続されたことが検出され、その検出された他の表示装置との間で認証が行われる。詳細には、その検出された他の表示装置が正当なものであるかどうかについての認証と、その検出された他の表示装置が親または子の表示装置であるかどうかについての認証とが行われる。そして、認証が成功した場合に、機能が変化する。
【0012】
【発明の実施の形態】
図1は、本発明を適用したスケーラブルTV(Television)システム(システムとは、複数の装置が論理的に集合した物をいい、各構成の装置が同一筐体中にあるか否かは問わない)の一実施の形態の構成例を示す斜視図である。
【0013】
図1Aの実施の形態では、スケーラブルTVシステムは、9台のテレビジョン受像機1、並びに211,212,213,221,223,231,232,233で構成されている。また、図1Bの実施の形態では、スケーラブルTVシステムは、25台のテレビジョン受像機1、並びに211,212,213,214,215,221,222,223,224,225,231,232,234,235,241,242,243,244,245,251,252,253,254,255で構成されている。
【0014】
ここで、スケーラブルTVシステムを構成するテレビジョン受像機の数は、9台や25台に限定されるものではない。即ち、スケーラブルTVシステムは、任意の複数台のテレビジョン受像機によって構成することが可能である。また、スケーラブルTVシステムを構成するテレビジョン受像機の配置は、図1に示したように、横×縦が、3×3や5×5に限定されるものではない。即ち、スケーラブルTVシステムを構成するテレビジョン受像機の配置は、その他、例えば、横×縦が、1×2や、2×1、2×3などとすることも可能である。また、スケーラブルTVシステムを構成するテレビジョン受像機の配置形状は、図1に示したように、格子状(マトリクス状)に限定されるものではなく、例えば、ピラミッド状であっても良い。
【0015】
このようにスケーラブルTVシステムは、任意の複数台のテレビジョン受像機を、横と縦それぞれに、任意の台数だけ配置して構成することができることから、「スケーラブル」なシステムであるということができる。
【0016】
スケーラブルTVシステムを構成するテレビジョン受像機には、他のテレビジョン受像機を制御することができる親のテレビジョン受像機(以下、適宜、親機という)と、他のテレビジョン受像機から制御することができるが、他のテレビジョン受像機を制御することができない子のテレビジョン受像機(以下、適宜、子機という)の2種類が存在する。
【0017】
スケーラブルTVシステムが、後述する各種の処理を行うには、スケーラブルTVシステムを構成するテレビジョン受像機が、スケーラブルTVシステムに対応したもの(以下、適宜、スケーラブル対応機という)であり、かつ、そのうちの少なくとも1つが親機であることが条件となっている。このため、図1Aおよび図1Bの実施の形態では、スケーラブルTVシステムを構成するテレビジョン受像機のうち、例えば、中心に配置されるテレビジョン受像機が親機1とされている。
【0018】
以上から、スケーラブルTVシステムを構成するテレビジョン受像機の中に、スケーラブル対応機でないテレビジョン受像機が存在する場合には、そのテレビジョン受像機によっては、スケーラブルTVシステムの機能を享受することができない。さらに、スケーラブルTVシステムを構成するテレビジョン受像機がスケーラブル対応機であっても、そのすべてが子機である場合には、スケーラブルTVシステムの機能を享受することはできない。
【0019】
従って、ユーザは、スケーラブルTVシステムの機能を享受するためには、少なくとも、1台以上の親機、または1台の親機と1台以上の子機を購入する必要がある。
【0020】
なお、親機は、子機の機能も有しており、従って、スケーラブルTVシステムを構成するテレビジョン受像機の中に、複数台の親機が存在していてもかまわない。
【0021】
図1Aの実施の形態では、3×3台のテレビジョン受像機のうち、中心(左から2番目で、上から2番目)に配置されているテレビジョン受像機1が親機となっており、他の8台のテレビジョン受像機211,212,213,221,223,231,232,233が子機になっている。また、図1Bの実施の形態では、5×5台のテレビジョン受像機のうち、中心(左から3番目で、上から3番目)に配置されているテレビジョン受像機1が親機となっており、他の24台の211,212,213,214,215,221,222,223,224,225,231,232,234,235,241,242,243,244,245,251,252,253,254,255が子機になっている。
【0022】
従って、図1の実施の形態では、親機1は、スケーラブルTVシステムを構成するテレビジョン受像機の中心に配置されているが、親機1の位置は、スケーラブルTVシステムを構成するテレビジョン受像機の中心に限定されるものではなく、親機1は、左上や右下その他の任意の位置に配置することが可能である。
【0023】
なお、スケーラブルTVシステムにおいては、親機1がいずれの位置に配置されている場合であっても、その中心に配置されているテレビジョン受像機を親機とみなして、後述する各処理を行うようにすることが可能である。
【0024】
ここで、以下においては、説明を簡単にするため、スケーラブルTVシステムは、図1Aに示したように、3×3台のテレビジョン受像機で構成されるものとし、さらに、親機1は、スケーラブルTVシステムを構成するテレビジョン受像機の中心に配置されるものとする。
【0025】
なお、スケーラブルTVシステムを構成する子機2ijのサフィックスijは、その子機2ijが、スケーラブルTVシステムにおいて、第i列第j行(上からi行目の、左からj列目)に配置されているものであることを表す。
【0026】
また、以下、適宜、子機2ijを特に区別する必要がない限り、子機2と記述する。
【0027】
次に、図2は、親機1であるテレビジョン受像機の構成例を示す斜視図である。
【0028】
親機1は、その表示画面のサイズが、例えば、14インチ(inch)または15インチなどのテレビジョン受像機であり、その正面中央部分に、画像を表示するCRT(Cathod Ray Tube)11が設けられており、また、その正面の左端と右端に、音声を出力するスピーカユニット12Lと12Rがそれぞれ設けられている。
【0029】
そして、図示せぬアンテナで受信されたテレビジョン放送信号における画像が、CRT11で表示され、また、その画像に付随する音声のL(Left)チャンネルとR(Right)チャンネルが、スピーカユニット12Lと12Rから、それぞれ出力される。
【0030】
親機1には、赤外線IR(Infrared Ray)を出射するリモートコマンダ(以下、適宜、リモコンという)15が付随しており、ユーザは、このリモコン15を操作することにより、受信チャンネルや音量の変更、その他各種のコマンドを、親機1に与えることができるようになっている。
【0031】
なお、リモコン15は、赤外線通信を行うものに限定されるものではなく、例えば、BlueTooth(商標)その他の無線通信を行うものを採用することが可能である。
【0032】
また、リモコン15は、親機1のみならず、子機2を制御することも可能である。
【0033】
次に、図3は、図2の親機1の構成例を示す6面図である。
【0034】
図3Aは親機1の正面を、図3Bは親機1の上面を、図3Cは親機1の底面を、図3Dは親機1の左側面を、図3Eは親機1の右側面を、図3Fは親機1の背面を、それぞれ示している。
【0035】
親機1の上面(図3B)、底面(図3C)、左側面(図3D)、および右側面(図3E)には、固定機構が設けられている。後述するように、子機2であるテレビジョン受像機の上面、底面、左側面、および右側面にも、同様の固定機構が設けられており、親機1の上面側、底面側、左側面側、または右側面側に、子機2や他の親機が配置されると、親機1の上面、底面、左側面、または右側面に設けられた固定機構と、子機2や他の親機の対向する面に設けられた固定機構とが、例えば嵌合し、親機1と、子機2や他の親機とが、容易に離れないように固定される。これにより、スケーラブルTVシステムを構成するテレビジョン受像機の位置ずれなどを防止するようになっている。
【0036】
なお、固定機構は、機械的な機構で構成することもできるし、その他、例えば、磁石などによって構成することも可能である。
【0037】
親機1の背面には、図3Fに示すように、端子パネル21、アンテナ端子22、入力端子23、および出力端子24が設けられている。
【0038】
端子パネル21には、親機1と、図1AのスケーラブルTVシステムを構成する8台の子機211,212,213,221,223,231,232,233それぞれとを電気的に接続するための8つのIEEE(Institute of Electrical and Electronics Engineers)1394端子2111,2112,2113,2121,2123,2131,2132,2133が設けられている。
【0039】
ここで、図3Fの実施の形態では、親機1が、図1AのスケーラブルTVシステムでの子機2ijの位置を把握するため、端子パネル21においては、ユーザが、スケーラブルTVシステムを、その背面側から見た場合に、図1AのスケーラブルTVシステムでの子機2ijの位置に対応する位置に、その子機2ijと接続されるIEEE1394端子21ijが設けられている。
【0040】
従って、図1AのスケーラブルTVシステムにおいては、子機211はIEEE1394端子2111を、子機212はIEEE1394端子2112を、子機213はIEEE1394端子2113を、子機221はIEEE1394端子2121を、子機223はIEEE1394端子2123を、子機231はIEEE1394端子2131を、子機232はIEEE1394端子2132を,子機233はIEEE1394端子2133を、それぞれ経由して、親機1と接続するように、ユーザに接続を行ってもらう。
【0041】
なお、図1AのスケーラブルTVシステムにおいて、子機ijを、端子パネル21のどのIEEE1394端子と接続するかは、特に限定されるものではない。但し、子機ijを、IEEE1394端子21ij以外のIEEE1394端子と接続する場合には、その子機ijが、図1AのスケーラブルTVシステムの第i列第j行に配置されているものであることを、親機1に設定する必要がある(ユーザに設定してもらう必要がある)。
【0042】
また、図3Fの実施の形態では、端子パネル21に、8つのIEEE1394端子2111乃至2133を設け、親機1と、8台の子機211乃至233それぞれとを、パラレルに接続するようにしたが、親機1と、8台の子機211乃至233とは、シリアルに接続することも可能である。即ち、子機2ijは、他の子機2i'j'を経由して、親機1と接続することが可能である。但し、この場合も、子機ijが、図1AのスケーラブルTVシステムの第i列第j行に配置されているものであることを、親機1に設定する必要がある。従って、端子パネル21に設けるIEEE1394端子の数は、8つに限定されるものではない。
【0043】
さらに、スケーラブルTVシステムを構成するテレビジョン受像機どうしの電気的な接続は、IEEE1394に限定されるものではなく、その他、例えば、LAN(IEEE802)などを採用することが可能である。また、スケーラブルTVシステムを構成するテレビジョン受像機どうしの電気的な接続は、有線ではなく、無線で行うことも可能である。
【0044】
アンテナ端子22には、図示せぬアンテナに接続されているケーブルが接続され、これにより、アンテナで受信されたテレビジョン放送信号が、親機1に入力される。入力端子23には、例えば、VTR(Video Tape Recoder)等から出力される画像データおよび音声データが入力される。出力端子24からは、例えば、親機1で受信されているテレビジョン放送信号としての画像データおよび音声データが出力される。
【0045】
次に、図4は、子機2であるテレビジョン受像機の構成例を示す斜視図である。
【0046】
子機2は、図2の親機1と同一の表示画面サイズのテレビジョン受像機であり、その正面中央部分に、画像を表示するCRT(Cathod Ray Tube)31が設けられており、また、その正面の左端と右端に、音声を出力するスピーカユニット32Lと32Rがそれぞれ設けられている。なお、親機1と子機2とでは、異なる表示画面サイズを採用することも可能である。
【0047】
そして、図示せぬアンテナで受信されたテレビジョン放送信号における画像が、CRT31で表示され、また、その画像に付随する音声のL(Left)チャンネルとR(Right)チャンネルが、スピーカユニット32Lと32Rから、それぞれ出力される。
【0048】
子機2にも、親機1と同様に、赤外線IRを出射するリモコン35が付随しており、ユーザは、このリモコン35を操作することにより、受信チャンネルや音量の変更、その他各種のコマンドを、子機2に与えることができるようになっている。
【0049】
なお、リモコン35は、子機2のみならず、親機1の制御も行うことができるようになっている。
【0050】
また、図1AのスケーラブルTVシステムを構成するには、ユーザは、1台の親機1と、8台の子機211乃至233を購入する必要があるが、この場合に、親機1にリモコン15が付随し、8台の子機211乃至233それぞれにリモコン35が付随するのでは、ユーザは、9台のリモコンを所有することとなり、その管理が煩雑になる。
【0051】
そこで、子機2のリモコン35は、子機2のオプションとして、別売りにすることが可能である。また、親機1のリモコン15も、親機1のオプションとして、別売りにすることが可能である。
【0052】
ここで、上述したように、リモコン15と35は、親機1および子機2のいずれも制御することが可能であり、従って、リモコン15または35のうちのいずれか一方しか所有していなくても、親機1および子機2のすべてを制御することが可能である。
【0053】
次に、図5は、図4の子機2の構成例を示す6面図である。
【0054】
図5Aは子機2の正面を、図5Bは子機2の上面を、図5Cは子機2の底面を、図5Dは子機2の左側面を、図5Eは子機2の右側面を、図5Fは子機2の背面を、それぞれ示している。
【0055】
子機2の上面(図5B)、底面(図5C)、左側面(図5D)、および右側面(図5E)には、固定機構が設けられており、子機2の上面側、底面側、左側面側、または右側面側に、親機1や他の子機が配置されると、子機2の上面、底面、左側面、または右側面に設けられた固定機構と、親機1や他の子機の対向する面に設けられた固定機構とが嵌合し、子機2と、他の子機や親機1とが、容易に離れないように固定される。
【0056】
子機2の背面には、図5Fに示すように、端子パネル41、アンテナ端子42、入力端子43、および出力端子44が設けられている。
【0057】
端子パネル41には、親機1と子機2とを電気的に接続するための1つのIEEE1394端子411が設けられている。子機2が、図1AのスケーラブルTVシステムにおける、例えば左上に配置される子機211である場合には、端子パネル41のIEEE1394端子411は、図示せぬIEEE1394ケーブルを介して、図3Fにおける端子パネル21のIEEE1394端子2111と接続される。
【0058】
なお、端子パネル41に設けるIEEE1394端子の数は、1つに限定されるものではない。
【0059】
アンテナ端子42には、図示せぬアンテナに接続されているケーブルが接続され、これにより、アンテナで受信されたテレビジョン放送信号が、子機2に入力される。入力端子43には、例えば、VTR等から出力される画像データおよび音声データが入力される。出力端子44からは、例えば、子機2で受信されているテレビジョン放送信号としての画像データおよび音声データが出力される。
【0060】
以上のように構成される1台の親機1と8台の子機211乃至233の合計9台のテレビジョン受像機が、横方向と縦方向に、それぞれ3台ずつ配置されることにより、図1AのスケーラブルTVシステムが構成される。
【0061】
なお、図1AのスケーラブルTVシステムは、親機または子機としてのテレビジョン受像機の上、下、左、または右に、他のテレビジョン受像機を直接配置して構成する他、例えば、図6に示すスケーラブルTVシステム専用のラックに、テレビジョン受像機を配置して構成することも可能である。このように専用のラックを使用する場合には、スケーラブルTVシステムを構成するテレビジョン受像機の位置ずれなどを、より強固に防止することができる。
【0062】
ここで、親機または子機としてのテレビジョン受像機の上、下、左、または右に、他のテレビジョン受像機を直接配置することによりスケーラブルTVシステムを構成する場合には、例えば、親機1は、少なくとも、子機232が存在しないと、図1Aに示したように、第2行第2列に配置することができない。これに対して、図6のスケーラブルTVシステム専用のラックを用いる場合には、子機232が存在しなくても、親機1を、第2行第2列に配置することができる。
【0063】
次に、図7は、リモコン15の構成例を示す平面図である。
【0064】
セレクトボタンスイッチ51は、上下左右方向の4つの方向の他、その中間の4つの斜め方向の合計8個の方向に操作(方向操作)することができる。さらに、セレクトボタンスイッチ51は、リモコン15の上面に対して垂直方向にも押下操作(セレクト操作)することができる。メニューボタンスイッチ54は、親機1のCRT11(または子機2のCRT31)に、各種の設定(例えば、上述した、子機ijが、スケーラブルTVシステムの第i列第j行に配置されているものであることの設定)や、所定の処理を行うことを指令するコマンドの入力を行うためのメニュー画面を表示させるときに操作される。
【0065】
ここで、メニュー画面が表示された場合には、そのメニュー画面における項目等を指示するカーソルが、CRT11に表示される。このカーソルは、セレクトボタンスイッチ51を方向操作することで、その操作に対応する方向に移動する。また、カーソルが、所定の項目上の位置にあるときに、セレクトボタンスイッチ51がセレクト操作されると、その項目の選択が確定される。なお、本実施の形態では、後述するように、メニューに表示される項目の中にアイコンがあり、セレクトボタンスイッチ51は、アイコンをクリックするときも、セレクト操作される。
【0066】
イグジットボタンスイッチ55は、メニュー画面から元の通常の画面に戻る場合などに操作される。
【0067】
ボリウムボタンスイッチ52は、ボリウムをアップまたはダウンさせるときに操作される。チャンネルアップダウンボタンスイッチ53は、受信する放送チャンネルの番号を、アップまたはダウンするときに操作される。
【0068】
0乃至9の数字が表示されている数字ボタン(テンキー)スイッチ58は、表示されている数字を入力するときに操作される。エンタボタンスイッチ57は、数字ボタンスイッチ58の操作が完了したとき、数字入力終了の意味で、それに続いて操作される。なお、チャンネルを切り換えたときは、親機1のCRT11(もしくは子機2のCRT31)に、新たなチャンネルの番号などが、所定の時間、OSD(On Screen Display)表示される。ディスプレイボタン56は、現在選択しているチャンネルの番号や、現在の音量等のOSD表示のオン/オフを切り換えるときに操作される。
【0069】
テレビ/ビデオ切換ボタンスイッチ59は、親機1(もしくは子機2)の入力を、後述する図10の内蔵するチューナ121(もしくは後述する図11のチューナ141)、または図3の入力端子23(もしくは図5の入力端子43)からの入力に切り換えるときに操作される。テレビ/DSS切換ボタンスイッチ60は、チューナ121において地上波による放送を受信するテレビモード、または衛星放送を受信するDSS(Digital Satellite System(Hughes Communications社の商標))モードを選択するときに操作される。数字ボタンスイッチ58を操作してチャンネルを切り換えると、切り換え前のチャンネルが記憶され、ジャンプボタンスイッチ61は、この切り換え前の元のチャンネルに戻るときに操作される。
【0070】
ランゲージボタン62は、2カ国語以上の言語により放送が行われている場合において、所定の言語を選択するときに操作される。ガイドボタンスイッチ63は、CRT11に表示されている画像データに、クローズドキャプションデータが含まれる場合に、そのクローズドキャプションデータを表示させるときに操作される。フェイバリッドボタンスイッチ64は、あらかじめ設定されたユーザの好みのチャンネルを選択する場合に操作される。
【0071】
ケーブルボタンスイッチ65、テレビスイッチ66、およびDSSボタンスイッチ67は、リモコン15から出射される赤外線に対応するコマンドコードの機器カテゴリを切り換えるためのボタンスイッチである。即ち、リモコン15は(リモコン35も同様)、親機1や子機2としてのテレビジョン受像機の他、図示せぬSTBやIRDを遠隔制御することができるようになっており、ケーブルボタンスイッチ65は、CATV網を介して伝送されてくる信号を受信するSTB(Set Top Box)を、リモコン15によって制御する場合に操作される。ケーブルボタンスイッチ65の操作後は、リモコン15からは、STBに割り当てられた機器カテゴリのコマンドコードに対応する赤外線が出射される。同様に、テレビボタンスイッチ66は、親機1(または子機1)を、リモコン15によって制御する場合に操作される。DSSボタンスイッチ67は、衛星を介して伝送されている信号を受信するIRD(Integrated Receiver and Decorder)を、リモコン15によって制御する場合に操作される。
【0072】
LED(Light Emitting Diode)68,69,70は、それぞれケーブルボタンスイッチ65、テレビボタンスイッチ66、またはDSSボタンスイッチ67がオンにされたとき点灯し、これにより、リモコン15が、現在、どのカテゴリの装置の制御が可能になっているのかが、ユーザに示される。なお、LED68,69,70は、それぞれケーブルボタンスイッチ65、テレビボタンスイッチ66、またはDSSボタンスイッチ67がオフにされたときは消灯する。
【0073】
ケーブル電源ボタンスイッチ71、テレビ電源ボタンスイッチ72、DSS電源ボタンスイッチ73は、STB、親機1(もしくは子機2)、またはIRDの電源をオン/オフするときに操作される。
【0074】
ミューティングボタンスイッチ74は、親機1(または子機2)のミューティング状態を設定または解除するときに操作される。スリープボタンスイッチ75は、所定の時刻になった場合、または所定の時間が経過した場合に、自動的に電源をオフするスリープモードを設定または解除するときに操作される。
【0075】
発光部76は、リモコン15が操作された場合に、その操作に対応する赤外線を出射するようになっている。
【0076】
次に、図8は、子機2のリモコン35の構成例を示す平面図である。
【0077】
リモコン35は、図7のリモコン15におけるセレクトボタンスイッチ51乃至発光部76とそれぞれ同様に構成されるセレクトボタンスイッチ81乃至発光部106から構成されるため、その説明は省略する。
【0078】
次に、図9は、親機1のリモコン15の他の構成例を示す平面図である。
【0079】
図9の実施の形態では、図7における8方向に操作可能なセレクトボタンスイッチ51に代えて、上下左右の4方向の方向ボタンスイッチ111,112,113,114と、セレクト操作を行うためのボタンスイッチ110が設けられている。さらに、図9の実施の形態では、ケーブルボタンスイッチ65、テレビボタンスイッチ66、およびDSSボタンスイッチ67が内照式とされ、図7におけるLED68乃至70が省略されている。但し、ボタンスイッチ65乃至67の裏側には、図示せぬLEDが配置されており、ボタンスイッチ65乃至67が操作されると、その操作に対応して、その裏側に配置されているLEDがそれぞれ点灯または消灯するようになっている。
【0080】
その他のボタンスイッチは、その配置位置は異なるものの、基本的には図7に示した場合と同様である。
【0081】
なお、子機2のリモコン35も、図9における場合と同様に構成することが可能である。
【0082】
また、リモコン15には、その移動を検出するジャイロを内蔵させるようにすることができる。この場合、リモコン15では、その内蔵するジャイロによって、リモコン15の移動方向と移動量を検出し、メニュー画面において表示されるカーソルを、その移動方向と移動量に対応して移動させるようにすることが可能である。このように、リモコン15にジャイロを内蔵させる場合には、図7の実施の形態では、セレクトボタンスイッチ51を8方向に移動することができるように構成する必要がなくなり、また、図9の実施の形態では、方向ボタンスイッチ111乃至114を設ける必要がなくなる。同様に、リモコン35にも、ジャイロを内蔵させるようにすることが可能である。
【0083】
次に、図10は、親機1の電気的構成例を示している。
【0084】
図示せぬアンテナで受信されたテレビジョン放送信号は、チューナ121に供給され、CPU129の制御の下、検波、復調される。チューナ121の出力は、QPSK(Quadrature Phase Shift Keying)復調回路122に供給され、CPU129の制御の下、QPSK復調される。QPSK復調回路122の出力は、エラー訂正回路123に供給され、CPU129の制御の下、エラーが検出、訂正され、デマルチプレクサ124に供給される。
【0085】
デマルチプレクサ124は、CPU129の制御の下、エラー訂正回路123の出力を、必要に応じてデスクランブルし、さらに、所定のチャンネルのTS(Transport Stream)パケットを抽出する。そして、デマルチプレクサ124は、画像データ(ビデオデータ)のTSパケットを、MPEG(Moving Picture Experts Group)ビデオデコーダ125に供給するととともに、音声データ(オーディオデータ)のTSパケットを、MPEGオーディオデコーダ126に供給する。また、デマルチプレクサ124は、エラー訂正回路123の出力に含まれるTSパケットを、必要に応じて、CPU129に供給する。さらに、デマルチプレクサ124は、CPU129から供給される画像データまたは音声データ(TSパケットの形にされているものを含む)を受信し、MPEGビデオデコーダ125またはMPEGオーディオデコーダ126に供給する。
【0086】
MPEGビデオデコーダ125は、デマルチプレクサ124から供給される画像データのTSパケットを、MPEGデコードし、フレームメモリ127に供給する。MPEGオーディオデコーダ126は、デマルチプレクサ124から供給される音声データのTSパケットを、MPEGデコードする。MPEGオーディオデコーダ126でのデコードにより得られるLチャンネルとRチャンネルの音声データは、スピーカユニット12Lと12Rに、それぞれ供給される。
【0087】
フレームメモリ127は、MPEGビデオデコーダ125が出力する画像データを、一時記憶し、NTSC(National Television System Committee)エンコーダ128に供給する。NTSCエンコーダ128は、フレームメモリ127から供給される画像データをNTSC方式の画像データに変換し、CRT11に供給して表示させる。
【0088】
CPU129は、EEPROM(Electrically Erasable Programable Read Only Memory)130や、ROM(Read Only Memory)131に記憶されているプログラムにしたがって各種の処理を実行し、これにより、例えば、チューナ121、QPSK復調回路122、エラー訂正回路123、デマルチプレクサ124、IEEE1394インタフェース133、モデム136、信号処理部137、およびユニット駆動部138を制御する。また、CPU129は、デマルチプレクサ124から供給されるデータを、IEEE1394インタフェース133に供給し、IEEE1394インタフェース133から供給されるデータを、デマルチプレクサ124や信号処理部137に供給する。さらに、CPU129は、フロントパネル134やIR受信部135から供給されるコマンドに対応した処理を実行する。また、CPU129は、モデム136を制御することにより、電話回線を通じて、図示せぬサーバにアクセスし、バージョンアップされたプログラムや必要なデータを取得する。
【0089】
EEPROM130は、電源オフ後も保持しておきたいデータやプログラムを記憶する。ROM131は、例えば、IPL(Initial Program Loader)のプログラムを記憶している。なお、EEPROM130に記憶されたデータやプログラムは、そこに上書きすることで、バージョンアップすることができる。
【0090】
RAM132は、CPU129の動作上必要なデータやプログラムを一時記憶する。
【0091】
IEEE1394インタフェース133は、端子パネル21(のIEEE1394端子2111乃至2133(図3))に接続されており、IEEE1394の規格に準拠した通信を行うためのインタフェースとして機能する。これにより、IEEE1394インタフェース133は、CPU129から供給されるデータを、IEEE1394の規格に準拠して、外部に送信する一方、外部からIEEE1394の規格に準拠して送信されてくるデータを受信し、CPU129に供給する。
【0092】
フロントパネル134は、図2および図3では図示していないが、親機1の正面の一部に設けられている。そして、フロントパネル134は、リモコン15(図7、図9)に設けられたボタンスイッチの一部を有しており、フロントパネル134のボタンスイッチが操作された場合には、その操作に対応する操作信号が、CPU129に供給される。この場合、CPU129は、フロントパネル134からの操作信号に対応した処理を行う。
【0093】
IR受信部135は、リモコン15の操作に対応して、リモコン15から送信されてくる赤外線を受信(受光)する。さらに、IR受信部135は、その受信した赤外線を光電変換し、その結果得られる信号を、CPU129に供給する。この場合、CPU129は、IR受信部135からの信号に対応した処理、即ち、リモコン15の操作に対応した処理を行う。
【0094】
モデム136は、電話回線を介しての通信制御を行い、これにより、CPU129から供給されるデータを、電話回線を介して送信するとともに、電話回線を介して送信されてくるデータを受信し、CPU129に供給する。
【0095】
信号処理部137は、DSP(Digital Signal Processor)137A,EEPROM137B,RAM137Cなどで構成されており、CPU129の制御の下、フレームメモリ127に記憶された画像データなどに対して、各種のディジタル信号処理を施す。
【0096】
即ち、DSP137Aは、EEPROM137Bに記憶されたプログラムにしたがい、必要に応じて、EEPROM137Bに記憶されたデータを用いて、各種の信号処理を行う。EEPROM137Bは、DSP137Aが各種の処理を行うためのプログラムや必要なデータを記憶している。RAM137Cは、DSP137Aが各種の処理を行う上で必要なデータやプログラムを一時記憶する。
【0097】
なお、EEPROM137Bに記憶されたデータやプログラムは、そこに上書きすることで、バージョンアップすることができる。
【0098】
ここで、信号処理部137が行う信号処理としては、例えば、クローズドキャプションデータのデコードや、フレームメモリ127に記憶された画像データへのクローズドキャプションデータの重畳、フレームメモリ127に記憶された画像データの拡大、ノイズ除去などがある。また、信号処理部137は、その他、OSD表示するOSDデータを生成し、フレームメモリ127に記憶された画像データに重畳する。
【0099】
ユニット駆動部138は、CPU129の制御にしたがい、スピーカユニット12Lおよび12Rを駆動し、これにより、スピーカユニット12Lおよび12Rを構成するスピーカの指向性の主軸の方向を、所定の方向に向けさせる。
【0100】
以上のように構成される親機1では、次のようにして、テレビジョン放送番組としての画像と音声が出力される(画像が表示され、音声が出力される)。
【0101】
即ち、アンテナで受信されたテレビジョン放送信号としてのトランスポートストリームが、チューナ121,QPSK復調回路122、およびエラー訂正回路123を介して、デマルチプレクサ124に供給される。デマルチプレクサ124は、トランスポートストリームから、所定の番組のTSパケットを抽出し、画像データのTSパケットを、MPEGビデオデコーダ125に供給するとともに、音声データのTSパケットを、MPEGオーディオデコーダ126に供給する。
【0102】
MPEGビデオデータコーダ125では、デマルチプレクサ124からのTSパケットがMPEGデコードされる。そして、その結果られる画像データが、MPEGビデオデコーダ125から、フレームメモリ127およびNTSCエンコーダ128を経由して、CRT11に供給されて表示される。
【0103】
一方、MPEGオーディオデコーダ126では、デマルチプレクサ124からのTSパケットがMPEGデコードされる。そして、その結果られる音声データが、MPEGオーディオデコーダ126から、スピーカユニット12Lおよび12Rに供給されて出力される。
【0104】
次に、図11は、子機2の電気的構成例を示している。
【0105】
子機2は、図10のチューナ121乃至ユニット駆動部138とそれぞれ同様に構成されるチューナ141乃至ユニット駆動部158から構成されるため、その説明は省略する。
【0106】
なお、親機1と子機2は、図3Fと図5Fに示したように、それぞれ独立して、アンテナ端子22と42を有するので、図1のスケーラブルTVシステムを構成するテレビジョン受像機としての親機1と子機2には、それぞれに、アンテナ(からのケーブル)を接続することが可能である。しかしながら、親機1と子機2それぞれに、アンテナを接続する場合には、配線が煩雑になるおそれがある。そこで、スケーラブルTVシステムにおいては、そのスケーラブルTVシステムを構成するテレビジョン受像機のうちのいずれか1つにアンテナを接続し、そのテレビジョン受像機で受信されたテレビジョン放送信号を、例えば、IEEE1394通信によって、他のテレビジョン受像機に分配するようにすることが可能である。
【0107】
次に、本実施の形態では、親機1の端子パネル21のIEEE1394端子21ij(図3)と、子機2ijの端子パネル41のIEEE1394端子411(図5)とが、IEEE1394ケーブルによって接続されることにより、親機1と子機2とが、電気的に接続され、これにより、親機1と子機2との間で、IEEE1394通信(IEEE1394の規格に準拠した通信)が行われ、各種のデータ等がやりとりされる。
【0108】
そこで、図12乃至図21を参照して、IEEE1394通信について説明する。
【0109】
IEEE1394は、シリアルバス規格の1つであり、IEEE1394通信は、データのアイソクロナス(isochronous)転送を行うことができることから、画像や音声といったリアルタイムで再生する必要のあるデータの転送に適している。
【0110】
即ち、IEEE1394インタフェースを有する機器(IEEE1394機器)どうしの間では、125μs(マイクロ秒)周期で、最大で、100μsの伝送帯域(時間ではあるが、帯域と呼ばれる)を使用して、データのアイソクロナス転送を行うことができる。また、上述の伝送帯域の範囲内であれば、複数チャンネルで、アイソクロナス転送を行うことができる。
【0111】
図12は、IEEE1394通信プロトコルのレイヤ構造を示している。
【0112】
IEEE1394プロトコルは、トランザクション層(Transaction Layer)、リンク層(Link Layer)、および物理層(Physical Layer)の3層の階層構造を有する。各階層は、相互に通信し、また、それぞれの階層は、シリアルバス管理(Serial Bus Management)と通信を行う。さらに、トランザクション層およびリンク層は、上位のアプリケーションとの通信も行う。この通信に用いられる送受信メッセージは、要求(Request)、指示(表示)(Indication)、応答(Response)、確認(Confirmation)の4種類があり、図12における矢印は、この通信を示している。
【0113】
なお、矢印の名称の最後に".req"がついた通信は要求を表し、".ind"は指示を表す。また、".resp"は応答を、".conf"は確認をそれぞれ表す。例えば、TR_CONT.reqは、シリアルバス管理から、トランザクション層に送られる、要求の通信である。
【0114】
トランザクション層は、アプリケーションからの要求により、他のIEEE1394機器(IEEE1394インタフェースを有する機器)とデータ通信を行う為のアシンクロナス(asynchronous)伝送サービスを提供し、ISO/IEC13213で必要とされるリクエストレスポンスプロトコル(Request Response Protocol)を実現する。即ち、IEEE1394規格によるデータ転送方式としては、上述したアイソクロナス伝送の他、アシンクロナス伝送があり、トランザクション層は、アシンクロナス伝送の処理を行う。アシンクロナス伝送で伝送されるデータは、トランザクション層のプロトコルに要求する処理の単位であるリードトランザクション(read Transaction)、ライトトランザクション(write Transaction)、ロックトランザクション(lock Transaction)の3種類のトランザクションによって、IEEE1394機器間で伝送される。
【0115】
リンク層は、アクノリッジ(Acknowledge)を用いたデータ伝送サービス、アドレス処理、データエラー確認、データのフレーミング等の処理を行う。リンク層が行う1つのパケット伝送はサブアクションと呼ばれ、サブアクションには、アシンクロナスサブアクション(Asynchronous Subaction)およびアイソクロナスサブアクション(Isochronous Subaction)の2種類がある。
【0116】
アシンクロナスサブアクションは、ノード(IEEE1394においてアクセスできる単位)を特定する物理ID(Physical Identification)、およびノード内のアドレスを指定して行われ、データを受信したノードは、アクノリッジを返送する。但し、IEEE1394シリアルバス内の全てのノードにデータを送るアシンクロナスブロードキャストサブアクションでは、データを受信したノードは、アクノリッジを返送しない。
【0117】
一方、アイソクロナスサブアクションでは、データが、一定周期(前述したように、125μs)で、チャンネル番号を指定して伝送される。なお、アイソクロナスサブアクションでは、アクノリッジは返送されない。
【0118】
物理層は、リンク層で用いる論理シンボルを電気信号に変換する。さらに、物理層は、リンク層からのアービトレーション(IEEE1394通信を行うノードが競合したときの調停)の要求に対する処理を行ったり、バスリセットに伴うIEEE1394シリアルバスの再コンフィグレーションを実行し、物理IDの自動割り当てを行ったりする。
【0119】
シリアスバス管理では、基本的なバス制御機能の実現とISO/IEC13212のCSR(Control&Status Register Architecture)が提供される。シリアスバス管理は、ノードコントローラ(Node Controllor)、アイソクロナスリソースマネージャ(Isochronous Resource Manager)、およびバスマネージャ(Bus Manager)の機能を有する。ノードコントローラは、ノードの状態、物理ID等を制御するとともに、トランザクション層、リンク層、および物理層を制御する。アイソクロナスリソースマネージャは、アイソクロナス通信に用いられるリソースの利用状況を提供するもので、アイソクロナス通信を行うためには、IEEE1394シリアルバスに接続された機器の中に少なくとも1つ、アイソクロナスリソースマネージャの機能を有するIEEE1394機器が必要である。バスマネージャは、各機能の中では、最も高機能であり、IEEE1394シリアルバスの最適利用を図ることを目的とする。なお、アイソクロナスリソースマネージャとバスマネージャの存在は、任意である。
【0120】
IEEE1394機器どうしは、ノード分岐とノードディジーチェインのいずれの接続も可能であるが、IEEE1394機器が新たに接続されたりすると、バスリセットが行われ、ツリー識別や、ルートノード、物理ID、アイソクロナスリソースマネージャ、サイクルマスタ、バスマネージャの決定等が行われる。
【0121】
ここで、ツリー識別においては、IEEE1394機器としてのノード間の親子関係が決定される。また、ルートノードは、アービトレーションによってIEEE1394シリアルバスを使用する権利を獲得したノードの指定等を行う。物理IDは、self-IDパケットと呼ばれるパケットが、各ノードに転送されることにより決定される。なお、self-IDパケットには、ノードのデータ転送レートや、ノードがアイソクロナスリソースマネージャになれるかどうかといった情報が含まれる。
【0122】
アイソクロナスリソースマネージャは、上述したように、アイソクロナス通信に用いられるリソースの利用状況を提供するノードで、後述する帯域幅レジスタ(BANDWIDTH_AVAILABLEレジスタ)や、チャンネル番号レジスタ(CHANNELS_AVAILABLEレジスタ)を有する。さらに、アイソクロナスリソースマネージャは、バスマネージャとなるノードの物理IDを示すレジスタも有する。なお、IEEE1394シリアルバスで接続されたIEEE1394機器としてのノードの中に、バスマネージャが存在しない場合には、アイソクロナスリソースマネージャが、簡易的なバスマネージャとして機能する。
【0123】
サイクルマスタは、アイソクロナス伝送の周期である125μsごとに、IEEE1394シリアルバス上に、サイクルスタートパケットを送信する。このため、サイクルマスタは、その周期(125μs)をカウントするためのサイクルタイムレジスタ(CYCLE_TIMEレジスタ)を有する。なお、ルートノードがサイクルマスタになるが、ルートノードがサイクルマスタとしての機能を有していない場合には、バスマネージャがルートノードを変更する。
【0124】
バスマネージャは、IEEE1394シリアルバス上における電力の管理や、上述したルートノードの変更等を行う。
【0125】
バスリセット後に、上述したようなアイソクロナスリソースマネージャの決定等が行われると、IEEE1394シリアルバスを介してのデータ伝送が可能な状態となる。
【0126】
IEEE1394のデータ伝送方式の1つであるアイソクロナス伝送では、伝送帯域および伝送チャンネルが確保され、その後、データが配置されたパケット(アイソクロナスパケット)が伝送される。
【0127】
即ち、アイソクロナス伝送では、サイクルマスタが125μs周期でサイクルスタートパケットを、IEEE1394シリアルバス上にブロードキャストする。サイクルスタートパケットがブロードキャストされると、アイソクロナスパケットの伝送を行うことが可能な状態となる。
【0128】
アイソクロナス伝送を行うには、アイソクロナスリソースマネージャの提供する伝送帯域確保用の帯域幅レジスタと、チャンネル確保用のチャンネル番号レジスタを書き換えて、アイソクロナス伝送のための資源の確保を宣言する必要がある。
【0129】
ここで、帯域幅レジスタおよびチャンネル番号レジスタは、ISO/IEC13213で規定されている64ビットのアドレス空間を有する、後述するCSR(Control&Status Register)の1つとして割り当てられる。
【0130】
帯域幅レジスタは、32ビットのレジスタで、上位19ビットは予約領域とされており、下位13ビットが、現在使用することが可能な伝送帯域(bw_remaining)を表す。
【0131】
即ち、帯域幅レジスタの初期値は、00000000000000000001001100110011B(Bは、その前の値が2進数であることを表す)(=4915)となっている。これは、次のような理由による。即ち、IEEE1394では、1572.864Mbps(bit per second)で、32ビットの伝送に要する時間が、1として定義されており、上述の125μsは、00000000000000000001100000000000B(=6144)に相当する。しかしながら、IEEE1394では、アイソクロナス伝送に使用することのできる伝送帯域は、1周期である125μsのうちの80%であることが定められている。従って、アイソクロナス伝送で使用可能な最大の伝送帯域は、100μsであり、100μsは、上述のように、00000000000000000001001100110011B(=4915)となる。
【0132】
なお、125μsから、アイソクロナス伝送で使用される最大の伝送帯域である100μsを除いた残りの25μsの伝送帯域は、アシンクロナス伝送で使用される。アシンクロナス伝送は、帯域幅レジスタやチャンネル番号レジスタの記憶値を読み出すとき等に用いられる。
【0133】
アイソクロナス伝送を開始するためには、そのための伝送帯域を確保する必要がある。即ち、例えば、1周期である125μsのうちの、10μsの伝送帯域を使用してアイソクロナス伝送を行う場合には、その10μsの伝送帯域を確保する必要がある。この伝送帯域の確保は、帯域幅レジスタの値を書き換えることで行われる。即ち、上述のように、10μsの伝送帯域を確保する場合には、その10μsに相当する値である492を、帯域幅レジスタの値から減算し、その減算値を、帯域幅レジスタにセットする。従って、例えば、いま、帯域幅レジスタの値が4915になっていた場合(アイソクロナス伝送が、まったく行われていない場合)に、10μsの伝送帯域を確保するときには、帯域幅レジスタの値が、上述の4915から、その4915から10μsに相当する492を減算した4423(=00000000000000000001000101000111B)に書き換えられる。
【0134】
なお、帯域幅レジスタの値から、確保(使用)しようとする伝送帯域を減算した値が0よりも小さくなる場合は、伝送帯域を確保することができず、従って、帯域幅レジスタの値は書き換えられないし、さらに、アイソクロナス伝送を行うこともできない。
【0135】
アイソクロナス伝送を行うには、上述したような伝送帯域の確保を行う他、伝送チャンネルも確保しなければならない。この伝送チャンネルの確保は、チャンネル番号レジスタを書き換えることで行われる。
【0136】
チャンネル番号レジスタは、64ビットのレジスタで、各ビットが、各チャンネルに対応している。即ち、第nビット(最下位ビットからn番目のビット)は、その値が1であるときは、第n−1チャンネルが未使用状態であることを表し、0であるときは、第n−1チャンネルが使用状態であることを表す。従って、どのチャンネルも使用されていない場合には、チャンネル番号レジスタは、1111111111111111111111111111111111111111111111111111111111111111Bとなっており、例えば、第1チャンネルが確保されると、チャンネル番号レジスタは、1111111111111111111111111111111111111111111111111111111111111101Bに書き換えられる。
【0137】
なお、チャンネル番号レジスタは、上述のように64ビットであるから、アイソクロナス伝送では、最大で、第0乃至第63チャンネルの64チャンネルの確保が可能であるが、第63チャンネルは、アイソクロナスパケットをブロードキャストする場合に用いられる。
【0138】
以上のように、アイソクロナス伝送は、伝送帯域および伝送チャンネルの確保を行った上で行われるから、伝送レートを保証したデータ伝送を行うことができ、上述したように、画像や音声といったリアルタイムで再生する必要のあるデータ伝送に特に適している。
【0139】
次に、IEEE1394通信は、上述したように、ISO/IEC13213で規定された64ビットのアドレス空間を有するCSRアーキテクチャに準拠している。
【0140】
図13は、CSRアーキテクチャのアドレス空間を示している。
【0141】
CSRの上位16ビットは、各ノードを示すノードIDであり、残りの48ビットは、各ノードに与えられたアドレス空間の指定に使われる。この上位16ビットは、さらにバスIDの10ビットと物理ID(狭義のノードID)の6ビットに分かれる。すべてのビットが1となる値は、特別な目的で使用されるため、1023個のバスと63個のノードを指定することができる。
【0142】
CSRの下位48ビットにて規定される256テラバイトのアドレス空間のうちの上位20ビットで規定される空間は、2048バイトのCSR特有のレジスタやIEEE1394特有のレジスタ等に使用されるイニシャルレジスタスペース(Initial Register Space)、プライベートスペース(Private Space)、およびイニシャルメモリスペース(Initial Memory Space)などに分割され、下位28ビットで規定される空間は、その上位20ビットで規定される空間が、イニシャルレジスタスペースである場合、コンフィギレーションROM(Configuration ROM)、ノード特有の用途に使用されるイニシャルユニットスペース(Initial Unit Space)、プラグコントロールレジスタ(Plug Control Register(PCRs))などとして用いられる。
【0143】
ここで、図14は、主要なCSRのオフセットアドレス、名前、および働きを示している。
【0144】
図14において、「オフセット」の欄は、イニシャルレジスタスペースが始まるFFFFF0000000h(hは、その前の値が16進数であることを表す)番地からのオフセットアドレスを示している。オフセット220hを有する帯域幅レジスタは、上述したように、アイソクロナス通信に割り当て可能な帯域を示しており、アイソクロナスリソースマネージャとして動作しているノードの値だけが有効とされる。即ち、図13のCSRは、各ノードが有しているが、帯域幅レジスタについては、アイソクロナスリソースマネージャのものだけが有効とされる。従って、帯域幅レジスタは、実質的に、アイソクロナスリソースマネージャだけが有する。
【0145】
オフセット224h乃至228hのチャンネル番号レジスタは、上述したように、その各ビットが0乃至63番のチャンネル番号のそれぞれに対応し、ビットが0である場合には、そのチャンネルが既に割り当てられていることを示している。チャンネル番号レジスタも、アイソクロナスリソースマネージャとして動作しているノードのもののみが有効である。
【0146】
図13に戻り、イニシャルレジスタスペース内のアドレス400h乃至800hに、ゼネラルROMフォーマットに基づいたコンフィギレーションROMが配置される。
【0147】
ここで、図15は、ゼネラルROMフォーマットを示している。
【0148】
IEEE1394上のアクセスの単位であるノードは、ノードの中にアドレス空間を共通に使用しつつ独立して動作をするユニットを複数個有することができる。ユニットディレクトリ(unit directories)は、このユニットに対するソフトウェアのバージョンや位置を示すことができる。バスインフォブロック(bus info block)とルートディレクトリ(root directory)の位置は固定されているが、その他のブロックの位置はオフセットアドレスによって指定される。
【0149】
ここで、図16は、バスインフォブロック、ルートディレクトリ、およびユニットディレクトリの詳細を示している。
【0150】
バスインフォブロック内のCompany IDには、機器の製造者を示すID番号が格納される。Chip IDには、その機器固有の、他の機器と重複のない世界で唯一のIDが記憶される。また、IEC1833の規格により、IEC1883を満たした機器のユニットディレクトリのユニットスペックID(unit spec id)の、ファーストオクテットには00hが、セカンドオクテットにはA0hが、サードオクテットには2Dhが、それぞれ書き込まれる。さらに、ユニットスイッチバージョン(unit sw version)のファーストオクテットには、01hが、サードオクテットのLSB(Least Significant Bit)には、1が書き込まれる。
【0151】
ノードは、図13のイニシャルレジスタスペース内のアドレス900h乃至9FFhに、IEC1883に規定されるPCR(Plug Control Register)を有する。これは、アナログインタフェースに類似した信号経路を論理的に形成するために、プラグという概念を実体化したものである。
【0152】
ここで、図17は、PCRの構成を示している。
【0153】
PCRは、出力プラグを表すoPCR(output Plug Control Resister)と、入力プラグを表すiPCR(input Plug Control Register)を有する。また、PCRは、各機器固有の出力プラグまたは入力プラグの情報を示すレジスタoMPR(output Master Plug Register)とiMPR(input Master Plug Register)を有する。IEEE1394機器は、oMPRおよびiMPRをそれぞれ複数持つことはないが、個々のプラグに対応したoPCRおよびiPCRを、IEEE1394機器の能力によって複数持つことが可能である。図17に示したPCRは、それぞれ31個のoPCR#0乃至#30およびiPCR#0乃至#30を有する。アイソクロナスデータの流れは、これらのプラグに対応するレジスタを操作することによって制御される。
【0154】
図18は、oMPR,oPCR,iMPR、およびiPCRの構成を示している。
【0155】
図18AはoMPRの構成を、図18BはoPCRの構成を、図18CはiMPRの構成を、図18DはiPCRの構成を、それぞれ示している。
【0156】
oMPRおよびiMPRのMSB側の2ビットのデータレートケイパビリティ(data rate capability)には、その機器が送信または受信可能なアイソクロナスデータの最大伝送速度を示すコードが格納される。oMPRのブロードキャストチャンネルベース(broadcast channel base)は、ブロードキャスト出力に使用されるチャンネルの番号を規定する。
【0157】
oMPRのLSB側の5ビットのナンバーオブアウトプットプラグス(number of output plugs)には、その機器が有する出力プラグ数、即ち、oPCRの数を示す値が格納される。iMPRのLSB側の5ビットのナンバーオブインプットプラグス(number of input plugs)には、その機器が有する入力プラグ数、即ち、iPCRの数を示す値が格納される。non-persistent extension fieldおよびpersistent extension fieldは、将来の拡張の為に定義された領域である。
【0158】
oPCRおよびiPCRのMSBのオンライン(on-line)は、プラグの使用状態を示す。即ち、その値が1であればそのプラグがON-LINEであり、0であればOFF-LINEであることを示す。oPCRおよびiPCRのブロードキャストコネクションカウンタ(broadcast connection counter)の値は、ブロードキャストコネクションの有り(1)または無し(0)を表す。oPCRおよびiPCRの6ビット幅を有するポイントトウポイントコネクションカウンタ(point-to-point connection counter)が有する値は、そのプラグが有するポイントトウポイントコネクション(point-to-point connection)の数を表す。
【0159】
oPCRおよびiPCRの6ビット幅を有するチャンネルナンバー(channel number)が有する値は、そのプラグが接続されるアイソクロナスチャンネルの番号を示す。
oPCRの2ビット幅を有するデータレート(data rate)の値は、そのプラグから出力されるアイソクロナスデータのパケットの現実の伝送速度を示す。oPCRの4ビット幅を有するオーバーヘッドID(overhead ID)に格納されるコードは、アイソクロナス通信のオーバーのバンド幅を示す。oPCRの10ビット幅を有するペイロード(payload)の値は、そのプラグが取り扱うことができるアイソクロナスパケットに含まれるデータの最大値を表す。
【0160】
次に、以上のようなIEEE1394通信を行うIEEE1394機器については、その制御のためのコマンドとして、AV/Cコマンドセットが規定されている。そこで、本実施の形態でも、親機1は、このAV/Cコマンドセットを利用して、子機2を制御するようになっている。但し、親機1から子機2を制御するにあたっては、AV/Cコマンドセット以外の独自のコマンド体系を用いることも可能である。
【0161】
ここで、AV/Cコマンドセットについて、簡単に説明する。
【0162】
図19は、アシンクロナス転送モードで伝送されるAV/Cコマンドセットのパケットのデータ構造を示している。
【0163】
AV/Cコマンドセットは、AV(Audio Visual)機器を制御するためのコマンドセットで、AV/Cコマンドセットを用いた制御系では、ノード間において、AV/Cコマンドフレームおよびレスポンスフレームが、FCP(Function Control Protocol)を用いてやり取りされる。バスおよびAV機器に負担をかけないために、コマンドに対するレスポンスは、100ms以内に行うことになっている。
【0164】
図19に示すように、アシンクロナスパケットのデータは、水平方向32ビット(=1 quadlet)で構成されている。図中上段はパケットのヘッダ部分(packet header)を示しており、図中下段はデータブロック(data block)を示している。
destination_IDは、宛先を示している。
【0165】
CTSはコマンドセットのIDを示しており、AV/CコマンドセットではCTS=“0000”である。ctype/responseは、パケットがコマンドの場合はコマンドの機能分類を示し、パケットがレスポンスの場合はコマンドの処理結果を示す。コマンドは大きく分けて、(1)機能を外部から制御するコマンド(CONTROL)、(2)外部から状態を問い合わせるコマンド(STATUS)、(3)制御コマンドのサポートの有無を外部から問い合わせるコマンド(GENERAL INQUIRY(opcodeのサポートの有無)およびSPECIFIC INQUIRY(opcodeおよびoperandsのサポートの有無))、(4)状態の変化を外部に知らせるよう要求するコマンド(NOTIFY)の4種類が定義されている。
【0166】
レスポンスはコマンドの種類に応じて返される。CONTROLコマンドに対するレスポンスには、NOT INPLEMENTED(実装されていない)、ACCEPTED(受け入れる)、REJECTED(拒絶)、およびINTERIM(暫定)がある。STATUSコマンドに対するレスポンスには、NOT INPLEMENTED、REJECTED、IN TRANSITION(移行中)、およびSTABLE(安定)がある。GENERAL INQUIRYおよびSPECIFIC INQUIRYコマンドに対するレスポンスには、IMPLEMENTED(実装されている)、およびNOT IMPLEMENTEDがある。NOTIFYコマンドに対するレスポンスには、NOT IMPLEMENTED,REJECTED,INTERIM、およびCHANGED(変化した)がある。
【0167】
subunit typeは、機器内の機能を特定するために設けられており、例えば、tape recorder/player,tuner等が割り当てられる。同じ種類のsubunitが複数存在する場合の判別を行うために、判別番号としてsubunit id(subunit typeの後に配置される)でアドレッシングを行う。opcodeはコマンドを表しており、operandはコマンドのパラメータを表している。Additional operandsは追加のoperandが配置されるフィールドである。paddingはパケット長を所定のビット数とするためにダミーのデータが配置されるフィールドである。data CRC(Cyclic Redundancy Check)はデータ伝送時のエラーチェックに使われるCRCが配置される。
【0168】
次に、図20は、AV/Cコマンドの具体例を示している。
【0169】
図20Aは、ctype/responseの具体例を示している。図中上段がコマンド(Command)を表しており、図中下段がレスポンス(Response)を表している。“0000”にはCONTROL、“0001”にはSTATUS、“0010”にはSPECIFIC INQUIRY、“0011”にはNOTIFY、“0100”にはGENERAL INQUIRYが割り当てられている。“0101乃至0111”は将来の仕様のために予約確保されている。
また、“1000”にはNOT INPLEMENTED、“1001”にはACCEPTED、“1010”にはREJECTED、“1011”にはIN TRANSITION、“1100”にはIMPLEMENTED/STABLE、“1101”にはCHNGED、“1111”にはINTERIMが割り当てられている。“1110”は将来の仕様のために予約確保されている。
【0170】
図20Bは、subunit typeの具体例を示している。“00000”にはVideo Monitor、“00011”にはDisk recorder/Player、“00100”にはTape recorder/Player、“00101”にはTuner、“00111”にはVideo Camera、“11100”にはVendor unique、“11110”にはSubunit type extended to next byteが割り当てられている。なお、“11111”にはunitが割り当てられているが、これは機器そのものに送られる場合に用いられ、例えば電源のオンオフなどが挙げられる。
【0171】
図20Cは、opcodeの具体例を示している。各subunit type毎にopcodeのテーブルが存在し、ここでは、subunit typeがTape recorder/Playerの場合のopcodeを示している。また、opcode毎にoperandが定義されている。ここでは、“00h”にはVENDOR-DEPENDENT、“50h”にはSEACH MODE、“51h”にはTIMECODE、“52h”にはATN、“60h”にはOPEN MIC、“61h”にはREAD MIC、“62h”にはWRITE MIC、“C1h”にはLOAD MEDIUM、“C2h”にはRECORD、“C3h”にはPLAY、“C4h”にはWINDが、それぞれ割り当てられている。
【0172】
図21は、AV/Cコマンドとレスポンスの具体例を示している。
【0173】
例えば、ターゲット(コンスーマ)(制御される側)としての再生機器に再生指示を行う場合、コントローラ(制御する側)は、図21Aのようなコマンドをターゲットに送る。このコマンドは、AV/Cコマンドセットを使用しているため、CTS=“0000”となっている。ctypeは、機器を外部から制御するコマンド(CONTROL)を用いるため、“0000”となっている(図20A)。subunit typeは、Tape recorder/Playerであることより、“00100”となっている(図20B)。idは、ID#0の場合を示しており、000となっている。opcodeは、再生を意味する“C3h”となっている(図20C)。operandは、FORWARDを意味する“75h”となっている。そして、再生されると、ターゲットは、図21Bのようなレスポンスをコントローラに返す。ここでは、受け入れを意味するacceptedがresponseに配置されており、responseは、“1001”となっている(図20A参照)。responseを除いて、他は図21Aと同じであるので説明は省略する。
【0174】
スケーラブルTVシステムにおいて、親機1と子機2との間では、上述のようなAV/Cコマンドセットを用いて、各種の制御が行われる。但し、本実施の形態では、親機1と子機2との間で行われる制御のうち、既定のコマンドとレスポンスで対処できないものについては、新たなコマンドとレスポンスが定義されており、その新たなコマンドとレスポンスを用いて、各種の制御が行われる。
【0175】
なお、以上のIEEE1394通信およびAV/Cコマンドセットについては、「WHITE SERISE No.181 IEEE1394マルチメディアインタフェース」株式会社トリケップス発行、にその詳細が説明されている。
【0176】
次に、図10に示した親機1の信号処理部137では(図11に示した子機2の信号処理部157においても同様)、上述したように、DSP137Aがプログラムを実行することにより、各種のディジタル信号処理を行うが、そのうちの1つとして、画像データを、第1の画像データから第2の画像データに変換する画像変換処理がある。
【0177】
ここで、例えば、第1の画像データを低解像度の画像データとするとともに、第2の画像データを高解像度の画像データとすれば、画像変換処理は、解像度を向上させる解像度向上処理ということができる。また、例えば、第1の画像データを低S/N(Siginal/Noise)の画像データとするとともに、第2の画像データを高S/Nの画像データとすれば、画像変換処理は、ノイズを除去するノイズ除去処理ということができる。さらに、例えば、第1の画像データを所定のサイズの画像データとするとともに、第2の画像データを、第1の画像データのサイズを大きくまたは小さくした画像データとすれば、画像変換処理は、画像のリサイズ(拡大または縮小)を行うリサイズ処理ということができる。
【0178】
従って、画像変換処理によれば、第1および第2の画像データをどのように定義するかによって、様々な処理を実現することができる。
【0179】
図22は、上述のような画像変換処理を行う信号処理部137の機能的構成例を示している。なお、図22の機能的構成は、信号処理部137のDSP137Aが、EEPROM137Bに記憶されたプログラムを実行することで実現される。
【0180】
信号処理部137(図10)では、フレームメモリ127に記憶された画像データ、またはCPU129から供給される画像データが、第1の画像データとして、タップ抽出部161および162に供給される。
【0181】
タップ抽出部161は、第2の画像データを構成する画素を、順次、注目画素とし、さらに、その注目画素の画素値を予測するのに用いる第1の画像データを構成する画素(の画素値)の幾つかを、予測タップとして抽出する。
【0182】
具体的には、タップ抽出部161は、注目画素に対応する、第1の画像データの画素に対して、空間的または時間的に近い位置にある複数の画素(例えば、注目画素に対応する、第1の画像データの画素と、それに空間的に隣接する画素など)を、予測タップとして抽出する。
【0183】
タップ抽出部162は、注目画素を、幾つかのクラスのうちのいずれかにクラス分けするクラス分類を行うのに用いる第1の画像データを構成する画素の幾つかを、クラスタップとして抽出する。
【0184】
なお、ここでは、説明を簡単にするために、予測タップとクラスタップは、同一のタップ構造を有するものとする。但し、予測タップとクラスタップとは、異なるタップ構造とすることが可能である。
【0185】
タップ抽出部161で得られた予測タップは、予測部165に供給され、タップ抽出部162で得られたクラスタップは、クラス分類部163に供給される。
【0186】
クラス分類部163は、タップ抽出部162からのクラスタップに基づき、注目画素をクラス分類し、その結果得られるクラスに対応するクラスコードを、係数メモリ164に供給する。
【0187】
ここで、クラス分類を行う方法としては、例えば、ADRC(Adaptive Dynamic Range Coding)等を採用することができる。
【0188】
ADRCを用いる方法では、クラスタップを構成する画素の画素値が、ADRC処理され、その結果得られるADRCコードにしたがって、注目画素のクラスが決定される。
【0189】
なお、KビットADRCにおいては、例えば、クラスタップを構成する画素の画素値の最大値MAXと最小値MINが検出され、DR=MAX-MINを、集合の局所的なダイナミックレンジとし、このダイナミックレンジDRに基づいて、クラスタップを構成する画素値がKビットに再量子化される。即ち、クラスタップを構成する各画素の画素値から、最小値MINが減算され、その減算値がDR/2Kで除算(量子化)される。そして、以上のようにして得られる、クラスタップを構成するKビットの各画素の画素値を、所定の順番で並べたビット列が、ADRCコードとして出力される。
従って、クラスタップが、例えば、1ビットADRC処理された場合には、そのクラスタップを構成する各画素の画素値は、最小値MINが減算された後に、最大値MAXと最小値MINとの平均値で除算され(小数点以下切り捨て)、これにより、各画素の画素値が1ビットとされる(2値化される)。そして、その1ビットの画素値を所定の順番で並べたビット列が、ADRCコードとして出力される。
【0190】
なお、クラス分類部163には、例えば、クラスタップを構成する画素の画素値のレベル分布のパターンを、そのままクラスコードとして出力させることも可能である。しかしながら、この場合、クラスタップが、N個の画素の画素値で構成され、各画素の画素値に、Kビットが割り当てられているとすると、クラス分類部163が出力するクラスコードの場合の数は、(2NK通りとなり、画素の画素値のビット数Kに指数的に比例した膨大な数となる。
【0191】
従って、クラス分類部163においては、クラスタップの情報量を、上述のADRC処理や、あるいはベクトル量子化等によって圧縮することにより、クラス分類を行うのが好ましい。
【0192】
係数メモリ164は、係数生成部166から供給されるクラスごとのタップ係数を記憶し、さらに、その記憶したタップ係数のうちの、クラス分類部163から供給されるクラスコードに対応するアドレスに記憶されているタップ係数(クラス分類部163から供給されるクラスコードが表すクラスのタップ係数)を、予測部165に供給する。
【0193】
ここで、タップ係数とは、ディジタルフィルタにおける、いわゆるタップにおいて入力データと乗算される係数に相当するものである。
【0194】
予測部165は、タップ抽出部161が出力する予測タップと、係数メモリ164が出力するタップ係数とを取得し、その予測タップとタップ係数とを用いて、注目画素の真値の予測値を求める所定の予測演算を行う。これにより、予測部165は、注目画素の画素値(の予測値)、即ち、第2の画像データを構成する画素の画素値を求めて出力する。
【0195】
係数生成部166は、係数種メモリ167に記憶されている係数種データと、パラメータメモリ168に記憶されたパラメータとに基づいて、クラスごとのタップ係数を生成し、係数メモリ164に供給して上書きする形で記憶させる。
【0196】
係数種メモリ167は、後述する係数種データの学習によって得られるクラスごとの係数種データを記憶している。ここで、係数種データは、タップ係数を生成する、いわば種になるデータである。
【0197】
パラメータメモリ168は、ユーザがリモコン15を操作すること等によって、CPU129(図10)から供給されるパラメータを上書きする形で記憶する。
【0198】
次に、図23のフローチャートを参照して、図22の信号処理部137による画像変換処理について説明する。
【0199】
タップ抽出部161では、そこに入力される第1の画像データに対する第2の画像データを構成する各画素が、順次、注目画素とされる。そして、ステップS1において、パラメータメモリ168は、CPU129からパラメータが供給されたかどうかを判定し、供給されたと判定した場合、ステップS2に進み、パラメータメモリ168は、その供給されたパラメータを上書きする形で記憶し、ステップS3に進む。
【0200】
また、ステップS1において、CPU129からパラメータが供給されていないと判定された場合、ステップS2をスキップして、ステップS3に進む。
【0201】
従って、パラメータメモリ168では、CPU129からパラメータが供給された場合、即ち、例えば、ユーザがリモコン15を操作して、パラメータが入力された場合、あるいは、CPU129においてパラメータが設定された場合には、その記憶内容が、入力または設定されたパラメータによって更新される。
【0202】
ステップS3では、係数生成部166が、係数種メモリ167からクラスごとの係数種データを読み出すとともに、パラメータメモリ168からパラメータを読み出し、その係数種データとパラメータに基づいて、クラスごとのタップ係数を求める。そして、ステップS4に進み、係数生成部166は、そのクラスごとのタップ係数を、係数メモリ164に供給し、上書きする形で記憶させ、ステップS5に進む。
【0203】
ステップS5では、タップ抽出部161と162が、そこに供給される第1の画像データから、注目画素についての予測タップとクラスタップとするものを、それぞれ抽出する。そして、予測タップは、タップ抽出部161から予測部165に供給され、クラスタップは、タップ抽出部162からクラス分類部163に供給される。
【0204】
クラス分類部163は、タップ抽出部162から、注目画素についてのクラスタップを受信し、ステップS6において、そのクラスタップに基づき、注目画素をクラス分類する。さらに、クラス分類部163は、そのクラス分類の結果得られる注目画素のクラスを表すクラスコードを、係数メモリ164に出力し、ステップS7に進む。
【0205】
ステップS7では、係数メモリ164が、クラス分類部163から供給されるクラスコードに対応するアドレスに記憶されているタップ係数を読み出して出力する。さらに、ステップS7では、予測部165が、係数メモリ164が出力するタップ係数を取得し、ステップS8に進む。
【0206】
ステップS8では、予測部165が、タップ抽出部161が出力する予測タップと、係数メモリ164から取得したタップ係数とを用いて、所定の予測演算を行う。これにより、予測部165は、注目画素の画素値を求め、フレームメモリ127(図10)に書き込んで、ステップS9に進む。
【0207】
ステップS9では、タップ抽出部161が、まだ、注目画素としていない第2の画像データがあるかどうかを判定する。ステップS9において、まだ、注目画素としていない第2の画像データがあると判定された場合、その、まだ注目画素とされていない第2の画像データの画素のうちの1つが、新たに注目画素とされ、ステップS1に戻り、以下、同様の処理が繰り返される。
【0208】
また、ステップS9において、まだ、注目画素とされていない第2の画像データがないと判定された場合、処理を終了する。
【0209】
なお、図23において、ステップS3およびS4の処理は、パラメータメモリ168に、新たなパラメータ上書きされた場合に行い、他の場合はスキップすることが可能である。
【0210】
次に、図22の予測部165における予測演算、係数生成部166におけるタップ係数の生成、および係数種メモリ167に記憶させる係数種データの学習について説明する。
【0211】
いま、高画質の画像データ(高画質画像データ)を第2の画像データとするとともに、その高画質画像データをLPF(Low Pass Filter)によってフィルタリングする等してその画質(解像度)を低下させた低画質の画像データ(低画質画像データ)を第1の画像データとして、低画質画像データから予測タップを抽出し、その予測タップとタップ係数を用いて、高画質画素の画素値を、所定の予測演算によって求める(予測する)ことを考える。
【0212】
いま、所定の予測演算として、例えば、線形1次予測演算を採用することとすると、高画質画素の画素値yは、次の線形1次式によって求められることになる。
【0213】
【数1】

Figure 0003693246
Figure 0003693246
【0214】
但し、式(1)において、xnは、高画質画素yについての予測タップを構成する、n番目の低画質画像データの画素(以下、適宜、低画質画素という)の画素値を表し、wnは、n番目の低画質画素(の画素値)と乗算されるn番目のタップ係数を表す。なお、式(1)では、予測タップが、N個の低画質画素x1,x2,・・・,xNで構成されるものとしてある。
【0215】
ここで、高画質画素の画素値yは、式(1)に示した線形1次式ではなく、2次以上の高次の式によって求めるようにすることも可能である。
【0216】
一方、図22の実施の形態では、係数生成部166において、タップ係数wnが、係数種メモリ167に記憶された係数種データと、パラメータメモリ168に記憶されたパラメータとから生成されるが、この係数生成部166におけるタップ係数wnの生成が、例えば、係数種データとパラメータを用いた次式によって行われることとする。
【0217】
【数2】
Figure 0003693246
Figure 0003693246
【0218】
但し、式(2)において、βm,nは、n番目のタップ係数wnを求めるのに用いられるm番目の係数種データを表し、zは、パラメータを表す。なお、式(2)では、タップ係数wnが、M個の係数種データβn,1,βn,2,・・・,βn,Mを用いて求められるようになっている。
【0219】
ここで、係数種データβm,nとパラメータzから、タップ係数wnを求める式は、式(2)に限定されるものではない。
【0220】
いま、式(2)におけるパラメータzによって決まる値zm-1を、新たな変数tmを導入して、次式で定義する。
【0221】
【数3】
Figure 0003693246
Figure 0003693246
【0222】
式(3)を、式(2)に代入することにより、次式が得られる。
【0223】
【数4】
Figure 0003693246
Figure 0003693246
【0224】
式(4)によれば、タップ係数wnは、係数種データβn,mと変数tmとの線形1次式によって求められることになる。
【0225】
ところで、いま、第kサンプルの高画質画素の画素値の真値をykと表すとともに、式(1)によって得られるその真値ykの予測値をyk’と表すと、その予測誤差ekは、次式で表される。
【0226】
【数5】
Figure 0003693246
Figure 0003693246
【0227】
いま、式(5)の予測値yk’は、式(1)にしたがって求められるため、式(5)のyk’を、式(1)にしたがって置き換えると、次式が得られる。
【0228】
【数6】
Figure 0003693246
Figure 0003693246
【0229】
但し、式(6)において、xn,kは、第kサンプルの高画質画素についての予測タップを構成するn番目の低画質画素を表す。
【0230】
式(6)のwnに、式(4)を代入することにより、次式が得られる。
【0231】
【数7】
Figure 0003693246
Figure 0003693246
【0232】
式(7)の予測誤差ekを0とする係数種データβn,mが、高画質画素を予測するのに最適なものとなるが、すべての高画質画素について、そのような係数種データβn,mを求めることは、一般には困難である。
【0233】
そこで、係数種データβn,mが最適なものであることを表す規範として、例えば、最小自乗法を採用することとすると、最適な係数種データβn,mは、次式で表される自乗誤差の総和Eを最小にすることで求めることができる。
【0234】
【数8】
Figure 0003693246
Figure 0003693246
【0235】
但し、式(8)において、Kは、高画質画素ykと、その高画質画素ykについての予測タップを構成する低画質画素x1,k,x2,k,・・・,xN,kとのセットのサンプル数(学習用のサンプルの数)を表す。
【0236】
式(8)の自乗誤差の総和Eの最小値(極小値)は、式(9)に示すように、総和Eを係数種データβn,mで偏微分したものを0とするβn,mによって与えられる。
【0237】
【数9】
Figure 0003693246
Figure 0003693246
【0238】
式(6)を、式(9)に代入することにより、次式が得られる。
【0239】
【数10】
Figure 0003693246
Figure 0003693246
【0240】
いま、Xi,p,j,qとYi,pを、式(11)と(12)に示すように定義する。
【0241】
【数11】
Figure 0003693246
Figure 0003693246
【数12】
Figure 0003693246
Figure 0003693246
【0242】
この場合、式(10)は、Xi,p,j,qとYi,pを用いた式(13)に示す正規方程式で表すことができる。
【0243】
【数13】
Figure 0003693246
Figure 0003693246
【0244】
式(13)の正規方程式は、例えば、掃き出し法(Gauss-Jordanの消去法)などを用いることにより、係数種データβn,mについて解くことができる。
【0245】
図22の信号処理部137においては、多数の高画質画素y1,y2,・・・,yKを学習の教師となる教師データとするとともに、各高画質画素ykについての予測タップを構成する低画質画素x1,k,x2,k,・・・,xN,kを学習の生徒となる生徒データとして、式(13)を解く学習を行うことにより求められた係数種データβn,mが、係数種メモリ167に記憶されており、係数生成部166では、その係数種データβn,mと、パラメータメモリ168に記憶されたパラメータzから、式(2)にしたがって、タップ係数wnが生成される。そして、予測部165において、そのタップ係数wnと、高画質画素としての注目画素についての予測タップを構成する低画質画素(第1の画像データの画素)xnを用いて、式(1)が計算されることにより、高画質画素としての注目画素の画素値(に近い予測値)が求められる。
【0246】
次に、図24は、式(13)の正規方程式をたてて解くことにより係数種データβn,mを求める学習を行う学習装置の構成例を示している。
【0247】
学習装置には、係数種データβn,mの学習に用いられる学習用画像データが入力されるようになっている。ここで、学習用画像データとしては、例えば、解像度の高い高画質画像データを用いることができる。
【0248】
学習装置において、学習用画像データは、教師データ生成部171と生徒データ生成部173に供給される。
【0249】
教師データ生成部171は、そこに供給される学習用画像データから教師データを生成し、教師データ記憶部172に供給する。即ち、ここでは、教師データ生成部171は、学習用画像データとしての高画質画像データを、そのまま教師データとして、教師データ記憶部172に供給する。
【0250】
教師データ記憶部172は、教師データ生成部171から供給される教師データとしての高画質画像データを記憶する。
【0251】
生徒データ生成部173は、学習用画像データから生徒データを生成し、生徒データ記憶部174に供給する。即ち、生徒データ生成部173は、学習用画像データとしての高画質画像データをフィルタリングすることにより、その解像度を低下させることで、低画質画像データを生成し、この低画質画像データを、生徒データとして、生徒データ記憶部174に供給する。
【0252】
ここで、生徒データ生成部173には、学習用画像データの他、図22のパラメータメモリ168に供給されるパラメータzが取り得る範囲の幾つかの値が、パラメータ生成部180から供給されるようになっている。即ち、いま、パラメータzが取り得る値が0乃至Zの範囲の実数であるとすると、生徒データ生成部173には、例えば、z=0,1,2,・・・,Zが、パラメータ生成部180から供給されるようになっている。
【0253】
生徒データ生成部173は、学習用画像データとしての高画質画像データを、そこに供給されるパラメータzに対応するカットオフ周波数のLPFによってフィルタリングすることにより、生徒データとしての低画質画像データを生成する。
【0254】
従って、この場合、生徒データ生成部173では、図25に示すように、学習用画像データとしての高画質画像データについて、Z+1種類の、解像度の異なる生徒データとしての低画質画像データが生成される。
【0255】
なお、ここでは、例えば、パラメータzの値が大きくなるほど、カットオフ周波数の高いLPFを用いて、高画質画像データをフィルタリングし、生徒データとしての低画質画像データを生成するものとする。従って、ここでは。値の大きいパラメータzに対応する低画質画像データほど、解像度が高い。
【0256】
また、本実施の形態では、説明を簡単にするために、生徒データ生成部173において、高画質画像データの水平方向および垂直方向の両方向の解像度を、パラメータzに対応する分だけ低下させた低画質画像データを生成するものとする。
【0257】
図24に戻り、生徒データ記憶部174は、生徒データ生成部173から供給される生徒データを記憶する。
【0258】
タップ抽出部175は、教師データ記憶部172に記憶された教師データとしての高画質画像データを構成する画素を、順次、注目教師画素とし、その注目教師画素について、生徒データ記憶部174に記憶された生徒データとしての低画質画像データを構成する低画質画素のうちの所定のものを抽出することにより、図22のタップ抽出部161が構成するのと同一のタップ構造の予測タップを構成し、足し込み部178に供給する。
【0259】
タップ抽出部176は、注目教師画素について、生徒データ記憶部174に記憶された生徒データとしての低画質画像データを構成する低画質画素のうちの所定のものを抽出することにより、図22のタップ抽出部162が構成するのと同一のタップ構造のクラスタップを構成し、クラス分類部177に供給する。
【0260】
なお、タップ抽出部175と176には、パラメータ生成部180が生成するパラメータzが供給されるようになっており、タップ抽出部175と176は、パラメータ生成部180から供給されるパラメータzに対応して生成された生徒データ(ここでは、パラメータzに対応するカットオフ周波数のLPFを用いて生成された生徒データとしての低画質画像データ)を用いて、予測タップとクラスタップをそれぞれ構成する。
【0261】
クラス分類部177は、タップ抽出部176が出力するクラスタップに基づき、図22のクラス分類部163と同一のクラス分類を行い、その結果得られるクラスに対応するクラスコードを、足し込み部178に出力する。
【0262】
足し込み部178は、教師データ記憶部172から、注目教師画素を読み出し、その注目教師画素、タップ抽出部175から供給される注目教師画素について構成された予測タップを構成する生徒データ、およびその生徒データを生成したときのパラメータzを対象とした足し込みを、クラス分類部177から供給されるクラスコードごとに行う。
【0263】
即ち、足し込み部178には、教師データ記憶部172に記憶された教師データyk、タップ抽出部175が出力する予測タップxi,k(xj,k)、およびクラス分類部177が出力するクラスコードの他、その予測タップを構成するのに用いられた生徒データを生成したときのパラメータzも、パラメータ生成部180から供給されるようになっている。
【0264】
そして、足し込み部178は、クラス分類部177から供給されるクラスコードに対応するクラスごとに、予測タップ(生徒データ)xi,k(xj,k)とパラメータzを用い、式(13)の左辺の行列における、式(11)で定義されるコンポーネントXi,p,j,qを求めるための生徒データおよびパラメータzの乗算(xi,kpj,kq)と、サメーション(Σ)に相当する演算を行う。なお、式(11)のtpは、式(3)にしたがって、パラメータzから計算される。式(11)のtqも同様である。
【0265】
さらに、足し込み部178は、やはり、クラス分類部177から供給されるクラスコードに対応するクラスごとに、予測タップ(生徒データ)xi,k、教師データyk、およびパラメータzを用い、式(13)の右辺のベクトルにおける、式(12)で定義されるコンポーネントYi,pを求めるための生徒データxi,k、教師データyk、およびパラメータzの乗算(xi,kpk)と、サメーション(Σ)に相当する演算を行う。なお、式(12)のtpは、式(3)にしたがって、パラメータzから計算される。
【0266】
即ち、足し込み部178は、前回、注目教師画素とされた教師データについて求められた式(13)における左辺の行列のコンポーネントXi,p,j,qと、右辺のベクトルのコンポーネントYi,pを、その内蔵するメモリ(図示せず)に記憶しており、その行列のコンポーネントXi,p,j,qまたはベクトルのコンポーネントYi,pに対して、新たに注目教師画素とされた教師データについて、その教師データyk、生徒データxi,k(xj,k)、およびパラメータzを用いて計算される、対応するコンポーネントxi,kpj,kqまたはxi,kpkを足し込む(式(11)のコンポーネントXi,p,j,qまたは式(12)のコンポーネントYi,pにおけるサメーションで表される加算を行う)。
【0267】
そして、足し込み部178は、0,1,・・・,Zのすべての値のパラメータzにつき、教師データ記憶部172に記憶された教師データすべてを注目教師画素として、上述の足し込みを行うことにより、各クラスについて、式(13)に示した正規方程式をたてると、その正規方程式を、係数種算出部179に供給する。
【0268】
係数種算出部179は、足し込み部178から供給されるクラスごとの正規方程式を解くことにより、各クラスごとの係数種データβm,nを求めて出力する。
【0269】
パラメータ生成部180は、図22のパラメータメモリ168に供給されるパラメータzが取り得る範囲の幾つかの値としての、例えば、上述したようなz=0,1,2,・・・,Zを生成し、生徒データ生成部173に供給する。また、パラメータ生成部180は、生成したパラメータzを、タップ抽出部175および176、並びに足し込み部178にも供給する。
【0270】
次に、図26のフローチャートを参照して、図24の学習装置の処理(学習処理)について、説明する。
【0271】
まず最初に、ステップS21において、教師データ生成部171と生徒データ生成部173が、学習用画像データから、教師データと生徒データを、それぞれ生成して出力する。即ち、教師データ生成部171は、学習用画像データを、そのまま、教師データとして出力する。また、生徒データ生成部171には、パラメータ生成部180が生成するZ+1個の値のパラメータzが供給され、生徒データ生成部171は、学習用画像データを、パラメータ生成部180からのZ+1個の値(0,1,・・・,Z)のパラメータzに対応するカットオフ周波数のLPFによってフィルタリングすることにより、各フレームの教師データ(学習用画像データ)について、Z+1フレームの生徒データを生成して出力する。
【0272】
教師データ生成部171が出力する教師データは、教師データ記憶部172に供給されて記憶され、生徒データ生成部173が出力する生徒データは、生徒データ記憶部174に供給されて記憶される。
【0273】
その後、ステップS22に進み、パラメータ生成部180は、パラメータzを、初期値としての、例えば0にセットし、タップ抽出部175および176、並びに足し込み部178に供給して、ステップS23に進む。ステップS23では、タップ抽出部175は、教師データ記憶部172に記憶された教師データのうち、まだ、注目教師画素としていないものを、注目教師画素とする。さらに、ステップS23では、タップ抽出部175が、注目教師画素について、生徒データ記憶部174に記憶された、パラメータ生成部180が出力するパラメータzに対する生徒データ(注目教師画素となっている教師データに対応する学習用画像データを、パラメータzに対応するカットオフ周波数のLPFによってフィルタリングすることにより生成された生徒データ)から予測タップを構成し、足し込み部178に供給するとともに、タップ抽出部176が、やはり、注目教師画素について、生徒データ記憶部174に記憶された、パラメータ生成部180が出力するパラメータzに対する生徒データからクラスタップを構成し、クラス分類部177に供給する。
【0274】
そして、ステップS24に進み、クラス分類部177は、注目教師画素についてのクラスタップに基づき、注目教師画素のクラス分類を行い、その結果得られるクラスに対応するクラスコードを、足し込み部178に出力して、ステップS25に進む。
【0275】
ステップS25では、足し込み部178は、教師データ記憶部172から注目教師画素を読み出し、その注目教師画素、タップ抽出部175から供給される予測タップ、パラメータ生成部180が出力するパラメータzを用い、式(13)における左辺の行列のコンポーネントxi,Kpj,Kqと、右辺のベクトルのコンポーネントxi,KpKを計算する。さらに、足し込み部178は、既に得られている行列のコンポーネントとベクトルのコンポーネントのうち、クラス分類部177からのクラスコードに対応するものに対して、注目画素、予測タップ、およびパラメータzから求められた行列のコンポーネントxi,Kpj,Kqとベクトルのコンポーネントxi,KpKを足し込み、ステップS26に進む。
【0276】
ステップS26では、パラメータ生成部180が、自身が出力しているパラメータzが、その取り得る値の最大値であるZに等しいかどうかを判定する。ステップS26において、パラメータ生成部180が出力しているパラメータzが最大値Zに等しくない(最大値Z未満である)と判定された場合、ステップS27に進み、パラメータ生成部180は、パラメータzに1を加算し、その加算値を新たなパラメータzとして、タップ抽出部175および176、並びに足し込み部178に出力する。そして、ステップS23に戻り、以下、同様の処理が繰り返される。
【0277】
また、ステップS26において、パラメータzが最大値Zに等しいと判定された場合、ステップS28に進み、タップ抽出部175が、教師データ記憶部172に、まだ、注目教師画素としていない教師データが記憶されているかどうかを判定する。ステップS28において、注目教師画素としていない教師データが、まだ、教師データ記憶部172に記憶されていると判定された場合、タップ抽出部175は、まだ注目教師画素としていない教師データを、新たに、注目教師画素として、ステップS22に戻り、以下、同様の処理が繰り返される。
【0278】
また、ステップS28において、注目教師画素としていない教師データが、教師データ記憶部172に記憶されていないと判定された場合、足し込み部178は、いままでの処理によって得られたクラスごとの式(13)における左辺の行列と、右辺のベクトルを、係数種算出部179に供給し、ステップS29に進む。
【0279】
ステップS29では、係数種算出部179は、足し込み部178から供給されるクラスごとの式(13)における左辺の行列と右辺のベクトルによって構成されるクラスごとの正規方程式を解くことにより、各クラスごとに、係数種データβm,nを求めて出力し、処理を終了する。
【0280】
なお、学習用画像データの数が十分でないこと等に起因して、係数種データを求めるのに必要な数の正規方程式が得られないクラスが生じることがあり得るが、そのようなクラスについては、係数種算出部179は、例えば、デフォルトの係数種データを出力するようになっている。
【0281】
ところで、図24の学習装置では、図25に示したように、学習用画像データとしての高画質画像データを教師データとするとともに、その高画質画像データに、パラメータzに対応して解像度を劣化させた低画質画像データを生徒データとして、式(4)によって係数種データβm,nとパラメータzに対応する変数tmとで表されるタップ係数wn、並びに生徒データxnから、式(1)の線形1次式で予測される教師データの予測値yの自乗誤差の総和を最小にする係数種データβm,nを直接求める学習を行うようにしたが、係数種データβm,nの学習は、その他、例えば、図27に示すようにして行うことが可能である。
【0282】
即ち、図27の実施の形態では、図25の実施の形態における場合と同様に、学習用画像データとしての高画質画像データを教師データとするとともに、その高画質画像データを、パラメータzに対応したカットオフ周波数のLPFによってフィルタリングすることにより、その水平解像度および垂直解像度を低下させた低画質画像データを生徒データとして、まず最初に、タップ係数wn、並びに生徒データxnを用いて式(1)の線形1次予測式で予測される教師データの予測値yの自乗誤差の総和を最小にするタップ係数wnが、パラメータzの値(ここでは、z=0,1,・・・,Z)ごとに求められる。さらに、図27の実施の形態では、求められたタップ係数wnを教師データとするとともに、パラメータzを生徒データとして、式(4)によって係数種データβm,n、並びに生徒データであるパラメータzに対応する変数tmから予測される教師データとしてのタップ係数wnの予測値の自乗誤差の総和を最小にする係数種データβm,nを求める学習が行われる。
【0283】
具体的には、上述の式(8)で表される、式(1)の線形1次予測式で予測される教師データの予測値yの自乗誤差の総和Eを最小(極小)にするタップ係数wnは、その総和Eをタップ係数wnで偏微分したものを0とするものであり、従って、次式を満たす必要がある。
【0284】
【数14】
Figure 0003693246
Figure 0003693246
【0285】
そこで、上述の式(6)をタップ係数wnで偏微分すると、次式が得られる。
【0286】
【数15】
Figure 0003693246
Figure 0003693246
【0287】
式(14)と(15)から、次式が得られる。
【0288】
【数16】
Figure 0003693246
Figure 0003693246
【0289】
式(16)のekに、式(6)を代入することにより、式(16)は、式(17)に示す正規方程式で表すことができる。
【0290】
【数17】
Figure 0003693246
Figure 0003693246
【0291】
式(17)の正規方程式は、例えば、式(13)の正規方程式における場合と同様に、掃き出し法(Gauss-Jordanの消去法)などを用いることにより、タップ係数wnについて解くことができる。
【0292】
式(17)の正規方程式を解くことにより、最適なタップ係数(ここでは、自乗誤差の総和Eを最小にするタップ係数)wnは、クラスごとに、かつパラメータzの値(z=0,1,・・・,Z)ごとに求められる。
【0293】
一方、本実施の形態では、式(4)により、係数種データβm,nと、パラメータzに対応する変数tmとから、タップ係数が求められるが、いま、この式(4)によって求められるタップ係数を、wn’と表すこととすると、次の式(18)で表される、最適なタップ係数wnと式(4)により求められるタップ係数wn’との誤差enを0とする係数種データβn,mが、最適なタップ係数wnを求めるのに最適なものとなるが、すべてのタップ係数wnについて、そのような係数種データβn,mを求めることは、一般には困難である。
【0294】
【数18】
Figure 0003693246
Figure 0003693246
【0295】
なお、式(18)は、式(4)によって、次式のように変形することができる。
【0296】
【数19】
Figure 0003693246
Figure 0003693246
【0297】
そこで、係数種データβn,mが最適なものであることを表す規範として、例えば、やはり、最小自乗法を採用することとすると、最適な係数種データβn,mは、次式で表される自乗誤差の総和Eを最小にすることで求めることができる。
【0298】
【数20】
Figure 0003693246
Figure 0003693246
【0299】
式(20)の自乗誤差の総和Eの最小値(極小値)は、式(21)に示すように、総和Eを係数種データβn,mで偏微分したものを0とするβn,mによって与えられる。
【0300】
【数21】
Figure 0003693246
Figure 0003693246
【0301】
式(19)を、式(21)に代入することにより、次式が得られる。
【0302】
【数22】
Figure 0003693246
Figure 0003693246
【0303】
いま、Xi,j,とYiを、式(23)と(24)に示すように定義する。
【0304】
【数23】
Figure 0003693246
Figure 0003693246
【数24】
Figure 0003693246
Figure 0003693246
【0305】
この場合、式(22)は、Xi,jとYiを用いた式(25)に示す正規方程式で表すことができる。
【0306】
【数25】
Figure 0003693246
Figure 0003693246
【0307】
式(25)の正規方程式も、例えば、掃き出し法(Gauss-Jordanの消去法)などを用いることにより、係数種データβn,mについて解くことができる。
【0308】
次に、図28は、式(25)の正規方程式をたてて解くことにより係数種データβn,mを求める学習を行う学習装置の構成例を示している。なお、図中、図24における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。
【0309】
足し込み部190には、クラス分類部177が出力する注目教師画素についてのクラスコードと、パラメータ生成部180が出力するパラメータzが供給されるようになっている。そして、足し込み部190は、教師データ記憶部172から、注目教師画素を読み出し、その注目教師画素と、タップ抽出部175から供給される注目教師画素について構成された予測タップを構成する生徒データとを対象とした足し込みを、クラス分類部177から供給されるクラスコードごとに、かつパラメータ生成部180が出力するパラメータzの値ごとに行う。
【0310】
即ち、足し込み部190には、教師データ記憶部172に記憶された教師データyk、タップ抽出部175が出力する予測タップxn,k、クラス分類部177が出力するクラスコード、およびパラメータ生成部180が出力する、予測タップxn,kを構成するのに用いられた生徒データを生成したときのパラメータzが供給される。
【0311】
そして、足し込み部190は、クラス分類部177から供給されるクラスコードに対応するクラスごとに、かつパラメータ生成部180が出力するパラメータzの値ごとに、予測タップ(生徒データ)xn,kを用い、式(17)の左辺の行列における生徒データどうしの乗算(xn,kn',k)と、サメーション(Σ)に相当する演算を行う。
【0312】
さらに、足し込み部190は、やはり、クラス分類部177から供給されるクラスコードに対応するクラスごとに、かつパラメータ生成部180が出力するパラメータzの値ごとに、予測タップ(生徒データ)xn,kと教師データykを用い、式(17)の右辺のベクトルにおける生徒データxn,kおよび教師データykの乗算(xn,kk)と、サメーション(Σ)に相当する演算を行う。
【0313】
即ち、足し込み部190は、前回、注目教師画素とされた教師データについて求められた式(17)における左辺の行列のコンポーネント(Σxn,kn',k)と、右辺のベクトルのコンポーネント(Σxn,kk)を、その内蔵するメモリ(図示せず)に記憶しており、その行列のコンポーネント(Σxn,kn',k)またはベクトルのコンポーネント(Σxn,kk)に対して、新たに注目教師画素とされた教師データについて、その教師データyk+1および生徒データxn,k+1を用いて計算される、対応するコンポーネントxn,k+1n',k+1またはxn,k+1k+1を足し込む(式(17)のサメーションで表される加算を行う)。
【0314】
そして、足し込み部190は、教師データ記憶部172に記憶された教師データすべてを注目教師画素として、上述の足し込みを行うことにより、各クラスについて、パラメータzの各値ごとに、式(17)に示した正規方程式をたてると、その正規方程式を、タップ係数算出部191に供給する。
【0315】
タップ係数算出部191は、足し込み部190から供給される各クラスについての、パラメータzの値ごとの正規方程式を解くことにより、各クラスについて、パラメータzの値ごとの最適なタップ係数wnを求め、足し込み部192に供給する。
【0316】
足し込み部192は、各クラスごとに、パラメータz(に対応する変数tm)と、最適なタップ係数wnを対象とした足し込みを行う。
【0317】
即ち、足し込み部192は、パラメータzから式(3)によって求められる変数ti(tj)を用い、式(25)の左辺の行列における、式(23)で定義されるコンポーネントXi,jを求めるためのパラメータzに対応する変数ti(tj)どうしの乗算(tij)と、サメーション(Σ)に相当する演算を、クラスごとに行う。
【0318】
ここで、コンポーネントXi,jは、パラメータzによってのみ決まるものであり、クラスとは関係がないので、コンポーネントXi,jの計算は、実際には、クラスごとに行う必要はなく、1回行うだけで済む。
【0319】
さらに、足し込み部192は、パラメータzから式(3)によって求められる変数tiと、最適なタップ係数wnとを用い、式(25)の右辺のベクトルにおける、式(24)で定義されるコンポーネントYiを求めるためのパラメータzに対応する変数tiおよび最適なタップ係数wnの乗算(tin)と、サメーション(Σ)に相当する演算を、クラスごとに行う。
【0320】
足し込み部192は、各クラスごとに、式(23)で表されるコンポーネントXi,jと、式(24)で表されるコンポーネントYiを求めることにより、各クラスについて、式(25)の正規方程式をたてると、その正規方程式を、係数種算出部193に供給する。
【0321】
係数種算出部193は、足し込み部192から供給されるクラスごとの式(25)の正規方程式を解くことにより、各クラスごとの係数種データβm,nを求めて出力する。
【0322】
図22の信号処理部137における係数種メモリ167には、以上のようにして求められたクラスごとの係数種データβm,nを記憶させておくようにすることもできる。
【0323】
ここで、図22の信号処理部137においては、例えば、係数種メモリ167を設けずに、図28のタップ係数算出部191が出力するパラメータzの各値ごとの最適なタップ係数wnをメモリに記憶させておき、パラメータメモリ168に記憶されたパラメータzに応じて、メモリに記憶された最適なタップ係数を選択して、係数メモリ164にセットするようにすることも可能である。但し、この場合、パラメータzが取り得る値の数に比例した大きな容量のメモリが必要となる。これに対して、係数種メモリ167を設け、係数種データを記憶させておく場合には、係数種メモリ167の記憶容量は、パラメータzが取り得る値の数に依存しないので、係数種メモリ167として、小さな容量のメモリを採用することができる。さらに、係数種データβm,nを記憶させておく場合には、その係数種データβm,nと、パラメータzの値とから、式(2)によりタップ係数wnが生成されることから、パラメータzの値に応じた、いわば連続的なタップ係数wnを得ることができる。そして、その結果、図22の予測部165が第2の画像データとして出力する高画質画像データの画質を、無段階に滑らかに調整することが可能となる。
【0324】
なお、上述の場合には、学習用画像データを、そのまま第2の画像データに対応する教師データとするとともに、その学習用画像データの解像度を劣化させた低画質画像データを、第1の画像データに対応する生徒データとして、係数種データの学習を行うようにしたことから、係数種データとしては、第1の画像データを、その解像度を向上させた第2の画像データに変換する解像度向上処理としての画像変換処理を行うものを得ることができる。
【0325】
従って、親機1の信号処理部137のEEPROM137Aに、その係数種データを記憶させておくとともに、図22の機能的構成を実現し、かつ図23のフローチャートにしたがった画像変換処理を行うプログラムを記憶させておくことにより、信号処理部137では、パラメータzに対応して、画像データの水平解像度および垂直解像度を向上させることができる。
【0326】
ここで、第1の画像データに対応する生徒データと、第2の画像データに対応する教師データとする画像データの選択の仕方によって、係数種データとしては、各種の画像変換処理を行うものを得ることができる。
【0327】
即ち、例えば、高画質画像データを教師データとするとともに、その教師データとしての高画質画像データに対して、パラメータzに対応するレベルのノイズを重畳した画像データを生徒データとして、学習処理を行うことにより、係数種データとしては、第1の画像データを、そこに含まれるノイズを除去(低減)した第2の画像データに変換するノイズ除去処理としての画像変換処理を行うものを得ることができる。
【0328】
また、例えば、ある画像データを教師データとするとともに、その教師データとしての画像データの画素数を、パラメータzに対応して間引いた画像データを生徒データとして、または、パラメータzに対応するサイズの画像データを生徒データとするとともに、その生徒データとしての画像データの画素を所定の間引き率で間引いた画像データを教師データとして、学習処理を行うことにより、係数種データとしては、第1の画像データを、拡大または縮小した第2の画像データに変換するリサイズ処理としての画像変換処理を行うものを得ることができる。
【0329】
従って、親機1の信号処理部137のEEPROM137Aに、ノイズ除去処理用の係数種データや、リサイズ処理用の係数種データを記憶させておくことにより、信号処理部137では、パラメータzに対応して、画像データのノイズ除去やリサイズ(拡大または縮小)を行うことができる。
【0330】
なお、上述の場合には、タップ係数wnを、式(2)に示したように、β1,n0+β2,n1+・・・+βM,nM-1で定義し、この式(2)によって、水平および垂直方向の解像度を、いずれも、パラメータzに対応して向上させるためのタップ係数wnを求めるようにしたが、タップ係数wnとしては、水平解像度と垂直解像度を、独立のパラメータzxとzyに対応して、それぞれ独立に向上させるものを求めるようにすることも可能である。
【0331】
即ち、タップ係数wnを、式(2)に代えて、例えば、3次式β1,nx 0y 0+β2,nx 1y 0+β3,nx 2y 0+β4,nx 3y 0+β5,nx 0y 1+β6,nx 0y 2+β7,nx 0y 3+β8,nx 1y 1+β9,nx 2y 1+β10,nx 1y 2で定義するとともに、式(3)で定義した変数tmを、式(3)に代えて、t1=zx 0y 0,t2=zx 1y 0,t3=zx 2y 0,t4=zx 3y 0,t5=zx 0y 1,t6=zx 0y 2,t7=zx 0y 3,t8=zx 1y 1,t9=zx 2y 1,t10=zx 1y 2で定義する。この場合も、タップ係数wnは、最終的には、式(4)で表すことができ、従って、学習装置(図24、図28)において、パラメータzxとzyに対応して、教師データの水平解像度と垂直解像度をそれぞれ劣化させた画像データを、生徒データとして用いて学習を行って、係数種データβm,nを求めることにより、水平解像度と垂直解像度を、独立のパラメータzxとzyに対応して、それぞれ独立に向上させるタップ係数wnを求めることができる。
【0332】
その他、例えば、水平解像度と垂直解像度それぞれに対応するパラメータzxとzyに加えて、さらに、時間方向の解像度に対応するパラメータztを導入することにより、水平解像度、垂直解像度、時間解像度を、独立のパラメータzx,zy,ztに対応して、それぞれ独立に向上させるタップ係数wnを求めることが可能となる。
【0333】
また、リサイズ処理についても、解像度向上処理における場合と同様に、水平および垂直方向を、いずれもパラメータzに対応する拡大率(または縮小率)でリサイズするタップ係数wnの他、水平と垂直方向を、それぞれパラメータzxとzyに対応する拡大率で、独立にリサイズするタップ係数wnを求めることが可能である。
【0334】
さらに、学習装置(図24、図28)において、パラメータzxに対応して教師データの水平解像度および垂直解像度を劣化させるとともに、パラメータzyに対応して教師データにノイズを付加した画像データを、生徒データとして用いて学習を行って、係数種データβm,nを求めることにより、パラメータzxに対応して水平解像度および垂直解像度を向上させるとともに、パラメータzyに対応してノイズ除去を行うタップ係数wnを求めることができる。
【0335】
次に、上述のような画像変換処理を行う機能は、親機1のみならず、子機2も有している。
【0336】
そこで、図29は、上述の画像変換処理を行う子機2(図11)の信号処理部157の機能的構成例を示している。なお、図29の機能的構成も、図22の信号処理部137における場合と同様に、信号処理部157のDSP157Aが、EEPROM157Bに記憶されたプログラムを実行することで実現される。
【0337】
図29において、子機2の信号処理部157は、親機1の信号処理部137(図22)のタップ抽出部161乃至パラメータメモリ168とそれぞれ同様に構成されるタップ抽出部201乃至パラメータメモリ208で構成されるため、その説明は省略する。
【0338】
なお、親機1の信号処理部137と、子機2の信号処理部157には、同一の係数種データを記憶させておくことも可能であるが、本実施の形態では、少なくとも一部が異なる係数種データを記憶させておくものとする。
【0339】
即ち、例えば、親機1の信号処理部137には、リサイズ処理用の係数種データと、解像度向上処理用の係数種データを記憶させておき、子機2の信号処理部157には、リサイズ処理用の係数種データと、ノイズ除去処理用の係数種データを記憶させておくものとする。
【0340】
あるいは、例えば、親機1の信号処理部137には、リサイズ処理用の係数種データを記憶させておき、ある1つの子機2ijの信号処理部157には、ノイズ除去処理用の係数種データを記憶させておくとともに、他の1つの子機2pqの信号処理部157には、解像度向上処理用の係数種データを記憶させておくことも可能である。
【0341】
ここで、親機1の信号処理部137と、子機2の信号処理部157の両方に、各種の処理を行うための係数種データを記憶させておくことも可能であるが、その場合、その各種の処理を行うための係数種データを、EEPROM137Bと157Bに記憶させる必要がある。従って、EEPROM137Bと157Bとして、記憶容量の大きなものが必要となり、親機1や子機2のコストが大になる。
【0342】
一方、本実施の形態では、スケーラブルTVシステムにおいて、親機1と子機2とは、IEEE1394通信が可能なように接続されることから、親機1または子機2は、子機2または親機1が有する係数種データを、IEEE1394通信によって取得することができる。従って、例えば、ノイズ除去処理を行う係数種データを記憶している子機2が親機1に接続されれば、親機1は、自身がその係数種データを有していなくても(記憶していなくても)、子機2から係数種データを取得して、ノイズ除去処理を行うことが可能となる。
【0343】
その結果、親機1は(子機2も同様)、スケーラブルTVシステムとして接続される子機2が増加するほど、実行可能な処理、つまり機能が増加することになる。
【0344】
この場合、EEPROM137Bと157Bとして、記憶容量の小さいものを採用することができ、親機1や子機2のコストを低減することができる。さらに、この場合、親機1に加えて、子機2を増設していくほど、スケーラブルTVシステム全体としての機能が増加することから、ユーザに、子機の購入意欲を起こさせることができる。そして、ユーザが、新たな子機を購入した場合でも、ユーザが既に所有している子機2は、その子機2が有する係数種データを用いて行われる処理に必要であり、ユーザがその所有している子機2を廃棄することを防止することができる。その結果、資源の有効利用に資することができる。
【0345】
なお、本実施の形態では、例えば、子機2において、信号処理部157は、子機2単体では、処理を行わないようになっている。即ち、子機2の信号処理部157は、IEEE1394通信によって、親機1から、CPU149(図11)を経由してコマンドを受信した場合に、そのコマンドに対応して処理を行うようになっている。
【0346】
従って、子機2は、大きくは、アンテナで受信されたテレビジョン放送信号に対応する画像を、CRT31に表示するとともに、音声を、スピーカユニット32Lおよび32Rから出力する機能(以下、適宜、TV機能という)と、信号処理部157が処理を行うことによって提供される機能(以下、適宜、特別機能という)とを有するが、単体では、TV機能しか使用できず、特別機能は使用することができない。即ち、子機2の特別機能を使用するには、その子機2が、親機1に接続され、スケーラブルTVシステムを構成する必要がある。
【0347】
次に、図30のフローチャートを参照して、図10の親機1の処理について説明する。
【0348】
まず最初に、ステップS41において、CPU129は、端子パネル21に、何らかの機器が接続されるか、または、IEEE1394インタフェース133もしくはIR受信部135から、何らかのコマンドが供給されるというイベントが生じたかどうかを判定し、何らのイベントも生じていないと判定した場合、ステップS41に戻る。
【0349】
また、ステップS41において、端子パネル21に機器が接続されるイベントが生じたと判定された場合、ステップS42に進み、CPU129は、後述する図31の認証処理を行い、ステップS41に戻る。
【0350】
ここで、端子パネル21に機器が接続されたかどうかを判定するには、端子パネル21に機器が接続されたことを検出する必要があるが、この検出は、例えば、次のようにして行われる。
【0351】
即ち、端子パネル21(図3)に設けられたIEEE1394端子21ijに、(IEEE1394ケーブルを介して)機器が接続されると、そのIEEE1394端子21ijの端子電圧が変化する。IEEE1394インタフェース133は、この端子電圧の変化を、CPU129に報告するようになっており、CPU129は、IEEE1394インタフェース133から、端子電圧の変化の報告を受けることによって、端子パネル21に機器が新たに接続されたことを検出する。なお、CPU129は、例えば、同様の手法で、端子パネル21から機器が切り離されたことを認識する。
【0352】
一方、ステップS41において、IEEE1394インタフェース133もしくはIR受信部135から、何らかのコマンドが供給されるイベントが生じたと判定された場合、ステップS43に進み、親機1では、そのコマンドに対応した処理が行われ、ステップS41に戻る。
【0353】
次に、図31のフローチャートを参照して、親機1が図30のステップS42で行う認証処理について説明する。
【0354】
親機1の認証処理では、端子パネル21に新たに接続された機器(以下、適宜、接続機器という)が、正当なIEEE1394機器であるかどうかについての認証と、そのIEEE1394機器が、親機または子機となるテレビジョン受像機(スケーラブル対応機)であるかどうかいついての認証の2つの認証が行われる。
【0355】
即ち、親機1の認証処理では、まず最初に、ステップS51において、CPU129は、IEEE1394インタフェース133を制御することにより、接続機器に対して、相互認証を行うことを要求する認証要求コマンドを送信させ、ステップS52に進む。
【0356】
ステップS52では、CPU129は、認証要求コマンドに対応するレスポンスが、接続機器から返ってきたかどうかを判定する。ステップS52において、認証要求コマンドに対応するレスポンスが、接続機器から返ってきていないと判定された場合、ステップS53に進み、CPU129は、タイムオーバとなったかどうか、即ち、認証要求コマンドを送信してから所定の時間が経過したかどうかを判定する。
【0357】
ステップS53において、タイムオーバであると判定された場合、即ち、認証要求コマンドを、接続機器に送信してから、所定の時間が経過しても、その接続機器から、認証要求コマンドに対応するレスポンスが返ってこない場合、ステップS54に進み、CPU129は、接続機器が正当なIEEE1394機器でなく、認証に失敗したとして、動作モードを、その接続機器との間では、何らのデータのやりとりも行わないモードである単体モードに設定して、リターンする。
【0358】
従って、親機1は、その後、正当なIEEE1394機器でない接続機器との間では、IEEE1394通信は勿論、何らのデータのやりとりも行わない。
【0359】
一方、ステップS53において、タイムオーバでないと判定された場合、ステップS52に戻り、以下、同様の処理を繰り返す。
【0360】
そして、ステップS52において、認証要求コマンドに対応するレスポンスが、接続機器から返ってきたと判定された場合、即ち、接続機器からのレスポンスが、IEEE1394インタフェース133で受信され、CPU129に供給された場合、ステップS55に進み、CPU129は、所定のアルゴリズムにしたがって、乱数(疑似乱数)R1を生成し、IEEE1394インタフェース133を介して、接続機器に送信する。
【0361】
その後、ステップS56に進み、CPU129は、ステップS55で送信した乱数R1に対して、その乱数R1を、所定の暗号化アルゴリズム(例えば、DES(Data Encryption Standard)や、FEAL(Fast data Encipherment Algorithm)、RC5などの秘密鍵暗号化方式)で暗号化した暗号化乱数E’(R1)が、接続機器から送信されてきたかどうかを判定する。
【0362】
ステップS56において、接続機器から暗号化乱数E’(R1)が送信されてきていないと判定された場合、ステップS57に進み、CPU129は、タイムオーバとなったかどうか、即ち、乱数R1を送信してから所定の時間が経過したかどうかを判定する。
【0363】
ステップS57において、タイムオーバであると判定された場合、即ち、乱数R1を、接続機器に送信してから、所定の時間が経過しても、その接続機器から、暗号化乱数E’(R1)が送信されてこない場合、ステップS54に進み、CPU129は、上述したように、接続機器が正当なIEEE1394機器でないとして、動作モードを単体モードに設定して、リターンする。
【0364】
一方、ステップS57において、タイムオーバでないと判定された場合、ステップS56に戻り、以下、同様の処理を繰り返す。
【0365】
そして、ステップS56において、接続機器から暗号化乱数E’(R1)が送信されてきたと判定された場合、即ち、接続機器からの暗号化乱数E’(R1)が、IEEE1394インタフェース133で受信され、CPU129に供給された場合、ステップS58に進み、CPU129は、ステップS55で生成した乱数R1を、所定の暗号化アルゴリズムで暗号化し、暗号化乱数E(R1)を生成して、ステップS59に進む。
【0366】
ステップS59では、CPU129は、接続機器から送信されてきた暗号化乱数E’(R1)と、自身がステップS58で生成した暗号化乱数E(R1)とが等しいかどうかを判定する。
【0367】
ステップS59において、暗号化乱数E’(R1)とE(R1)とが等しくないと判定された場合、即ち、接続機器で採用されている暗号化アルゴリズム(必要に応じて、暗号化に用いられる秘密鍵も含む)が、CPU129で採用されている暗号化アルゴリズムと異なるものである場合、ステップS54に進み、CPU129は、上述したように、接続機器が正当なIEEE1394機器でないとして、動作モードを単体モードに設定して、リターンする。
【0368】
また、ステップS59において、暗号化乱数E’(R1)とE(R1)とが等しいと判定された場合、即ち、接続機器で採用されている暗号化アルゴリズムが、CPU129で採用されている暗号化アルゴリズムと等しいものである場合、ステップS60に進み、CPU129は、接続機器が親機1の認証を行うための乱数R2が、接続機器から送信されてきたかどうかを判定する。
【0369】
ステップS60において、乱数R2が送信されてきていないと判定された場合、ステップS61に進み、CPU129は、タイムオーバとなったかどうか、即ち、例えば、ステップS59で暗号化乱数E’(R1)とE(R1)とが等しいと判定されてから、所定の時間が経過したかどうかを判定する。
【0370】
ステップS61において、タイムオーバであると判定された場合、即ち、相当の時間が経過しても、接続機器から、乱数R2が送信されてこない場合、ステップS54に進み、CPU129は、上述したように、接続機器が正当なIEEE1394機器でないとして、動作モードを単体モードに設定して、リターンする。
【0371】
一方、ステップS61において、タイムオーバでないと判定された場合、ステップS60に戻り、以下、同様の処理を繰り返す。
【0372】
そして、ステップS60において、接続機器から、乱数R2が送信されてきたと判定された場合、即ち、接続機器からの乱数R2が、IEEE1394インタフェース133で受信され、CPU129に供給された場合、ステップS62に進み、CPU129は、乱数R2を所定の暗号化アルゴリズムで暗号化し、暗号化乱数E(R1)を生成して、IEEE1394インタフェース133を介して、接続機器に送信する。
【0373】
ここで、ステップS60において、接続機器から乱数R2が送信されてきた時点で、接続機器が正当なIEEE1394機器であることの認証が成功する。
【0374】
その後、ステップS63に進み、CPU129は、IEEE1394インタフェース133を制御することにより、接続機器の機器IDと機能情報を要求する機能情報要求コマンドとともに、自身の機器IDと機能情報を、接続機器に送信する。
【0375】
ここで、機器IDは、親機1や子機2となるテレビジョン受像機を特定するユニークなIDである。
【0376】
また、機能情報は、自身の機能に関する情報で、例えば、自身が有する係数種データの種類(どのような画像変換処理を行うことができる係数種データであるのか)、外部から受け付けるコマンドの種類(例えば、電源のオン/オフ、音量調整、チャンネル、輝度、シャープネスなどを制御するコマンドのうちのいずれを外部から受け付けるか)、管面表示(OSD表示)が可能かどうか、ミュート状態になり得るかどうか、スリープ状態となり得るかどうかなどといった情報が含まれる。さらに、機能情報には、自身が親機としての機能を有するのか、または子機としての機能を有するのかといった情報も含まれる。
【0377】
なお、親機1では、機器IDおよび機能情報は、例えば、EEPROM130や、図15に示したコンフィギレーションROMのvendor_dependent_informationなどに記憶させておくことができる。
【0378】
その後、ステップS64に進み、CPU129は、ステップS63で接続機器に送信した機能情報要求コマンドに対応して、その接続機器が、機器IDと機能情報を送信してくるのを待って、その機器IDと機能情報を、IEEE1394インタフェース133を介して受信し、EEPROM130に記憶させて、ステップS65に進む。
【0379】
ステップS65では、CPU129は、EEPROM130に記憶された機能情報を参照することにより、接続機器が子機であるかどうかを判定する。ステップS65において、接続機器が子機であると判定された場合、即ち、接続機器が子機であることの認証に成功した場合、ステップS66およびS67をスキップして、ステップS68に進み、CPU129は、動作モードを、その子機である接続機器に対して特別機能による処理を行わせるための制御コマンドを提供、即ち、子機の特別機能を制御する特別機能コマンド受付/提供モードに設定して、リターンする。
【0380】
一方、ステップS65において、接続機器が子機でないと判定された場合、ステップS66に進み、CPU129は、EEPROM130に記憶された機能情報を参照することにより、接続機器が親機であるかどうかを判定する。ステップS66において、接続機器が親機であると判定された場合、即ち、接続機器が親機であることの認証に成功した場合、ステップS67に進み、CPU129は、親機である接続機器との間で親子調整処理を行う。
【0381】
即ち、この場合、親機1に、他の親機が接続されていることから、スケーラブルTVシステムを構成するテレビジョン受像機の中に、親機として機能するものが、2台存在することになる。本実施の形態では、スケーラブルTVシステムにおける親機は1台である必要があり、このため、ステップS67では、親機1と、接続機器としての親機との間で、いずれが親機としてのテレビジョン受像機として機能するかを決定する親子調整処理が行われる。
【0382】
具体的には、例えば、より早く、スケーラブルTVシステムを構成することとなった親機、つまり、本実施の形態では、親機1が、親機としてのテレビジョン受像機として機能するように決定される。なお、親機として機能しないように決定された他の親機は、子機として機能することとなる。
【0383】
ステップS67で親子調整処理が行われた後は、ステップS68に進み、CPU129は、上述したように、動作モードを、特別機能コマンド受付/提供モードに設定して、リターンする。
【0384】
一方、ステップS66において、接続機器が親機でないと判定された場合、即ち、接続機器が親機および子機のいずれでもなく、従って、接続機器が親機または子機であることの認証に失敗した場合、ステップS69に進み、CPU129は、動作モードを、接続機器との間で、既定のAV/Cコマンドセットのやりとりは可能であるが、特別機能による処理を行うための制御コマンドのやりとりはできない通常機能コマンド受付/提供モードに設定して、リターンする。
【0385】
即ち、この場合、接続機器は、親機および子機のいずれでもないため、そのような接続機器が、親機1に接続されても、特別機能は提供されない。但し、この場合、接続機器は、正当なIEEE1394機器ではあることから、親機1と接続機器との間における既定のAV/Cコマンドセットのやりとりは許可される。従って、この場合、親機1と接続機器については、他方(あるいは、親機1に接続されている他のIEEE1394機器)から、既定のAV/Cコマンドセットによって制御することは可能である。
【0386】
次に、図32のフローチャートを参照して、図11の子機2の処理について説明する。
【0387】
まず最初に、ステップS71において、CPU149は、端子パネル41に、何らかの機器が接続されるか、または、IEEE1394インタフェース153もしくはIR受信部155から、何らかのコマンドが供給されるというイベントが生じたかどうかを判定し、何らのイベントも生じていないと判定した場合、ステップS71に戻る。
【0388】
また、ステップS71において、端子パネル41に機器が接続されるイベントが生じたと判定された場合、ステップS72に進み、CPU149は、後述する図33の認証処理を行い、ステップS71に戻る。
【0389】
ここで、端子パネル41に機器が接続されたかどうかを判定するには、端子パネル41に機器が接続されたことを検出する必要があるが、この検出は、例えば、図30のステップS41で説明した場合と同様に行われる。
【0390】
一方、ステップS71において、IEEE1394インタフェース153もしくはIR受信部155から、何らかのコマンドが供給されるイベントが生じたと判定された場合、ステップS73に進み、子機2では、そのコマンドに対応した処理が行われ、ステップS71に戻る。
【0391】
次に、図33のフローチャートを参照して、子機2が図32のステップS72で行う認証処理について説明する。
【0392】
子機2の認証処理では、端子パネル41に新たに接続された機器(接続機器)が、正当なIEEE1394機器であるかどうかについての認証と、そのIEEE1394機器が、親機であるかどうかいついての認証の2つの認証が行われる。
【0393】
即ち、子機2の認証処理では、まず最初に、ステップS81において、CPU149は、接続機器から、相互認証を行うことを要求する認証要求コマンドが送信されてきたかどうかを判定し、送信されてきていないと判定した場合、ステップS82に進む。
【0394】
ステップS82では、CPU149は、タイムオーバとなったかどうか、即ち、認証処理を開始してから所定の時間が経過したかどうかを判定する。
【0395】
ステップS82において、タイムオーバであると判定された場合、即ち、認証処理を開始してから、所定の時間が経過しても、接続機器から、認証要求コマンドが送信されてこない場合、ステップS83に進み、CPU149は、接続機器が正当なIEEE1394機器でなく、認証に失敗したとして、動作モードを、その接続機器との間では、何らのデータのやりとりも行わないモードである単体モードに設定して、リターンする。
【0396】
従って、子機2は、親機1と同様に、正当なIEEE1394機器でない接続機器との間では、IEEE1394通信は勿論、何らのデータのやりとりも行わない。
【0397】
一方、ステップS82において、タイムオーバでないと判定された場合、ステップS81に戻り、以下、同様の処理を繰り返す。
【0398】
そして、ステップS81において、認証要求コマンドが、接続機器から送信されてきたと判定された場合、即ち、図31のステップS51で接続機器としての親機1から送信されてくる認証要求コマンドが、IEEE1394インタフェース153で受信され、CPU149に供給された場合、ステップS84に進み、CPU149は、IEEE1394インタフェース153を制御することにより、認証要求コマンドに対するレスポンスを、接続機器に送信させる。
【0399】
ここで、本実施の形態では、図31におけるステップS51乃至S53の処理を親機1に、図33のステップS81,S82、およびS84の処理を子機2に、それぞれ行わせるようにしたが、図31におけるステップS51乃至S53の処理は子機2に、図33のステップS81,S82、およびS84の処理は親機1に、それぞれ行わせるようにすることも可能である。
【0400】
その後、ステップS85に進み、CPU149は、接続機器から、乱数R1が送信されてきたかどうかを判定し、送信されてきていないと判定した場合、ステップS86に進む。
【0401】
ステップS86では、CPU149は、タイムオーバとなったかどうか、即ち、ステップS84で認証要求コマンドに対するレスポンスを送信してから所定の時間が経過したかどうかを判定する。
【0402】
ステップS86において、タイムオーバであると判定された場合、即ち、認証コマンドに対するレスポンスを送信してから、所定の時間が経過しても、接続機器から、乱数R1が送信されてこない場合、ステップS83に進み、CPU149は、上述したように、接続機器が正当なIEEE1394機器でないとして、動作モードを、その接続機器との間では、何らのデータのやりとりも行わないモードである単体モードに設定して、リターンする。
【0403】
一方、ステップS86において、タイムオーバでないと判定された場合、ステップS85に戻り、以下、同様の処理を繰り返す。
【0404】
そして、ステップS85において、接続機器から乱数R1が送信されてきたと判定された場合、即ち、図31のステップS55で接続機器としての親機1から送信されてくる乱数R1が、IEEE1394インタフェース153で受信され、CPU149に供給された場合、ステップS87に進み、CPU149は、その乱数R1を、所定の暗号化アルゴリズムで暗号化し、暗号化乱数E’(R1)を生成する。さらに、ステップS87では、CPU149は、IEEE1394インタフェース153を制御することにより、暗号化乱数E’(R1)を、接続機器に送信し、ステップS89に進む。
【0405】
ステップS89では、CPU149は、乱数(疑似乱数)R2を生成し、IEEE1394インタフェース153を制御することにより、乱数R2を接続機器に送信させ、ステップS90に進む。
【0406】
ステップS90では、CPU149は、接続機器としての親機1が図31のステップS62で生成する、乱数R2を暗号化した暗号化乱数E(R2)が、接続機器から送信されてきたかどうかを判定する。
【0407】
ステップS90において、接続機器から暗号化乱数E(R2)が送信されてきていないと判定された場合、ステップS91に進み、CPU149は、タイムオーバとなったかどうか、即ち、乱数R2を送信してから所定の時間が経過したかどうかを判定する。
【0408】
ステップS91において、タイムオーバであると判定された場合、即ち、乱数R2を、接続機器に送信してから、所定の時間が経過しても、その接続機器から、暗号化乱数E(R2)が送信されてこない場合、ステップS83に進み、CPU149は、上述したように、接続機器が正当なIEEE1394機器でないとして、動作モードを単体モードに設定して、リターンする。
【0409】
一方、ステップS91において、タイムオーバでないと判定された場合、ステップS90に戻り、以下、同様の処理を繰り返す。
【0410】
そして、ステップS90において、接続機器から暗号化乱数E(R2)が送信されてきたと判定された場合、即ち、接続機器からの暗号化乱数E(R2)が、IEEE1394インタフェース153で受信され、CPU149に供給された場合、ステップS92に進み、CPU149は、ステップS89で生成した乱数R2を、所定の暗号化アルゴリズムで暗号化し、暗号化乱数E’(R2)を生成して、ステップS93に進む。
【0411】
ステップS93では、CPU149は、接続機器から送信されてきた暗号化乱数E(R2)と、自身がステップS92生成した暗号化乱数E’(R2)とが等しいかどうかを判定する。
【0412】
ステップS93において、暗号化乱数E(R2)とE’(R2)とが等しくないと判定された場合、即ち、接続機器で採用されている暗号化アルゴリズム(必要に応じて、暗号化に用いられる秘密鍵も含む)が、CPU149で採用されている暗号化アルゴリズムと異なるものである場合、ステップS83に進み、CPU149は、上述したように、接続機器が正当なIEEE1394機器でないとして、動作モードを単体モードに設定して、リターンする。
【0413】
また、ステップS93において、暗号化乱数E(R2)とE’(R2)とが等しいと判定された場合、即ち、接続機器で採用されている暗号化アルゴリズムが、CPU149で採用されている暗号化アルゴリズムと等しいものであり、これにより、接続機器が正当なIEEE1394機器であることの認証が成功した場合、ステップS94に進み、CPU149は、接続機器としての親機1が、図31のステップS63で機能情報要求コマンドとともに送信してくる機器IDおよび機能情報を、IEEE1394インタフェース153を介して受信し、EEPROM150に記憶させる。
【0414】
そして、ステップS95に進み、CPU149は、IEEE1394インタフェース153を制御することにより、ステップS94で受信した接続機器からの機能情報要求コマンドに対応して、自身の機器IDと機能情報を、接続機器に送信させ、ステップS96に進む。
【0415】
ここで、子機2では、機能IDと機能情報は、図31で説明した親機1における場合と同様に、EEPROM150や、図15に示したコンフィギレーションROMのvendor_dependent_informationなどに記憶させておくことができる。
【0416】
ステップS96では、CPU149は、EEPROM150に記憶された機能情報を参照することにより、接続機器が親機であるかどうかを判定する。ステップS96において、接続機器が親機であると判定された場合、即ち、接続機器が親機であることの認証に成功した場合、ステップS97に進み、CPU149は、動作モードを、親機である接続機器からの制御コマンドを受け付け、その制御コマンドに対応して特別機能による処理を行う、即ち、特別機能を制御する制御コマンドを受け付ける特別機能コマンド受付/提供モードに設定して、リターンする。
【0417】
ここで、子機2は、特別機能コマンド受付/提供モードとなると、基本的に、自身のフロントパネル154やIR受信部155から供給されるコマンドを無視し、IEEE1394インタフェース153で受信される親機1からのコマンドにしたがって各種の処理を行う状態となる。即ち、子機2は、例えば、チャンネルや音量の設定その他を、親機1からのコマンドにのみ対応して行う状態となる。従って、スケーラブルTVシステムは、親機1によって、そのスケーラブルTVシステムを構成するすべての子機2を制御する、いわば集中制御型のシステムであるということができる。
【0418】
なお、親機1(図10)から子機2へのコマンドの送信は、そのフロントパネル134やIR受信部135からの入力に基づいて行うこともできるし、子機2のフロントパネル154やIR受信部155への入力を、IEEE1394インタフェース153を介して親機1に転送し、そのようにして子機2から親機1に転送されてくる入力に基づいて行うこともできる。
【0419】
一方、ステップS96において、接続機器が親機でないと判定された場合、即ち、接続機器が親機であることの認証に失敗した場合、ステップS98に進み、CPU149は、動作モードを、接続機器との間で、既定のAV/Cコマンドセットのやりとりは可能であるが、特別機能による処理を行うための制御コマンドのやりとりはできない通常機能コマンド受付/提供モードに設定して、リターンする。
【0420】
即ち、この場合、接続機器は、親機でないため、そのような接続機器が、子機2に接続されても、特別機能は提供されない。従って、子機2に、他の子機が接続されただけでは、特別機能は提供されない。但し、この場合、接続機器は、正当なIEEE1394機器ではあることから、子機2と接続機器との間における既定のAV/Cコマンドセットのやりとりは許可される。従って、この場合、子機2と接続機器(他の子機を含む)については、他方から、既定のAV/Cコマンドセットによって制御することは可能である。
【0421】
次に、親機1と子機2で、図31と図33で説明した認証処理がそれぞれ成功し、親機1および子機2が、その動作モードを、特別機能コマンド受付/提供モードとした後に、スケーラブルTVシステムが特別機能を提供するために、親機1と子機2が、図30のステップS43と図32のステップS73でそれぞれ行う処理の詳細の例について説明する。
【0422】
まず、親機1では、図10で説明したようにして、テレビジョン放送番組としての画像と音声が出力される(画像が表示され、音声が出力される)が、親機1において、このように、画像と音声が出力されている場合に、ユーザが、リモコン15(図7)のガイドボタンスイッチ63(またはリモコン35(図8)のガイドボタンスイッチ93)をオンとするように操作すると、リモコン15において、ユーザの操作に対応する赤外線が出射される。この赤外線は、親機1(図10)のIR受信部135で受信され、ガイドボタンスイッチ63の操作に対応するコマンド(以下、適宜、キャプション表示コマンドという)が、CPU129に供給される。
【0423】
なお、リモコン15による赤外線は、子機2(図11)のIR受信部155でも受信されるが、子機2では、この赤外線は無視される。
【0424】
親機1(図10)のCPU129は、以上のようにして、キャプション表示コマンドを受信すると、図34のフローチャートにしたがった親機のクローズドキャプション処理を行う。
【0425】
即ち、CPU129は、まず最初に、ステップS101において、デマルチプレクサ124に供給されているトランスポートストリームに、クローズドキャプションデータが含まれているかどうかを判定する。
【0426】
ここで、MPEGビデオストリーム中に、クローズドキャプションデータを含める場合には、クローズドキャプションデータは、例えば、そのシーケンス層におけるMPEGユーザデータ(MPEG-2ユーザデータ)として配置される。この場合、ステップS101では、CPU129は、デマルチプレクサ124に供給されているトランスポートストリームを参照することにより、そのトランスポートストリーム中に、クローズドキャプションデータが含まれているかどうかを判定する。
【0427】
ステップS101において、トランスポートストリーム中に、クローズドキャプションデータが含まれないと判定された場合、以降の処理をスキップして、クローズドキャプション処理を終了する。
【0428】
また、ステップS101において、トランスポートストリーム中に、クローズドキャプションデータが含まれると判定された場合、ステップS102に進み、CPU129は、EEPROM130に記憶された、スケーラブルTVシステムを構成する子機の機能情報、および自身の機能情報を参照することにより、スケーラブルTVシステムを構成するテレビジョン受像機の中から、クローズドキャプション用の係数種データを有するものを検索する。即ち、機能情報には、上述したように、スケーラブルTVシステムを構成する各テレビジョン受像機が有する係数種データの種類が含まれており、ステップS102では、このような機能情報を参照することにより、クローズドキャプション用の係数種データを有するテレビジョン受像機の検索が行われる。
【0429】
ここで、クローズドキャプション用の係数種データとは、例えば、クローズドキャプションデータによって表示されるクローズドキャプションの画像データを、教師データとするとともに、その教師データの解像度を劣化させた画像データ、その教師データにノイズを加えた画像データ、またはその教師データを縮小した画像データなどを、生徒データとして、学習を行うことにより得られる係数種データであり、クローズドキャプションの画像について、その解像度の向上、ノイズの除去、または拡大を行うのに、特に適した係数種データを意味する。
【0430】
その後、ステップS103に進み、CPU129は、ステップS102の検索結果に基づいて、クローズドキャプション専用の係数種データを有するテレビジョン受像機が存在するかどうかを判定する。
【0431】
ステップS103において、クローズドキャプション専用の係数種データを有するテレビジョン受像機が存在しないと判定された場合、ステップS104に進み、CPU129は、通常のクローズドキャプション表示を開始するように、信号処理部137を制御する。
【0432】
即ち、信号処理部137は、いわゆるクローズドキャプションデコーダとしての機能も有しており、CPU129は、デマルチプレクサ124に、トランスポートストリーム中のクローズドキャプションデータを要求し、その要求に応じて、デマルチプレクサ124から供給されるクローズドキャプションデータを、信号処理部137に供給する。信号処理部137は、CPU129からのクローズドキャプションデータをデコード処理し、その結果得られるクローズドキャプションを、フレームメモリ127に記憶された画像データの所定の位置に重畳する。これにより、CRT11には、MPEGビデオデコーダ125でデコードされた画像データに、クローズドキャプションが重畳された画像データが表示される。
【0433】
従って、この場合、親機1のCRT11では、クローズドキャプションデコーダを内蔵している一般的なテレビジョン受像機における場合と同様に、コンテンツとしての画像に、対応するクローズドキャプションが重畳されて表示される。
【0434】
以上のようにして、クローズドキャプションの表示が開始されると、ステップS105に進み、CPU129は、ステップS101における場合と同様に、デマルチプレクサ124に供給されているトランスポートストリーム中に、まだ表示すべきクローズドキャプションデータが含まれているかどうかを判定する。
【0435】
ステップS105において、クローズドキャプションデータがないと判定された場合、ステップS106をスキップして、ステップS107に進み、CPU129は、信号処理部137を制御することにより、クローズドキャプションデータのデコード処理を終了させ、クローズドキャプション処理を終了する。
【0436】
一方、ステップS105において、デマルチプレクサ124に供給されているトランスポートストリーム中に、まだ表示すべきクローズドキャプションデータが含まれていると判定された場合、ステップS106に進み、CPU129は、クローズドキャプション表示を終了するコマンド(以下、適宜、クローズドキャプション表示オフコマンドという)が送信されてきたかどうかを判定する。
【0437】
ステップS106において、クローズドキャプション表示オフコマンドが送信されてきていないと判定された場合、ステップS105に戻り、以下、同様の処理が繰り返される。即ち、この場合、クローズドキャプションの表示が続行される。
【0438】
また、ステップS106において、クローズドキャプション表示オフコマンドが送信されてきたと判定された場合、即ち、例えば、ユーザが、リモコン15(図7)のガイドボタンスイッチ63(またはリモコン35(図8)のガイドボタンスイッチ93)をオフとするように操作することにより、リモコン15から、クローズドキャプション表示オフコマンドに対応する赤外線が出射され、IR受信部135で受信された場合、ステップS107に進み、CPU129は、上述したように、信号処理部137を制御することにより、クローズドキャプションデータのデコード処理を終了させ、クローズドキャプション処理を終了する。
【0439】
一方、ステップS103において、クローズドキャプション専用の係数種データを有するテレビジョン受像機としての子機(以下、適宜、キャプション係数種データ保有子機という)が存在すると判定された場合、ステップS108に進み、CPU129は、スケーラブルTVシステムを構成するテレビジョン受像機としての子機の中から、クローズドキャプションを表示させるものを選択する。
【0440】
即ち、CPU129は、例えば、親機1の左隣に配置された子機223や、下に配置された子機232などを、クローズドキャプションを表示させる子機(以下、適宜、キャプション表示用子機という)として選択する。なお、親機1は、子機2ijの、親機1から見た配置位置を、上述したように、あらかじめ認識しており、これにより、親機1の左隣に配置された子機223や、下に配置された子機232などの各配置位置にある子機ijを特定する。
【0441】
その後、ステップS109に進み、CPU129は、IEEE1394インタフェース133を介して、キャプション係数種データ保有子機に、コマンドを送信し、これにより、クローズドキャプション専用の係数種データを要求する。
【0442】
ここで、CPU129は、キャプション係数種データ保有子機となっている子機を、EEPROM130に機能情報とともに記憶されている機器IDによって特定し、クローズドキャプション専用の係数種データを要求するコマンド(以下、適宜、係数種データ要求コマンドという)を、その機器ID宛に送信する。CPU129は、係数種データ要求コマンド以外のコマンドも、そのコマンドを送るべき子機を、機器IDによって特定し、その機器ID宛に送信する。
【0443】
ステップS109では、さらに、CPU129は、係数種データ要求コマンドを受信したキャプション係数種データ保有子機からクローズドキャプション専用の係数種データが送信されてくるのを待って、そのクローズドキャプション専用の係数種データを、IEEE1394インタフェース133を介して受信し、これにより、クローズドキャプション専用の係数種データを取得する。
【0444】
ここで、CPU129は、自身の信号処理部137のEEPROM137Bに、クローズドキャプション専用の係数種データが記憶されている場合には、ステップS109において、クローズドキャプション専用の係数種データを、EEPROM137Bから読み出すことにより取得する。
【0445】
また、クローズドキャプション専用の係数種データが、スケーラブルTVシステムを構成するテレビジョン受像機のいずれにも記憶されていない場合であっても、例えば、図示せぬ係数種データ提供用サーバにおいて、クローズドキャプション専用の係数種データが提供されているときには、CPU129では、モデム136を制御することにより、係数種データ提供用サーバにアクセスし、その係数種データ提供用サーバから、クローズドキャプション専用の係数種データを取得するようにすることが可能である。
【0446】
なお、このような係数種データ提供用サーバによる係数種データの提供は、クローズドキャプション専用の係数種データに限らず、後述する各種の処理(画像変換処理)に用いられる係数種データについても、同様に行うことが可能である。
【0447】
また、係数種データ提供用サーバによる係数種データの提供は、無償または有償のいずれで行うことも可能である。
【0448】
CPU129は、ステップS109でクローズドキャプション専用の係数種データを取得すると、ステップS110に進み、IEEE1394インタフェース133を制御することにより、キャプション表示用子機に対して、クローズドキャプションの表示を指令するクローズドキャプション表示コマンドとともに、クローズドキャプション専用の係数種データを送信し、ステップS111に進む。
【0449】
ステップS111では、CPU129は、IEEE1394インタフェース133を制御することにより、キャプション表示用子機に対して、そのIEEE1394インタフェース153(図11)への入力を選択して、そのCRT31に表示することを指令する外部入力選択コマンドを送信し、ステップS112に進む。
【0450】
ステップS112では、CPU129は、クローズドキャプションデータの、キャプション表示用子機への転送を開始する。
【0451】
即ち、CPU129は、デマルチプレクサ124に、トランスポートストリーム中のクローズドキャプションデータを要求し、その要求に応じて、デマルチプレクサ124から供給されるクローズドキャプションデータを受信する。さらに、CPU129は、IEEE1394インタフェース133を制御することにより、デマルチプレクサ124から受信したクローズドキャプションデータを、キャプション表示用子機に転送させる。
【0452】
以上のようにして、クローズドキャプションデータの、キャプション表示用子機への転送が開始されると、ステップS113に進み、CPU129は、ステップS101における場合と同様に、デマルチプレクサ124に供給されているトランスポートストリーム中に、まだ表示すべきクローズドキャプションデータが含まれているかどうかを判定する。
【0453】
ステップS113において、クローズドキャプションデータがないと判定された場合、ステップS114をスキップして、ステップS115に進み、CPU129は、IEEE1394インタフェース133を制御することにより、クローズドキャプションデータの転送処理を終了させ、クローズドキャプション処理を終了する。
【0454】
一方、ステップS113において、デマルチプレクサ124に供給されているトランスポートストリーム中に、まだ表示すべきクローズドキャプションデータが含まれていると判定された場合、ステップS114に進み、CPU129は、クローズドキャプション表示を終了するコマンド(クローズドキャプション表示オフコマンド)が送信されてきたかどうかを判定する。
【0455】
ステップS114において、クローズドキャプション表示オフコマンドが送信されてきていないと判定された場合、ステップS113に戻り、以下、同様の処理が繰り返される。即ち、この場合、クローズドキャプションデータの、キャプション表示用子機への転送が続行される。
【0456】
また、ステップS114において、クローズドキャプション表示オフコマンドが送信されてきたと判定された場合、即ち、例えば、ユーザが、リモコン15(図7)のガイドボタンスイッチ63(またはリモコン35(図8)のガイドボタンスイッチ93)をオフとするように操作することにより、リモコン15から、クローズドキャプション表示オフコマンドに対応する赤外線が出射され、IR受信部135で受信された場合、ステップS115に進み、CPU129は、IEEE1394インタフェース133を制御することにより、クローズドキャプションデータの転送処理を終了させ、クローズドキャプション処理を終了する。
【0457】
親機1において、図34のクローズドキャプション処理が行われ、これにより、そのステップS110において、クローズドキャプション表示コマンドが送信され、そのクローズドキャプション表示コマンドが、キャプション表示用子機としての子機2で受信されると(子機2(図11)のIEEE1394インタフェース153で受信され、CPU149に供給されると)、その子機2では、図35のフローチャートにしたがった子機のクローズドキャプション処理が行われる。
【0458】
即ち、キャプション表示用子機としての子機2(図11)では、まず最初に、ステップS121において、図34のステップS110で、親機1からクローズドキャプション表示コマンドとともに送信されてくるクローズドキャプション専用の係数種データが、IEEE1394インタフェース153で受信され、CPU149に供給され、ステップS122に進む。
【0459】
ステップS122では、CPU149は、クローズドキャプション専用の係数種データを、信号処理部157に転送し、係数種メモリ207(図29)にセットする(記憶)させる。なお、その際、信号処理部157は、自身が元から係数種メモリ207に記憶している係数種データを、あらかじめ、EEPROM157Bの空き領域に待避させる。
【0460】
ここで、キャプション表示用子機としての子機2が、キャプション係数種データ保有子機でもある場合、即ち、子機2の信号処理部157を構成する係数メモリ207に、元からクローズドキャプション専用の係数種データが記憶されている場合、上述のステップS121およびS122の処理、並びに後述するステップS128の処理は、スキップするようにすることができる。
【0461】
その後、ステップS123に進み、CPU149は、親機1が図34のステップS111で送信してくる外部入力選択コマンドを受信したかどうかを判定し、受信していないと判定した場合、ステップS123に戻る。
【0462】
また、ステップS123において、親機1からの外部入力選択コマンドを受信したと判定された場合、即ち、IEEE1394インタフェース153において、親機1からの外部入力選択コマンドが受信され、CPU149に供給された場合、ステップS124に進み、CPU149は、IEEE1394インタフェース153で受信されるクローズドキャプションデータを選択して、信号処理部157に供給する状態となり、ステップS125に進む。
【0463】
ステップS125では、CPU149は、親機1が図34のステップS112で転送を開始するクローズドキャプションデータが送信されてきたかどうかを判定する。
【0464】
ステップS125において、親機1からのクローズドキャプションデータが送信されてきたと判定された場合、即ち、IEEE1394インタフェース153において、親機1からのクローズドキャプションデータが受信され、CPU149に供給された場合、ステップS126に進み、CPU149は、そのクローズドキャプションデータを、信号処理部157に供給し、そのクローズドキャプションデータを対象とし、かつ、ステップS122で係数種メモリ207(図29)にセットされたクローズドキャプション専用の係数種データを用いた画像変換処理を行わせる。
【0465】
即ち、この場合、信号処理部157は、CPU149からのクローズドキャプションデータをデコードし、その結果得られるクローズドキャプションの画像データを、係数種メモリ207に記憶されたクローズドキャプション専用の係数種データから生成されるタップ係数を用いて画像変換処理することにより、高画質のクローズドキャプションの画像データに変換する。
【0466】
この高画質のクローズドキャプションの画像データは、ステップS127において、フレームメモリ147およびNTSCエンコーダ148を介してCRT31に供給されて表示される。そして、ステップS125に戻り、ステップS125において、親機1からクローズドキャプションデータが送信されてこないと判定されるまで、ステップS125乃至S127の処理が繰り返される。
【0467】
そして、ステップS125において、親機1からクローズドキャプションデータが送信されてこないと判定された場合、即ち、IEEE1394インタフェース153において、クローズドキャプションデータを受信することができなくなった場合、ステップS128に進み、信号処理部157は、EEPROM157Bに待避しておいた元の係数種データを、係数種メモリ207(図29)にセットし直し(上書きし)、クローズドキャプション処理を終了する。
【0468】
図34の親機のクローズドキャプション処理、および図35の子機のクローズドキャプション処理によれば、スケーラブルTVシステムを構成するテレビジョン受像機の中に、クローズドキャプション専用の係数種データを有するものが存在しない場合には、親機1では、従来の、クローズドキャプションデコーダ内蔵型のテレビジョン受像機と同様に、テレビジョン放送番組としての画像データに、クローズドキャプションの画像データが重畳され、CRT11に表示される。
【0469】
一方、スケーラブルTVシステムを構成するテレビジョン受像機の中に、クローズドキャプション専用の係数種データを有するものが存在する場合には、親機1のCRT11では、テレビジョン放送番組としての画像データだけが表示される。さらに、キャプション表示用子機としての子機2のCRT31では、親機1のCRT11に表示された画像データに対応するクローズドキャプションの画像データであって、高画質の画像データに変換されたものが表示される。
【0470】
従って、ユーザは、テレビジョン放送番組としての画像データを、クローズドキャプションの画像データに妨げられることなく、見ることができる。さらに、ユーザは、高画質のクローズドキャプションの画像データを見ることができる。
【0471】
なお、スケーラブルTVシステムを構成するテレビジョン受像機の中に、クローズドキャプション専用の係数種データを有するものが存在しない場合であっても、クローズドキャプションの画像データは、テレビジョン放送番組の画像データとは別に、キャプション表示用子機としての子機2のCRT31に表示させるようにすることが可能である。この場合、ユーザは、高画質のクローズドキャプションの画像データを見ることはできないが、それでも、テレビジョン放送番組としての画像データを、クローズドキャプションの画像データに妨げられることなく、見ることが可能となる。
【0472】
また、上述の場合には、クローズドキャプションの画像データを、キャプション表示用子機としての1台の子機2にのみ表示させるようにしたが、クローズドキャプションの画像データは、その他、スケーラブルTVシステムを構成する2台以上の子機において表示するようにすることも可能である。即ち、例えば、複数言語のクローズドキャプションデータが存在する場合には、各言語のクローズドキャプションの画像データを、異なる子機で表示するようにすることが可能である。
【0473】
次に、スケーラブルTVシステムは、例えば、画像データの一部を拡大する特別機能を有しており、この特別機能は、親機1と子機2において、一部拡大処理が行われることにより実現される。
【0474】
一部拡大処理を行うことの指示は、例えば、メニュー画面から行うことができるようになっている。
【0475】
即ち、上述したように、ユーザが、リモコン15(図7)のメニューボタンスイッチ54(またはリモコン35(図8)のメニューボタンスイッチ84)を操作した場合、親機1のCRT11(または子機2のCRT31)には、メニュー画面が表示されるが、このメニュー画面には、例えば、一部拡大処理を表すアイコン(以下、適宜、一部拡大アイコンという)が表示されるようになっており、ユーザが、この一部拡大アイコンを、リモコン15を操作してクリックした場合、親機1と子機2それぞれにおいて、一部拡大処理が開始される。
【0476】
そこで、まず、図36のフローチャートを参照して、親機の一部拡大処理について説明する。
【0477】
例えば、いま、親機1のCRT11に、テレビジョン放送番組としての画像データ(以下、適宜、番組画像データという)が表示されている状態において、一部拡大アイコンがクリックされたとすると、まず最初に、ステップS131において、CPU129は、親機1に代えて、その親機1のCRT11に表示された番組画像データの全体を表示させる子機(以下、適宜、全体表示用子機という)を、スケーラブルTVシステムを構成するテレビジョン受像機の中から選択し、ステップS132に進む。
【0478】
ここで、全体表示用子機としては、スケーラブルTVシステムを構成する子機のうちの1台だけを選択するようにすることも可能であるし、2台以上(すべてを含む)を選択するようにすることも可能である。
【0479】
ステップS132では、CPU129は、IEEE1394インタフェース133を制御することにより、全体表示用子機と通信し、これにより、全体表示用子機の電源がオン状態となっているかどうかを判定する。
【0480】
ステップS132において、全体表示用子機の電源がオン状態となってないと判定された場合、ステップS133に進み、CPU129は、IEEE1394インタフェース133を制御することにより、全体表示用子機に対して、電源をオン状態にすることを指令するコマンドを送信し、これにより、全体表示用子機を、電源オンの状態にさせ、ステップS134に進む。
【0481】
また、ステップS132において、全体表示用子機の電源がオン状態となっていると判定された場合、ステップS133をスキップして、ステップS134に進み、CPU129は、信号処理部137を制御することにより、CRT11に表示された画像において、拡大すべき位置(拡大位置)を指定することを要求するメッセージ(以下、拡大位置指定要求メッセージという)を、CRT11に、例えばOSD表示させる。
【0482】
即ち、この場合、信号処理部137は、CPU129からの制御にしたがい、拡大位置指定要求メッセージのOSDデータを生成し、フレームメモリ127に記憶された番組画像データに重畳する。この拡大位置指定要求メッセージのOSDデータが重畳された番組画像データは、フレームメモリ127から、NTSCエンコーダ128を介して、CRT11に供給され、これにより、CRT11においては、番組画像データとともに、拡大位置指定要求メッセージがOSD表示される。
【0483】
その後、ステップS135に進み、CPU129は、ユーザが、ステップS134で表示された拡大位置指定要求メッセージに対応して、拡大位置を指定したかどうかを判定し、拡大位置を指定していないと判定した場合、ステップS135に戻る。
【0484】
また、ステップS135において、ユーザが拡大位置を指定したと判定された場合、即ち、ユーザが、リモコン15(またはリモコン35)を操作することにより、CRT11の表示画面上の位置を指定し、これにより、その位置に対応する赤外線が、IR受信部135で受信され、CPU129に供給された場合、CPU129は、その指定された位置を、拡大位置として認識し、ステップS136に進む。
【0485】
ステップS136では、CPU129は、IEEE1394インタフェース133を制御することにより、全体表示用子機に対して、そのIEEE1394インタフェース153(図11)への入力を選択して、そのCRT31に表示することを指令する外部入力選択コマンドを送信し、ステップS137に進む。
【0486】
ステップS137では、CPU129は、番組画像データの、全体表示用子機への転送を開始する。
【0487】
即ち、CPU129は、デマルチプレクサ124に、トランスポートストリーム中の、MPEGビデオデコーダ125に供給されているTSパケットを要求し、その要求に応じて、デマルチプレクサ124から供給されるTSパケットを受信する。さらに、CPU129は、IEEE1394インタフェース133を制御することにより、デマルチプレクサ124から受信したTSパケットを、全体表示用子機に転送させる。従って、全体表示用子機には、親機1のCRT11で表示されている番組画像データに対応するTSパケットが転送され、さらに、全体表示用子機において、後述する図37の子機の一部拡大処理が行われることにより、そのTSパケットに対応する番組画像データが表示される。即ち、全体表示用子機では、親機1で表示されていた番組画像データの全体が表示される。
【0488】
なお、CPU129においては、全体表示用子機には、TSパケットではなく、フレームメモリ127に記憶された番組画像データ、即ち、MPEGデコード後の画像データを、信号処理部137を介して読み出して転送するようにすることも可能である。この場合、全体表示用子機では、番組画像データを、MPEGデコードすることなく表示することができる。
【0489】
以上のようにして、TSパケットの、全体表示用子機への転送が開始されると、ステップS138に進み、CPU129は、信号処理部137を制御することにより、フレームメモリ127に記憶された番組画像データの拡大位置を中心とする所定の範囲を拡大範囲として、その拡大範囲を対象とし、かつ、係数種メモリ167(図22)にセットされたリサイズ処理用の係数種データを用いた画像変換処理を行わせる。
【0490】
即ち、本実施の形態では、親機1の信号処理部137(図22)を構成する係数種メモリ167には、少なくとも、リサイズ処理用の係数種データが記憶されており、信号処理部137は、フレームメモリ127に記憶された番組画像データの拡大位置を中心とする所定の範囲としての拡大範囲を、係数種メモリ167に記憶されたリサイズ処理用の係数種データから生成されるタップ係数を用いて画像変換処理することにより、その拡大範囲の番組画像データを、所定の拡大率で拡大(リサイズ)した画像データ(以下、適宜、一部拡大画像データという)に変換する。
【0491】
この一部拡大画像データは、ステップS139において、フレームメモリ127およびNTSCエンコーダ128を介してCRT11に供給されて表示される。
【0492】
従って、この場合、親機1のCRT11では、番組画像データの、ユーザが指定した拡大位置を中心とする所定の範囲(拡大範囲)を拡大した一部拡大画像データが表示される。
【0493】
ここで、拡大範囲を、どのような大きさの範囲にするかは、例えば、拡大率に対応して設定される。
【0494】
即ち、一部拡大処理を行うにあたっては、例えば、デフォルトの拡大率(デフォルト拡大率)があらかじめ設定されており、CPU129は、そのデフォルト拡大率に対応するパラメータを、信号処理部137(図22)のパラメータメモリ168にセットする。従って、信号処理部137では、番組画像データが、デフォルト拡大率だけ拡大されるリサイズ処理が行われる。
【0495】
一方、CRT11に表示することのできる画像データの大きさ、即ち、表示画面の大きさは、あらかじめ決まっている。
【0496】
そこで、CPU129は、デフォルト拡大率だけ拡大した場合に、CRT11の表示画面の大きさとなる、拡大位置を中心とする範囲を、拡大範囲として設定するようになっている。
【0497】
なお、ステップS138の画像変換処理を行う際の拡大率は、ユーザが設定するようにすることができる。
【0498】
即ち、例えば、CPU129において、信号処理部137を制御することにより、CRT11には、拡大率を指定することのできる、リモコン15(またはリモコン35)によって操作可能なレバー(以下、適宜、拡大率指定用レバーという)を表示させ、その拡大率指定用レバーの位置によって、拡大率を指定するようにすることが可能である。
【0499】
この場合、ユーザがリモコン15を操作することによって、拡大率指定用レバーの位置を移動すると、CPU129において、その移動後の位置に対応する拡大率のパラメータが、信号処理部137(図22)のパラメータメモリ168に設定される。さらに、CPU129は、拡大率指定用レバーの位置に対応する拡大率に対応して、拡大位置を中心とする拡大範囲を、上述したデフォルト拡大率における場合と同様に設定し、その拡大範囲を対象とする画像変換処理(リサイズ処理)を、信号処理部137に指令する。
【0500】
以上により、CRT11には、ユーザによるリモコン15の操作に応じた拡大率によって、拡大位置を中心とした拡大範囲の番組画像データを拡大した一部拡大画像データが表示されることになる。
【0501】
なお、拡大率指定用レバーは、親機1のCRT11にOSD表示したり、スケーラブルTVシステムを構成する、親機1以外のテレビジョン受像機に表示させるようにすることが可能である。
【0502】
その後、ステップS140に進み、CPU129は、一部拡大画像データの表示を終了するコマンド(以下、適宜、一部拡大終了コマンドという)が送信されてきたかどうかを判定する。
【0503】
ステップS140において、一部拡大終了コマンドが送信されてきていないと判定された場合、ステップS133に戻り、以下、同様の処理が繰り返される。
【0504】
また、ステップS140において、一部拡大終了コマンドが送信されてきたと判定された場合、即ち、例えば、ユーザが、リモコン15(図7)を操作することにより、CRT11にメニュー画面を表示させ、さらに、そのメニュー画面における一部拡大アイコンを再クリックし、これにより、そのリモコン15の操作に対応するコマンドである一部拡大終了コマンドの赤外線が、リモコン15から出射され、IR受信部135で受信されてCPU129に供給された場合、ステップS141に進み、CPU129は、IEEE1394インタフェース133を制御することにより、番組画像データの、全体表示用子機への転送を終了させる。
【0505】
そして、ステップS142に進み、CPU129は、信号処理部137を制御することにより、リサイズ処理の実行を停止させ、一部拡大処理を終了する。これにより、CRT11では、通常サイズで画像が表示されるようになる。
【0506】
次に、図37のフローチャートを参照して、全体表示用子機としての子機の一部拡大処理について説明する。
【0507】
全体表示用子機としての子機2では、まず最初に、ステップS151において、CPU149は、親機1が図36のステップS136で送信してくる外部入力選択コマンドを受信したかどうかを判定し、受信していないと判定した場合、ステップS151に戻る。
【0508】
また、ステップS151において、親機1からの外部入力選択コマンドを受信したと判定された場合、即ち、IEEE1394インタフェース153において、親機1からの外部入力選択コマンドが受信され、CPU149に供給された場合、ステップS152に進み、CPU149は、IEEE1394インタフェース153で受信される番組画像データを選択し、デマルチプレクサ144を介して、MPEGビデオデコーダ145に供給する状態となり、ステップS153に進む。
【0509】
ステップS153では、CPU149は、親機1が図36のステップS137で転送を開始する番組画像データが送信されてきたかどうかを判定する。
【0510】
ステップS153において、親機1からの番組画像データが送信されてきたと判定された場合、即ち、IEEE1394インタフェース153において、親機1からの番組画像データが受信され、CPU149に供給された場合、ステップS154に進み、CPU149は、その番組画像データを、CRT31に表示させる。
【0511】
即ち、本実施の形態では、図36のステップS137において、親機1から全体表示用子機としての子機2に対して、番組画像データとしてのTSパケットの送信が開始されるが、この場合、CPU149は、IEEE1394インタフェース153を介して受信した親機1からのTSパケットを、デマルチプレクサ144を介して、MPEGビデオデコーダ145に供給する。MPEGビデオデコーダ145は、そのTSパケットをMPEGデコードし、番組画像データを得て、フレームメモリ147に書き込む。そして、フレームメモリ147に書き込まれた番組画像データは、NTSCエンコーダ148を介して、CRT31に供給されて表示される。
【0512】
その後、ステップS153に戻り、ステップS153において、親機1から番組画像データが送信されてこないと判定されるまで、ステップS153およびS154の処理が繰り返される。
【0513】
また、ステップS153において、親機1から番組画像データが送信されてこないと判定された場合、即ち、IEEE1394インタフェース153において、番組画像データを受信することができなくなった場合、一部拡大処理を終了する。
【0514】
図36の親機の一部拡大処理、および図37の子機の一部拡大処理によれば、例えば、図38Aに示すように、スケーラブルTVシステムを構成する第2行第2列に位置する親機1に番組画像データが表示されている場合において、その番組画像データにおける、ある位置Pが拡大位置として指定されると、その拡大位置Pを中心(重心)とする所定の長方形の範囲(図38Aにおいて点線で示す範囲)が拡大範囲として設定され、図38Bに示すように、その拡大範囲の番組画像データを拡大した一部拡大画像データが、番組画像データに代えて、親機1に表示される。
【0515】
さらに、例えば、親機1の左隣の子機221が、全体表示用子機として選択された場合には、図38Bに示すように、その全体表示用子機である子機221に、親機1に表示されていた番組画像データの全体が表示される。
【0516】
従って、ユーザは、親機1において、番組画像データにおける、より詳細に見たい部分を、細部にわたって見ることができる。さらに、ユーザは、子機2において、番組画像データの全体も見ることができる。また、本実施の形態では、上述したように、ユーザがリモコン15を操作することによって、一部拡大画像データの拡大率を設定することができるので、ユーザは、番組画像データにおける、より詳細に見たい部分を、必要な程度にまで自由に拡大して見ることができる。
【0517】
ここで、親機1(図10)の信号処理部137(図22)では、係数種データから生成されるタップ係数wnを用いて、式(1)したがい、番組画像データの拡大範囲が、一部拡大画像データに画像変換されるが、この画像変換は、式(1)だけに注目すれば、一見、単なる補間処理であるように見える。しかしながら、式(1)で用いられるタップ係数wnを生成するのに用いられる係数種データは、図24乃至図28を参照して説明したように、教師データと生徒データとを用いての学習によって得られるものであり、そのような係数種データから生成されるタップ係数wnを用いて画像を変換することにより、教師データに含まれる成分を再現することができる。即ち、リサイズ処理用の係数種データについて言えば、その係数種データが生成されたタップ係数wnによれば、元の画像に現れていない細部を再現して、その画像を拡大することができる。従って、学習により求められる係数種データから生成される式(1)による画像変換処理としてのリサイズ処理は、単なる補間処理による画像の拡大処理とは、まったく異なる。
【0518】
なお、番組画像データの拡大範囲の、一部拡大画像データへの拡大処理は、係数種データから求められるタップ係数を用いる他、単なる補間処理によって行うことも可能である。しかしながら、単なる補間処理による場合は、元の番組画像データが有していない細部を再現することはできないため、拡大率を大にするほど、いわばブロック状の角張った部分が目立つぼやけた画像が得られることになる。
【0519】
また、本実施の形態では、親機1に一部拡大画像データを表示し、子機2に番組画像データの全体を表示するようにしたが、親機1に番組画像データを表示させたまま、子機2に一部拡大画像データを表示するようにすることも可能である。
【0520】
さらに、本実施の形態では、親機1に一部拡大画像データを表示し、全体表示用子機としての子機2に番組画像データの全体を表示するようにしたが、それらの表示に加えて、スケーラブルTVシステムを構成する他のテレビジョン受像機に、一部拡大画像データまたは番組画像データの全体を表示するようにすることも可能である。
【0521】
また、スケーラブルTVシステムを構成する親機1では、番組画像データの全体を表示し、他のテレビジョン受像機としての子機211乃至233それぞれには、拡大率が異なる一部拡大画像データを表示するようにすることが可能である。なお、この場合、拡大率が異なる一部拡大画像データは、すべて親機1の信号処理部137において生成し、他のテレビジョン受像機としての子機211乃至233それぞれに供給することもできるし、他のテレビジョン受像機としての子機211乃至233それぞれの信号処理部157において、各拡大率の一部拡大画像データを生成するようにすることも可能である。
【0522】
さらに、本実施の形態では、リサイズ処理用の係数種データが、親機1に記憶されているものとしたが、リサイズ処理用の係数種データが、親機1に記憶されていない場合において、スケーラブルTVシステムを構成する他のテレビジョン受像機が、リサイズ処理用の係数種データを記憶しているときには、親機1において、そのテレビジョン受像機からリサイズ処理用の係数種データを取得するようにすることが可能である。また、リサイズ処理用の係数種データは、その他、上述したように、係数種データ提供用サーバから取得するようにすることも可能である。
【0523】
なお、上述の場合には、番組画像データを拡大するリサイズ処理を行うようにしたが、リサイズ処理では、番組画像データを縮小することも可能である。
【0524】
また、上述の場合には、テレビジョン放送番組としての画像データ(番組画像データ)を拡大するようにしたが、一部拡大処理では、その他、外部の装置(光ディスク装置や、光磁気ディスク装置、VTRなど)から入力される画像データを、その処理の対象とすることが可能である。
【0525】
さらに、一部拡大処理では、番組画像データの一部の水平方向および垂直方向の両方を、同一の拡大率だけ拡大することは勿論、水平方向と垂直方向それぞれを、異なる拡大率だけ拡大することも可能である。
【0526】
また、本実施の形態では、番組画像データ中の、CRT11の表示画面で表示可能な拡大範囲だけを対象として一部拡大処理を行うようにしたが、一部拡大処理は、番組画像データ全体を対象に行うことも可能である。この場合、CRT11には、番組画像データを拡大した拡大画像の全体を表示することはできないため、その一部分だけが表示されることとなるが、その拡大画像のどの部分をCRT11に表示するかは、例えば、リモコン15の操作にしたがって変更するようにすることが可能である。
【0527】
次に、スケーラブルTVシステムは、上述したように、画像データの一部を拡大する他、その全体を拡大する特別機能を有しており、この特別機能は、親機1と子機2において、全体拡大処理が行われることにより実現される。
【0528】
全体拡大処理を行うことの指示も、例えば、一部拡大処理を行うことの指示と同様に、メニュー画面から行うことができるようになっている。
【0529】
即ち、上述したように、ユーザが、リモコン15(図7)のメニューボタンスイッチ54(またはリモコン35(図8)のメニューボタンスイッチ84)を操作した場合、親機1のCRT11(または子機2のCRT31)には、メニュー画面が表示されるが、このメニュー画面には、例えば、全体拡大処理を表すアイコン(以下、適宜、全体拡大アイコンという)が表示されるようになっており、ユーザが、この全体拡大アイコンを、リモコン15を操作してクリックすることにより、親機1と子機2それぞれにおいて、全体拡大処理が開始される。
【0530】
そこで、まず、図39のフローチャートを参照して、親機の全体拡大処理について説明する。
【0531】
例えば、いま、親機1のCRT11に、テレビジョン放送番組としての画像データ(番組画像データ)が表示されている状態において、全体拡大アイコンがクリックされたとすると、まず最初に、ステップS161において、親機1(図10)のCPU129は、IEEE1394インタフェース133を制御することにより、スケーラブルTVシステムを構成するすべての子機に、リサイズ処理用の係数種データを送信する。
【0532】
ここで、本実施の形態では、親機1の信号処理部137(図22)の係数種メモリ167には、リサイズ処理用の係数種データが記憶されているものとし、CPU129は、ステップS161において、このリサイズ処理用の係数種データを、信号処理部137から読み出して送信する。
【0533】
なお、親機1が、リサイズ処理用の係数種データを有していない場合には、上述した一部拡大処理における場合と同様に、スケーラブルTVシステムを構成する他のテレビジョン受像機のうち、リサイズ処理用の係数種データを記憶しているものや、係数種データ提供用サーバから、リサイズ処理用の係数種データを取得するようにすることが可能である。
【0534】
そして、ステップS162に進み、CPU129は、IEEE1394インタフェース133を介して、スケーラブルTVシステムを構成するすべての子機211乃至33と通信することにより、電源がオフになっている子機2ijがあるかどうかを判定する。
【0535】
ステップS162において、電源がオフになっている子機2ijがあると判定された場合、ステップS163に進み、CPU129は、IEEE1394インタフェース133を介して、電源をオンにすることを指令するコマンドを送信し、これにより、電源がオフになっている子機2ijの電源をオン状態にさせ、ステップS164に進む。
【0536】
また、ステップS162において、電源がオフになっている子機2ijがないと判定された場合、ステップS163をスキップして、ステップS164に進み、CPU129は、IEEE1394インタフェース133を制御することにより、すべての子機211乃至233に対して、そのIEEE1394インタフェース153(図11)への入力を選択して、そのCRT31に表示することを指令する外部入力選択コマンドを送信し、ステップS165に進む。
【0537】
ステップS165では、CPU129は、番組画像データを拡大する拡大率Nを1倍に初期化し、さらに、最大拡大率Nmaxと拡大ピッチαを設定する。
【0538】
即ち、全体拡大処理では、例えば、図1Aに示した3×3台のテレビジョン受像機で構成されるスケーラブルTVシステムにおいて、親機1に表示された番組画像データの全体(全画面)が、親機1を中心として、他のテレビジョン受像機である子機211乃至233に亘って徐々に拡大されていき、最終的には、3×3台のテレビジョン受像機の全体に、番組画像データの全体を拡大した画像データ(以下、適宜、全体拡大画像データという)が表示される。
【0539】
従って、親機1に表示された番組画像データの全体は、最終的には、スケーラブルTVシステムを構成するテレビジョン受像機の全体に表示可能な大きさの全体拡大画像データに拡大されるが、この最終的な全体拡大画像データと、元の番組画像データ(親機1に表示された番組画像データ)との比が、最大拡大率Nmaxとして設定される。即ち、本実施の形態では、親機1に表示された番組画像データが、3×3台のテレビジョン受像機に表示される全体拡大画像データに拡大されることから、例えば、対角線を考えれば、単純には3倍に拡大されることになるので、最大拡大率Nmaxは3倍に設定される。
【0540】
また、全体拡大処理では、上述したように、親機1に表示された番組画像データの全体が徐々に拡大されていくが、これは、例えば、番組画像データを、徐々に大きな拡大率Nで拡大し、最終的には、最大拡大率Nmaxで拡大することによって実現することができる。従って、この場合、拡大率Nを、1倍から最大拡大率Nmaxに、徐々に変化させる必要があるが、この拡大率Nを変化させるピッチが、拡大ピッチαであり、例えば、最大拡大率Nmax−1を、1以上の所定の値(以下、適宜、拡大回数値という)で除算した値が設定される。
【0541】
ここで、拡大回数値は、あらかじめ、親機1に設定しておくこともできるし、ユーザがリモコン15(またはリモコン35)を操作することにより設定可能なようにすることもできる。拡大回数値を小さな値に設定した場合には、親機1に表示された番組画像データは、即座に、大きな全体拡大画像データに拡大され、拡大回数値を大きな値に設定した場合には、親機1に表示された番組画像データは、徐々に、大きな全体拡大画像データに拡大されることになる。
【0542】
ステップS165において、上述したように、拡大率Nの初期化、並びに最大拡大率Nmaxおよび拡大ピッチαの設定が行われた後は、ステップS166に進み、CPU129は、拡大率Nを、N+α倍に新たに設定し、ステップS167に進む。
【0543】
なお、ステップS166において新たに設定された拡大率Nが、最大拡大率Nmaxを越える場合には、CPU129は、拡大率Nを最大拡大率Nmaxに設定する。
【0544】
ステップS167では、CPU129は、親機1に表示された番組画像データ中の、その信号処理部137で拡大すべき範囲としての拡大範囲と、各子機2ij(図11)の信号処理部157で拡大すべき範囲としての拡大範囲とを、ステップS165で設定した拡大率Nに基づいて求め、ステップS168に進む。ステップS168では、CPU129は、親機1のCRT11と、各子機2ij(図11)のCRT31それぞれにおいて、番組画像データの拡大範囲を拡大した画像データ(これも、以下、適宜、一部拡大画像データという)を表示させる範囲としての表示範囲を、ステップS165で設定した拡大率Nに基づいて求め、ステップS169に進む。
【0545】
ここで、図40を参照して、親機1の拡大範囲(親機1の信号処理部137で拡大すべき番組画像データの範囲)、および子機2ijの拡大範囲(子機2ijの信号処理部157で拡大すべき番組画像データの範囲)、並びに子機2ijの表示範囲(子機2ijCRT31において、子機2ijの拡大範囲の番組画像データを拡大した一部拡大画像データを表示させる範囲)を、拡大率Nに基づいて算出する算出方法について説明する。
【0546】
図40Aは、3×3台のテレビジョン受像機で構成されるスケーラブルTVシステムの表示画面を示している。
【0547】
即ち、スケーラブルTVシステムの表示画面は、1台の親機1のCRT11による表示画面と、8台の子機211乃至233それぞれのCRT31による表示画面との合計9台のCRTによる表示画面で構成される。なお、上述したように、親機1と子機2ijの表示画面サイズは、同一である。
【0548】
全体拡大処理では、上述したように、親機1に表示された番組画像データの全体が徐々に拡大されていくが、いま、親機1に表示された番組画像データを画像データQとするとともに、その画像データQを所定の拡大率Nで拡大して得られる全体拡大画像データを画像データQ’とする。
【0549】
この場合、親機1の表示画面サイズの縦と横の長さを、それぞれaとbで表すと、番組画像データQの縦と横の長さも、それぞれaとbとなる。
【0550】
また、全体拡大画像データQ’は、番組画像データQの縦と横の長さをN倍したものであるから、その縦と横の長さは、それぞれNaとNbとなる。
【0551】
全体拡大処理では、上述したように、親機1に表示された番組画像データQの全体を、親機1を中心として拡大した全体拡大画像データQ’が表示されるから、親機1および子機211乃至233のすべてによって、全体拡大画像データQ’を、親機1を中心として表示する場合には、親機1では、その表示画面中の、図40AにおいてR1で示す範囲に一部拡大画像データを表示する必要があり、子機2ijでは、図40AにおいてRijで示す範囲に一部拡大画像データを表示する必要がある。
【0552】
そこで、図39のステップS168では、範囲R1が親機1の表示範囲として求められるとともに、範囲Rijが子機2ijの表示範囲として求められる。
【0553】
即ち、親機1については、その表示画面全体が表示範囲R1として求められる。また、親機1の左上の子機211については、その表示画面の右下側の横×縦が((Nb−b)/2)×((Na−a)/2)の範囲が表示範囲R11として求められ、親機1の上の子機212については、その表示画面の下側の横×縦がb×((Na−a)/2)の範囲が表示範囲R12として求められる。さらに、親機1の右上の子機213については、その表示画面の左下側の横×縦が((Nb−b)/2)×((Na−a)/2)の範囲が表示範囲R13として求められ、親機1の左の子機221については、その表示画面の右側の横×縦が((Nb−b)/2)×aの範囲が表示範囲R21として求められる。また、親機の右の子機223については、その表示画面の左側の横×縦が((Nb−b)/2)×aの範囲が表示画面R23として求められ、親機1の左下の子機231については、その表示画面の右上側の横×縦が((Nb−b)/2)×((Na−a)/2)の範囲が表示範囲R31として求められる。さらに、親機1の下の子機232については、その表示画面の上側の横×縦がb×((Na−a)/2)の範囲が表示範囲R32として求められ、親機の右下の子機233については、その表示画面の左上側の横×縦が((Nb−b)/2)×((Na−a)/2)の範囲が表示範囲R33として求められる。
【0554】
一方、いま、図40Aに示した親機1の表示範囲R1および子機2ijの表示範囲Rijを、全体拡大画像データQ’の範囲と捉えると、全体拡大画像データQ’における範囲R1およびRijの画像データは、元の番組画像データQの一部を拡大した一部拡大画像データであるため、親機1の表示範囲R1および子機2ijの表示範囲Rijに表示させる一部拡大画像データに拡大する番組画像データQの範囲としての拡大範囲を求める必要がある。
【0555】
そこで、ステップS167では、図40Bに示すように、全体拡大画像データQ’の範囲R1とRijに対応する、元の番組画像データQの範囲r1とrijが、親機1の拡大範囲と子機2ijの拡大範囲として、それぞれ求められる。
【0556】
即ち、いまの場合、Nb×Naの大きさの全体拡大画像データQ’は、b×aの大きさの番組画像データQをN倍の拡大率で拡大したものであるから、全体拡大画像データQ’の範囲R1とRijを1/Nに縮小した範囲に相当する、番組画像データQの範囲r1とrijが、親機1の拡大範囲と子機2ijの拡大範囲として、それぞれ求められる。
【0557】
具体的には、親機1については、番組画像データQの中心部分の横×縦がb/N×a/Nの範囲が拡大範囲r1として求められる。また、親機1の左上の子機211については、番組画像データQの左上側の横×縦が((b−b/N)/2)×((a−a/N)/2)の範囲が拡大範囲r11として求められ、親機1の上の子機212については、番組画像データQの上側の横×縦が(b/N)×((a−a/N)/2)の範囲が拡大範囲r12として求められる。さらに、親機1の右上の子機213については、番組画像データQの右上側の横×縦が((b−b/N)/2)×((a−a/N)/2)の範囲が拡大範囲r13として求められ、親機1の左の子機221については、番組画像データQの左側の横×縦が((b−b/N)/2)×(a/N)の範囲が拡大範囲r21として求められる。また、親機の右の子機223については、番組画像データQの右側の横×縦が((b−b/N)/2)×(a/N)の範囲が表示画面R23として求められ、親機1の左下の子機231については、番組画像データQの左下側の横×縦が((b−b/N)/2)×((a−a/N)/2)の範囲が拡大範囲r31として求められる。さらに、親機1の下の子機232については、番組画像データQの下側の横×縦が(b/N)×((a−a/N)/2)の範囲が拡大範囲r32として求められ、親機の右下の子機233については、番組画像データQの右下側の横×縦が((b−b/N)/2)×((a−a/N)/2)の範囲が拡大範囲r33として求められる。
【0558】
図39に戻り、ステップS169では、CPU129は、IEEE1394インタフェース133を制御することにより、ステップS161で送信したリサイズ処理用の係数種データを用いて、画像データを拡大するリサイズ処理を行って表示することを指令する拡大表示コマンドを、番組画像データ、拡大率N、拡大範囲、および表示範囲とともに、各子機2ijに送信する。
【0559】
ここで、CPU129は、番組画像データについては、デマルチプレクサ124に、トランスポートストリーム中の、MPEGビデオデコーダ125に供給されているTSパケットを要求し、その要求に応じて、デマルチプレクサ124から供給されるTSパケットを受信して、各子機2ijに送信する。
【0560】
また、CPU129は、拡大範囲および表示範囲については、各子機2ijについて求められた拡大範囲および表示範囲を、その子機2ijに送信する。
【0561】
なお、CPU129においては、各子機2ijには、TSパケットではなく、フレームメモリ127に記憶された番組画像データ、即ち、MPEGデコード後の画像データを、信号処理部137を介して読み出して送信するようにすることも可能である。この場合、各子機2ijでは、番組画像データを、MPEGデコードする必要がなくなる。
【0562】
また、このように、MPEGデコード後の番組画像データを子機2ijに送信する場合には、番組画像データの全体ではなく、番組画像データのうちの、子機2ijについて求められた拡大範囲の分だけを送信するようにすることが可能である。
【0563】
その後、ステップS170に進み、CPU129は、ステップS166で設定した拡大率Nに対応するパラメータzを、信号処理部137(図22)のパラメータメモリ168にセットし、ステップS171に進む。
【0564】
ステップS171では、CPU129は、信号処理部137(図22)を制御することにより、フレームメモリ127に記憶された、ステップS169で各子機2ijに送信したのと同一の番組画像データの、親機1について求められた拡大範囲r1(図40B)を対象とした画像変換処理を行わせる。
【0565】
即ち、本実施の形態では、親機1の信号処理部137(図22)を構成する係数種メモリ167には、リサイズ処理用の係数種データが記憶されており、信号処理部137は、フレームメモリ127に記憶された番組画像データの拡大範囲r1を、係数種メモリ167に記憶されたリサイズ処理用の係数種データと、パラメータメモリ168に記憶されたパラメータzから生成されるタップ係数を用いて画像変換処理することにより、その拡大範囲r1の番組画像データを、拡大率Nで拡大(リサイズ)した画像データとしての一部拡大画像データに変換する。
【0566】
さらに、このとき、CPU129は、一部拡大画像データが、CRT11の表示画面中の、親機1について求められた表示範囲R1(図40A)の位置に表示されるものとなるように、信号処理部137を制御する。即ち、これにより、信号処理部137では、一部拡大画像データが、CRT11の表示画面中の、親機1について求められた表示範囲R1(図40A)の位置に表示されるように、その表示位置が調整される。
【0567】
なお、親機1については、図40で説明したことから、表示範囲R1は、CRT11の表示画面サイズに一致しているため、実際には、一部拡大画像データの表示位置を調整する必要はない。
【0568】
ステップS172において、信号処理部137は、ステップS171で得られた一部拡大画像データを、フレームメモリ127およびNTSCエンコーダ128を介してCRT11に供給して表示させる。
【0569】
従って、この場合、親機1のCRT11では、その表示画面全体に、番組画像データの拡大範囲r1を拡大率Nだけ拡大した一部拡大画像データが表示される。
【0570】
その後、ステップS173に進み、CPU129は、拡大率Nが、最大拡大率Nmax未満であるかどうかを判定する。ステップS173において、拡大率Nが、最大拡大率Nmax未満であると判定された場合、ステップS166に進み、以下、同様の処理が繰り返される。
【0571】
また、ステップS173において、拡大率Nが、最大拡大率Nmax未満でないと判定された場合、即ち、ステップS166で拡大率Nが、最大拡大率Nmaxに設定された場合、ステップS174に進み、CPU129は、ステップS169における場合と同様に、IEEE1394インタフェース133を制御することにより、拡大表示コマンドを、番組画像データ、拡大率N、拡大範囲、および表示範囲を、各子機2ijに送信し、ステップS175に進む。
【0572】
ステップS175では、CPU129は、信号処理部137(図22)を制御することにより、フレームメモリ127に記憶された、ステップS174で各子機2ijに送信したのと同一の番組画像データの、親機1について求められた拡大範囲r1(図40B)を対象とした画像変換処理を行わせる。
【0573】
即ち、これにより、ステップS175では、ステップS169における場合と同様に、信号処理部137は、フレームメモリ127に記憶された番組画像データの拡大範囲r1を、係数種メモリ167に記憶されたリサイズ処理用の係数種データと、パラメータメモリ168に記憶されたパラメータzから生成されるタップ係数を用いて画像変換処理することにより、その拡大範囲r1の番組画像データを、拡大率Nで拡大(リサイズ)した画像データとしての一部拡大画像データに変換する。
【0574】
この一部拡大画像データは、ステップS176において、ステップS172における場合と同様に、フレームメモリ127およびNTSCエンコーダ128を介してCRT11に供給されて表示される。
【0575】
ここで、ステップS174で各子機2ijに送信される拡大率N、拡大範囲、表示範囲は、最後に行われたステップS166乃至S168でそれぞれ求められたものであるから、拡大率Nは最大拡大率Nmaxになっている。さらに、拡大範囲と表示範囲は、最大拡大率Nmaxになっている拡大率Nについて求められたものとなっている。
【0576】
従って、この場合、親機1の拡大範囲と表示範囲も、最大拡大率Nmaxになっている拡大率Nについて求められたものとなっている。
【0577】
また、ステップS175の画像変換処理が行われる際には、最後に行われたステップS170の処理によって、信号処理部137(図22)のパラメータメモリ168には、最大拡大率Nmaxに対応したパラメータzがセットされている。
【0578】
以上から、ステップS176では、最大拡大率Nmaxになっている拡大率Nについて求められた拡大範囲r1の番組画像データを、最大拡大率Nmaxで拡大することにより得られる一部拡大画像データが、最大拡大率Nmaxになっている拡大率Nについて求められた表示範囲R1(上述したように、親機1については、CRT11の表示画面に等しい)に表示される。
【0579】
その後、ステップS177に進み、CPU129は、全体拡大画像データの表示を終了するコマンド(以下、適宜、全体拡大終了コマンドという)が送信されてきたかどうかを判定する。
【0580】
ステップS177において、全体拡大終了コマンドが送信されてきていないと判定された場合、ステップS174に戻り、以下、同様の処理が繰り返される。従って、この場合、親機1では、最大拡大率Nmaxで拡大された一部拡大画像データの表示が続行される。
【0581】
また、ステップS177において、全体拡大終了コマンドが送信されてきたと判定された場合、即ち、例えば、ユーザが、リモコン15(図7)を操作することにより、CRT11にメニュー画面を表示させ、さらに、そのメニュー画面における全体拡大アイコンを再クリックし、これにより、そのリモコン15の操作に対応するコマンドである全体拡大終了コマンドの赤外線が、リモコン15から出射され、IR受信部135で受信されてCPU129に供給された場合、ステップS178に進み、信号処理部137における画像変換処理を終了し、親機1の全体拡大処理を終了する。これにより、フレームメモリ127に記憶された番組画像データは、そのまま、NTSCエンコーダ128を介して、CRT11に供給されるようになり、CRT11では、番組画像データが、通常のサイズで表示される。
【0582】
次に、図41のフローチャートを参照して、スケーラブルTVシステムを構成する各子機2ijで行われる子機の全体拡大処理について説明する。
【0583】
子機2ij(図11)では、まず最初に、ステップS181において、CPU149が、図39のステップS161で親機1からリサイズ処理用の係数種データが送信されてくるのを待って、その係数種データを、IEEE1394インタフェース153を介して受信する。さらに、ステップS181では、CPU149は、受信したリサイズ処理用の係数種データを、信号処理部157(図29)に転送し、その係数種メモリ207にセットする。なお、その際、信号処理部157は、自身が元から係数種メモリ207に記憶している係数種データを、あらかじめ、EEPROM157Bの空き領域に待避させる。
【0584】
ここで、子機2ijの信号処理部157を構成する係数メモリ207に、リサイズ処理用の係数種データが記憶されている場合、上述のステップS181、および後述するステップS188の処理は、スキップするようにすることができる。
【0585】
その後、ステップS182に進み、CPU149は、親機1が図39のステップS164で送信してくる外部入力選択コマンドを受信したかどうかを判定し、受信していないと判定した場合、ステップS182に戻る。
【0586】
また、ステップS182において、親機1からの外部入力選択コマンドを受信したと判定された場合、即ち、IEEE1394インタフェース153において、親機1からの外部入力選択コマンドが受信され、CPU149に供給された場合、ステップS183に進み、CPU149は、IEEE1394インタフェース153で受信される番組画像データを選択し、デマルチプレクサ144を介して、MPEGビデオデコーダ145に供給する状態となり、ステップS184に進む。
【0587】
ステップS184では、CPU149は、親機1から、拡大表示コマンドとともに、番組画像データ、拡大率N、拡大範囲rij、および表示範囲Rijが送信されてきたかどうかを判定する。
【0588】
ステップS184において、親機1から、拡大表示コマンドとともに、番組画像データ、拡大率N、拡大範囲rij、および表示範囲Rijが送信されてきたと判定された場合、即ち、IEEE1394インタフェース153において、親機1からの拡大表示コマンド、並びに番組画像データ、拡大率N、拡大範囲rij、および表示範囲Rijが受信され、CPU149に供給された場合、CPU149は、以下、拡大表示コマンドにしたがい、その拡大表示コマンドとともに送信されてきた番組画像データの拡大範囲rijを、拡大率Nで拡大し、その結果得られる一部拡大画像データを、CRT31の表示画面中の表示範囲Rijに表示させる処理を行う。
【0589】
即ち、この場合、ステップS184からS185に進み、CPU149は、CPU149は、拡大表示コマンドとともに受信した拡大率Nに対応するパラメータzを、信号処理部157(図29)のパラメータメモリ208にセットし、ステップS186に進む。
【0590】
ステップS186では、CPU149は、信号処理部157(図29)を制御することにより、フレームメモリ147に記憶された、拡大表示コマンドとともに受信した番組画像データの、子機2ijについて求められた拡大範囲rij(図40B)を対象とした画像変換処理を行わせる。
【0591】
即ち、本実施の形態では、図39のステップS169およびS174において、親機1から、子機2ijに対して、拡大表示コマンドとともに、番組画像データとしてのTSパケットが送信されるが、この場合、CPU149は、IEEE1394インタフェース153を介して受信した親機1からのTSパケットを、デマルチプレクサ144を介して、MPEGビデオデコーダ145に供給する。MPEGビデオデコーダ145は、そのTSパケットをMPEGデコードし、番組画像データを得て、フレームメモリ147に書き込む。
【0592】
一方、子機2ijの信号処理部157(図29)を構成する係数種メモリ207には、ステップS181でリサイズ処理用の係数種データがセットされており、信号処理部157は、フレームメモリ147に記憶された番組画像データの拡大範囲rijを、係数種メモリ207に記憶されたリサイズ処理用の係数種データと、パラメータメモリ208に記憶されたパラメータzから生成されるタップ係数を用いて画像変換処理することにより、その拡大範囲rijの番組画像データを、拡大率Nで拡大(リサイズ)した画像データとしての一部拡大画像データに変換する。
【0593】
さらに、このとき、CPU149は、一部拡大画像データが、CRT31の表示画面中の、子機ijについて求められた表示範囲Rij(図40A)の位置に表示されるものとなるように、信号処理部157を制御する。即ち、これにより、信号処理部157では、一部拡大画像データが、CRT31の表示画面中の、子機2ijについて求められた表示範囲Rij(図40A)の位置に表示されるように、その表示位置が調整される。
【0594】
具体的には、例えば、子機211では、図40Aに示したように、一部拡大画像データが、そのCRT31の表示画面中の右下の表示範囲R11に表示されるように、一部拡大画像データの表示位置が調整される。
【0595】
なお、この場合、子機211では、CRT31の表示画面中の表示範囲R11以外の範囲の画像データは、例えば、黒レベルとされる。他の子機2ijにおいても同様である。
【0596】
ステップS187において、信号処理部157は、ステップS186で得られた一部拡大画像データを、フレームメモリ147およびNTSCエンコーダ148を介してCRT31に供給して表示させる。
【0597】
その後、ステップS184に戻り、以下、ステップS184乃至S187の処理が繰り返される。
【0598】
一方、ステップS184において、親機1から、拡大表示コマンドとともに、番組画像データ、拡大率N、拡大範囲rij、および表示範囲Rijが送信されてこないと判定された場合、即ち、IEEE1394インタフェース153において、拡大表示コマンド、並びに番組画像データ、拡大率N、拡大範囲rij、および表示範囲Rijを受信することができなくなった場合、ステップS188に進み、信号処理部157は、EEPROM157Bに待避しておいた元の係数種データを、係数種メモリ207(図29)にセットし直し、子機の全体拡大処理を終了する。
【0599】
図39の親機の全体拡大処理、および図41の子機の全体拡大処理によれば、例えば、図42Aに示すように、スケーラブルTVシステムを構成する第2行第2列に位置する親機1に番組画像データが表示されている場合に、その親機1に表示された番組画像データの全体が、図42Bに示すように、親機1を中心として、子機211乃至233に亘って徐々に拡大されていき、最終的には、図42Cに示すように、3×3台の親機1および子機211乃至233の全体に、番組画像データの全体を拡大した全体拡大画像データが表示されることになる。
【0600】
従って、ユーザは、番組画像データの全体を、その細部にわたって拡大した全体拡大画像データを見ることができる。
【0601】
但し、スケーラブルTVシステムにおいては、実際には、そのスケーラブルTVシステムを構成するテレビジョン受像機の筐体が存在するから、隣接するテレビジョン受像機どうしの、その隣接部分は筐体であり、その部分には、画像は表示されない。即ち、図42では、図を簡略化するため、隣接するテレビジョン受像機どうしの間に存在する筐体部分を省略している。しかしながら、実際には、隣接するテレビジョン受像機どうしの間には、筐体が存在し、従って、全体拡大画像データは、僅かではあるが、テレビジョン受像機の筐体部分で表示されず、いわば区切られたものとなるという問題点がある。
【0602】
しかしながら、人間の視覚には、画像の一部に、その視聴を妨げる微小幅のラインがあっても、そのラインで隠されている部分の画像を、その周辺の画像から補間する補間作用があるため、上述した問題点は、全体拡大画像データを視聴する上で、それほど大きな問題とはならない。
【0603】
なお、全体拡大処理においても、一部拡大処理で説明した場合と同様に、リサイズ処理用の係数種データを用いて、画像変換処理を行って全体拡大画像データを得る他、単なる補間処理によって、番組画像データを拡大した全体拡大画像データを得ることが可能である。
【0604】
但し、番組画像データの全体を、その細部にわたって拡大した全体拡大画像データを見ることができるのは、信号処理部137および157において、リサイズ処理用の係数種データを用いて、画像変換処理を行った場合であり、単なる補間処理によって、番組画像データの拡大を行った場合には、全体拡大画像データを見ることはできるが、その細部の再現は行われない。即ち、単なる補間処理による場合は、リサイズ処理用の係数種データを用いた画像変換処理による場合に比較して、大きく画質の劣化した全体拡大画像データしか見ることはできない。
【0605】
ここで、本実施の形態では、図31および図33で説明した認証が成功した場合にのみ、特別機能を提供するようにしたが、認証が失敗した場合であっても、特別機能を、いわば制限付きで提供するようにすることが可能である。
【0606】
即ち、例えば、認証が成功した場合には、リサイズ処理用の係数種データを用いた画像変換処理によって、全体拡大画像データを提供し、認証が失敗した場合には、単なる補間処理による全体拡大画像データを提供するようにすることが可能である。
【0607】
この場合、スケーラブルTVシステムを、親機や子機でないテレビジョン受像機を用いて構成しているユーザは、全体拡大画像データを見ることはできるが、その全体拡大画像データは、単なる補間処理によるものなので、リサイズ処理用の係数種データを用いた画像変換処理による場合に比較して、かなり画質の劣化したものとなる。
【0608】
これに対して、スケーラブルTVシステムを、親機や子機であるテレビジョン受像機を用いて構成しているユーザは、リサイズ処理用の係数種データを用いた画像変換処理による高画質の全体拡大画像データを見ることができる。
【0609】
その結果、スケーラブルTVシステムを、親機や子機でないテレビジョン受像機を用いて構成しているユーザにおいては、高画質の全体拡大画像データを見るために、親機や子機であるテレビジョン受像機を購入するインセンティブが働くことになる。
【0610】
なお、本実施の形態では、親機1に表示された番組画像データの全体を、スケーラブルTVシステムを構成するテレビジョン受像機の全体に表示可能な大きさの全体拡大画像データに拡大する拡大率を、最大拡大率Nmaxとして設定するようにしたが、最大拡大率Nmaxは、ユーザが、リモコン15(またはリモコン35)を操作することにより、任意の値に設定可能なようにすることができる。
【0611】
この場合、最大拡大率Nmaxが、番組画像データを、スケーラブルTVシステムを構成するテレビジョン受像機の全体に表示可能な大きさの全体拡大画像データよりも大きい画像データに拡大する値(以下、適宜、規定外最大拡大率という)に設定されることがあり、その規定外最大拡大率で拡大された全体拡大画像データは、その全体を、スケーラブルTVシステムで表示することができなくなる。即ち、規定外最大拡大率で拡大された全体拡大画像データは、その一部だけしか表示することができなくなる。この場合、規定外最大拡大率で拡大された全体拡大画像データのどの部分を表示するかは、例えば、ユーザが、リモコン15(またはリモコン35)を操作することにより設定可能なようにすることができる。
【0612】
また、上述の場合には、スケーラブルTVシステムを構成する各テレビジョン受像機において、そのテレビジョン受像機で表示すべき一部拡大画像データを生成するようにしたが、スケーラブルTVシステムを構成する各テレビジョン受像機で表示すべき一部拡大画像データは、例えば、親機1などの1台、または複数台のテレビジョン受像機において生成するようにすることが可能である。即ち、例えば、親機1において、全体拡大画像データを生成し、その全体拡大画像データのうちの一部である一部拡大画像データを、IEEE1394インタフェース133を介して、各子機2ijに送信するようにすることが可能である。但し、この場合、親機1は、自身で表示すべき一部拡大画像データの他、他のテレビジョン受像機である各子機2ijで表示すべき一部拡大画像データも生成する必要があるので、その処理負担が大になる。
【0613】
さらに、上述の場合には、テレビジョン放送番組としての画像データ(番組画像データ)を拡大するようにしたが、全体拡大処理でも、一部拡大処理における場合と同様に、外部の装置から入力される画像データを、その処理の対象とすることが可能である。
【0614】
さらに、全体拡大処理においても、一部拡大処理における場合と同様に、番組画像データの一部の水平方向および垂直方向の両方を、同一の拡大率だけ拡大することは勿論、水平方向と垂直方向それぞれを、異なる拡大率だけ拡大することも可能である。
【0615】
また、上述の場合には、3×3台のテレビジョン受像機で構成されるスケーラブルTVシステムにおいて、その中心に配置された親機1に表示される画像データが、その周囲に配置された各子機2ijの方向(左上、左、左下、上、下、右上、右、右下の8方向)それぞれに向かって拡大されていく全体拡大画像データが表示されるが、その他、例えば、左下に配置された子機231に表示される画像データが、その上に配置された子機221、右上に配置された親機1、右に配置された子機232の方向それぞれに向かって拡大されていくような全体拡大画像データを表示するようにすることも可能である。
【0616】
さらに、上述の場合には、親機1や各子機2ijにおいて、ユーザがリモコン15を操作することにより、全体拡大処理を行うことの指令があった後に、全体拡大画像データ(を構成する一部拡大画像データ)を生成するようにしたが、親機1や各子機2ijでは、常時、拡大率Nが、1+α,1+2α,1+3α,・・・,Nmax倍の全体拡大画像データを生成するようにし、全体拡大処理を行うことの指令があった場合は、即座に、その拡大率Nが1+α,1+2α,1+3α,・・・,Nmax倍の全体拡大画像データを、順次表示するようにすることも可能である。
【0617】
次に、スケーラブルTVシステムは、そのスケーラブルTVシステムを構成するテレビジョン受像機全体に、画像データを表示する、いわゆるマルチ画面表示を行う特別機能を有しており、この特別機能は、親機1と子機2において、マルチ画面表示処理が行われることにより実現される。
【0618】
マルチ画面表示処理を行うことの指示も、例えば、一部拡大処理や全体拡大処理を行うことの指示と同様に、メニュー画面から行うことができるようになっている。
【0619】
即ち、上述したように、ユーザが、リモコン15(図7)のメニューボタンスイッチ54(またはリモコン35(図8)のメニューボタンスイッチ84)を操作した場合、親機1のCRT11(または子機2のCRT31)には、メニュー画面が表示されるが、このメニュー画面には、例えば、マルチ画面表示処理を表すアイコン(以下、適宜、マルチ画面表示アイコンという)が表示されるようになっており、ユーザが、このマルチ画面表示アイコンを、リモコン15を操作してクリックすることにより、親機1と子機2それぞれにおいて、マルチ画面表示処理が開始される。
【0620】
そこで、図43のフローチャートを参照して、親機のマルチ画面表示処理について説明する。
【0621】
ここで、マルチ画面表示処理では、図42Cに示したように、スケーラブルTVシステムを構成するテレビジョン受像機全体に、番組画像データが表示される。従って、親機1のマルチ画面表示処理は、実質的には、拡大率Nを最大拡大率Nmaxに固定し、拡大ピッチαを無視して行う、図39の全体拡大処理と等価である。
【0622】
このため、親機1のマルチ画面表示処理では、ステップS191乃至S194において、図39のステップS161乃至S164における場合とそれぞれ同様の処理が行われる。
【0623】
そして、ステップS195に進み、図39のステップS165における場合と同様にして、最大拡大率Nmaxが設定され、ステップS196に進む。ステップS196では、親機1(図10)のCPU129は、拡大率Nを、最大拡大率Nmaxに設定し、ステップS197に進む。
【0624】
ステップS197では、CPU129は、最大拡大率Nmaxが設定されている拡大率Nに基づき、親機1における番組画像データの拡大範囲r1と、各子機2ij(図11)における番組画像データの拡大範囲rijとを、図39のステップS167における場合と同様にして求め、ステップS198に進む。
【0625】
ここで、図39の全体拡大処理では、ステップS167で拡大範囲を求める他、ステップS168で表示範囲も求めるが、拡大率Nが、最大拡大率Nmaxである場合には、親機1の表示範囲R1は、そのCRT11の表示画面全体であり、また、子機2ijの表示範囲Rijも、そのCRT31の表示画面全体であるから、あらかじめ分かっており、求める必要がない(または、あらかじめ求められていると考えることができる)。このため、マルチ画面表示処理では、改めて、親機1の表示範囲R1と、子機2ijの表示範囲Rijを求めるようにはされていない。
【0626】
ステップS198では、CPU129は、図39のステップS170における場合と同様にして、最大拡大率Nmaxが設定されている拡大率Nに対応するパラメータzを、信号処理部137(図22)のパラメータメモリ168にセットする。
【0627】
そして、ステップS199乃至S201に順次進み、図39のステップS174乃至S176における場合とそれぞれ同様に処理が行われ、これにより、親機1では、最大拡大率Nmaxで拡大された一部拡大画像データが表示される。
【0628】
その後、ステップS202に進み、CPU129は、マルチ画面表示を終了するコマンド(以下、適宜、マルチ画面表示終了コマンドという)が送信されてきたかどうかを判定する。
【0629】
ステップS202において、マルチ画面表示終了コマンドが送信されてきていないと判定された場合、ステップS199に戻り、以下、同様の処理が繰り返される。従って、この場合、親機1では、最大拡大率Nmaxで拡大された一部拡大画像データの表示が続行される。
【0630】
また、ステップS202において、マルチ画面表示終了コマンドが送信されてきたと判定された場合、即ち、例えば、ユーザが、リモコン15(図7)を操作することにより、CRT11にメニュー画面を表示させ、さらに、そのメニュー画面におけるマルチ画面表示アイコンを再クリックし、これにより、そのリモコン15の操作に対応するコマンドであるマルチ画面表示終了コマンドの赤外線が、リモコン15から出射され、IR受信部135で受信されてCPU129に供給された場合、ステップS203に進み、信号処理部137における画像変換処理を終了し、親機1のマルチ画面表示処理を終了する。これにより、フレームメモリ127に記憶された番組画像データは、そのまま、NTSCエンコーダ128を介して、CRT11に供給されるようになり、CRT11では、番組画像データが、通常のサイズで表示される。
【0631】
なお、子機2ijのマルチ画面表示処理(子機2ijが行うマルチ画面表示処理)は、図41で説明した子機2ijの全体拡大処理と同様であるため、その説明は、省略する。
【0632】
次に、スケーラブルTVシステムは、そのスケーラブルTVシステムを構成するテレビジョン受像機それぞれに同一の処理を行わせる特別機能を有しており、この特別機能は、親機1において、一括同時制御処理が行われることにより実現される。
【0633】
一括同時制御処理を行うことの指示も、例えば、一部拡大処理等を行うことの指示と同様に、メニュー画面から行うことができるようになっている。
【0634】
即ち、上述したように、ユーザが、リモコン15(図7)のメニューボタンスイッチ54(またはリモコン35(図8)のメニューボタンスイッチ84)を操作した場合、親機1のCRT11(または子機2のCRT31)には、メニュー画面が表示されるが、このメニュー画面には、例えば、一括同時制御処理を表すアイコン(以下、適宜、一括同時制御アイコンという)が表示されるようになっており、ユーザが、この一括同時制御アイコンを、リモコン15を操作してクリックすることにより、親機1において、一括同時制御処理が開始される。
【0635】
そこで、図44のフローチャートを参照して、親機の一括同時制御処理について説明する。
【0636】
一括同時制御処理では、親機1(図10)のCPU129は、リモコン15(またはリモコン25)が操作されることにより、所定の処理を指令するコマンドが入力されるのを待って、即ち、IR受信部15において、リモコン15からの所定のコマンドに対応する赤外線が受信され、CPU129に供給されるのを待って、ステップS211において、そのコマンドを受信する。さらに、ステップS211では、CPU129は、そのコマンドに対応した処理を行い、ステップS212に進む。
【0637】
ステップS212では、CPU129は、ステップS211で受信した、リモコン15の操作に対応したコマンド(以下、適宜、リモコンコマンドという)に対応する処理を行うことができる子機2ijが、スケーラブルTVシステムを構成するテレビジョン受像機の中に存在するかどうかを判定する。
【0638】
なお、ステップS212の判定処理は、CPU129がEEPROM130に記憶された各子機2ijの機能情報を参照することで行われる。
【0639】
ステップS212において、リモコンコマンドに対応する処理を行うことのできる子機2ijが存在すると判定された場合、ステップS213に進み、CPU129は、IEEE1394インタフェース133を制御することにより、リモコンコマンドに対応する処理を行うことのできる子機2ijすべてに、リモコンコマンドを送信する。
【0640】
従って、例えば、いま、スケーラブルTVシステムを構成する子機2ijすべてが、リモコンコマンドに対応する処理を行うことができるものであれば、その子機2ijすべてに、リモコンコマンドが送信され、各子機2ijでは、そのリモコンコマンドに対応する処理、即ち、ステップS211で親機1で行われたのと同一の処理が行われる。
【0641】
一方、ステップS212において、リモコンコマンドに対応する処理を行うことのできる子機2ijが存在しないと判定された場合、ステップS213をスキップして、ステップS214に進み、CPU129は、一括同時制御処理を終了するコマンド(以下、適宜、一括同時制御終了コマンドという)が送信されてきたかどうかを判定する。
【0642】
ステップS212において、一括同時制御終了コマンドが送信されてきていないと判定された場合、リモコン15が操作されることにより、所定の処理を指令するコマンド(リモコンコマンド)が入力されるのを待って、ステップS211に戻り、以下、同様の処理が繰り返される。
【0643】
また、ステップS212において、一括同時制御終了コマンドが送信されてきたと判定された場合、即ち、例えば、ユーザが、リモコン15(図7)を操作することにより、CRT11にメニュー画面を表示させ、さらに、そのメニュー画面における一括同時制御アイコンを再クリックし、これにより、そのリモコン15の操作に対応するコマンドである一括同時制御終了コマンドの赤外線が、リモコン15から出射され、IR受信部135で受信されてCPU129に供給された場合、一括同時制御処理を終了する。
【0644】
一括同時制御処理によれば、例えば、いま、スケーラブルTVシステムを構成する子機2ijすべてが、リモコンコマンドに対応する処理を行うことができるものであるとすると、ユーザが、リモコン15を操作することにより、例えば、あるチャンネルを選択することが指令された場合、図45Aに示すように、スケーラブルTVシステムを構成する親機1および子機2のすべてにおいて、そのチャンネルで放送されている画像データが表示される。さらに、ユーザが、リモコン15を操作することにより、他のチャンネルへの切り換えを指令すると、図45Bに示すように、スケーラブルTVシステムを構成する親機1および子機2のすべてにおいて、チャンネルの切り換えが行われる。
【0645】
従って、ユーザは、1つのリモコン15によって、スケーラブルTVシステムを構成するテレビジョン受像機すべてを、同時に、同じように制御することができる。
【0646】
次に、上述したように、親機1には、リモコン15を付随させ、各子機2ijにも、それぞれ、リモコン35を付随させることが可能である。さらに、上述したように、親機1は、そのリモコン15によっても、子機2ijのリモコン35によっても制御することが可能であり、子機2ijも、そのリモコン35によっても、親機1のリモコン15によっても制御することが可能である。
【0647】
従って、スケーラブルTVシステムを構成するテレビジョン受像機は、そのすべてを、1台のリモコン15(または35)だけで制御することが可能である。
【0648】
しかしながら、1台のリモコン15だけで、複数台のテレビジョン受像機それぞれを、別個に制御するには、例えば、リモコン15に、複数台のテレビジョン受像機それぞれの機器IDを設定しておき、所望のコマンドを入力する操作を行う前に、制御しようとするテレビジョン受像機の機器IDを入力する操作等の、制御対象とするテレビジョン受像機を特定する操作が必要となり、面倒である。
【0649】
そこで、親機1の制御には、それに付随するリモコン15を、各子機2ijの制御には、やはり、各子機2ijに付随するリモコン35を、それぞれ用いるようにする方法がある。
【0650】
しかしながら、この方法では、図1AのスケーラブルTVシステムを構成するテレビジョン受像機それぞれを、別個に制御するのに、9台という多数のリモコンが必要となる。さらに、この場合、どのリモコンが、どのテレビジョン受像機を制御するものなのか、一見しただけでは分からなくなることがある。
【0651】
従って、スケーラブルTVシステムを構成する親機1と各子機2ijのうち、ユーザが制御対象としているテレビジョン受像機を、親機1のリモコン15と各子機2ijのリモコン35のうちの任意のリモコンによって、ユーザが、制御対象としているテレビジョン受像機を特定する操作を行うことなく制御することができれば、便利である。
【0652】
そこで、スケーラブルTVシステムは、ユーザが、制御対象としているテレビジョン受像機を認識し、その制御対象のテレビジョン受像機を、リモコン15(またはリモコン35)によって制御可能とする特別機能を有しており、この特別機能は、親機1と子機2において、個別処理が行われることにより実現される。
【0653】
個別処理を行うことの指示は、例えば、メニュー画面から行うことができるようになっている。
【0654】
即ち、上述したように、ユーザが、リモコン15(図7)のメニューボタンスイッチ54(またはリモコン35(図8)のメニューボタンスイッチ84)を操作した場合、親機1のCRT11(または子機2のCRT31)には、メニュー画面が表示されるが、このメニュー画面には、例えば、個別処理を表すアイコン(以下、適宜、個別処理アイコンという)が表示されるようになっており、ユーザが、この個別処理アイコンを、リモコン15を操作してクリックすることにより、親機1と子機2それぞれにおいて、個別処理が開始される。
【0655】
そこで、まず、図46のフローチャートを参照して、親機1の個別処理について説明する。
【0656】
親機1(図10)の個別処理では、CPU129は、IR受信部135において、リモコン15(またはリモコン35)からの赤外線が受信されるのを待って、ステップS221において、IR受信部135における赤外線の受信強度を検出する。即ち、ユーザが、スケーラブルTVシステムを構成する、あるテレビジョン受像機を制御対象として、その制御対象を制御するのに、リモコン15を操作すると、リモコン15は、その操作に対応する赤外線を出射する。この赤外線は、親機1のIR受信部135、および各子機2ij(図11)のIR受信部155で受光されるが、ステップS221では、CPU129は、IR受信部135に、その赤外線の受信強度を検出させ、その供給を受ける。
【0657】
そして、ステップS222に進み、CPU129は、IEEE1394インタフェース133を介して、各子機2ijに、各子機2ijでのリモコン15からの赤外線の受信強度を要求し、その要求に応じて、各子機2ijから送信されてくる赤外線の受信強度を、IEEE1394インタフェース133を介して取得(受信)する。
【0658】
即ち、上述したように、ユーザがリモコン15を操作することにより、そのリモコン15が出射する赤外線は、親機1のみならず、各子機2ijでも受光されるが、ステップS222では、その赤外線の、各子機2ijでの受信強度が取得される。
【0659】
その後、ステップS223に進み、CPU129は、ステップS221で検出した親機1での赤外線の受信強度と、ステップS222で取得した各子機2ijでの赤外線の受信強度の中から、最大の受信強度(最大受信強度)を検出し、ステップS224に進む。
【0660】
ステップS224では、CPU129は、最大受信強度が得られたテレビジョン受像機(以下、適宜、最大受信強度装置という)が親機1または子機2のいずれであるかを判定する。
【0661】
ステップS224において、最大受信強度装置が親機1であると判定された場合、ステップS225に進み、CPU129は、IR受信部135で受光された赤外線が表すコマンドが、親機1に対するものであるとして、そのコマンドに対応する処理を実行する。
【0662】
一方、ステップS224において、最大受信強度装置が子機2であると判定された場合、ステップS226に進み、CPU129は、IEEE1394インタフェース133を制御することにより、IR受信部135で受光された赤外線が表すコマンドが、その最大受信強度装置である子機2ijに対するものであるとして、そのコマンドを、最大受信強度装置である子機2ijに送信する。
【0663】
従って、この場合、最大受信強度装置である子機2ijでは、後述する図47で説明するように、リモコン15からの赤外線が表すコマンドに対応する処理が行われることになる。
【0664】
ここで、ユーザは、リモコン15(またはリモコン35)を操作することによって、スケーラブルTVシステムを構成する、あるテレビジョン受像機を制御対象として、その制御を行う場合、一般に、リモコン15を、その制御対象であるテレビジョン受像機に向けて操作する。
【0665】
この場合、例えば、いま、リモコン15(またはリモコン35)が出射する赤外線が指向性の強いものであるとすると、ユーザが制御対象としようとしているテレビジョン受像機は、リモコン15が出射する赤外線の主軸の方向にあるもの、即ち、赤外線の受信強度が最も大きい最大受信強度装置であるということになる。
【0666】
従って、上述のように、最大受信強度装置において、リモコン15からの赤外線が表すコマンドに対応する処理を実行することで、ユーザが制御対象としたテレビジョン受像機、つまり最大受信強度装置において、ユーザによるリモコン15の操作に対応した処理が行われることになる。
【0667】
具体的には、例えば、ユーザが、リモコン15を、親機1に向けて、チャンネル操作や音量操作を行った場合、親機1が最大受信強度装置となり、その結果、最大受信強度装置である親機1において、その操作に対応して、チャンネルや音量が変更される。また、例えば、ユーザが、リモコン15を、ある子機2ijに向けて、チャンネル操作や音量操作を行った場合、その子機2ijが最大受信強度装置となり、その結果、最大受信強度装置である子機2ijにおいて、その操作に対応して、チャンネルや音量が変更される。
【0668】
ステップS225およびS226の処理後は、いずれも、ステップS227に進み、CPU129は、個別処理を終了するコマンド(以下、適宜、個別処理終了コマンドという)が送信されてきたかどうかを判定する。
【0669】
ステップS227において、個別処理終了コマンドが送信されてきていないと判定された場合、リモコン15が操作されることにより出射される赤外線が、IR受信部135で受光されるのを待って、ステップS221に戻り、以下、同様の処理が繰り返される。
【0670】
また、ステップS227において、個別処理終了コマンドが送信されてきたと判定された場合、即ち、例えば、ユーザが、リモコン15(図7)を操作することにより、CRT11にメニュー画面を表示させ、さらに、そのメニュー画面における個別処理アイコンを再クリックし、これにより、そのリモコン15の操作に対応するコマンドである個別処理終了コマンドの赤外線が、リモコン15から出射され、IR受信部135で受信されてCPU129に供給された場合、ステップS228に進み、CPU129は、IEEE1394インタフェース133を制御することにより、個別処理終了コマンドを、各子機2ijに送信し、親機1の個別処理を終了する。
【0671】
次に、図47のフローチャートを参照して、子機の個別処理について説明する。
【0672】
子機2(図11)の個別処理では、CPU149は、IR受信部155において、リモコン15(またはリモコン35)からの赤外線が受信されるのを待って、ステップS231において、IR受信部155における赤外線の受信強度を検出する。即ち、ユーザが、スケーラブルTVシステムを構成する、あるテレビジョン受像機を制御対象として、その制御対象を制御するのに、リモコン15を操作すると、リモコン15は、その操作に対応する赤外線を出射するが、この赤外線は、上述したように、子機2のIR受信部155で受光される。ステップS231では、CPU149は、IR受信部155に、その赤外線の受信強度を検出させ、その供給を受ける。
【0673】
そして、ステップS232に進み、CPU149は、親機1から赤外線の受信強度の要求が送信されてくるのを待って、IEEE1394インタフェース153を介して、親機1に、ステップS231で検出した赤外線の受信強度を送信する。このステップS232で、子機2から送信される赤外線の受信強度が、親機1で行われる、上述した図46のステップS222で取得(受信)される。
【0674】
その後、ステップS233に進み、CPU149は、親機1からコマンドが送信されてきたかどうかを判定する。即ち、親機1は、上述した図46のステップS226やS228において、子機2に対して、コマンドを送信するが、ステップS233では、そのようにして親機1からコマンドが送信されてきたかどうかが判定される。
【0675】
ステップS233において、親機1からコマンドが送信されてきていないと判定された場合、ステップS233に戻る。
【0676】
また、ステップS233において、親機1からコマンドが送信されてきたと判定された場合、即ち、IEEE1394インタフェース153において、親機1から送信されてきたコマンドが受信され、CPU149に供給された場合、ステップS234に進み、CPU149は、そのコマンドが、個別処理終了コマンドであるかどうかを判定する。
【0677】
ステップS234において、親機1から送信されてきたコマンドが、個別処理終了コマンドでないと判定された場合、ステップS235に進み、CPU149は、親機1から送信されてきたコマンドに対応する処理を実行し、ステップS233に戻る。
【0678】
これにより、図46で説明したように、ユーザがリモコン15を操作するにあたって、そのリモコン15が向けられた子機2では、そのリモコン15の操作に対応する処理(例えば、チャンネルや音量の変更)が行われる。
【0679】
一方、ステップS234において、親機1から送信されてきたコマンドが、個別処理終了コマンドであると判定された場合、子機2の個別処理を終了する。
【0680】
以上のように、リモコン15(またはリモコン35)として、赤外線の指向性が強いものを用い、さらに、スケーラブルTVシステムを構成するテレビジョン受像機において、リモコン15からの赤外線の受信強度が最も大きい最大受信強度装置を検出するようにすることにより、ユーザが制御しようとしているテレビジョン受像機を特定(認識)することができるので、スケーラブルTVシステムを構成する親機1と各子機2ijのうち、ユーザが制御対象としているテレビジョン受像機を、親機1のリモコン15と各子機2ijのリモコン35のうちの任意のリモコンによって、ユーザが制御対象としているテレビジョン受像機を特定する操作を行うことなく制御することができる。
【0681】
次に、個別処理によれば、例えば、あるユーザAが、リモコン15によって、ある子機2ijのチャンネル操作を行って、ある番組PGMAを視聴し、また、他のユーザBが、リモコン35によって他の子機2pqのチャンネル操作を行って、他の番組PGMBを視聴するといったように、複数のユーザが、個別に、異なる番組を視聴することができる。
【0682】
この場合、子機2ijと2pq(図11)のCRT31には、異なる番組の画像データが表示されることとなるが、仮に、子機2ijと2pqとが隣り合う位置に配置されていたとしても、子機2ijと2pqに異なる番組の画像データが表示されることは、それほど大きな問題にはならない。
【0683】
即ち、いまの場合、子機2ijには番組PGMAの画像データが表示され、子機2pqには番組PGMBの画像データが表示されるため、いずれの画像データも、ユーザAとBの視界に入ることになる。
【0684】
しかしながら、ユーザAは、子機2ijに表示された番組PGMAの画像データを視聴しようとし、ユーザBは、子機2pqに表示された番組PGMBの画像データを視聴しようとしているため、ユーザAにおいては、視聴しようとしていない番組PGMBの画像データは、いわばマスクされ、ユーザBにおいても、視聴しようとしていない番組PGMAの画像データはマスクされる。
【0685】
従って、ユーザAにとって、他の子機2pqに表示された番組PGMBの画像データは、子機2ijに表示された番組PGMAの画像データの視聴の大きな妨げにはならず、ユーザBにとっても、他の子機2ijに表示された番組PGMAの画像データは、子機2pqに表示された番組PGMBの画像データの視聴の大きな妨げにならない。
【0686】
しかしながら、この場合、異なる画像データにそれぞれ付随する異なる音声データが出力されること、即ち、子機ijのスピーカユニット32Lおよび32Rから番組PGMAの音声データが出力され、子機2pqのスピーカユニット32Lおよび32Rから番組PGMBの音声データが出力されることについては、多少の問題がある。
【0687】
即ち、人間の聴覚には、いわゆるカクテルパーティ効果が認められ、多数の音声データが混在する中から、所望の音声データを聞き分けることが可能であるが、それでも、パワーの小さい音声データは、パワーの大きな音声データにマスクされてしまうなど、所望の音声データ以外の音声データ、つまりノイズとなる音声データの存在は、所望の音声データの視聴の妨げとなる。
【0688】
そこで、スケーラブルTVシステムは、親機1や子機2で番組を視聴しているユーザの方向に、その親機1のスピーカユニット12Lおよび12Rや、子機2のスピーカユニット32Lおよび32R(を構成するスピーカ)の指向性の主軸の方向を向け、これにより、ユーザが視聴している番組の音声データを、そのユーザに聞き取りやすくする特別機能を有しており、この特別機能は、親機1および子機2において、スピーカ制御処理が行われることにより実現される。
【0689】
即ち、ここでは、例えば、親機1(図10)のスピーカユニット12Lおよび12Rの指向性は、非常に強いものとなっており、ユニット駆動部138が、スピーカユニット12Lおよび12Rを駆動し、その向きを機械的に(メカニカルに)変えることによって、指向性の主軸の方向を、所定の方向に向けることができるようになっている。子機2のスピーカユニット32Lおよび32Rも同様に、指向性の強いもので、ユニット駆動部158によって駆動されることにより、指向性の主軸の方向を、所定の方向に向けることができるようになっている。
【0690】
スピーカ制御処理は、例えば、図46および図47で説明した個別処理が行われている場合に、その個別処理と並列で行われる。
【0691】
そこで、図48のフローチャートを参照して、親機のスピーカ制御処理について説明する。
【0692】
親機のスピーカ制御処理では、CPU129は、IR受信部135において、リモコン15(またはリモコン35)からの赤外線が受信されるのを待って、ステップS241において、IR受信部135における赤外線の受信強度を検出する。即ち、ユーザが、スケーラブルTVシステムを構成する、あるテレビジョン受像機を制御対象として、その制御対象を制御するのに、リモコン15を操作すると、リモコン15は、その操作に対応する赤外線を出射する。この赤外線は、親機1のIR受信部135、および各子機2ij(図11)のIR受信部155で受光されるが、ステップS241では、CPU129は、IR受信部135に、その赤外線の受信強度を検出させ、その供給を受ける。
【0693】
そして、ステップS242に進み、CPU129は、IEEE1394インタフェース133を介して、各子機2ijに、各子機2ijでのリモコン15からの赤外線の受信強度を要求し、その要求に応じて、各子機2ijから送信されてくる赤外線の受信強度を、IEEE1394インタフェース133を介して取得(受信)する。
【0694】
即ち、上述したように、ユーザがリモコン15を操作することにより、そのリモコン15が出射する赤外線は、親機1のみならず、各子機2ijでも受光されるが、ステップS242では、その赤外線の、各子機2ijでの受信強度が取得される。
【0695】
ここで、親機1のスピーカ制御処理におけるステップS241とS242では、図46の親機1の個別処理におけるステップS221とS222とそれぞれ同様の処理が行われる。従って、親機1のスピーカ制御処理では、ステップS241およびS242の処理を行わず、親機1の個別処理におけるステップS221とS222で得られる受信強度を、そのまま採用することが可能である。
【0696】
その後、ステップS243に進み、CPU129は、ステップS241で検出した親機1での赤外線の受信強度と、ステップS242で取得した各子機2ijでの赤外線の受信強度の中から、任意の3つの受信強度、即ち、例えば、受信強度の大きい順に、第1位から第3位までの受信強度を選択し、ステップS244に進む。
【0697】
ステップS244では、CPU129は、ステップS243で選択した3つの第1位から第3位までの受信強度それぞれに対応する距離を検出し、ステップS245に進む。
【0698】
即ち、リモコン15から出射される赤外線の、テレビジョン受像機における受信強度は、例えば、リモコン15とテレビジョン受像機(のIR受信部135または155)との間の距離に対応している。
【0699】
そこで、親機1(図10)のEEPROM150には、例えば、図49に示すような、リモコン15から出射される赤外線の、テレビジョン受像機における受信強度と、リモコン15からテレビジョン受像機までの距離との対応関係を表す強度対距離テーブルが記憶されており、ステップS244では、CPU129は、例えば、この強度対距離テーブルを参照することにより、第1位から第3位までの受信強度それぞれに対応する距離を検出する。
【0700】
なお、強度対距離テーブルは、例えば、テレビジョン受像機から複数の距離だけ離れた位置それぞれにおいて、リモコン15を操作し、テレビジョン受像機で受光される受信強度を測定することで作成することが可能である。
【0701】
図48に戻り、ステップS245では、CPU129は、第1位乃至第3位の受信強度それぞれに対応する距離から、それらの受信強度の赤外線を出射したリモコン15の位置を検出する。
【0702】
ここで、図50を参照して、第1位乃至第3位の受信強度それぞれに対応する距離から、それらの受信強度の赤外線を出射したリモコン15の位置を検出する方法について説明する。なお、ここでは、説明を簡単にするために、第1位と第2位の2つの受信強度のみを考える。
【0703】
例えば、いま、親機1における受信強度と、(スケーラブルTVシステムの正面方向から見て)その右隣の子機223における受信強度が、第1位と第2位の受信強度であったとするとともに、親機1における受信強度に対応する距離をr1と、子機223における受信強度に対応する距離をr23と、それぞれ表すこととする。
【0704】
この場合、ある2次元平面を考えると、リモコン15は、図50に示すように、親機1のIR受信部135で赤外線が受光された点P1を中心とする半径r1の円c1の円周上に存在し、かつ、子機223のIR受信部155で赤外線が受光された点P23を中心とする半径r23の円c23の円周上に存在することになる。
【0705】
従って、リモコン15は、円c1とc23の円周の交点PUに存在することとなり、リモコン15の位置PUを検出することができることとなる。
【0706】
なお、上述の場合には、2つの受信強度からリモコン15の位置を求めたため、2次元平面上の位置が検出されることとなるが、リモコン15の3次元空間上の位置は、図50で説明した場合と同様にして、3つの受信強度それぞれに対応する距離を半径とする球の球面どうしの交点を求めることで検出することが可能である。
【0707】
再び、図48に戻り、ステップS245でリモコン15の位置が検出された後は、ステップS246に進み、CPU129は、ステップS241で検出した親機1での赤外線の受信強度と、ステップS242で取得した各子機2ijでの赤外線の受信強度の中から、最大受信強度を検出する。なお、ステップS246における最大受信強度の検出は省略し、その代わりに、上述の図46のステップS223で検出される最大受信強度を流用することが可能である。
【0708】
ステップS246では、さらに、CPU129は、最大受信強度が得られたテレビジョン受像機(最大受信強度装置)が親機1または子機2のいずれであるかを判定する。
【0709】
ステップS246において、最大受信強度装置が親機1であると判定された場合、ステップS247に進み、CPU129は、その最大受信強度装置である親機1のスピーカユニット12Lおよび12Rの指向性の主軸の方向を、ステップS245で検出されたリモコン15の位置(以下、適宜、ユーザ位置という)の方向に向けるように、ユニット駆動部138を制御して、ステップS241に戻る。
【0710】
この場合、ユニット駆動部138は、CPU129の制御にしたがい、スピーカユニット12Lおよび12Rを、例えばパン方向またはチルト方向に回転駆動し、これにより、その指向性の主軸の方向を、ユーザ位置の方向に向ける。
【0711】
一方、ステップS246において、最大受信強度装置が子機2であると判定された場合、ステップS248に進み、CPU129は、IEEE1394インタフェース133を制御することにより、スピーカユニット32Lおよび32Rの指向性の主軸の方向を、ユーザ位置に向けるように指令するスピーカ制御コマンドを、最大受信強度装置である子機2ijに送信し、ステップS241に戻る。
【0712】
従って、この場合、最大受信強度装置である子機2ijでは、後述する図51で説明するように、スピーカユニット32Lおよび32Rが、その指向性の主軸の方向を、ユーザ位置の方向に向けるように、パン方向またはチルト方向に回転駆動される。
【0713】
上述したように、ユーザは、リモコン15(またはリモコン35)を操作することによって、スケーラブルTVシステムを構成する、あるテレビジョン受像機を制御対象として、その制御を行う場合、一般に、リモコン15を、その制御対象であるテレビジョン受像機に向けて操作する。
【0714】
この場合、例えば、いま、リモコン15(またはリモコン35)が出射する赤外線が指向性の強いものであるとすると、ユーザが制御対象としようとしているテレビジョン受像機は、リモコン15が出射する赤外線の主軸の方向にあるもの、即ち、赤外線の受信強度が最も大きい最大受信強度装置であるということになる。
【0715】
従って、最大受信強度装置が、リモコン15を操作したユーザが視聴している番組の画像データおよび音声データが出力されているテレビジョン受像機であり、その最大受信強度装置である親機1のスピーカユニット12Lおよび12R、または子機2のスピーカユニット32Lおよび32Rの指向性の主軸の方向を、リモコン15を操作したユーザの方向に向けることにより、そのユーザは、所望する番組の音声データを、明瞭に聞き取ることが可能となる。
【0716】
次に、図51のフローチャートを参照して、子機2のスピーカ制御処理について説明する。
【0717】
子機2(図11)のスピーカ制御処理では、CPU149は、IR受信部155において、リモコン15(またはリモコン35)からの赤外線が受信されるのを待って、ステップS251において、IR受信部155における赤外線の受信強度を検出する。即ち、ユーザが、スケーラブルTVシステムを構成する、あるテレビジョン受像機を制御対象として、その制御対象を制御するのに、リモコン15を操作すると、リモコン15は、その操作に対応する赤外線を出射するが、この赤外線は、上述したように、子機2のIR受信部155で受光される。ステップS251では、CPU129は、IR受信部155に、その赤外線の受信強度を検出させ、その供給を受ける。
【0718】
そして、ステップS252に進み、CPU149は、親機1から赤外線の受信強度の要求が送信されてくるのを待って、IEEE1394インタフェース153を介して、親機1に、ステップS251で検出した赤外線の受信強度を送信する。このステップS252で、子機2から送信される赤外線の受信強度が、親機1で行われる、上述した図48のステップS242で取得(受信)される。
【0719】
ここで、子機2のスピーカ制御処理におけるステップS251とS252では、図47の子機2の個別処理におけるステップS231とS232とそれぞれ同様の処理が行われる。従って、子機2のスピーカ制御処理では、ステップS251およびS252の処理を行わず、子機2の個別処理におけるステップS231とS232で得られる受信強度を、そのまま採用することが可能である。
【0720】
その後、ステップS253に進み、CPU149は、親機1からスピーカ制御コマンドが送信されてきたかどうかを判定する。即ち、親機1は、上述した図48のステップS248において、子機2に対して、スピーカ制御コマンドを送信するが、ステップS253では、そのようにして親機1からスピーカ制御コマンドが送信されてきたかどうかが判定される。
【0721】
ステップS253において、親機1からスピーカ制御コマンドが送信されてきていないと判定された場合、ステップS251に戻る。
【0722】
また、ステップS253において、親機1からスピーカ制御コマンドが送信されてきたと判定された場合、即ち、IEEE1394インタフェース153において、親機1から送信されてきたスピーカ制御コマンドが受信され、CPU149に供給された場合、ステップS254に進み、CPU149は、スピーカ制御コマンドにしたがい、子機2のスピーカユニット32Lおよび32Rの指向性の主軸の方向を、図48のステップS245で検出されたリモコン15の位置(ユーザ位置)の方向に向けるように、ユニット駆動部158を制御して、ステップS251に戻る。
【0723】
この場合、ユニット駆動部158は、CPU149の制御にしたがい、スピーカユニット32Lおよび32Rを、例えばパン方向またはチルト方向に回転駆動し、これにより、その指向性の主軸の方向を、ユーザ位置の方向に向ける。
【0724】
従って、この場合、子機2においては、その子機2に向かって、リモコン15を操作したユーザ、即ち、その子機2で出力されている画像データおよび音声データとしての番組を視聴しているユーザの方向に、スピーカユニット32Lおよび32Rの指向性の主軸の方向が向けられることとなり、そのユーザは、所望する番組の音声データを、明瞭に聞き取ることが可能となる。
【0725】
なお、図48および図51のスピーカ制御処理は、例えば、図46および図47の個別処理が終了したときに終了する。
【0726】
また、上述の場合には、ユーザ位置に対応して、スピーカユニット12Lおよび12R(またはスピーカユニット32Lおよび32R)の指向性の主軸の方向の向きだけを制御するようにしたが、その他、例えば、スピーカユニット12Lおよび12Rの音量も制御するようにすることが可能である。即ち、例えば、ユーザが番組を視聴しているテレビジョン受像機が、そのユーザ位置から離れているほど、スピーカユニット12Lおよび12Rの音量を大とするようにすることが可能である。
【0727】
さらに、上述の場合には、テレビジョン受像機におけるリモコン15からの赤外線の受信強度に基づいて、そのリモコン15の位置(ユーザ位置)を検出するようにしたが、リモコン15の位置は、その他、例えば、GPS(Global Positioning System)を利用したり、各テレビジョン受像機から超音波を発し、その超音波をリモコン15で受信して送り返すようにすることなどによって検出することが可能である。
【0728】
次に、上述のスピーカ制御処理においては、スピーカユニット12Lおよび12R(並びにスピーカユニット32Lおよび32R)として、指向性のあるものを用い、その指向性の主軸の方向を、ユニット駆動部138(およびユニット駆動部158)によって、パン方向またはチルト方向に回転駆動することにより、所定の方向(ユーザ位置の方向)に向けるようにしたが、このような指向性の主軸の方向の制御は、電子的に行うこともできる。
【0729】
即ち、図52は、指向性の主軸の方向の制御を電子的に行うスピーカユニット12Lの構成例を示している。なお、他のスピーカユニット12R,32L、および32Rも、スピーカユニット12Lと同様に構成されるため、その説明は、省略する。
【0730】
図52の実施の形態において、MPEGオーディオデコーダ126(図10)が出力する音声データは、ディジタルフィルタ2111および2112に供給される。ディジタルフィルタ2111および2112には、ユニット駆動部138(図10)によって、所定のタップ係数がセットされるようになっており、ディジタルフィルタ2111と2112は、そこに供給される同一の音声データを、ユニット駆動部138によってセットされたタップ係数に基づいてフィルタリングすることにより、その音声データに含まれる各周波数成分を、各周波数成分ごとに所定の遅延時間だけ遅延した音声データを得て、スピーカ2121と2122に、それぞれ供給する。
【0731】
スピーカ2121と2122は、いずれも、無指向性のスピーカで、ディジタルフィルタ2111と2112から供給される音声データを出力(放音)する。
【0732】
いま、スピーカユニット12Lにおいて、2つのスピーカ2121と2122の主軸を、それぞれ、Y1とY2と表すと、スピーカ2121と2122は、その主軸Y1とY2が2次元平面内(ここでは、紙面内)において並行となるように配置されている。さらに、スピーカ2121と2122は、それぞれのコーン(振動板)が主軸Y1とY2の方向において等しい位置となるように配置されている。
【0733】
ここで、主軸Y1とY2との間の距離(以下、適宜、主軸間距離という)をaで表すとともに、2次元平面内において、主軸Y1またはY2を基準とする反時計方向への角度(放射角)をθで表すこととする。
【0734】
以上のように構成されるスピーカユニット12Lに対して、音声データとして、単一の周波数成分でなる、例えば正弦波信号を入力した場合、その音声データとしての正弦波信号は、ディジタルフィルタ2111と2112でフィルタリングされ、これにより、例えば、遅延時間D1とD2だけ、それぞれ遅延され、スピーカ2121と2122に供給されて出力される。
【0735】
この場合、スピーカ2121と2122それぞれから出力される音波どうしが干渉する。さらに、例えば、いま、遅延時間D1とD2とが、D2≧D1の関係にあるとすると、スピーカ2121と2122それぞれから出力される音波どうしの間には、D2−D1だけの時間差(以下、適宜、遅延時間差という)が生じている。また、スピーカ2121と2122それぞれの主軸Y1とY2と角度θをなす軸Y11とY12上の音波どうしには、行路差が生じている。
【0736】
その結果、スピーカ2121と2122から出力される2つの音波の観測点(リスニング位置)ごとに、その2つの音波の干渉時の位相関係が異なることになり、例えば、ある観測点においては、2つの音波が同相で加算され、スピーカ2121と2122のうちの一方しかない場合の2倍の音量の音波となる。また、他の観測点においては、2つの音波が逆相で加算され(相殺され)、音量が0となる。従って、スピーカ2121と2122の総合の音量特性は指向性を有することになる。
【0737】
図53および図54は、上述のようにして得られるスピーカ2121と2122の総合の音量特性の指向性の例を示している。なお、図53および図54の実施の形態では、最大音量を、0dBに正規化してある。
【0738】
図53は、主軸間距離aを10cmとするとともに、遅延時間差D2−D1をa/Cとして、周波数が1000Hzの正弦波を入力した場合の音量特性の指向性を示している。なお、Cは、音速を表し、ここでは、340m/sとする。
【0739】
図53の実施の形態では、角度θが30度以上の範囲において、最大の音量が得られている。また、角度θが−45度の位置において、音量がほとんど0(ヌル)となっている。
【0740】
図54は、図53で説明した条件のうち、入力を、周波数が5000Hzの正弦波に代えた場合の音量特性の指向性を示している。
【0741】
図54の実施の形態では、角度θが45度以上の範囲に主ビームが現れている。また、角度θが0度から45度の範囲に、主ビームと同程度の大きさの副ビーム(グレーティングビーム)を生じている。このような大きな副ビームを生じるのは、図54の副ビームの範囲においては、2つの音波の位相差が、5000Hzの正弦波の波長の整数倍となり、2つの音波が同相で加算されるからである。
【0742】
このことは、他の副ビームについても同様であり、スピーカ2121と2122それぞれから観測点までの距離が、主軸間距離aに比べて十分大きい場合には、一般に、次式が成立するときに、スピーカ2121と2122が出力する2つの音波の位相が同相となって、主ビームと同じ大きさの副ビームを生じる。
【0743】
Figure 0003693246
【0744】
但し、式(26)において、fは入力の周波数を表し、nは、0以上の整数値である。
【0745】
なお、式(26)において、nが0の場合は、主ビームを表す。
【0746】
例えば、周波数fが1000Hzの場合に、式(26)を満足するのは、nが0のときだけであり、従って、この場合、主ビーム以外に、同じ大きさの副ビームを生じることはない。
【0747】
ここで、例えば、nが1の場合に、式(26)を満足する周波数f、即ち、副ビームを生じる周波数fは、f=C/(a(1−cosθ))で表すことができる。図53の実施の形態で説明した条件下では、この周波数fは、約1700Hzとなるが、これは、主軸間距離aが、音波の半波長に等しいときの周波数である。
【0748】
以上から、図52のスピーカユニット12Lによれば、ディジタルフィルタ2111と2112において、そこに供給される音声データの各周波数成分を、その各周波数成分ごとに遅延し、これにより、各周波数成分ごとに、所定の遅延時間差D2−D1を与えた音声データを、スピーカ2121と2122に供給して出力することにより、スピーカ2121と2122の総合の音量特性は指向性を有するものとなる。そして、各周波数成分についての主ビームの方向およびヌル方向は、その周波数成分に与える遅延時間差によって変更することができる。
【0749】
即ち、スピーカユニット12Lの指向性の主軸の方向は、ディジタルフィルタ2111と2112にセットするタップ係数によって変更することができる。
【0750】
従って、ユニット駆動部138において、ディジタルフィルタ2111と2112に、所定のタップ係数を与えることにより、スピーカユニット12Lの指向性の主軸の方向を、所望の方向に向けることができる。
【0751】
なお、上述の場合には、スピーカユニット12Lに、2つのスピーカ2121と2122を設け、その2つのスピーカ2121と2122から出力される2つの音波どうしの干渉を利用して、指向性の主軸の方向を制御するようにしたが、その他、例えば、スピーカユニット12Lと12Rを、それぞれ、1つのスピーカで構成し、スピーカユニット12Lのスピーカと、スピーカユニット12Rのスピーカから出力される2つの音波どうしの干渉を利用して、指向性の主軸の方向を制御するようにすることも可能である。
【0752】
また、スピーカユニット12Lは、2個よりも多い数のスピーカでなる、いわゆるスピーカアレイで構成することができる。スピーカユニット12Lを、多数のスピーカで構成する場合には、より急峻な指向性を実現することができる。
【0753】
次に、上述の場合には、リモコン15の位置(ユーザ位置)を、親機1または子機2における、リモコン15からの赤外線の受信強度に基づいて検出し、そのリモコン15の位置の方向に、スピーカユニット12Lおよび12R、またはスピーカユニット32Lおよび32Rの指向性の主軸の方向を向けるようにしたが、スピーカユニット12Lおよび12R、またはスピーカユニット32Lおよび32Rの指向性の主軸の方向を、リモコン15の位置の方向に向けるだけであれば、リモコン15の位置まで検出する必要はなく、親機1または子機2からのリモコン15の方向が分かれば良い。
【0754】
そこで、図55および図56を参照して、親機1(または子機2)からのリモコン15の方向の検出方法について説明する。
【0755】
親機1からのリモコン15の方向は、図55に示すように、親機1(図10)のIR受信部135に、所定の距離Dだけ離れた2つの受光部135Aと135Bを設けることにより検出することが可能である。
【0756】
いま、親機1からリモコン15までの距離が、受光部135Aと135Bの間の距離Dに比較して十分大きいとすると、リモコン15から受光部135Aに入射する赤外線と、リモコン15から受光部135Bに入射する赤外線とは平行とみなすことができる。
【0757】
そして、図55に示すように、リモコン15から受光部135Aおよび135Bに入射する赤外線が、受光部135Aと135Bとを結ぶ直線となす角度をφとすると、リモコン15から受光部135Aに入射する赤外線と、リモコン15から受光部135Bに入射する赤外線との間の行路差dは、Dcosφで表すことができる。
【0758】
また、光速をcで表すとともに、受光部135Aと135Bで、リモコン15からの赤外線が受光されるタイミングの時間差をτで表すと、行路差dは、cτで表すことができる。
【0759】
従って、角度φ、即ち、リモコン15の方向φは、arccos(τc/D)で表される。即ち、リモコン15の方向φは、受光部135Aと135Bで、リモコン15からの赤外線が受光されるタイミングの時間差τを測定することで求めることができる。
【0760】
次に、親機1(または子機2)からのリモコン15の方向は、IR受信部135(またはIR受信部155)を、図56に示すように構成することによって検出することも可能である。
【0761】
即ち、図56の実施の形態では、IR受信部135は、複数の赤外線受光部としての画素を有する赤外線ラインセンサ221と、その赤外線ラインセンサ221上に赤外線を集光するレンズ222から構成されている。
【0762】
なお、赤外線ラインセンサ221は、例えば、レンズ222の光軸上に配置されている。
【0763】
以上のように構成されるIR受信部135では、リモコン15から出射された赤外線は、レンズ222を介して、赤外線ラインセンサ221に入射し、その赤外線ラインセンサ上の所定の位置の画素で受光される。
【0764】
この場合、赤外線ラインセンサ221に対する赤外線の入射角αが変化すると、これに対応して、その赤外線を受光する画素、つまり、受光位置も変化する。
【0765】
そして、いま、この受光位置と、赤外線ラインセンサ221上のレンズ222の光軸との交点との間の距離をrで表すとともに、赤外線ラインセンサ221とレンズ222との距離をSで表すと、入射角α、即ち、リモコン15の方向αは、arctan(S/r)で表される。
【0766】
従って、リモコン15の方向αは、赤外線ラインセンサ221上のレンズ222の光軸との交点と、赤外線を受光した画素の位置との間の距離rを測定することにより求めることができる。
【0767】
次に、図57は、親機1の他の構成例を示している。なお、図中、図10における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、図57の親機1は、接続検出部139が新たに設けられている他は、図10における場合と同様に構成されている。
【0768】
接続検出部139は、電気的または機械的に、他のテレビジョン受像機が接続されたことを検出し、CPU129に供給するようになっている。
【0769】
従って、図57の実施の形態では、端子パネル21におけるIEEE1394端子21ij(図3F)の端子電圧の変化ではなく、接続検出部139において、他のテレビジョン受像機との接続が検出される。
【0770】
次に、図58は、子機2の他の構成例を示している。なお、図中、図11における場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。即ち、図58の子機2は、接続検出部159が新たに設けられている他は、図11における場合と同様に構成されている。
【0771】
接続検出部159は、電気的または機械的に、他のテレビジョン受像機が接続されたことを検出し、CPU149に供給するようになっている。
【0772】
従って、図58の実施の形態では、図57の実施の形態における場合と同様に、端子パネル41におけるIEEE1394端子411(図5F)の端子電圧の変化ではなく、接続検出部159において、他のテレビジョン受像機との接続が検出される。
【0773】
次に、上述した一連の処理は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。
【0774】
そこで、図59は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示している。
【0775】
プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク305やROM303に予め記録しておくことができる。
【0776】
あるいはまた、プログラムは、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブル記録媒体311に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体311は、いわゆるパッケージソフトウエアとして提供することができる。
【0777】
なお、プログラムは、上述したようなリムーバブル記録媒体311からコンピュータにインストールする他、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送し、コンピュータでは、そのようにして転送されてくるプログラムを、通信部308で受信し、内蔵するハードディスク305にインストールすることができる。
【0778】
コンピュータは、CPU(Central Processing Unit)302を内蔵している。CPU302には、バス301を介して、入出力インタフェース310が接続されており、CPU302は、入出力インタフェース310を介して、ユーザによって、キーボードや、マウス、マイク等で構成される入力部307が操作等されることにより指令が入力されると、それにしたがって、ROM(Read Only Memory)303に格納されているプログラムを実行する。あるいは、また、CPU302は、ハードディスク305に格納されているプログラム、衛星若しくはネットワークから転送され、通信部308で受信されてハードディスク305にインストールされたプログラム、またはドライブ309に装着されたリムーバブル記録媒体311から読み出されてハードディスク305にインストールされたプログラムを、RAM(Random Access Memory)304にロードして実行する。これにより、CPU302は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU302は、その処理結果を、必要に応じて、例えば、入出力インタフェース310を介して、LCD(Liquid CryStal Display)やスピーカ等で構成される出力部306から出力、あるいは、通信部308から送信、さらには、ハードディスク305に記録等させる。
【0779】
ここで、本明細書において、コンピュータに各種の処理を行わせるためのプログラムを記述する処理ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。
【0780】
また、プログラムは、1のコンピュータにより処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。
【0781】
なお、上述したスケーラブルTVシステムは、ディジタルおよびアナログのいずれのテレビジョン受像機によって構成することも可能である。
【0782】
また、スケーラブルTVシステムを構成するテレビジョン受像機は、例えば、そのテレビジョン受像機が親機または子機であるのか、さらには、子機である場合には、何台目の子機であるのかによって、販売価格に差を設けるようにすることができる。
【0783】
即ち、スケーラブルTVシステムでは、上述したように、親機が存在しなければ、特別機能が提供されないため、親機の価値は高く、従って、販売価格を高く設定するようにすることができる。
【0784】
また、ユーザは、親機の購入後は、子機を随時追加購入していくこととなると予想されるが、最初の数台の子機については、例えば、親機よりも低価格ではなるが、一般のテレビジョン受像機よりは高価格の販売価格を設定するようにすることができる。そして、その後に購入される子機については、さらに低価格の販売価格を設定するようにすることができる。
【0785】
なお、スケーラブルTVシステムを構成する親機となるテレビジョン受像機は、例えば、一般的なディジタルのテレビジョン受像機に、信号処理部137を追加するとともに、CPU129に実行させるプログラムを変更することで構成することが可能である。従って、スケーラブルTVシステムを構成する親機となるテレビジョン受像機は、一般的なディジタルのテレビジョン受像機を利用して、比較的容易に製造することができるので、スケーラブルTVシステムが提供する上述したような特別機能を考慮すれば、そのコストメリット(コストパフォーマンス)は高いと言うことができる。この点については、子機としてのテレビジョン受像機についても同様である。
【0786】
また、本発明は、チューナを内蔵する表示装置であるテレビジョン受像機の他、チューナを内蔵せずに、外部からの画像および音声を出力する表示装置にも適用可能である。
【0787】
【発明の効果】
以上の如く、本発明によれば、多数の表示装置を接続して使用した場合に、単体で使用する場合よりも高機能を実現することが可能となる。
【図面の簡単な説明】
【図1】本発明を適用したスケーラブルTVシステムの一実施の形態の構成例を示す斜視図である。
【図2】親機1の外観構成例を示す斜視図である。
【図3】親機1の外観構成例を示す6面図である。
【図4】子機2の外観構成例を示す斜視図である。
【図5】子機2の外観構成例を示す6面図である。
【図6】スケーラブルTVシステムを構成する親機1および子機2を収納する専用ラックの外観構成例を示す斜視図である。
【図7】リモコン15の外観構成例を示す平面図である。
【図8】リモコン35の外観構成例を示す平面図である。
【図9】リモコン15の他の外観構成例を示す平面図である。
【図10】親機1の電気的構成例を示すブロック図である。
【図11】子機2の電気的構成例を示すブロック図である。
【図12】 IEEE1394通信プロトコルのレイヤ構造を示す図である。
【図13】 CSRアーキテクチャのアドレス空間を示す図である。
【図14】 CSRのオフセットアドレス、名前、および働きを示す図である。
【図15】ゼネラルROMフォーマットを示す図である。
【図16】バスインフォブロック、ルートディレクトリ、およびユニットディレクトリの詳細を示す図である。
【図17】 PCRの構成を示す図である。
【図18】 oMPR,oPCR,iMPR、およびiPCRの構成を示す図である。
【図19】 AV/Cコマンドのアシンクロナス転送モードで伝送されるパケットのデータ構造を示す図である。
【図20】 AV/Cコマンドの具体例を示す図である。
【図21】 AV/Cコマンドとレスポンスの具体例を示す図である。
【図22】信号処理部137の詳細構成例を示すブロック図である。
【図23】信号処理部137による画像変換処理を説明するフローチャートである。
【図24】学習装置の構成例を示すブロック図である。
【図25】生徒データ生成部173の処理を説明するための図である。
【図26】学習装置による係数種データの学習処理を説明するフローチャートである。
【図27】係数種データの学習方法を説明するための図である。
【図28】学習装置の他の構成例を示すブロック図である。
【図29】信号処理部157の構成例を示すブロック図である。
【図30】親機1の処理を説明するフローチャートである。
【図31】親機1による認証処理を説明するフローチャートである。
【図32】子機2の処理を説明するフローチャートである。
【図33】子機2による認証処理を説明するフローチャートである。
【図34】親機1によるクローズドキャプション処理を説明するフローチャートである。
【図35】子機2によるクローズドキャプション処理を説明するフローチャートである。
【図36】親機1による一部拡大処理を説明するフローチャートである。
【図37】子機2による一部拡大処理を説明するフローチャートである。
【図38】一部拡大処理が行われた場合のスケーラブルTVシステムの表示例を示す図である。
【図39】親機1による全体拡大処理を説明するフローチャートである。
【図40】表示範囲と拡大範囲の求め方を説明するための図である。
【図41】子機2による全体拡大処理を説明するフローチャートである。
【図42】全体拡大処理が行われた場合のスケーラブルTVシステムの表示例を示す図である。
【図43】親機1によるマルチ画面表示処理を説明するフローチャートである。
【図44】親機1による一括同時制御処理を説明するフローチャートである。
【図45】一括同時制御処理が行われた場合のスケーラブルTVシステムの表示例を示す図である。
【図46】親機1による個別処理を説明するフローチャートである。
【図47】子機2による個別処理を説明するフローチャートである。
【図48】親機1によるスピーカ制御処理を説明するフローチャートである。
【図49】強度対距離テーブルを示す図である。
【図50】リモコン15までの距離の算出方法を説明するための図である。
【図51】子機2によるスピーカ制御処理を説明するフローチャートである。
【図52】スピーカユニット12Lの構成例を示すブロック図である。
【図53】指向性を示す図である。
【図54】指向性を示す図である。
【図55】リモコン15の方向の検出方法を説明するための図である。
【図56】IR受信部135の構成例を示す図である。
【図57】親機1の他の電気的構成例を示すブロック図である。
【図58】子機2の他の電気的構成例を示すブロック図である。
【図59】本発明を適用したコンピュータの一実施の形態の構成例を示すブロック図である。
【符号の説明】
1 親機, 2,211,212,213,214,215,221,222,223,224,225,231,232,233,234,235,241,242,243,244,245,251,252,253,254,255 子機, 11 CRT, 12L,12R スピーカユニット, 15 リモコン, 21 端子パネル, 2111,2112,2113,2121,2123,2131,2132,2133 IEEE1394端子, 22 アンテナ端子, 23 入力端子, 24 出力端子, 31 CRT, 32L,32R スピーカユニット, 35 リモコン, 41 端子パネル, 411 IEEE1394端子, 42 アンテナ端子, 43 入力端子, 44 出力端子, 51 セレクトボタンスイッチ, 52 ボリウムボタンスイッチ, 53 チャンネルアップダウンボタンスイッチ, 54 メニューボタンスイッチ, 55 イグジットボタンスイッチ, 56 ディスプレイボタン, 57 エンタボタンスイッチ, 58 数字ボタン(テンキー)スイッチ, 59 テレビ/ビデオ切換ボタンスイッチ, 60 テレビ/DSS切換ボタンスイッチ, 61 ジャンプボタンスイッチ, 62 ランゲージボタン, 63 ガイドボタンスイッチ, 64 フェイバリットボタンスイッチ, 65 ケーブルボタンスイッチ, 66 テレビスイッチ, 67 DSSボタンスイッチ, 68乃至70 LED, 71 ケーブル電源ボタンスイッチ, 72 テレビ電源ボタンスイッチ, 73 DSS電源ボタンスイッチ, 74 ミューティングボタンスイッチ, 75 スリープボタンスイッチ, 76 発光部, 81 セレクトボタンスイッチ, 82 ボリウムボタンスイッチ, 83 チャンネルアップダウンボタンスイッチ, 84 メニューボタンスイッチ, 85 イグジットボタンスイッチ, 86 ディスプレイボタン, 87 エンタボタンスイッチ, 88 数字ボタン(テンキー)スイッチ, 89 テレビ/ビデオ切換ボタンスイッチ, 90 テレビ/DSS切換ボタンスイッチ, 91 ジャンプボタンスイッチ, 92 ランゲージボタン, 93 ガイドボタンスイッチ, 94 フェイバリットボタンスイッチ, 95 ケーブルボタンスイッチ, 96 テレビスイッチ, 97 DSSボタンスイッチ, 98乃至100LED, 101 ケーブル電源ボタンスイッチ, 102 テレビ電源ボタンスイッチ, 103 DSS電源ボタンスイッチ, 104 ミューティングボタンスイッチ, 105 スリープボタンスイッチ, 106 発光部, 110 ボタンスイッチ, 111乃至114 方向ボタンスイッチ, 121 チューナ, 122 QPSK復調回路, 123 エラー訂正回路, 124デマルチプレクサ, 125 MPEGビデオデコーダ, 126 MPEGオーディオデコーダ, 127 フレームメモリ, 128 NTSCエンコーダ, 129 CPU, 130 EEPROM, 131 ROM, 132RAM, 133 IEEE1394インタフェース, 134 フロントパネル, 135 IR受信部, 135A,135B 受光部, 136 モデム, 137 信号処理部, 137A DSP, 137B EEPROM, 137C RAM, 138 ユニット駆動部, 139 接続検出部, 141 チューナ, 142 QPSK復調回路, 143 エラー訂正回路, 144 デマルチプレクサ, 145 MPEGビデオデコーダ, 146 MPEGオーディオデコーダ, 147 フレームメモリ, 148 NTSCエンコーダ, 149 CPU, 150 EEPROM, 151 ROM, 152 RAM, 153 IEEE1394インタフェース, 154 フロントパネル, 155 IR受信部, 156 モデム, 157 信号処理部, 157A DSP, 157B EEPROM, 157C RAM, 158 ユニット駆動部, 159 接続検出部, 161,162 タップ抽出部, 163 クラス分類部, 164 係数メモリ, 165 予測部, 166 係数生成部, 167 係数種メモリ, 168 パラメータメモリ, 171 教師データ生成部, 172 教師データ記憶部, 173 生徒データ生成部, 174 生徒データ記憶部, 175,176 タップ抽出部, 177 クラス分類部, 178 足し込み部, 179 係数種算出部, 180 パラメータ生成部, 190 足し込み部, 191 タップ係数算出部, 192 足し込み部, 193 係数種算出部, 201,202 タップ抽出部, 203クラス分類部, 204 係数メモリ, 205 予測部, 206 係数生成部, 207 係数種メモリ, 208 パラメータメモリ, 2111,2112 ディジタルフィルタ, 2121,2122 スピーカ, 221 赤外線ラインセンサ, 222 レンズ, 301 バス, 302 CPU, 303 ROM, 304 RAM, 305 ハードディスク, 306 出力部, 307 入力部, 308 通信部, 309 ドライブ, 310 入出力インタフェース, 311 リムーバブル記録媒体[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a display device, a control method, a program, a recording medium, and a display system, and in particular, when a large number of display devices are connected and used, higher functions can be realized than when used alone. The present invention relates to a display device, a control method, a program, a recording medium, and a display system.
[0002]
[Prior art]
For example, in a television receiver, a television broadcast signal is received, an image as a television broadcast program is displayed, and sound accompanying the image is output.
[0003]
[Problems to be solved by the invention]
By the way, the conventional television receiver is premised on operating alone, and therefore, when a user purchases a new television receiver, the television owned by the user is used. John receivers are no longer needed and are often discarded even if they are still usable.
[0004]
Therefore, when a large number of television receivers are connected and higher functions can be realized than when a single television receiver is connected, the disposal of usable television receivers can be prevented, thereby contributing to effective use of resources. it can.
[0005]
The present invention has been made in view of such a situation, and when a display device such as a large number of television receivers is connected and used, it is possible to realize a higher function than when used alone. It is something that can be done.
[0006]
[Means for Solving the Problems]
  The display device of the present invention includes a connection detection unit that detects that another display device is connected, an authentication unit that performs authentication between the other display device in which connection is detected by the connection detection unit, and authentication. With a function changing means for changing the function of the display device when successful,There are two types of display devices and other display devices: a parent display device that can control the connection device connected to itself, and a child display device that can be controlled from the connection device but cannot control the connection device. The authentication unit performs authentication as to whether or not the other display device is legitimate and authentication as to whether or not the other display device is a parent or child display device.It is characterized by that.
[0007]
  The control method of the present invention includes a connection detection step for detecting that another display device is connected, an authentication step for performing authentication between the other display device for which connection is detected in the connection detection step, and authentication. A function change step that changes the function of the display device if successful;The display device and other display devices include a parent display device that can control the connection device connected to itself, and a child display device that can be controlled from the connection device but cannot control the connection device. There are types, and the authentication step includes the steps of authenticating whether the other display device is valid and authenticating whether the other display device is the parent or child display device. IncludingAnd features.
[0008]
  The program according to the present invention includes a connection detection step for detecting that another display device is connected, an authentication step for performing authentication between the other display device in which connection is detected in the connection detection step, and authentication is successful. Function change step to change the function of the display deviceThe display device and other display devices include a parent display device that can control the connection device connected to itself, and a child display device that can be controlled from the connection device but cannot control the connection device. There are types, and the authentication step includes the steps of authenticating whether the other display device is valid and authenticating whether the other display device is the parent or child display device. IncludingAnd features.
[0009]
  Recording medium of the present inventionThe program ofA connection detection step for detecting that another display device is connected; an authentication step for performing authentication with another display device for which connection has been detected in the connection detection step; and a display device if the authentication is successful Function change step to change the function ofThe display device and other display devices include a parent display device that can control the connection device connected to itself, and a child display device that can be controlled from the connection device but cannot control the connection device. There are types, and the authentication step includes the steps of authenticating whether the other display device is valid and authenticating whether the other display device is the parent or child display device. IncludingAnd features.
[0010]
  In the display system of the present invention, the parent and child display devices authenticate between the connection detection means for detecting that another display device is connected and the other display devices for which connection is detected by the connection detection means. And an authentication means for performing the function, and a function changing means for changing its function when the authentication is successful,The authentication means performs authentication as to whether or not the other display device from which the connection is detected is valid, and authentication as to whether or not the other display device is a parent or child display device.It is characterized by that.
[0011]
  In the display device, the control method, the program, the recording medium, and the display system of the present invention, it is detected that another display device is connected, and authentication is performed with the detected other display device. In detailAuthentication about whether or not the detected other display device is valid and authentication about whether or not the detected other display device is a parent or child display device are performed.When the authentication is successful, the function changes.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 shows a scalable TV (Television) system to which the present invention is applied (a system is a logical collection of a plurality of devices, regardless of whether or not the devices of each configuration are in the same casing. 1 is a perspective view showing a configuration example of an embodiment.
[0013]
In the embodiment of FIG. 1A, the scalable TV system includes nine television receivers 1 and 2.11, 212, 213, 2twenty one, 2twenty three, 231, 232, 233It consists of In the embodiment of FIG. 1B, the scalable TV system includes 25 television receivers 1 and 2.11, 212, 213, 214, 215, 2twenty one, 2twenty two, 2twenty three, 2twenty four, 2twenty five, 231, 232, 234, 235, 241, 242, 243, 244, 245, 251, 252, 253, 254, 255It consists of
[0014]
Here, the number of television receivers constituting the scalable TV system is not limited to nine or 25. In other words, the scalable TV system can be configured by an arbitrary plurality of television receivers. Further, as shown in FIG. 1, the arrangement of the television receivers constituting the scalable TV system is not limited to 3 × 3 or 5 × 5. That is, the arrangement of the television receivers constituting the scalable TV system can be, for example, horizontal × vertical 1 × 2, 2 × 1, 2 × 3, or the like. Further, the arrangement shape of the television receivers constituting the scalable TV system is not limited to a lattice shape (matrix shape) as shown in FIG. 1, and may be a pyramid shape, for example.
[0015]
In this way, the scalable TV system can be said to be a “scalable” system because an arbitrary number of television receivers can be arranged and arranged in an arbitrary number in the horizontal and vertical directions. .
[0016]
The television receiver constituting the scalable TV system is controlled by a parent television receiver that can control other television receivers (hereinafter referred to as “parent device” as appropriate) and other television receivers. However, there are two types of child television receivers (hereinafter referred to as slave units as appropriate) that cannot control other television receivers.
[0017]
In order for the scalable TV system to perform various processes to be described later, the television receiver that constitutes the scalable TV system is compatible with the scalable TV system (hereinafter referred to as a scalable compatible apparatus as appropriate), and It is a condition that at least one of the devices is a master unit. For this reason, in the embodiment of FIG. 1A and FIG. 1B, among the television receivers constituting the scalable TV system, for example, the television receiver disposed at the center is the master unit 1.
[0018]
From the above, when there is a television receiver that is not a scalable compatible device among the television receivers constituting the scalable TV system, some television receivers can enjoy the functions of the scalable TV system. Can not. Further, even if the television receivers constituting the scalable TV system are scalable compatible devices, if all of them are slave units, the functions of the scalable TV system cannot be enjoyed.
[0019]
Therefore, in order to enjoy the function of the scalable TV system, the user needs to purchase at least one or more parent devices, or one parent device and one or more child devices.
[0020]
Note that the master unit also has the function of a slave unit, and therefore, a plurality of master units may exist in the television receiver constituting the scalable TV system.
[0021]
In the embodiment of FIG. 1A, among the 3 × 3 television receivers, the television receiver 1 arranged at the center (second from the left and second from the top) is the master unit. , And other 8 television receivers 211, 212, 213, 2twenty one, 2twenty three, 231, 232, 233Is a handset. In the embodiment of FIG. 1B, among the 5 × 5 television receivers, the television receiver 1 arranged at the center (third from the left and third from the top) is the master unit. And the other 24 211, 212, 213, 214, 215, 2twenty one, 2twenty two, 2twenty three, 2twenty four, 2twenty five, 231, 232, 234, 235, 241, 242, 243, 244, 245, 251, 252, 253, 254, 255Is a handset.
[0022]
Therefore, in the embodiment of FIG. 1, the master unit 1 is arranged at the center of the television receiver that constitutes the scalable TV system, but the position of the master unit 1 is the television receiver that constitutes the scalable TV system. It is not limited to the center of the machine, and the parent machine 1 can be arranged at an arbitrary position such as upper left, lower right, or the like.
[0023]
In the scalable TV system, regardless of the position of the parent device 1, the television receiver disposed at the center is regarded as the parent device, and each process described later is performed. It is possible to do so.
[0024]
Here, in the following, for the sake of simplicity, the scalable TV system is assumed to be composed of 3 × 3 television receivers as shown in FIG. 1A. It is assumed that it is arranged at the center of a television receiver that constitutes a scalable TV system.
[0025]
In addition, the subunit | mobile_unit 2 which comprises a scalable TV systemijThe suffix ij is the handset 2ij, In a scalable TV system, is arranged in the i-th column and j-th row (i-th row from the top, j-th column from the left).
[0026]
In addition, hereinafter, the slave unit 2 is appropriately used.ijIs described as a handset 2 unless there is a particular need to distinguish them.
[0027]
Next, FIG. 2 is a perspective view illustrating a configuration example of a television receiver that is the parent device 1.
[0028]
The base unit 1 is a television receiver having a display screen size of, for example, 14 inches or 15 inches, and a CRT (Cathod Ray Tube) 11 for displaying an image is provided at the front center portion. In addition, speaker units 12L and 12R for outputting sound are provided at the left and right ends of the front, respectively.
[0029]
Then, an image of a television broadcast signal received by an antenna (not shown) is displayed on the CRT 11, and the audio L (Left) and R (Right) channels associated with the image are connected to the speaker units 12L and 12R. Are output respectively.
[0030]
The base unit 1 is accompanied by a remote commander (hereinafter referred to as a remote controller) 15 that emits infrared IR (Infrared Ray). The user operates the remote controller 15 to change the reception channel and volume. Various other commands can be given to the main unit 1.
[0031]
The remote controller 15 is not limited to the one that performs infrared communication, and, for example, a device that performs wireless communication such as BlueTooth (trademark) can be employed.
[0032]
In addition, the remote controller 15 can control not only the parent device 1 but also the child device 2.
[0033]
Next, FIG. 3 is a six-sided view illustrating a configuration example of the base unit 1 of FIG.
[0034]
3A is a front view of base unit 1, FIG. 3B is a top view of base unit 1, FIG. 3C is a bottom view of base unit 1, FIG. 3D is a left side view of base unit 1, and FIG. FIG. 3F shows the back of the base unit 1.
[0035]
A fixing mechanism is provided on the upper surface (FIG. 3B), the bottom surface (FIG. 3C), the left side surface (FIG. 3D), and the right side surface (FIG. 3E) of the base unit 1. As will be described later, the same fixing mechanism is provided on the top, bottom, left side, and right side of the television receiver that is the slave unit 2, and the top side, bottom side, and left side of the base unit 1 are provided. When the handset 2 or another base unit is arranged on the side or the right side, the fixing mechanism provided on the top surface, bottom surface, left side, or right side of the base unit 1, the handset 2 or other The fixing mechanism provided on the opposing surface of the parent device is fitted, for example, so that the parent device 1, the child device 2, and other parent devices are fixed so as not to be easily separated. As a result, misalignment of the television receiver constituting the scalable TV system is prevented.
[0036]
The fixing mechanism can be configured by a mechanical mechanism, or can be configured by, for example, a magnet.
[0037]
As shown in FIG. 3F, a terminal panel 21, an antenna terminal 22, an input terminal 23, and an output terminal 24 are provided on the back surface of the base unit 1.
[0038]
The terminal panel 21 includes a master unit 1 and eight slave units 2 constituting the scalable TV system of FIG. 1A.11, 212, 213, 2twenty one, 2twenty three, 231, 232, 2338 IEEE (Institute of Electrical and Electronics Engineers) 1394 terminals 21 for electrical connection with each other11, 2112, 2113, 21twenty one, 21twenty three, 2131, 2132, 2133Is provided.
[0039]
Here, in the embodiment of FIG. 3F, the master unit 1 is the slave unit 2 in the scalable TV system of FIG. 1A.ijIn the terminal panel 21, when the user views the scalable TV system from the back side, the handset 2 in the scalable TV system of FIG. 1A is displayed on the terminal panel 21.ijIn the position corresponding to the position of the handset 2ijIEEE1394 terminal 21 connected toijIs provided.
[0040]
Therefore, in the scalable TV system of FIG.11IEEE1394 terminal 2111, Handset 212IEEE1394 terminal 2112, Handset 213IEEE1394 terminal 2113, Handset 2twenty oneIEEE1394 terminal 21twenty one, Handset 2twenty threeIEEE1394 terminal 21twenty three, Handset 231IEEE1394 terminal 2131, Handset 232IEEE1394 terminal 2132, Handset 233IEEE1394 terminal 2133Are connected to the base unit 1 via each of them.
[0041]
In the scalable TV system of FIG.ijWhich IEEE1394 terminal of the terminal panel 21 is connected to is not particularly limited. However, handsetijIEEE1394 terminal 21ijWhen connecting to an IEEE1394 terminal other thanijHowever, it is necessary to set in the base unit 1 that it is arranged in the i-th column and the j-th row of the scalable TV system of FIG. 1A (the user needs to set it).
[0042]
In the embodiment of FIG. 3F, the terminal panel 21 has eight IEEE1394 terminals 21.11Thru 2133With a master unit 1 and 8 slave units 211233Each is connected in parallel, but the master unit 1 and the eight slave units 211233It is also possible to connect serially. That is, handset 2ijIs the other handset 2i'j 'It is possible to connect to the base unit 1 via However, also in this caseijHowever, it is necessary to set in the master unit 1 that it is arranged in the i-th column and the j-th row of the scalable TV system of FIG. 1A. Therefore, the number of IEEE1394 terminals provided on the terminal panel 21 is not limited to eight.
[0043]
Furthermore, the electrical connection between the television receivers constituting the scalable TV system is not limited to IEEE1394, and for example, a LAN (IEEE802) can be adopted. Further, the electrical connection between television receivers constituting the scalable TV system can be performed wirelessly instead of wired.
[0044]
A cable connected to an antenna (not shown) is connected to the antenna terminal 22, whereby a television broadcast signal received by the antenna is input to the parent device 1. For example, image data and audio data output from a VTR (Video Tape Recorder) or the like are input to the input terminal 23. From the output terminal 24, for example, image data and audio data as a television broadcast signal received by the master unit 1 are output.
[0045]
Next, FIG. 4 is a perspective view showing a configuration example of a television receiver as the slave unit 2.
[0046]
The subunit | mobile_unit 2 is a television receiver of the same display screen size as the main | base station 1 of FIG. 2, The CRT (Cathod Ray Tube) 31 which displays an image is provided in the front center part, Speaker units 32L and 32R for outputting sound are provided at the left and right ends of the front, respectively. It should be noted that different display screen sizes can be adopted for the parent device 1 and the child device 2.
[0047]
An image of a television broadcast signal received by an antenna (not shown) is displayed on the CRT 31, and the audio L (Left) channel and R (Right) channel associated with the image are connected to the speaker units 32L and 32R. Are output respectively.
[0048]
Similarly to the master unit 1, the slave unit 2 also includes a remote controller 35 that emits infrared IR. By operating the remote controller 35, the user can change the reception channel, the volume, and other various commands. The slave unit 2 can be given.
[0049]
The remote controller 35 can control not only the child device 2 but also the parent device 1.
[0050]
Further, in order to configure the scalable TV system of FIG. 1A, the user has one master unit 1 and eight slave units 2.11233However, in this case, the remote controller 15 is attached to the master unit 1, and the eight slave units 2 are connected.11233If the remote control 35 is attached to each, the user owns nine remote controls, and the management becomes complicated.
[0051]
Therefore, the remote control 35 of the slave unit 2 can be sold separately as an option of the slave unit 2. In addition, the remote controller 15 of the master unit 1 can be sold separately as an option of the master unit 1.
[0052]
Here, as described above, the remote controllers 15 and 35 can control both the parent device 1 and the child device 2, and therefore, only one of the remote controller 15 or 35 is owned. In addition, it is possible to control all of the master unit 1 and the slave unit 2.
[0053]
Next, FIG. 5 is a 6-side view showing an example of the configuration of the handset 2 of FIG.
[0054]
5A is a front view of the child device 2, FIG. 5B is a top surface of the child device 2, FIG. 5C is a bottom surface of the child device 2, FIG. 5D is a left side surface of the child device 2, and FIG. FIG. 5F shows the rear surface of the slave unit 2.
[0055]
The top surface (FIG. 5B), bottom surface (FIG. 5C), left side surface (FIG. 5D), and right side surface (FIG. 5E) of the slave unit 2 are provided with fixing mechanisms. When the master unit 1 and other slave units are arranged on the left side or right side, a fixing mechanism provided on the top, bottom, left side, or right side of the slave unit 2 and the master unit 1 And the fixing mechanism provided in the surface which the other subunit | mobile_unit opposes fits, and the subunit | mobile_unit 2 and another subunit | mobile_unit and the main | base station 1 are fixed so that it may not leave | separate easily.
[0056]
As shown in FIG. 5F, a terminal panel 41, an antenna terminal 42, an input terminal 43, and an output terminal 44 are provided on the back surface of the slave unit 2.
[0057]
The terminal panel 41 has one IEEE1394 terminal 41 for electrically connecting the parent device 1 and the child device 2.1Is provided. The subunit | mobile_unit 2 with which the subunit | mobile_unit 2 is arrange | positioned in the scalable TV system of FIG.11The IEEE1394 terminal 41 of the terminal panel 41.1Through an IEEE1394 cable (not shown), the IEEE1394 terminal 21 of the terminal panel 21 in FIG. 3F.11Connected.
[0058]
The number of IEEE1394 terminals provided on the terminal panel 41 is not limited to one.
[0059]
A cable connected to an antenna (not shown) is connected to the antenna terminal 42, whereby a television broadcast signal received by the antenna is input to the handset 2. For example, image data and audio data output from a VTR or the like are input to the input terminal 43. From the output terminal 44, for example, image data and audio data as a television broadcast signal received by the slave unit 2 are output.
[0060]
One master unit 1 and eight slave units 2 configured as described above11233A total of nine television receivers are arranged in the horizontal direction and the vertical direction, respectively, so that the scalable TV system of FIG. 1A is configured.
[0061]
Note that the scalable TV system of FIG. 1A is configured by directly arranging other television receivers on the top, bottom, left, or right of a television receiver as a master unit or a slave unit. It is also possible to arrange the television receiver in a rack dedicated to the scalable TV system shown in FIG. When the dedicated rack is used in this way, it is possible to prevent the displacement of the television receiver constituting the scalable TV system more firmly.
[0062]
Here, when a scalable TV system is configured by directly arranging another television receiver on the top, bottom, left, or right of a television receiver as a master unit or a slave unit, for example, Machine 1 is at least child machine 232Otherwise, as shown in FIG. 1A, it cannot be arranged in the second row and the second column. On the other hand, when the rack dedicated to the scalable TV system shown in FIG.32Even if there is no device, base unit 1 can be arranged in the second row and the second column.
[0063]
Next, FIG. 7 is a plan view showing a configuration example of the remote controller 15.
[0064]
The select button switch 51 can be operated (direction operation) in a total of eight directions including four directions in the vertical and horizontal directions and four oblique directions in the middle thereof. Furthermore, the select button switch 51 can be pressed (select operation) in a direction perpendicular to the upper surface of the remote controller 15. The menu button switch 54 has various settings (for example, the above-described slave unit) on the CRT 11 of the master unit 1 (or the CRT 31 of the slave unit 2).ijIs set to be arranged in the i-th column and the j-th row of the scalable TV system) and a menu screen for inputting a command instructing to perform a predetermined process is displayed. Is done.
[0065]
Here, when the menu screen is displayed, a cursor that indicates an item or the like on the menu screen is displayed on the CRT 11. This cursor moves in the direction corresponding to the operation by operating the select button switch 51 in the direction. If the select button switch 51 is selected when the cursor is at a position on a predetermined item, the selection of the item is confirmed. In the present embodiment, as will be described later, there are icons in the items displayed on the menu, and the select button switch 51 is selected even when the icon is clicked.
[0066]
The exit button switch 55 is operated when returning from the menu screen to the original normal screen.
[0067]
The volume button switch 52 is operated when the volume is raised or lowered. The channel up / down button switch 53 is operated to increase or decrease the number of a broadcast channel to be received.
[0068]
A numeric button (ten-key) switch 58 on which numbers 0 to 9 are displayed is operated when a displayed number is input. When the operation of the numeric button switch 58 is completed, the enter button switch 57 is operated subsequent to the end of the numeric input. When the channel is switched, the OSD (On Screen Display) is displayed on the CRT 11 of the master unit 1 (or the CRT 31 of the slave unit 2) such as a new channel number for a predetermined time. The display button 56 is operated to turn on / off the OSD display such as the number of the currently selected channel and the current volume.
[0069]
The TV / video switching button switch 59 is used to input the master unit 1 (or the slave unit 2) into a built-in tuner 121 in FIG. 10 (or a tuner 141 in FIG. 11 to be described later) or an input terminal 23 in FIG. Alternatively, it is operated when switching to the input from the input terminal 43) of FIG. The TV / DSS switch button switch 60 is operated when the tuner 121 selects a television mode for receiving broadcasts by terrestrial waves or a DSS (Digital Satellite System (trademark of Hughes Communications)) mode for receiving satellite broadcasts. . When the channel is switched by operating the numeric button switch 58, the channel before switching is stored, and the jump button switch 61 is operated when returning to the original channel before switching.
[0070]
The language button 62 is operated when a predetermined language is selected when broadcasting is performed in two or more languages. The guide button switch 63 is operated when displaying the closed caption data when the closed caption data is included in the image data displayed on the CRT 11. The favorite button switch 64 is operated when a user's favorite channel set in advance is selected.
[0071]
The cable button switch 65, the television switch 66, and the DSS button switch 67 are button switches for switching the device category of the command code corresponding to the infrared ray emitted from the remote controller 15. That is, the remote controller 15 (same as the remote controller 35) can remotely control STB and IRD (not shown) in addition to the television receiver as the master unit 1 and the slave unit 2, and the cable button switch. 65 is operated when the remote controller 15 controls an STB (Set Top Box) that receives a signal transmitted via the CATV network. After the operation of the cable button switch 65, the remote controller 15 emits infrared rays corresponding to the command code of the device category assigned to the STB. Similarly, the television button switch 66 is operated when the parent device 1 (or the child device 1) is controlled by the remote controller 15. The DSS button switch 67 is operated when an IRD (Integrated Receiver and Decorder) that receives a signal transmitted via a satellite is controlled by the remote controller 15.
[0072]
LEDs (Light Emitting Diodes) 68, 69, and 70 are lit when the cable button switch 65, the TV button switch 66, or the DSS button switch 67 is turned on, respectively. The user is shown whether the device is controllable. The LEDs 68, 69, and 70 are turned off when the cable button switch 65, the television button switch 66, or the DSS button switch 67 is turned off, respectively.
[0073]
The cable power button switch 71, the television power button switch 72, and the DSS power button switch 73 are operated when turning on / off the STB, the parent device 1 (or the child device 2), or the IRD.
[0074]
The muting button switch 74 is operated when setting or canceling the muting state of the parent device 1 (or the child device 2). The sleep button switch 75 is operated when setting or canceling the sleep mode in which the power is automatically turned off when a predetermined time is reached or when a predetermined time has elapsed.
[0075]
When the remote controller 15 is operated, the light emitting unit 76 emits infrared rays corresponding to the operation.
[0076]
Next, FIG. 8 is a plan view showing a configuration example of the remote controller 35 of the slave unit 2.
[0077]
The remote controller 35 includes the select button switch 81 to the light emitting unit 106 configured in the same manner as the select button switch 51 to the light emitting unit 76 in the remote controller 15 of FIG.
[0078]
Next, FIG. 9 is a plan view showing another configuration example of the remote controller 15 of the parent device 1.
[0079]
In the embodiment of FIG. 9, instead of the select button switch 51 that can be operated in eight directions in FIG. 7, four direction button switches 111, 112, 113, and 114 in the up, down, left, and right directions, and buttons for performing a select operation. A switch 110 is provided. Furthermore, in the embodiment of FIG. 9, the cable button switch 65, the TV button switch 66, and the DSS button switch 67 are internally illuminated, and the LEDs 68 to 70 in FIG. 7 are omitted. However, LEDs (not shown) are arranged on the back side of the button switches 65 to 67. When the button switches 65 to 67 are operated, the LEDs arranged on the back side are respectively corresponding to the operation. Turns on or off.
[0080]
The other button switches are basically the same as those shown in FIG. 7 although their arrangement positions are different.
[0081]
Note that the remote controller 35 of the slave unit 2 can also be configured in the same manner as in FIG.
[0082]
In addition, the remote controller 15 can incorporate a gyro for detecting the movement. In this case, the remote controller 15 detects the moving direction and moving amount of the remote controller 15 with the built-in gyro, and moves the cursor displayed on the menu screen in accordance with the moving direction and moving amount. Is possible. As described above, when the gyro is built in the remote controller 15, in the embodiment shown in FIG. 7, it is not necessary to configure the select button switch 51 so that it can be moved in eight directions. In this embodiment, there is no need to provide the direction button switches 111 to 114. Similarly, it is possible to incorporate a gyro in the remote control 35 as well.
[0083]
Next, FIG. 10 shows an example of the electrical configuration of the base unit 1.
[0084]
A television broadcast signal received by an antenna (not shown) is supplied to the tuner 121, and is detected and demodulated under the control of the CPU 129. The output of the tuner 121 is supplied to a QPSK (Quadrature Phase Shift Keying) demodulating circuit 122 and QPSK demodulated under the control of the CPU 129. The output of the QPSK demodulating circuit 122 is supplied to the error correction circuit 123, and an error is detected and corrected under the control of the CPU 129 and supplied to the demultiplexer 124.
[0085]
Under the control of the CPU 129, the demultiplexer 124 descrambles the output of the error correction circuit 123 as necessary, and further extracts a TS (Transport Stream) packet of a predetermined channel. The demultiplexer 124 supplies the TS packet of the image data (video data) to the MPEG (Moving Picture Experts Group) video decoder 125 and supplies the TS packet of the audio data (audio data) to the MPEG audio decoder 126. To do. Further, the demultiplexer 124 supplies the TS packet included in the output of the error correction circuit 123 to the CPU 129 as necessary. Further, the demultiplexer 124 receives image data or audio data (including those in the form of TS packets) supplied from the CPU 129 and supplies it to the MPEG video decoder 125 or the MPEG audio decoder 126.
[0086]
The MPEG video decoder 125 MPEG-decodes the TS packet of the image data supplied from the demultiplexer 124 and supplies it to the frame memory 127. The MPEG audio decoder 126 MPEG-decodes the TS packet of audio data supplied from the demultiplexer 124. The L channel and R channel audio data obtained by the decoding by the MPEG audio decoder 126 are supplied to the speaker units 12L and 12R, respectively.
[0087]
The frame memory 127 temporarily stores the image data output from the MPEG video decoder 125 and supplies the image data to an NTSC (National Television System Committee) encoder 128. The NTSC encoder 128 converts the image data supplied from the frame memory 127 into NTSC image data, and supplies the image data to the CRT 11 for display.
[0088]
The CPU 129 executes various processes in accordance with programs stored in an EEPROM (Electrically Erasable Programmable Read Only Memory) 130 and a ROM (Read Only Memory) 131, thereby, for example, a tuner 121, a QPSK demodulation circuit 122, It controls the error correction circuit 123, the demultiplexer 124, the IEEE1394 interface 133, the modem 136, the signal processing unit 137, and the unit driving unit 138. Further, the CPU 129 supplies data supplied from the demultiplexer 124 to the IEEE1394 interface 133, and supplies data supplied from the IEEE1394 interface 133 to the demultiplexer 124 and the signal processing unit 137. Further, the CPU 129 executes processing corresponding to commands supplied from the front panel 134 or the IR receiver 135. Further, the CPU 129 controls the modem 136 to access a server (not shown) through a telephone line, and obtains an upgraded program and necessary data.
[0089]
The EEPROM 130 stores data and programs that should be retained even after the power is turned off. The ROM 131 stores, for example, an IPL (Initial Program Loader) program. The data and programs stored in the EEPROM 130 can be upgraded by overwriting the data and programs.
[0090]
The RAM 132 temporarily stores data and programs necessary for the operation of the CPU 129.
[0091]
The IEEE1394 interface 133 is connected to the terminal panel 21 (the IEEE1394 terminal 21).11Thru 2133(FIG. 3)) and functions as an interface for performing communication conforming to the IEEE1394 standard. As a result, the IEEE1394 interface 133 transmits data supplied from the CPU 129 to the outside in accordance with the IEEE1394 standard, while receiving data transmitted from the outside in accordance with the IEEE1394 standard, and sends it to the CPU 129. Supply.
[0092]
Although not shown in FIGS. 2 and 3, front panel 134 is provided on a part of the front surface of base unit 1. And the front panel 134 has a part of button switch provided in the remote control 15 (FIG. 7, FIG. 9), and respond | corresponds to the operation, when the button switch of the front panel 134 is operated. An operation signal is supplied to the CPU 129. In this case, the CPU 129 performs processing corresponding to the operation signal from the front panel 134.
[0093]
The IR receiver 135 receives (receives) infrared rays transmitted from the remote controller 15 in response to the operation of the remote controller 15. Further, the IR receiver 135 photoelectrically converts the received infrared light and supplies a signal obtained as a result to the CPU 129. In this case, the CPU 129 performs processing corresponding to the signal from the IR receiver 135, that is, processing corresponding to the operation of the remote controller 15.
[0094]
The modem 136 performs communication control via the telephone line, thereby transmitting the data supplied from the CPU 129 via the telephone line and receiving the data transmitted via the telephone line. To supply.
[0095]
The signal processing unit 137 includes a DSP (Digital Signal Processor) 137A, an EEPROM 137B, a RAM 137C, and the like, and performs various digital signal processing on the image data stored in the frame memory 127 under the control of the CPU 129. Apply.
[0096]
In other words, the DSP 137A performs various signal processing using the data stored in the EEPROM 137B as necessary according to the program stored in the EEPROM 137B. The EEPROM 137B stores programs and necessary data for the DSP 137A to perform various processes. The RAM 137C temporarily stores data and programs necessary for the DSP 137A to perform various processes.
[0097]
The data and programs stored in the EEPROM 137B can be upgraded by overwriting the data and programs.
[0098]
Here, signal processing performed by the signal processing unit 137 includes, for example, decoding of closed caption data, superimposition of closed caption data on image data stored in the frame memory 127, and image data stored in the frame memory 127. There are enlargement and noise removal. In addition, the signal processing unit 137 generates OSD data for OSD display and superimposes it on the image data stored in the frame memory 127.
[0099]
The unit driving unit 138 drives the speaker units 12L and 12R according to the control of the CPU 129, thereby causing the direction of the main axis of directivity of the speakers constituting the speaker units 12L and 12R to be a predetermined direction.
[0100]
In the base unit 1 configured as described above, an image and sound as a television broadcast program are output as follows (images are displayed and sound is output).
[0101]
That is, a transport stream as a television broadcast signal received by the antenna is supplied to the demultiplexer 124 via the tuner 121, the QPSK demodulation circuit 122, and the error correction circuit 123. The demultiplexer 124 extracts TS packets of a predetermined program from the transport stream, supplies the TS packets of image data to the MPEG video decoder 125, and supplies the TS packets of audio data to the MPEG audio decoder 126. .
[0102]
In the MPEG video data coder 125, the TS packet from the demultiplexer 124 is MPEG decoded. The resulting image data is supplied from the MPEG video decoder 125 to the CRT 11 via the frame memory 127 and the NTSC encoder 128 and displayed.
[0103]
On the other hand, in the MPEG audio decoder 126, the TS packet from the demultiplexer 124 is MPEG decoded. The resulting audio data is supplied from the MPEG audio decoder 126 to the speaker units 12L and 12R and output.
[0104]
Next, FIG. 11 shows an example of the electrical configuration of the slave unit 2.
[0105]
Since the subunit | mobile_unit 2 is comprised from the tuner 141 thru | or the unit drive part 158 respectively comprised similarly to the tuner 121 thru | or the unit drive part 138 of FIG. 10, the description is abbreviate | omitted.
[0106]
As shown in FIG. 3F and FIG. 5F, the master unit 1 and the slave unit 2 have the antenna terminals 22 and 42, respectively, so that they can be used as the television receivers constituting the scalable TV system of FIG. An antenna (cable from) can be connected to each of the master unit 1 and the slave unit 2. However, when an antenna is connected to each of the master unit 1 and the slave unit 2, wiring may be complicated. Therefore, in a scalable TV system, an antenna is connected to any one of the television receivers constituting the scalable TV system, and a television broadcast signal received by the television receiver is converted into, for example, IEEE1394. It is possible to distribute to other television receivers by communication.
[0107]
Next, in the present embodiment, the IEEE1394 terminal 21 of the terminal panel 21 of the base unit 1 is used.ij(Fig. 3) and handset 2ijIEEE1394 terminal 41 of terminal panel 411(FIG. 5) are connected to each other by an IEEE1394 cable, so that the parent device 1 and the child device 2 are electrically connected, so that the IEEE1394 communication ( (Communication conforming to the IEEE1394 standard) is performed, and various data are exchanged.
[0108]
Therefore, IEEE1394 communication will be described with reference to FIGS.
[0109]
IEEE1394 is one of the serial bus standards, and IEEE1394 communication is suitable for transferring data that needs to be reproduced in real time, such as images and sounds, because it can perform isochronous transfer of data.
[0110]
In other words, between devices having IEEE1394 interfaces (IEEE1394 devices), data is isochronously transferred using a transmission band of 100 μs at maximum with a period of 125 μs (microseconds) (although it is called time). It can be performed. In addition, isochronous transfer can be performed with a plurality of channels as long as the transmission bandwidth is within the above-described range.
[0111]
FIG. 12 shows the layer structure of the IEEE1394 communication protocol.
[0112]
The IEEE1394 protocol has a three-layered structure including a transaction layer, a link layer, and a physical layer. Each layer communicates with each other, and each layer communicates with serial bus management. Furthermore, the transaction layer and the link layer also communicate with higher-order applications. There are four types of transmission / reception messages used for this communication: request, indication (indication), response (response), and confirmation (confirmation), and the arrows in FIG. 12 indicate this communication.
[0113]
Note that communication with “.req” at the end of the arrow name indicates a request, and “.ind” indicates an instruction. “.Resp” indicates a response, and “.conf” indicates confirmation. For example, TR_CONT.req is a request communication sent from the serial bus management to the transaction layer.
[0114]
The transaction layer provides an asynchronous transmission service for data communication with other IEEE1394 devices (devices having an IEEE1394 interface) in response to a request from an application. Request Response Protocol) is realized. That is, as a data transfer method based on the IEEE1394 standard, there is asynchronous transmission in addition to the above-described isochronous transmission, and the transaction layer performs asynchronous transmission processing. Data transmitted by asynchronous transmission is made up of IEEE1394 devices by three types of transactions: read transaction, write transaction, and lock transaction, which are units of processing required for the protocol of the transaction layer. Transmitted between them.
[0115]
The link layer performs processing such as data transmission service using acknowledge, address processing, data error confirmation, and data framing. One packet transmission performed by the link layer is called a subaction, and there are two types of subactions, an asynchronous subaction and an isochronous subaction.
[0116]
The asynchronous subaction is performed by designating a physical ID (Physical Identification) that identifies a node (a unit that can be accessed in IEEE1394) and an address in the node, and the node that has received the data returns an acknowledge. However, in the asynchronous broadcast subaction that sends data to all nodes in the IEEE1394 serial bus, the node that received the data does not return an acknowledge.
[0117]
On the other hand, in the isochronous subaction, data is transmitted by designating a channel number at a constant cycle (125 μs as described above). In the isochronous subaction, the acknowledge is not returned.
[0118]
The physical layer converts logical symbols used in the link layer into electrical signals. In addition, the physical layer performs processing for arbitration requests from the link layer (arbitration when a node that performs IEEE1394 communication competes), or reconfigures the IEEE1394 serial bus in response to a bus reset. Or perform automatic assignment.
[0119]
Serious bus management provides basic bus control functions and ISO / IEC13212 CSR (Control & Status Register Architecture). The serial bus management has functions of a node controller (Node Controllor), an isochronous resource manager (Isochronous Resource Manager), and a bus manager (Bus Manager). The node controller controls the node state, physical ID, and the like, and also controls the transaction layer, link layer, and physical layer. The isochronous resource manager provides the usage status of resources used for isochronous communication. In order to perform isochronous communication, at least one of the devices connected to the IEEE1394 serial bus has the function of the isochronous resource manager. IEEE1394 equipment is required. The bus manager has the highest function among the functions, and aims to optimize the use of the IEEE1394 serial bus. Note that the presence of the isochronous resource manager and the bus manager is arbitrary.
[0120]
IEEE 1394 devices can be connected in either node branch or node daisy chain, but when an IEEE 1394 device is newly connected, a bus reset is performed, and tree identification, root node, physical ID, isochronous resource manager The cycle master and bus manager are determined.
[0121]
Here, in the tree identification, a parent-child relationship between nodes as an IEEE1394 device is determined. In addition, the root node designates a node that has acquired the right to use the IEEE1394 serial bus by arbitration. The physical ID is determined by transferring a packet called a self-ID packet to each node. The self-ID packet includes information such as the data transfer rate of the node and whether the node can become an isochronous resource manager.
[0122]
As described above, the isochronous resource manager is a node that provides a usage status of resources used for isochronous communication, and has a bandwidth register (BANDWIDTH_AVAILABLE register) and a channel number register (CHANNELS_AVAILABLE register) described later. Further, the isochronous resource manager also has a register indicating a physical ID of a node that becomes a bus manager. Note that if there is no bus manager in a node as an IEEE1394 device connected by an IEEE1394 serial bus, the isochronous resource manager functions as a simple bus manager.
[0123]
The cycle master transmits a cycle start packet on the IEEE1394 serial bus every 125 μs that is the period of isochronous transmission. For this reason, the cycle master has a cycle time register (CYCLE_TIME register) for counting the period (125 μs). Note that the root node becomes a cycle master, but if the root node does not have a function as a cycle master, the bus manager changes the root node.
[0124]
The bus manager manages power on the IEEE1394 serial bus, changes the root node described above, and the like.
[0125]
If the determination of the isochronous resource manager or the like as described above is performed after the bus reset, data transmission via the IEEE1394 serial bus is possible.
[0126]
In isochronous transmission, which is one of the IEEE1394 data transmission systems, a transmission band and a transmission channel are secured, and then a packet (isochronous packet) in which data is arranged is transmitted.
[0127]
That is, in isochronous transmission, the cycle master broadcasts a cycle start packet on the IEEE1394 serial bus at a period of 125 μs. When the cycle start packet is broadcast, an isochronous packet can be transmitted.
[0128]
In order to perform isochronous transmission, it is necessary to declare the reservation of resources for isochronous transmission by rewriting the bandwidth register for securing the transmission band provided by the isochronous resource manager and the channel number register for securing the channel.
[0129]
Here, the bandwidth register and the channel number register are allocated as one of CSRs (Control & Status Registers) described later having a 64-bit address space defined by ISO / IEC13213.
[0130]
The bandwidth register is a 32-bit register, the upper 19 bits are reserved, and the lower 13 bits represent a transmission band (bw_remaining) that can be used at present.
[0131]
That is, the initial value of the bandwidth register is 00000000000000000001001100110011B (B indicates that the previous value is a binary number) (= 4915). This is for the following reason. That is, in IEEE1394, the time required for transmission of 32 bits at 1572.864 Mbps (bit per second) is defined as 1, and the above 125 μs corresponds to 00000000000000000001100000000000B (= 6144). However, IEEE 1394 specifies that the transmission band that can be used for isochronous transmission is 80% of 125 μs, which is one cycle. Therefore, the maximum transmission band that can be used for isochronous transmission is 100 μs, and 100 μs is 00000000000000000001001100110011B (= 4915) as described above.
[0132]
The remaining 25 μs transmission band, which is the maximum transmission band used in isochronous transmission from 125 μs except for 100 μs, is used in asynchronous transmission. Asynchronous transmission is used when reading the stored value of the bandwidth register or channel number register.
[0133]
In order to start isochronous transmission, it is necessary to secure a transmission band for that purpose. That is, for example, when isochronous transmission is performed using a transmission band of 10 μs out of one cycle of 125 μs, it is necessary to secure the transmission band of 10 μs. This transmission band is secured by rewriting the value of the bandwidth register. That is, as described above, when a transmission band of 10 μs is secured, 492, which is a value corresponding to 10 μs, is subtracted from the value of the bandwidth register, and the subtraction value is set in the bandwidth register. Therefore, for example, when the value of the bandwidth register is now 4915 (when isochronous transmission is not performed at all), when a transmission bandwidth of 10 μs is secured, the value of the bandwidth register is 4915 (= 00000000000000000001000101000111B) is rewritten from 4915 by subtracting 492 corresponding to 10 μs from 4915.
[0134]
If the value obtained by subtracting the transmission band to be secured (used) from the value of the bandwidth register is smaller than 0, the transmission band cannot be secured, and therefore the value of the bandwidth register is rewritten. In addition, isochronous transmission cannot be performed.
[0135]
In order to perform isochronous transmission, it is necessary to secure a transmission channel in addition to securing the transmission band as described above. The transmission channel is secured by rewriting the channel number register.
[0136]
The channel number register is a 64-bit register, and each bit corresponds to each channel. That is, when the value of the nth bit (the nth bit from the least significant bit) is 1, this indicates that the n−1th channel is not in use, and when it is 0, the n−th bit. Indicates that one channel is in use. Therefore, when no channel is used, the channel number register is 1111111111111111111111111111111111111111111111111111111111111111B. For example, when the first channel is secured, the channel number register is rewritten to 1111111111111111111111111111111111111111111111111111111111111101B.
[0137]
Since the channel number register is 64 bits as described above, it is possible to secure 64 channels from the 0th to the 63rd channels at the maximum by isochronous transmission, but the 63rd channel broadcasts isochronous packets. Used when
[0138]
As described above, since isochronous transmission is performed after securing the transmission band and transmission channel, it is possible to perform data transmission with a guaranteed transmission rate, and as described above, playback in real time such as images and audio is possible. It is particularly suitable for data transmission that needs to be done.
[0139]
Next, the IEEE1394 communication conforms to the CSR architecture having a 64-bit address space defined by ISO / IEC13213 as described above.
[0140]
FIG. 13 shows the address space of the CSR architecture.
[0141]
The upper 16 bits of the CSR are a node ID indicating each node, and the remaining 48 bits are used for designating an address space given to each node. The upper 16 bits are further divided into 10 bits of bus ID and 6 bits of physical ID (node ID in a narrow sense). Since a value in which all bits are 1 is used for a special purpose, 1023 buses and 63 nodes can be designated.
[0142]
Of the 256 terabyte address space defined by the lower 48 bits of CSR, the space defined by the upper 20 bits is an initial register space (Initial space used for 2048-byte CSR-specific registers and IEEE1394-specific registers). Register space), private space (private space), initial memory space (initial memory space), etc., and the space defined by the lower 28 bits is the space defined by the upper 20 bits is the initial register space In some cases, it is used as a configuration ROM (Configuration ROM), an initial unit space (Initial Unit Space) used for a node-specific purpose, a plug control register (PCRs), or the like.
[0143]
Here, FIG. 14 shows offset addresses, names, and functions of main CSRs.
[0144]
In FIG. 14, an “offset” column indicates an offset address from the address FFFFF0000000h (h indicates that the previous value is a hexadecimal number) where the initial register space starts. As described above, the bandwidth register having the offset 220h indicates a band that can be allocated to isochronous communication, and only the value of the node operating as the isochronous resource manager is valid. That is, each node has the CSR in FIG. 13, but only the bandwidth register of the isochronous resource manager is valid. Thus, the bandwidth register is essentially only an isochronous resource manager.
[0145]
As described above, in the channel number register of offsets 224h to 228h, each bit corresponds to each of channel numbers 0 to 63, and when the bit is 0, the channel is already assigned. Is shown. The channel number register is valid only for the node operating as an isochronous resource manager.
[0146]
Returning to FIG. 13, a configuration ROM based on the general ROM format is arranged at addresses 400h to 800h in the initial register space.
[0147]
Here, FIG. 15 shows a general ROM format.
[0148]
A node that is a unit of access on IEEE1394 can have a plurality of units that operate independently while using an address space in common. The unit directories can indicate the software version and location for this unit. The positions of the bus info block and the root directory are fixed, but the positions of other blocks are specified by offset addresses.
[0149]
Here, FIG. 16 shows details of the bus info block, the root directory, and the unit directory.
[0150]
The Company ID in the bus info block stores an ID number indicating the manufacturer of the device. The Chip ID stores a unique ID unique to the device in the world that does not overlap with other devices. Also, according to the IEC1833 standard, 00h is written in the first octet, A0h is written in the second octet, and 2Dh is written in the third octet of the unit spec ID (unit spec id) of the unit directory of the equipment that satisfies IEC1883. . Further, 01h is written in the first octet of the unit switch version (unit sw version), and 1 is written in the LSB (Least Significant Bit) of the third octet.
[0151]
The node has a PCR (Plug Control Register) defined in IEC1883 at addresses 900h to 9FFh in the initial register space of FIG. This materializes the concept of a plug in order to logically form a signal path similar to an analog interface.
[0152]
Here, FIG. 17 shows the structure of PCR.
[0153]
The PCR has an oPCR (output Plug Control Register) representing an output plug and an iPCR (input Plug Control Register) representing an input plug. The PCR also has registers oMPR (output Master Plug Register) and iMPR (input Master Plug Register) indicating information of output plugs or input plugs specific to each device. An IEEE1394 device does not have a plurality of oMPRs and iMPRs, but can have a plurality of oPCRs and iPCRs corresponding to individual plugs depending on the capabilities of the IEEE1394 devices. The PCR shown in FIG. 17 has 31 oPCR # 0 to # 30 and iPCR # 0 to # 30, respectively. The flow of isochronous data is controlled by manipulating the registers corresponding to these plugs.
[0154]
FIG. 18 shows the configuration of oMPR, oPCR, iMPR, and iPCR.
[0155]
18A shows the oMPR configuration, FIG. 18B shows the oPCR configuration, FIG. 18C shows the iMPR configuration, and FIG. 18D shows the iPCR configuration.
[0156]
The 2-bit data rate capability on the MSB side of oMPR and iMPR stores a code indicating the maximum transmission rate of isochronous data that can be transmitted or received by the device. The oMPR broadcast channel base specifies the number of the channel used for broadcast output.
[0157]
The 5-bit number of output plugs on the LSB side of the oMPR stores a value indicating the number of output plugs that the device has, that is, the number of oPCRs. The 5-bit number of input plugs on the LSB side of iMPR stores a value indicating the number of input plugs that the device has, that is, the number of iPCRs. The non-persistent extension field and the persistent extension field are areas defined for future extension.
[0158]
The on-line of the oPCR and iPCR MSB indicates the usage status of the plug. That is, if the value is 1, the plug is ON-LINE, and if it is 0, it indicates OFF-LINE. The value of the broadcast connection counter of oPCR and iPCR represents the presence (1) or absence (0) of a broadcast connection. The value of a point-to-point connection counter having a 6-bit width of oPCR and iPCR represents the number of point-to-point connections that the plug has.
[0159]
The value of a channel number having a 6-bit width of oPCR and iPCR indicates the number of an isochronous channel to which the plug is connected.
The value of the data rate having a 2-bit width of the oPCR indicates the actual transmission rate of the isochronous data packet output from the plug. A code stored in an overhead ID having a 4-bit width of oPCR indicates an over bandwidth of isochronous communication. The value of payload having a 10-bit width of oPCR represents the maximum value of data included in an isochronous packet that can be handled by the plug.
[0160]
Next, an AV / C command set is defined as a command for controlling the IEEE1394 equipment that performs the IEEE1394 communication as described above. Therefore, also in the present embodiment, the master unit 1 controls the slave unit 2 using this AV / C command set. However, when controlling the slave unit 2 from the master unit 1, it is also possible to use a unique command system other than the AV / C command set.
[0161]
Here, the AV / C command set will be briefly described.
[0162]
FIG. 19 shows the data structure of an AV / C command set packet transmitted in the asynchronous transfer mode.
[0163]
The AV / C command set is a command set for controlling an AV (Audio Visual) device. In a control system using the AV / C command set, an AV / C command frame and a response frame are FCP ( They are exchanged using Function Control Protocol. In order not to put a burden on the bus and AV equipment, the response to the command is performed within 100 ms.
[0164]
As shown in FIG. 19, the data of the asynchronous packet is composed of 32 bits (= 1 quadlet) in the horizontal direction. The upper part of the figure shows a packet header, and the lower part of the figure shows a data block.
destination_ID indicates the destination.
[0165]
CTS indicates the ID of the command set. In the AV / C command set, CTS = “0000”. ctype / response indicates the function classification of the command when the packet is a command, and indicates the processing result of the command when the packet is a response. Commands can be broadly classified as follows: (1) Command to control functions from the outside (CONTROL), (2) Command to inquire about the status from outside (STATUS), and (3) Command to inquire from the outside about support of control commands (GENERAL INQUIRY (4) (4) A command (NOTIFY) requesting to notify the outside of a change in state is defined. (OPCODE support / non-support) and SPECIFIC INQUIRY (OPCODE / operands support / not supported))
[0166]
Responses are returned according to the type of command. Responses to the CONTROL command include NOT INPLEMENTED (not implemented), ACCEPTED, REJECTED, and INTERIM. Responses to the STATUS command include NOT INPLEMENTED, REJECTED, IN TRANSITION (transition), and STABLE (stable). Responses to GENERAL INQUIRY and SPECIFIC INQUIRY commands include IMPLEMENTED (implemented) and NOT IMPLEMENTED. Responses to NOTIFY commands include NOT IMPLEMENTED, REJECTED, INTERIM, and CHANGED.
[0167]
The subunit type is provided to specify the function in the device, and for example, tape recorder / player, tuner, etc. are assigned. In order to determine when there are a plurality of subunits of the same type, addressing is performed with a subunit id (arranged after the subunit type) as a discrimination number. The opcode represents a command, and the operand represents a command parameter. Additional operands is a field in which additional operands are arranged. Padding is a field in which dummy data is arranged to set the packet length to a predetermined number of bits. A data CRC (Cyclic Redundancy Check) is a CRC used for an error check during data transmission.
[0168]
Next, FIG. 20 shows a specific example of the AV / C command.
[0169]
FIG. 20A shows a specific example of ctype / response. The upper part of the figure represents a command, and the lower part of the figure represents a response. “0000” is assigned CONTROL, “0001” is assigned STATUS, “0010” is assigned SPECIFIC INQUIRY, “0011” is assigned NOTIFY, and “0100” is assigned GENERAL INQUIRY. “0101 to 0111” are reserved for future specifications.
“1000” is NOT INPLEMENTED, “1001” is ACCEPTED, “1010” is REJECTED, “1011” is IN TRANSITION, “1100” is IMPLEMENTED / STABLE, “1101” is CHNGED, “1111” ”Is assigned INTERIM. “1110” is reserved for future specifications.
[0170]
FIG. 20B shows a specific example of the subunit type. “00000” is a Video Monitor, “00011” is a Disk recorder / Player, “00100” is a Tape recorder / Player, “00101” is a Tuner, “00111” is a Video Camera, “11100” is a Vendor unique. “11110” is assigned subunit type extended to next byte. Note that “11111” is assigned a unit, but this is used when it is sent to the device itself, for example, turning on / off the power.
[0171]
FIG. 20C shows a specific example of opcode. There is an opcode table for each subunit type. Here, the opcode is shown when the subunit type is Tape recorder / Player. An operand is defined for each opcode. Here, “00h” is VENDOR-DEPENDENT, “50h” is SEACH MODE, “51h” is TIMECODE, “52h” is ATN, “60h” is OPEN MIC, “61h” is READ MIC, "62h" is assigned WRITE MIC, "C1h" is assigned LOAD MEDIUM, "C2h" is assigned RECORD, "C3h" is assigned PLAY, and "C4h" is assigned WIND.
[0172]
FIG. 21 shows specific examples of AV / C commands and responses.
[0173]
For example, when a playback instruction is given to a playback device as a target (consumer) (controlled side), the controller (controlling side) sends a command as shown in FIG. 21A to the target. Since this command uses the AV / C command set, CTS = “0000”. The ctype is “0000” because a command (CONTROL) for controlling the device from the outside is used (FIG. 20A). The subunit type is “00100” because it is a tape recorder / player (FIG. 20B). id indicates the case of ID # 0 and is 000. The opcode is “C3h” meaning reproduction (FIG. 20C). The operand is “75h” meaning FORWARD. Then, when played back, the target returns a response as shown in FIG. 21B to the controller. Here, accepted, which means acceptance, is arranged in response, and the response is “1001” (see FIG. 20A). Except for response, the rest is the same as in FIG.
[0174]
In the scalable TV system, various controls are performed between the parent device 1 and the child device 2 using the AV / C command set as described above. However, in the present embodiment, new commands and responses are defined for those controls that can not be dealt with by the default command and response among the controls performed between the master unit 1 and the slave unit 2. Various controls are performed using simple commands and responses.
[0175]
The details of the above IEEE1394 communication and AV / C command set are described in “WHITE SERISE No.181 IEEE1394 Multimedia Interface” published by Trikes Co., Ltd.
[0176]
Next, in the signal processing unit 137 of the parent device 1 shown in FIG. 10 (the same applies to the signal processing unit 157 of the child device 2 shown in FIG. 11), as described above, the DSP 137A executes the program, Various digital signal processing is performed, and one of them is image conversion processing for converting image data from first image data to second image data.
[0177]
Here, for example, if the first image data is low resolution image data and the second image data is high resolution image data, the image conversion process is a resolution improvement process for improving the resolution. it can. Also, for example, if the first image data is low S / N (Siginal / Noise) image data and the second image data is high S / N image data, the image conversion process may reduce noise. It can be referred to as noise removal processing for removal. Further, for example, if the first image data is image data of a predetermined size and the second image data is image data in which the size of the first image data is increased or decreased, the image conversion process is performed as follows. This can be referred to as resizing processing for resizing (enlarging or reducing) an image.
[0178]
Therefore, according to the image conversion process, various processes can be realized depending on how the first and second image data are defined.
[0179]
FIG. 22 shows a functional configuration example of the signal processing unit 137 that performs the image conversion processing as described above. Note that the functional configuration of FIG. 22 is realized by the DSP 137A of the signal processing unit 137 executing a program stored in the EEPROM 137B.
[0180]
In the signal processing unit 137 (FIG. 10), the image data stored in the frame memory 127 or the image data supplied from the CPU 129 is supplied to the tap extraction units 161 and 162 as the first image data.
[0181]
The tap extraction unit 161 sequentially sets the pixels constituting the second image data as the target pixel, and further, the pixels (the pixel value of the first image data used for predicting the pixel value of the target pixel). ) Are extracted as prediction taps.
[0182]
Specifically, the tap extraction unit 161 has a plurality of pixels (for example, corresponding to the target pixel) that are spatially or temporally close to the pixel of the first image data corresponding to the target pixel. A pixel of the first image data and a pixel spatially adjacent thereto are extracted as prediction taps.
[0183]
The tap extraction unit 162 extracts some of the pixels constituting the first image data used for classifying the target pixel into any of several classes as class taps.
[0184]
Here, in order to simplify the description, it is assumed that the prediction tap and the class tap have the same tap structure. However, the prediction tap and the class tap can have different tap structures.
[0185]
The prediction tap obtained by the tap extraction unit 161 is supplied to the prediction unit 165, and the class tap obtained by the tap extraction unit 162 is supplied to the class classification unit 163.
[0186]
The class classification unit 163 classifies the target pixel based on the class tap from the tap extraction unit 162, and supplies a class code corresponding to the class obtained as a result to the coefficient memory 164.
[0187]
Here, as a method of classifying, for example, ADRC (Adaptive Dynamic Range Coding) or the like can be employed.
[0188]
In the method using ADRC, the pixel values of the pixels constituting the class tap are subjected to ADRC processing, and the class of the target pixel is determined according to the ADRC code obtained as a result.
[0189]
In the K-bit ADRC, for example, the maximum value MAX and the minimum value MIN of the pixels constituting the class tap are detected, and DR = MAX-MIN is set as the local dynamic range of the set, and this dynamic range Based on DR, the pixel values constituting the class tap are requantized to K bits. That is, the minimum value MIN is subtracted from the pixel value of each pixel constituting the class tap, and the subtracted value is DR / 2.KDivide by (quantize). A bit string obtained by arranging the pixel values of the K-bit pixels constituting the class tap in a predetermined order is output as an ADRC code.
Therefore, when a class tap is subjected to, for example, 1-bit ADRC processing, the pixel value of each pixel constituting the class tap is an average of the maximum value MAX and the minimum value MIN after the minimum value MIN is subtracted. Divided by the value (rounded down after the decimal point), the pixel value of each pixel is made 1 bit (binarized). Then, a bit string in which the 1-bit pixel values are arranged in a predetermined order is output as an ADRC code.
[0190]
Note that the class classification unit 163 can output the level distribution pattern of the pixel values of the pixels constituting the class tap as it is, for example, as a class code. However, in this case, if the class tap is composed of pixel values of N pixels and K bits are assigned to the pixel values of each pixel, the number of class codes output by the class classification unit 163 Is (2N)KAs a result, the number is exponentially proportional to the number of bits K of the pixel value of the pixel.
[0191]
Therefore, the class classification unit 163 preferably performs class classification by compressing the information amount of the class tap by the above-described ADRC processing or vector quantization.
[0192]
The coefficient memory 164 stores the tap coefficient for each class supplied from the coefficient generation unit 166, and further stores the tap coefficient in an address corresponding to the class code supplied from the class classification unit 163 among the stored tap coefficients. The tap coefficient (the tap coefficient of the class represented by the class code supplied from the class classification unit 163) is supplied to the prediction unit 165.
[0193]
Here, the tap coefficient corresponds to a coefficient that is multiplied with input data in a so-called tap in the digital filter.
[0194]
The prediction unit 165 acquires the prediction tap output from the tap extraction unit 161 and the tap coefficient output from the coefficient memory 164, and obtains the predicted value of the true value of the target pixel using the prediction tap and the tap coefficient. Performs a predetermined prediction calculation. Thereby, the prediction unit 165 obtains and outputs the pixel value of the pixel of interest (predicted value thereof), that is, the pixel value of the pixels constituting the second image data.
[0195]
The coefficient generation unit 166 generates a tap coefficient for each class based on the coefficient seed data stored in the coefficient seed memory 167 and the parameter stored in the parameter memory 168, supplies the tap coefficient to the coefficient memory 164, and overwrites it. To remember.
[0196]
The coefficient seed memory 167 stores coefficient seed data for each class obtained by learning of coefficient seed data described later. Here, the coefficient seed data is so-called seed data that generates tap coefficients.
[0197]
The parameter memory 168 stores the parameters supplied from the CPU 129 (FIG. 10) in an overwritten manner when the user operates the remote controller 15 or the like.
[0198]
Next, image conversion processing by the signal processing unit 137 in FIG. 22 will be described with reference to the flowchart in FIG.
[0199]
In the tap extraction unit 161, each pixel constituting the second image data with respect to the first image data input thereto is sequentially set as a target pixel. In step S1, the parameter memory 168 determines whether or not a parameter is supplied from the CPU 129. If it is determined that the parameter is supplied, the process proceeds to step S2, and the parameter memory 168 overwrites the supplied parameter. Store and proceed to step S3.
[0200]
If it is determined in step S1 that no parameter is supplied from the CPU 129, step S2 is skipped and the process proceeds to step S3.
[0201]
Therefore, in the parameter memory 168, when a parameter is supplied from the CPU 129, that is, for example, when a user inputs a parameter by operating the remote controller 15, or when a parameter is set in the CPU 129, The stored content is updated with the input or set parameters.
[0202]
In step S3, the coefficient generation unit 166 reads the coefficient seed data for each class from the coefficient seed memory 167 and also reads the parameters from the parameter memory 168, and obtains the tap coefficient for each class based on the coefficient seed data and the parameters. . Then, the process proceeds to step S4, and the coefficient generation unit 166 supplies the tap coefficient for each class to the coefficient memory 164, stores it in an overwritten form, and proceeds to step S5.
[0203]
In step S5, the tap extraction units 161 and 162 respectively extract the prediction tap and the class tap for the target pixel from the first image data supplied thereto. The prediction tap is supplied from the tap extraction unit 161 to the prediction unit 165, and the class tap is supplied from the tap extraction unit 162 to the class classification unit 163.
[0204]
The class classification unit 163 receives the class tap for the target pixel from the tap extraction unit 162, and classifies the target pixel based on the class tap in step S6. Further, the class classification unit 163 outputs a class code representing the class of the target pixel obtained as a result of the class classification to the coefficient memory 164, and proceeds to step S7.
[0205]
In step S7, the coefficient memory 164 reads and outputs the tap coefficient stored at the address corresponding to the class code supplied from the class classification unit 163. Further, in step S7, the prediction unit 165 acquires the tap coefficient output from the coefficient memory 164, and proceeds to step S8.
[0206]
In step S <b> 8, the prediction unit 165 performs a predetermined prediction calculation using the prediction tap output from the tap extraction unit 161 and the tap coefficient acquired from the coefficient memory 164. Thereby, the prediction unit 165 obtains the pixel value of the target pixel, writes it in the frame memory 127 (FIG. 10), and proceeds to step S9.
[0207]
In step S9, the tap extraction unit 161 determines whether there is second image data that has not yet been set as the pixel of interest. In step S9, when it is determined that there is second image data that has not yet been set as the target pixel, one of the pixels of the second image data that has not yet been set as the target pixel is newly set as the target pixel. Then, the process returns to step S1, and the same processing is repeated thereafter.
[0208]
If it is determined in step S9 that there is no second image data that has not yet been set as the pixel of interest, the process ends.
[0209]
In FIG. 23, the processing in steps S3 and S4 can be performed when a new parameter is overwritten in the parameter memory 168, and can be skipped in other cases.
[0210]
Next, prediction calculation in the prediction unit 165 in FIG. 22, generation of tap coefficients in the coefficient generation unit 166, and learning of coefficient seed data stored in the coefficient seed memory 167 will be described.
[0211]
Now, the high-quality image data (high-quality image data) is used as the second image data, and the high-quality image data is filtered by LPF (Low Pass Filter) to reduce the image quality (resolution). Using low-quality image data (low-quality image data) as first image data, a prediction tap is extracted from the low-quality image data, and the pixel value of the high-quality pixel is set to a predetermined value using the prediction tap and the tap coefficient. Consider obtaining (predicting) by prediction calculation.
[0212]
Assuming that, for example, linear primary prediction calculation is adopted as the predetermined prediction calculation, the pixel value y of the high-quality pixel is obtained by the following linear linear expression.
[0213]
[Expression 1]
Figure 0003693246
Figure 0003693246
[0214]
However, in formula (1), xnRepresents the pixel value of the pixel of the n-th low-quality image data (hereinafter referred to as “low-quality pixel” as appropriate) constituting the prediction tap for the high-quality pixel y, and wnRepresents the n-th tap coefficient multiplied by the n-th low image quality pixel (pixel value thereof). In Equation (1), the prediction tap is N low-quality pixels x1, X2, ..., xNIt is made up of.
[0215]
Here, the pixel value y of the high-quality pixel can be obtained not by the linear primary expression shown in Expression (1) but by a higher-order expression of the second or higher order.
[0216]
On the other hand, in the embodiment of FIG.nIs generated from the coefficient seed data stored in the coefficient seed memory 167 and the parameters stored in the parameter memory 168. The tap coefficient w in the coefficient generation unit 166 is generated.nIs generated by the following equation using coefficient seed data and parameters, for example.
[0217]
[Expression 2]
Figure 0003693246
Figure 0003693246
[0218]
However, in equation (2), βm, nIs the nth tap coefficient wnRepresents the m-th coefficient seed data used to determine, and z represents a parameter. In Equation (2), the tap coefficient wnIs M coefficient seed data βn, 1, Βn, 2, ..., βn, MIt has come to be requested using.
[0219]
Where coefficient seed data βm, nAnd the tap coefficient w from the parameter znThe equation for obtaining is not limited to Equation (2).
[0220]
Now, the value z determined by the parameter z in equation (2)m-1To the new variable tmIs defined by the following formula.
[0221]
[Equation 3]
Figure 0003693246
Figure 0003693246
[0222]
By substituting equation (3) into equation (2), the following equation is obtained.
[0223]
[Expression 4]
Figure 0003693246
Figure 0003693246
[0224]
According to equation (4), the tap coefficient wnIs the coefficient seed data βn, mAnd variable tmIs obtained by a linear linear expression.
[0225]
By the way, the true value of the pixel value of the high-quality pixel of the k-th sample is ykAnd the true value y obtained by equation (1)kThe predicted value of yk′ Represents the prediction error ekIs expressed by the following equation.
[0226]
[Equation 5]
Figure 0003693246
Figure 0003693246
[0227]
Now, the predicted value y in equation (5)kSince ′ is obtained according to equation (1), y in equation (5)kSubstituting ′ according to equation (1) yields:
[0228]
[Formula 6]
Figure 0003693246
Figure 0003693246
[0229]
However, in Formula (6), xn, kRepresents the n-th low-quality pixel constituting the prediction tap for the high-quality pixel of the k-th sample.
[0230]
W in formula (6)nBy substituting equation (4) into the following equation:
[0231]
[Expression 7]
Figure 0003693246
Figure 0003693246
[0232]
Prediction error e in equation (7)kCoefficient seed data β with 0n, mIs optimal for predicting high-quality pixels, but for all high-quality pixels, such coefficient seed data βn, mIt is generally difficult to find
[0233]
Therefore, coefficient seed data βn, mFor example, if the least squares method is adopted as a standard indicating that is optimal, the optimum coefficient seed data βn, mCan be obtained by minimizing the sum E of square errors expressed by the following equation.
[0234]
[Equation 8]
Figure 0003693246
Figure 0003693246
[0235]
However, in Equation (8), K is a high-quality pixel ykAnd its high-quality pixel ykLow quality pixel x that constitutes the prediction tap for1, k, X2, k, ..., xN, kRepresents the number of samples (the number of learning samples).
[0236]
The minimum value (local minimum value) of the sum E of square errors in equation (8) is calculated by using the sum E as coefficient seed data β as shown in equation (9).n, mΒ with the partial differentiation at 0n, mGiven by.
[0237]
[Equation 9]
Figure 0003693246
Figure 0003693246
[0238]
By substituting equation (6) into equation (9), the following equation is obtained.
[0239]
[Expression 10]
Figure 0003693246
Figure 0003693246
[0240]
X nowi, p, j, qAnd Yi, pIs defined as shown in equations (11) and (12).
[0241]
## EQU11 ##
Figure 0003693246
Figure 0003693246
[Expression 12]
Figure 0003693246
Figure 0003693246
[0242]
In this case, equation (10) becomes Xi, p, j, qAnd Yi, pIt can be expressed by a normal equation shown in equation (13) using
[0243]
[Formula 13]
Figure 0003693246
Figure 0003693246
[0244]
The normal equation of Expression (13) is obtained by using, for example, a sweeping method (Gauss-Jordan elimination method) or the like to obtain coefficient seed data βn, mCan be solved.
[0245]
In the signal processing unit 137 of FIG. 22, a large number of high-quality pixels y1, Y2, ..., yKIs used as teacher data for learning, and each high-quality pixel ykLow quality pixel x that constitutes the prediction tap for1, k, X2, k, ..., xN, kIs used as student data for learning, and coefficient seed data β obtained by learning to solve Equation (13)n, mIs stored in the coefficient seed memory 167, and the coefficient generation unit 166 stores the coefficient seed data βn, mAnd tap coefficient w from parameter z stored in parameter memory 168 according to equation (2)nIs generated. Then, in the prediction unit 165, the tap coefficient wnAnd a low image quality pixel (pixel of the first image data) x constituting a prediction tap for the pixel of interest as a high image quality pixelnIs used to calculate the expression (1), thereby obtaining the pixel value of the pixel of interest (close predicted value) as the high-quality pixel.
[0246]
Next, FIG. 24 shows the coefficient seed data β by building and solving the normal equation of Expression (13).n, m2 shows an example of the configuration of a learning device that performs learning for obtaining the information.
[0247]
The learning device includes coefficient seed data βn, mLearning image data used for learning is input. Here, as the learning image data, for example, high-resolution image data with high resolution can be used.
[0248]
In the learning device, the learning image data is supplied to the teacher data generation unit 171 and the student data generation unit 173.
[0249]
The teacher data generation unit 171 generates teacher data from the learning image data supplied thereto and supplies it to the teacher data storage unit 172. That is, here, the teacher data generation unit 171 supplies the high-quality image data as the learning image data to the teacher data storage unit 172 as the teacher data as it is.
[0250]
The teacher data storage unit 172 stores high-quality image data as teacher data supplied from the teacher data generation unit 171.
[0251]
The student data generation unit 173 generates student data from the learning image data and supplies it to the student data storage unit 174. In other words, the student data generation unit 173 generates low-quality image data by filtering the high-quality image data as the learning image data, thereby reducing the resolution. Is supplied to the student data storage unit 174.
[0252]
Here, in addition to the learning image data, the student data generation unit 173 is supplied from the parameter generation unit 180 with some values in the range that can be taken by the parameter z supplied to the parameter memory 168 of FIG. It has become. That is, if the value that can be taken by the parameter z is a real number in the range of 0 to Z, the student data generation unit 173 has, for example, z = 0, 1, 2,. The unit 180 is supplied.
[0253]
The student data generation unit 173 generates low-quality image data as student data by filtering high-quality image data as learning image data with an LPF having a cutoff frequency corresponding to the parameter z supplied thereto. To do.
[0254]
Therefore, in this case, as shown in FIG. 25, the student data generation unit 173 generates Z + 1 types of low-quality image data as student data having different resolutions for the high-quality image data as the learning image data. .
[0255]
Note that, here, for example, as the value of the parameter z increases, the high-quality image data is filtered by using an LPF with a high cutoff frequency, and low-quality image data as student data is generated. So here. The lower the image quality data corresponding to the larger parameter z, the higher the resolution.
[0256]
In the present embodiment, in order to simplify the description, the student data generation unit 173 reduces the resolution in the horizontal direction and the vertical direction of the high-quality image data by an amount corresponding to the parameter z. Assume that image quality image data is generated.
[0257]
Returning to FIG. 24, the student data storage unit 174 stores the student data supplied from the student data generation unit 173.
[0258]
The tap extraction unit 175 sequentially sets pixels constituting high-quality image data as teacher data stored in the teacher data storage unit 172 as attention teacher pixels, and the attention teacher pixels are stored in the student data storage unit 174. By extracting predetermined ones of low-quality pixels constituting low-quality image data as student data, a prediction tap having the same tap structure as that configured by the tap extraction unit 161 of FIG. 22 is configured. It supplies to the addition part 178.
[0259]
The tap extraction unit 176 extracts a predetermined one of the low-quality pixels constituting the low-quality image data as the student data stored in the student data storage unit 174 with respect to the teacher pixel of interest, so that the tap of FIG. A class tap having the same tap structure as that formed by the extraction unit 162 is configured and supplied to the class classification unit 177.
[0260]
The tap extraction units 175 and 176 are supplied with the parameter z generated by the parameter generation unit 180, and the tap extraction units 175 and 176 correspond to the parameter z supplied from the parameter generation unit 180. The prediction taps and the class taps are configured using the student data generated in this manner (here, low-quality image data as student data generated using the LPF having the cutoff frequency corresponding to the parameter z).
[0261]
The class classification unit 177 performs the same class classification as the class classification unit 163 in FIG. 22 based on the class tap output from the tap extraction unit 176, and adds the class code corresponding to the resulting class to the addition unit 178. Output.
[0262]
The adding unit 178 reads out the teacher pixel of interest from the teacher data storage unit 172, the student data constituting the prediction teacher pixel, the teacher data supplied from the tap extraction unit 175, and the student data The addition for the parameter z when data is generated is performed for each class code supplied from the class classification unit 177.
[0263]
That is, the adder 178 includes the teacher data y stored in the teacher data storage 172.k, Prediction tap x output by the tap extraction unit 175i, k(Xj, k), And the class code output from the class classification unit 177, the parameter z when the student data used to configure the prediction tap is generated is also supplied from the parameter generation unit 180. .
[0264]
Then, the adding unit 178 generates a prediction tap (student data) x for each class corresponding to the class code supplied from the class classification unit 177.i, k(Xj, k) And the parameter z, the component X defined by Expression (11) in the matrix on the left side of Expression (13)i, p, j, qMultiplying student data and parameter z (xi, ktpxj, ktq) And a calculation corresponding to summation (Σ). Note that t in equation (11)pIs calculated from the parameter z according to equation (3). T in equation (11)qIs the same.
[0265]
Further, the adding unit 178 again performs the prediction tap (student data) x for each class corresponding to the class code supplied from the class classification unit 177.i, k, Teacher data yk, And the parameter z, the component Y defined by Expression (12) in the vector on the right side of Expression (13)i, pStudent data x for seekingi, k, Teacher data yk, And the multiplication of the parameter z (xi, ktpyk) And a calculation corresponding to summation (Σ). Note that t in equation (12)pIs calculated from the parameter z according to equation (3).
[0266]
That is, the adding unit 178 calculates the component X of the left-side matrix in the equation (13) obtained for the teacher data that was previously selected as the teacher pixel of interest.i, p, j, qAnd the component Y of the right-hand side vectori, pIs stored in its built-in memory (not shown), and the matrix component Xi, p, j, qOr vector component Yi, pOn the other hand, regarding the teacher data newly set as the attention teacher pixel, the teacher data yk, Student data xi, k(xj, k), And the corresponding component x calculated using the parameter zi, ktpxj, ktqOr xi, ktpyk(Component X of Formula (11))i, p, j, qOr component Y in equation (12)i, pAddition represented by summation in).
[0267]
Then, the addition unit 178 performs the above addition for all the parameter data z of 0, 1,..., Z, using all the teacher data stored in the teacher data storage unit 172 as the target teacher pixel. Thus, when the normal equation shown in the equation (13) is established for each class, the normal equation is supplied to the coefficient seed calculating unit 179.
[0268]
The coefficient seed calculation unit 179 solves the normal equation for each class supplied from the addition unit 178, thereby generating coefficient seed data β for each class.m, nIs output.
[0269]
The parameter generation unit 180 sets, for example, z = 0, 1, 2,..., Z as described above as several values within the range that the parameter z supplied to the parameter memory 168 in FIG. It is generated and supplied to the student data generation unit 173. The parameter generation unit 180 also supplies the generated parameter z to the tap extraction units 175 and 176 and the addition unit 178.
[0270]
Next, processing (learning processing) of the learning device in FIG. 24 will be described with reference to the flowchart in FIG.
[0271]
First, in step S21, the teacher data generation unit 171 and the student data generation unit 173 generate and output teacher data and student data from the learning image data, respectively. That is, the teacher data generation unit 171 outputs the learning image data as teacher data as it is. Further, the student data generation unit 171 is supplied with the parameter z of Z + 1 values generated by the parameter generation unit 180, and the student data generation unit 171 receives the learning image data from the Z + 1 value from the parameter generation unit 180. Z + 1 frame student data is generated for the teacher data (learning image data) of each frame by filtering with the LPF of the cutoff frequency corresponding to the parameter z of the value (0, 1,..., Z). Output.
[0272]
The teacher data output from the teacher data generation unit 171 is supplied to and stored in the teacher data storage unit 172, and the student data output from the student data generation unit 173 is supplied to and stored in the student data storage unit 174.
[0273]
Thereafter, the process proceeds to step S22, and the parameter generation unit 180 sets the parameter z to 0, for example, as an initial value, supplies the parameter z to the tap extraction units 175 and 176, and the addition unit 178, and proceeds to step S23. In step S <b> 23, the tap extraction unit 175 sets the teacher data stored in the teacher data storage unit 172 as notable teacher pixels that have not yet been identified as the notable teacher pixels. Further, in step S23, the tap extraction unit 175 stores the student data for the parameter z output from the parameter generation unit 180 stored in the student data storage unit 174 for the teacher pixel of interest (the teacher data serving as the teacher data of interest). A prediction tap is configured from student data generated by filtering the corresponding learning image data with an LPF having a cutoff frequency corresponding to the parameter z and is supplied to the adding unit 178. Again, for the teacher pixel of interest, a class tap is constructed from the student data for the parameter z output from the parameter generation unit 180 and stored in the student data storage unit 174, and supplied to the class classification unit 177.
[0274]
In step S 24, the class classification unit 177 classifies the target teacher pixel based on the class tap for the target teacher pixel, and outputs the class code corresponding to the class obtained as a result to the addition unit 178. Then, the process proceeds to step S25.
[0275]
In step S25, the adding unit 178 reads the target teacher pixel from the teacher data storage unit 172, uses the target teacher pixel, the prediction tap supplied from the tap extraction unit 175, and the parameter z output from the parameter generation unit 180, Component x of the left-hand side matrix in equation (13)i, Ktpxj, KtqAnd the right-hand side vector component xi, KtpyKCalculate Further, the adding unit 178 obtains the matrix component and the vector component that have already been obtained, corresponding to the class code from the class classification unit 177, from the target pixel, the prediction tap, and the parameter z. Matrix component xi, Ktpxj, KtqAnd vector component xi, KtpyKIs added to step S26.
[0276]
In step S26, the parameter generation unit 180 determines whether or not the parameter z output by itself is equal to Z, which is the maximum value that can be taken. In step S26, when it is determined that the parameter z output from the parameter generation unit 180 is not equal to the maximum value Z (less than the maximum value Z), the process proceeds to step S27, and the parameter generation unit 180 sets the parameter z to 1 is added, and the added value is output as a new parameter z to the tap extraction units 175 and 176 and the addition unit 178. Then, the process returns to step S23, and the same processing is repeated thereafter.
[0277]
If it is determined in step S26 that the parameter z is equal to the maximum value Z, the process proceeds to step S28, where the tap extraction unit 175 stores teacher data that has not yet been set as the teacher pixel of interest in the teacher data storage unit 172. Determine whether or not. If it is determined in step S28 that the teacher data that is not the attention teacher pixel is still stored in the teacher data storage unit 172, the tap extraction unit 175 newly sets the teacher data that is not yet the attention teacher pixel. Returning to step S22 as the focused teacher pixel, the same processing is repeated thereafter.
[0278]
If it is determined in step S28 that the teacher data that is not the target teacher pixel is not stored in the teacher data storage unit 172, the adding unit 178 adds the formula ( The matrix on the left side and the vector on the right side in 13) are supplied to the coefficient seed calculation unit 179, and the process proceeds to step S29.
[0279]
In step S29, the coefficient seed calculation unit 179 solves each class by solving a normal equation for each class constituted by the matrix on the left side and the vector on the right side in the equation (13) for each class supplied from the addition unit 178. Coefficient type data βm, nIs output, and the process ends.
[0280]
In addition, due to the number of learning image data being insufficient, etc., there may occur a class in which the number of normal equations necessary for obtaining coefficient seed data cannot be obtained. The coefficient seed calculation unit 179 is configured to output default coefficient seed data, for example.
[0281]
In the learning apparatus of FIG. 24, as shown in FIG. 25, high-quality image data as learning image data is used as teacher data, and the resolution is degraded in the high-quality image data in accordance with the parameter z. The low-quality image data obtained as the student data is used as coefficient data βm, nAnd variable t corresponding to parameter zmTap coefficient w expressed bynAnd student data xnTo coefficient seed data β that minimizes the sum of the square errors of the predicted values y of the teacher data predicted by the linear linear expression of Expression (1).m, nIs used to perform direct learning, but the coefficient seed data βm, nOther learning can be performed as shown in FIG. 27, for example.
[0282]
That is, in the embodiment of FIG. 27, as in the embodiment of FIG. 25, the high-quality image data as the learning image data is used as the teacher data, and the high-quality image data corresponds to the parameter z. First, the tap coefficient w is filtered using the low-quality image data with the reduced horizontal resolution and vertical resolution as the student data by filtering with the LPF having the cut-off frequency.nAnd student data xnIs a tap coefficient w that minimizes the sum of squared errors of the predicted value y of the teacher data predicted by the linear primary prediction expression of Expression (1) usingnIs obtained for each value of the parameter z (here, z = 0, 1,..., Z). Further, in the embodiment of FIG. 27, the obtained tap coefficient wnAs the teacher data and the parameter z as the student data, the coefficient seed data βm, n, And a variable t corresponding to the parameter z which is student datamTap coefficient w as teacher data predicted fromnCoefficient seed data β that minimizes the sum of the square errors of the predicted values ofm, nLearning to ask for.
[0283]
Specifically, a tap for minimizing (minimizing) the sum E of squared errors of the predicted value y of the teacher data predicted by the linear primary prediction expression of Expression (1) represented by Expression (8) above. Coefficient wnIs the tap coefficient wnTherefore, it is necessary to satisfy the following equation.
[0284]
[Expression 14]
Figure 0003693246
Figure 0003693246
[0285]
Therefore, the above equation (6) is changed to the tap coefficient w.nThe following equation is obtained by partial differentiation with.
[0286]
[Expression 15]
Figure 0003693246
Figure 0003693246
[0287]
From the equations (14) and (15), the following equation is obtained.
[0288]
[Expression 16]
Figure 0003693246
Figure 0003693246
[0289]
E in equation (16)kBy substituting equation (6) into equation (16), equation (16) can be expressed by the normal equation shown in equation (17).
[0290]
[Expression 17]
Figure 0003693246
Figure 0003693246
[0291]
The normal equation of Expression (17) is obtained by using, for example, the sweep coefficient (Gauss-Jordan elimination method) or the like as in the case of the normal equation of Expression (13).nCan be solved.
[0292]
By solving the normal equation of Expression (17), an optimum tap coefficient (here, a tap coefficient that minimizes the sum E of square errors) wnIs obtained for each class and for each value of the parameter z (z = 0, 1,..., Z).
[0293]
On the other hand, in the present embodiment, the coefficient seed data βm, nAnd a variable t corresponding to the parameter zmFrom this, the tap coefficient is obtained. Now, the tap coefficient obtained by this equation (4) is expressed as wn′, The optimum tap coefficient w expressed by the following equation (18):nAnd tap coefficient w obtained by equation (4)nError with ‘e’nCoefficient seed data β with 0n, mIs the optimal tap coefficient wnAll tap coefficients wnSuch coefficient seed data βn, mIt is generally difficult to find
[0294]
[Expression 18]
Figure 0003693246
Figure 0003693246
[0295]
Equation (18) can be transformed into the following equation by Equation (4).
[0296]
[Equation 19]
Figure 0003693246
Figure 0003693246
[0297]
Therefore, coefficient seed data βn, mFor example, if the least square method is adopted as a norm representing that is optimal, the optimum coefficient seed data βn, mCan be obtained by minimizing the sum E of square errors expressed by the following equation.
[0298]
[Expression 20]
Figure 0003693246
Figure 0003693246
[0299]
The minimum value (minimum value) of the sum E of square errors in equation (20) is calculated by using the sum E as coefficient seed data β as shown in equation (21).n, mΒ with the partial differentiation at 0n, mGiven by.
[0300]
[Expression 21]
Figure 0003693246
Figure 0003693246
[0301]
By substituting equation (19) into equation (21), the following equation is obtained.
[0302]
[Expression 22]
Figure 0003693246
Figure 0003693246
[0303]
X nowi, j,And YiIs defined as shown in equations (23) and (24).
[0304]
[Expression 23]
Figure 0003693246
Figure 0003693246
[Expression 24]
Figure 0003693246
Figure 0003693246
[0305]
In this case, equation (22) isi, jAnd YiIt can be represented by a normal equation shown in equation (25) using
[0306]
[Expression 25]
Figure 0003693246
Figure 0003693246
[0307]
The normal equation of the equation (25) is also obtained by using, for example, a sweeping method (Gauss-Jordan elimination method) or the like to obtain coefficient seed data βn, mCan be solved.
[0308]
Next, FIG. 28 shows the coefficient seed data β by building and solving the normal equation of Expression (25).n, m2 shows an example of the configuration of a learning device that performs learning for obtaining the information. In the figure, portions corresponding to those in FIG. 24 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate.
[0309]
The addition unit 190 is supplied with the class code for the teacher pixel of interest output from the class classification unit 177 and the parameter z output from the parameter generation unit 180. Then, the adding unit 190 reads the attention teacher pixel from the teacher data storage unit 172, and the student data constituting the prediction teacher pixel and the prediction tap configured for the attention teacher pixel supplied from the tap extraction unit 175. Is added for each class code supplied from the class classification unit 177 and for each value of the parameter z output by the parameter generation unit 180.
[0310]
That is, the adder 190 includes the teacher data y stored in the teacher data storage 172.k, Prediction tap x output by the tap extraction unit 175n, k, The class code output by the class classification unit 177, and the prediction tap x output by the parameter generation unit 180n, kThe parameter z is generated when the student data used to construct is generated.
[0311]
Then, the adding unit 190 generates a prediction tap (student data) x for each class corresponding to the class code supplied from the class classification unit 177 and for each value of the parameter z output by the parameter generation unit 180.n, kThe multiplication of student data in the matrix on the left side of equation (17) (xn, kxn ', k) And a calculation corresponding to summation (Σ).
[0312]
Further, the adding unit 190 again uses a prediction tap (student data) x for each class corresponding to the class code supplied from the class classification unit 177 and for each value of the parameter z output by the parameter generation unit 180.n, kAnd teacher data ykAnd the student data x in the vector on the right side of equation (17)n, kAnd teacher data ykMultiplication (xn, kyk) And a calculation corresponding to summation (Σ).
[0313]
That is, the adding unit 190 uses the left-side matrix component (Σx) in Expression (17) obtained for the teacher data that was previously selected as the teacher pixel of interest.n, kxn ', k) And the right-hand side vector component (Σxn, kyk) In a built-in memory (not shown), and the matrix component (Σxn, kxn ', k) Or vector component (Σxn, kyk) With respect to the teacher data newly set as the notable teacher pixel, the teacher data yk + 1And student data xn, k + 1The corresponding component x computed usingn, k + 1xn ', k + 1Or xn, k + 1yk + 1(Addition represented by the summation of Expression (17) is performed).
[0314]
Then, the addition unit 190 performs the above-described addition using all the teacher data stored in the teacher data storage unit 172 as the target teacher pixel, thereby obtaining an equation (17) for each value of the parameter z for each class. When the normal equation shown in (2) is established, the normal equation is supplied to the tap coefficient calculation unit 191.
[0315]
The tap coefficient calculation unit 191 solves the normal equation for each value of the parameter z for each class supplied from the adding unit 190, so that the optimum tap coefficient w for each value of the parameter z is obtained for each class.nIs supplied to the adding portion 192.
[0316]
For each class, the adding unit 192 adds a variable t corresponding to the parameter z (m) And the optimal tap coefficient wnAdd in the target.
[0317]
That is, the adding unit 192 is a variable t obtained from the parameter z by the equation (3).i(Tj), The component X defined by the equation (23) in the matrix on the left side of the equation (25)i, jA variable t corresponding to the parameter z for determiningi(Tj) Multiplication (titj) And an operation corresponding to summation (Σ) are performed for each class.
[0318]
Where component Xi, jIs determined only by the parameter z and has nothing to do with the class, so the component Xi, jActually, it is not necessary to perform the calculation for each class.
[0319]
Further, the adding unit 192 is a variable t obtained from the parameter z by the equation (3).iAnd the optimal tap coefficient wnAnd the component Y defined by Expression (24) in the vector on the right side of Expression (25)iA variable t corresponding to the parameter z for determiningiAnd the optimal tap coefficient wnMultiplication (tiwn) And an operation corresponding to summation (Σ) are performed for each class.
[0320]
For each class, the addition unit 192 is a component X represented by Expression (23).i, jAnd the component Y represented by Expression (24)iWhen the normal equation of Expression (25) is established for each class, the normal equation is supplied to the coefficient seed calculation unit 193.
[0321]
The coefficient seed calculation unit 193 solves the normal equation of the equation (25) for each class supplied from the addition unit 192, thereby generating coefficient seed data β for each class.m, nIs output.
[0322]
The coefficient seed memory 167 in the signal processing unit 137 in FIG. 22 stores the coefficient seed data β for each class obtained as described above.m, nCan also be stored.
[0323]
Here, in the signal processing unit 137 in FIG. 22, for example, the optimum tap coefficient w for each value of the parameter z output from the tap coefficient calculation unit 191 in FIG. 28 without providing the coefficient seed memory 167.nCan be stored in the memory, and an optimal tap coefficient stored in the memory can be selected according to the parameter z stored in the parameter memory 168 and set in the coefficient memory 164. However, in this case, a large-capacity memory proportional to the number of values that the parameter z can take is required. On the other hand, when the coefficient seed memory 167 is provided and the coefficient seed data is stored, the storage capacity of the coefficient seed memory 167 does not depend on the number of values that the parameter z can take. As described above, a memory having a small capacity can be employed. Furthermore, coefficient seed data βm, nIs stored, the coefficient seed data βm, nAnd the value of the parameter z, the tap coefficient w according to the equation (2)nIs generated, so that the continuous tap coefficient w according to the value of the parameter znCan be obtained. As a result, it is possible to smoothly and continuously adjust the image quality of the high-quality image data output as the second image data by the prediction unit 165 of FIG.
[0324]
In the above-described case, the learning image data is directly used as teacher data corresponding to the second image data, and the low-quality image data in which the resolution of the learning image data is degraded is used as the first image. Since the coefficient seed data is learned as the student data corresponding to the data, as the coefficient seed data, the resolution is improved by converting the first image data into the second image data whose resolution is improved. What performs the image conversion process as a process can be obtained.
[0325]
Therefore, a program that stores the coefficient seed data in the EEPROM 137A of the signal processing unit 137 of the base unit 1, realizes the functional configuration of FIG. 22, and performs image conversion processing according to the flowchart of FIG. By storing the data, the signal processing unit 137 can improve the horizontal resolution and vertical resolution of the image data corresponding to the parameter z.
[0326]
Here, depending on the selection method of the student data corresponding to the first image data and the image data to be the teacher data corresponding to the second image data, the coefficient seed data is to be subjected to various image conversion processes. Obtainable.
[0327]
That is, for example, high-quality image data is used as teacher data, and learning processing is performed using image data in which noise of a level corresponding to the parameter z is superimposed on the high-quality image data as the teacher data as student data. As a result, the coefficient seed data may be obtained by performing image conversion processing as noise removal processing for converting the first image data into second image data from which noise contained therein is removed (reduced). it can.
[0328]
Also, for example, certain image data is used as teacher data, and image data obtained by thinning out the number of pixels of the image data as the teacher data corresponding to the parameter z is used as student data, or the size corresponding to the parameter z is used. The image data is the student data, and the learning process is performed using the image data obtained by thinning out the pixels of the image data as the student data at a predetermined thinning rate as the teacher data. It is possible to obtain data that undergoes image conversion processing as resizing processing for converting data into enlarged or reduced second image data.
[0329]
Therefore, by storing coefficient type data for noise removal processing and coefficient type data for resizing processing in the EEPROM 137A of the signal processing unit 137 of the base unit 1, the signal processing unit 137 corresponds to the parameter z. Thus, noise removal and resizing (enlargement or reduction) of the image data can be performed.
[0330]
In the above case, the tap coefficient wnAs shown in equation (2), β1, nz0+ Β2, nz1+ ... + βM, nzM-1And the tap coefficient w for improving both the horizontal and vertical resolutions corresponding to the parameter z by the equation (2).nThe tap coefficient wnAs the horizontal and vertical resolution, independent parameters zxAnd zyCorresponding to the above, it is also possible to seek what can be improved independently.
[0331]
That is, tap coefficient wnInstead of the expression (2), for example, the cubic expression β1, nzx 0zy 0+ Β2, nzx 1zy 0+ Β3, nzx 2zy 0+ Β4, nzx Threezy 0+ Β5, nzx 0zy 1+ Β6, nzx 0zy 2+ Β7, nzx 0zy Three+ Β8, nzx 1zy 1+ Β9, nzx 2zy 1+ Β10, nzx 1zy 2And a variable t defined by equation (3)mIn place of equation (3)1= Zx 0zy 0, T2= Zx 1zy 0, TThree= Zx 2zy 0, TFour= Zx Threezy 0, TFive= Zx 0zy 1, T6= Zx 0zy 2, T7= Zx 0zy Three, T8= Zx 1zy 1, T9= Zx 2zy 1, TTen= Zx 1zy 2Define in. In this case, tap coefficient wnCan be finally expressed by equation (4), and therefore, in the learning device (FIGS. 24 and 28), the parameter zxAnd zyIn response to the above, the image data obtained by degrading the horizontal resolution and the vertical resolution of the teacher data is used as student data, and learning is performed.m, nTo determine the horizontal and vertical resolution as independent parameters zxAnd zyTap coefficient w to be improved independently of each othernCan be requested.
[0332]
Other parameters z corresponding to horizontal resolution and vertical resolution, for examplexAnd zyIn addition to the parameter z corresponding to the temporal resolution.tBy introducing the horizontal resolution, vertical resolution, temporal resolution, independent parameters zx, Zy, ZtTap coefficient w to be improved independently of each othernCan be obtained.
[0333]
In the resizing process, as in the resolution improving process, the tap coefficient w for resizing both the horizontal and vertical directions at an enlargement rate (or reduction rate) corresponding to the parameter z.nIn addition, the horizontal and vertical directionsxAnd zyTap factor w to be resized independently at an enlargement ratio corresponding tonCan be obtained.
[0334]
Further, in the learning device (FIGS. 24 and 28), the parameter zxCorresponding to the deterioration of the horizontal and vertical resolution of the teacher data, and the parameter zyThe image data obtained by adding noise to the teacher data corresponding to them, nTo obtain the parameter zxTo improve horizontal and vertical resolution corresponding toyTap coefficient w to remove noise corresponding tonCan be requested.
[0335]
Next, the function of performing the image conversion processing as described above has not only the parent device 1 but also the child device 2.
[0336]
FIG. 29 shows an example of the functional configuration of the signal processing unit 157 of the slave unit 2 (FIG. 11) that performs the above-described image conversion processing. The functional configuration of FIG. 29 is also realized by the DSP 157A of the signal processing unit 157 executing the program stored in the EEPROM 157B, as in the case of the signal processing unit 137 of FIG.
[0337]
29, the signal processing unit 157 of the slave unit 2 includes a tap extraction unit 201 to a parameter memory 208 configured similarly to the tap extraction unit 161 to the parameter memory 168 of the signal processing unit 137 (FIG. 22) of the master unit 1, respectively. Therefore, the description thereof is omitted.
[0338]
It is possible to store the same coefficient seed data in the signal processing unit 137 of the parent device 1 and the signal processing unit 157 of the child device 2, but in the present embodiment, at least a part of them is stored. It is assumed that different coefficient seed data is stored.
[0339]
In other words, for example, the signal processing unit 137 of the parent device 1 stores coefficient type data for resizing processing and coefficient type data for resolution improvement processing, and the signal processing unit 157 of the child device 2 stores resizing data. It is assumed that coefficient type data for processing and coefficient type data for noise removal processing are stored.
[0340]
Alternatively, for example, the signal processing unit 137 of the parent device 1 stores coefficient type data for resizing processing, and a certain child device 2ijIn the signal processing unit 157, coefficient seed data for noise removal processing is stored and another one of the slave units 2 is stored.pqThe signal processing unit 157 can store coefficient seed data for resolution improvement processing.
[0341]
Here, it is possible to store coefficient seed data for performing various processes in both the signal processing unit 137 of the parent device 1 and the signal processing unit 157 of the child device 2, but in that case, It is necessary to store coefficient seed data for performing the various processes in the EEPROMs 137B and 157B. Therefore, the EEPROMs 137B and 157B need to have a large storage capacity, and the cost of the parent device 1 and the child device 2 increases.
[0342]
On the other hand, in the present embodiment, in the scalable TV system, the master unit 1 and the slave unit 2 are connected so that IEEE1394 communication is possible. Therefore, the master unit 1 or the slave unit 2 is the slave unit 2 or the master unit 2. The coefficient seed data possessed by the machine 1 can be acquired by IEEE1394 communication. Therefore, for example, if the handset 2 storing the coefficient seed data to be subjected to noise removal processing is connected to the base unit 1, the base unit 1 does not have the coefficient seed data (stored). However, it is possible to obtain coefficient seed data from the slave unit 2 and perform noise removal processing.
[0343]
As a result, in the master unit 1 (same in the slave unit 2), as the number of slave units 2 connected as a scalable TV system increases, the number of executable processes, that is, functions increase.
[0344]
In this case, as the EEPROMs 137B and 157B, those having a small storage capacity can be adopted, and the cost of the parent device 1 and the child device 2 can be reduced. Further, in this case, as the slave unit 2 is added in addition to the master unit 1, the functions of the scalable TV system as a whole increase, so that the user can be motivated to purchase the slave unit. Even when the user purchases a new slave unit, the slave unit 2 already owned by the user is necessary for the processing performed using the coefficient seed data of the slave unit 2, and the user owns the slave unit 2 It is possible to prevent the slave unit 2 that is being used from being discarded. As a result, it can contribute to the effective use of resources.
[0345]
In the present embodiment, for example, in the slave unit 2, the signal processing unit 157 does not perform processing in the slave unit 2 alone. That is, when the signal processing unit 157 of the slave unit 2 receives a command from the master unit 1 via the CPU 149 (FIG. 11) by IEEE1394 communication, the signal processing unit 157 performs processing corresponding to the command. Yes.
[0346]
Accordingly, the slave unit 2 is mainly configured to display an image corresponding to the television broadcast signal received by the antenna on the CRT 31 and to output sound from the speaker units 32L and 32R (hereinafter referred to as TV function as appropriate). And a function provided by processing by the signal processing unit 157 (hereinafter referred to as a special function as appropriate), but only a TV function can be used alone, and a special function cannot be used. . That is, in order to use the special function of the child device 2, the child device 2 needs to be connected to the parent device 1 to form a scalable TV system.
[0347]
Next, with reference to the flowchart of FIG. 30, the process of the main | base station 1 of FIG. 10 is demonstrated.
[0348]
First, in step S41, the CPU 129 determines whether any device has been connected to the terminal panel 21 or an event has occurred in which some command has been supplied from the IEEE1394 interface 133 or the IR receiver 135. If it is determined that no event has occurred, the process returns to step S41.
[0349]
If it is determined in step S41 that an event has occurred in which a device is connected to the terminal panel 21, the process proceeds to step S42, and the CPU 129 performs an authentication process shown in FIG. 31, which will be described later, and returns to step S41.
[0350]
Here, in order to determine whether or not a device is connected to the terminal panel 21, it is necessary to detect that a device is connected to the terminal panel 21. This detection is performed, for example, as follows. .
[0351]
That is, the IEEE1394 terminal 21 provided on the terminal panel 21 (FIG. 3).ijWhen a device is connected (via an IEEE1394 cable), the IEEE1394 terminal 21ijThe terminal voltage changes. The IEEE1394 interface 133 reports the change in the terminal voltage to the CPU 129. The CPU 129 receives a report on the change in the terminal voltage from the IEEE1394 interface 133, so that a new device is connected to the terminal panel 21. It is detected that Note that the CPU 129 recognizes that the device has been disconnected from the terminal panel 21 by the same method, for example.
[0352]
On the other hand, if it is determined in step S41 that an event has occurred in which any command is supplied from the IEEE1394 interface 133 or the IR receiver 135, the process proceeds to step S43, and the base unit 1 performs processing corresponding to the command. Return to step S41.
[0353]
Next, with reference to the flowchart of FIG. 31, the authentication process which the main | base station 1 performs by step S42 of FIG. 30 is demonstrated.
[0354]
In the authentication process of the base unit 1, authentication as to whether or not a device newly connected to the terminal panel 21 (hereinafter referred to as a connected device as appropriate) is a valid IEEE 1394 device, and the IEEE 1394 device is Two types of authentication are performed: whether or not the television receiver (scalable compatible device) is a child device.
[0355]
That is, in the authentication process of the base unit 1, first, in step S51, the CPU 129 controls the IEEE1394 interface 133 to transmit an authentication request command for requesting mutual authentication to the connected device. The process proceeds to step S52.
[0356]
In step S52, the CPU 129 determines whether a response corresponding to the authentication request command is returned from the connected device. If it is determined in step S52 that the response corresponding to the authentication request command has not been returned from the connected device, the process proceeds to step S53, and the CPU 129 transmits an authentication request command whether or not the time is over. It is determined whether or not a predetermined time has passed.
[0357]
If it is determined in step S53 that the time is over, that is, a response corresponding to the authentication request command is transmitted from the connected device even if a predetermined time has elapsed since the authentication request command was transmitted to the connected device. If the message does not return, the process proceeds to step S54, and the CPU 129 does not exchange any data with the connected device, assuming that the connected device is not a valid IEEE1394 device and authentication has failed. Set to single mode, which is the mode, and return.
[0358]
Accordingly, the base unit 1 thereafter does not exchange any data with the connected device that is not a legitimate IEEE 1394 device as well as the IEEE 1394 communication.
[0359]
On the other hand, if it is determined in step S53 that the time is not over, the process returns to step S52, and thereafter the same processing is repeated.
[0360]
If it is determined in step S52 that the response corresponding to the authentication request command has been returned from the connected device, that is, if the response from the connected device is received by the IEEE1394 interface 133 and supplied to the CPU 129, step In step S55, the CPU 129 generates a random number (pseudorandom number) R1 according to a predetermined algorithm, and transmits the random number (pseudorandom number) R1 to the connected device via the IEEE1394 interface 133.
[0361]
Thereafter, the process proceeds to step S56, and the CPU 129 converts the random number R1 from the random number R1 transmitted in step S55 to a predetermined encryption algorithm (for example, DES (Data Encryption Standard), FEAL (Fast data Encipherment Algorithm), It is determined whether or not an encrypted random number E ′ (R1) encrypted by a secret key encryption method such as RC5 has been transmitted from the connected device.
[0362]
If it is determined in step S56 that the encrypted random number E ′ (R1) has not been transmitted from the connected device, the process proceeds to step S57, in which the CPU 129 transmits the random number R1. It is determined whether or not a predetermined time has passed.
[0363]
If it is determined in step S57 that the time is over, that is, the random number R1 is transmitted from the connected device to the encrypted random number E ′ (R1) even if a predetermined time elapses after being transmitted to the connected device. Is not transmitted, the process proceeds to step S54, and as described above, the CPU 129 sets the operation mode to the single mode and returns, assuming that the connected device is not a valid IEEE1394 device.
[0364]
On the other hand, if it is determined in step S57 that the time is not over, the process returns to step S56, and thereafter the same processing is repeated.
[0365]
If it is determined in step S56 that the encrypted random number E ′ (R1) has been transmitted from the connected device, that is, the encrypted random number E ′ (R1) from the connected device is received by the IEEE1394 interface 133, When supplied to the CPU 129, the process proceeds to step S58, where the CPU 129 encrypts the random number R1 generated in step S55 with a predetermined encryption algorithm to generate an encrypted random number E (R1), and then proceeds to step S59.
[0366]
In step S59, the CPU 129 determines whether or not the encrypted random number E ′ (R1) transmitted from the connected device is equal to the encrypted random number E (R1) generated by itself in step S58.
[0367]
If it is determined in step S59 that the encrypted random numbers E ′ (R1) and E (R1) are not equal, that is, the encryption algorithm employed in the connected device (used for encryption if necessary). (Including the secret key) is different from the encryption algorithm employed by the CPU 129, the process proceeds to step S54, and the CPU 129 sets the operation mode as a single unit, assuming that the connected device is not a valid IEEE 1394 device as described above. Set to mode and return.
[0368]
If it is determined in step S59 that the encrypted random numbers E ′ (R1) and E (R1) are equal, that is, the encryption algorithm employed by the connected device is the encryption employed by the CPU 129. When it is equal to the algorithm, the process proceeds to step S60, and the CPU 129 determines whether or not a random number R2 for the connection device to authenticate the parent device 1 has been transmitted from the connection device.
[0369]
If it is determined in step S60 that the random number R2 has not been transmitted, the process proceeds to step S61, and the CPU 129 determines whether or not the time is over, that is, for example, the encrypted random number E ′ (R1) and E in step S59. It is determined whether or not a predetermined time has elapsed since it was determined that (R1) is equal.
[0370]
If it is determined in step S61 that the time is over, that is, if the random number R2 is not transmitted from the connected device even if a considerable time has elapsed, the process proceeds to step S54, and the CPU 129 is as described above. If the connected device is not a valid IEEE1394 device, the operation mode is set to the single mode and the process returns.
[0371]
On the other hand, if it is determined in step S61 that the time is not over, the process returns to step S60, and thereafter the same processing is repeated.
[0372]
If it is determined in step S60 that the random number R2 has been transmitted from the connected device, that is, if the random number R2 from the connected device is received by the IEEE1394 interface 133 and supplied to the CPU 129, the process proceeds to step S62. The CPU 129 encrypts the random number R2 with a predetermined encryption algorithm, generates an encrypted random number E (R1), and transmits it to the connected device via the IEEE1394 interface 133.
[0373]
Here, at step S60, when the random number R2 is transmitted from the connected device, authentication that the connected device is a valid IEEE1394 device is successful.
[0374]
Thereafter, the process proceeds to step S63, and the CPU 129 controls the IEEE1394 interface 133 to transmit the device ID and the function information of itself together with the function information request command for requesting the device ID and the function information of the connected device to the connected device. .
[0375]
Here, the device ID is a unique ID that identifies the television receiver that becomes the parent device 1 or the child device 2.
[0376]
The function information is information related to its own function, for example, the type of coefficient seed data that it has (what kind of coefficient seed data can be subjected to image conversion processing), and the type of command received from the outside ( For example, which of the commands for controlling power on / off, volume adjustment, channel, brightness, sharpness, etc. is accepted from the outside), whether or not the screen display (OSD display) is possible, and whether it can be muted Information such as whether or not it can be in a sleep state is included. Further, the function information includes information indicating whether the device itself has a function as a parent device or a function as a child device.
[0377]
In the base unit 1, the device ID and the function information can be stored in, for example, the EEPROM 130 or the vendor_dependent_information of the configuration ROM shown in FIG.
[0378]
Thereafter, the process proceeds to step S64, and the CPU 129 waits for the connected device to transmit the device ID and the function information in response to the function information request command transmitted to the connected device in step S63. And the function information are received via the IEEE1394 interface 133, stored in the EEPROM 130, and the process proceeds to step S65.
[0379]
In step S65, the CPU 129 determines whether the connected device is a slave device by referring to the function information stored in the EEPROM 130. If it is determined in step S65 that the connected device is a slave device, that is, if the authentication that the connected device is a slave device is successful, steps S66 and S67 are skipped, and the process proceeds to step S68. The operation mode is set to a special function command receiving / providing mode for controlling the special function of the slave unit by providing a control command for causing the connected device that is the slave unit to perform processing by the special function. Return.
[0380]
On the other hand, if it is determined in step S65 that the connected device is not a child device, the process proceeds to step S66, and the CPU 129 determines whether the connected device is a parent device by referring to the function information stored in the EEPROM 130. To do. If it is determined in step S66 that the connected device is the parent device, that is, if the authentication that the connected device is the parent device is successful, the process proceeds to step S67, and the CPU 129 determines whether the connected device is the parent device. Perform parent-child adjustment processing between
[0381]
In other words, in this case, since another parent device is connected to the parent device 1, there are two television receivers that function as the parent device in the scalable TV system. Become. In the present embodiment, it is necessary that there is only one parent device in the scalable TV system. For this reason, in step S67, between the parent device 1 and the parent device as the connected device, which is the parent device. A parent-child adjustment process for determining whether to function as a television receiver is performed.
[0382]
More specifically, for example, the parent device that has constituted the scalable TV system earlier, that is, in the present embodiment, the parent device 1 is determined to function as a television receiver as the parent device. Is done. Note that the other parent device determined not to function as the parent device functions as the child device.
[0383]
After the parent-child adjustment process is performed in step S67, the process proceeds to step S68, and as described above, the CPU 129 sets the operation mode to the special function command reception / provision mode and returns.
[0384]
On the other hand, when it is determined in step S66 that the connected device is not the parent device, that is, the connected device is neither the parent device nor the child device, and therefore, the authentication that the connected device is the parent device or the child device has failed. If YES in step S69, the CPU 129 can exchange a predetermined AV / C command set with the connected device as the operation mode, but does not exchange a control command for processing by a special function. Set to normal function command reception / provision mode that cannot be performed, and return.
[0385]
That is, in this case, since the connected device is neither a parent device nor a child device, even if such a connected device is connected to the parent device 1, no special function is provided. However, in this case, since the connected device is a legitimate IEEE 1394 device, the exchange of a predetermined AV / C command set between the parent device 1 and the connected device is permitted. Therefore, in this case, the parent device 1 and the connected device can be controlled from the other (or another IEEE1394 device connected to the parent device 1) using a predetermined AV / C command set.
[0386]
Next, with reference to the flowchart of FIG. 32, the process of the subunit | mobile_unit 2 of FIG. 11 is demonstrated.
[0387]
First, in step S71, the CPU 149 determines whether any device is connected to the terminal panel 41, or whether an event has occurred in which some command is supplied from the IEEE1394 interface 153 or the IR receiver 155. If it is determined that no event has occurred, the process returns to step S71.
[0388]
If it is determined in step S71 that an event for connecting a device to the terminal panel 41 has occurred, the process proceeds to step S72, and the CPU 149 performs an authentication process shown in FIG.
[0389]
Here, in order to determine whether or not a device is connected to the terminal panel 41, it is necessary to detect that a device is connected to the terminal panel 41. This detection is described in, for example, step S41 of FIG. This is done in the same way as
[0390]
On the other hand, if it is determined in step S71 that an event has occurred in which any command is supplied from the IEEE1394 interface 153 or the IR receiver 155, the process proceeds to step S73, and the slave unit 2 performs processing corresponding to the command. Return to step S71.
[0390]
Next, with reference to the flowchart of FIG. 33, the authentication process which the subunit | mobile_unit 2 performs by FIG.32 S72 is demonstrated.
[0392]
In the authentication process of the slave unit 2, authentication as to whether or not the device (connection device) newly connected to the terminal panel 41 is a valid IEEE 1394 device, and whether or not the IEEE 1394 device is the master unit. Two types of authentication are performed.
[0393]
That is, in the authentication process of the slave unit 2, first, in step S81, the CPU 149 determines whether or not an authentication request command for requesting mutual authentication is transmitted from the connected device. If it is determined that there is not, the process proceeds to step S82.
[0394]
In step S82, the CPU 149 determines whether the time is over, that is, whether a predetermined time has elapsed since the start of the authentication process.
[0395]
If it is determined in step S82 that the time is over, that is, if an authentication request command is not transmitted from the connected device even after a predetermined time has elapsed since the start of the authentication process, the process proceeds to step S83. The CPU 149 sets the operation mode to a single mode that is a mode in which no data is exchanged with the connected device, assuming that the connected device is not a valid IEEE1394 device and authentication has failed. To return.
[0396]
Therefore, as with the base unit 1, the handset 2 does not exchange any data with the connection device that is not a legitimate IEEE 1394 device as well as the IEEE1394 communication.
[0397]
On the other hand, if it is determined in step S82 that the time is not over, the process returns to step S81, and thereafter the same processing is repeated.
[0398]
If it is determined in step S81 that the authentication request command has been transmitted from the connected device, that is, the authentication request command transmitted from the parent device 1 as the connected device in step S51 in FIG. If it is received at 153 and supplied to the CPU 149, the process proceeds to step S84, where the CPU 149 controls the IEEE1394 interface 153 to transmit a response to the authentication request command to the connected device.
[0399]
Here, in the present embodiment, the processing in steps S51 to S53 in FIG. 31 is performed in the master unit 1, and the processing in steps S81, S82, and S84 in FIG. It is also possible to cause the slave unit 2 to perform the processes in steps S51 to S53 in FIG. 31, and allow the master unit 1 to perform the processes in steps S81, S82, and S84 in FIG.
[0400]
Thereafter, the process proceeds to step S85, and the CPU 149 determines whether or not the random number R1 has been transmitted from the connected device. If it is determined that the random number R1 has not been transmitted, the CPU 149 proceeds to step S86.
[0401]
In step S86, the CPU 149 determines whether the time is over, that is, whether a predetermined time has elapsed since the response to the authentication request command was transmitted in step S84.
[0402]
If it is determined in step S86 that the time is over, that is, if the random number R1 is not transmitted from the connected device even after a predetermined time has elapsed since the response to the authentication command was transmitted, step S83 is performed. Then, as described above, the CPU 149 sets the operation mode to the single mode, which is a mode in which no data is exchanged with the connected device, assuming that the connected device is not a valid IEEE1394 device. To return.
[0403]
On the other hand, if it is determined in step S86 that the time is not over, the process returns to step S85, and thereafter the same processing is repeated.
[0404]
When it is determined in step S85 that the random number R1 has been transmitted from the connected device, that is, the random number R1 transmitted from the parent device 1 as the connected device in step S55 in FIG. 31 is received by the IEEE1394 interface 153. If it is supplied to the CPU 149, the process proceeds to step S87, where the CPU 149 encrypts the random number R1 with a predetermined encryption algorithm to generate an encrypted random number E ′ (R1). Furthermore, in step S87, the CPU 149 controls the IEEE1394 interface 153 to transmit the encrypted random number E ′ (R1) to the connected device, and proceeds to step S89.
[0405]
In step S89, the CPU 149 generates a random number (pseudo-random number) R2, controls the IEEE1394 interface 153 to transmit the random number R2 to the connected device, and proceeds to step S90.
[0406]
In step S90, the CPU 149 determines whether or not the encrypted random number E (R2) obtained by encrypting the random number R2 generated by the parent device 1 as the connected device in step S62 in FIG. 31 has been transmitted from the connected device. .
[0407]
If it is determined in step S90 that the encrypted random number E (R2) has not been transmitted from the connected device, the process proceeds to step S91, and the CPU 149 determines whether the time has expired, that is, after transmitting the random number R2. It is determined whether a predetermined time has elapsed.
[0408]
If it is determined in step S91 that the time is over, that is, even if a predetermined time has elapsed after the random number R2 is transmitted to the connected device, the encrypted random number E (R2) is received from the connected device. If it has not been transmitted, the process proceeds to step S83, and the CPU 149 sets the operation mode to the single mode and returns, as described above, assuming that the connected device is not a valid IEEE1394 device.
[0409]
On the other hand, if it is determined in step S91 that the time is not over, the process returns to step S90, and thereafter the same processing is repeated.
[0410]
If it is determined in step S90 that the encrypted random number E (R2) has been transmitted from the connected device, that is, the encrypted random number E (R2) from the connected device is received by the IEEE1394 interface 153 and is sent to the CPU 149. If supplied, the process proceeds to step S92, and the CPU 149 encrypts the random number R2 generated in step S89 with a predetermined encryption algorithm, generates an encrypted random number E ′ (R2), and then proceeds to step S93.
[0411]
In step S93, the CPU 149 determines whether the encrypted random number E (R2) transmitted from the connected device is equal to the encrypted random number E ′ (R2) generated by itself in step S92.
[0412]
If it is determined in step S93 that the encrypted random numbers E (R2) and E ′ (R2) are not equal, that is, the encryption algorithm employed in the connected device (used for encryption if necessary). If the encryption algorithm employed by the CPU 149 is different from the encryption algorithm adopted by the CPU 149, the process proceeds to step S83, and the CPU 149 determines that the connected device is not a valid IEEE 1394 device as described above and sets the operation mode alone. Set to mode and return.
[0413]
If it is determined in step S93 that the encrypted random numbers E (R2) and E ′ (R2) are equal, that is, the encryption algorithm employed by the connected device is the encryption employed by the CPU 149. If the authentication that the connected device is a legitimate IEEE 1394 device is successful, the process proceeds to step S94, and the CPU 149 determines that the parent device 1 as the connected device is in step S63 of FIG. The device ID and the function information transmitted together with the function information request command are received via the IEEE1394 interface 153 and stored in the EEPROM 150.
[0414]
In step S95, the CPU 149 controls the IEEE1394 interface 153 to transmit its own device ID and function information to the connected device in response to the function information request command from the connected device received in step S94. Then, the process proceeds to step S96.
[0415]
Here, in the slave unit 2, the function ID and the function information are stored in the EEPROM 150, the vendor_dependent_information of the configuration ROM shown in FIG. 15, etc., as in the case of the master unit 1 described in FIG. Can do.
[0416]
In step S96, the CPU 149 refers to the function information stored in the EEPROM 150 to determine whether the connected device is a parent device. If it is determined in step S96 that the connected device is a parent device, that is, if the connection device is successfully authenticated as a parent device, the process proceeds to step S97, and the CPU 149 sets the operation mode to the parent device. A control command is received from the connected device, processing according to the special function is performed in response to the control command, that is, a special function command receiving / providing mode for receiving a control command for controlling the special function is set, and the process returns.
[0417]
Here, when the handset 2 is in the special function command receiving / providing mode, the handset basically ignores commands supplied from its own front panel 154 and IR receiving unit 155 and is received by the IEEE1394 interface 153. In accordance with the command from 1, various processes are performed. That is, the handset 2 is in a state where, for example, setting of the channel and volume and the like are performed only in response to commands from the base unit 1. Therefore, it can be said that the scalable TV system is a so-called centralized control system in which the master unit 1 controls all the slave units 2 constituting the scalable TV system.
[0418]
Note that the transmission of the command from the parent device 1 (FIG. 10) to the child device 2 can be performed based on the input from the front panel 134 or the IR receiver 135, or the front panel 154 or IR of the child device 2. The input to the receiving unit 155 can also be performed based on the input transferred to the parent device 1 via the IEEE1394 interface 153 and thus transferred from the child device 2 to the parent device 1.
[0419]
On the other hand, if it is determined in step S96 that the connected device is not the parent device, that is, if the authentication that the connected device is the parent device fails, the process proceeds to step S98, and the CPU 149 changes the operation mode to the connected device. The default AV / C command set can be exchanged between them, but the normal function command reception / provision mode is set in which the control command for performing the processing by the special function cannot be exchanged, and the process returns.
[0420]
That is, in this case, since the connection device is not the parent device, even if such a connection device is connected to the child device 2, no special function is provided. Therefore, the special function is not provided only by connecting the slave unit 2 to another slave unit. However, in this case, since the connected device is a legitimate IEEE 1394 device, exchange of a predetermined AV / C command set between the handset 2 and the connected device is permitted. Therefore, in this case, the slave unit 2 and the connected devices (including other slave units) can be controlled from the other side by a predetermined AV / C command set.
[0421]
Next, the authentication process described with reference to FIGS. 31 and 33 has succeeded in the master unit 1 and the slave unit 2, respectively, and the master unit 1 and the slave unit 2 set the operation mode to the special function command reception / provision mode. Later, in order for the scalable TV system to provide a special function, an example of details of processing performed by the parent device 1 and the child device 2 in step S43 in FIG. 30 and step S73 in FIG. 32 will be described.
[0422]
First, as described in FIG. 10, the base unit 1 outputs an image and sound as a television broadcast program (images are displayed and sound is output). When the user operates to turn on the guide button switch 63 of the remote controller 15 (FIG. 7) (or the guide button switch 93 of the remote controller 35 (FIG. 8)) when the image and the sound are output, The remote controller 15 emits infrared rays corresponding to the user's operation. This infrared ray is received by the IR receiver 135 of the parent device 1 (FIG. 10), and a command corresponding to the operation of the guide button switch 63 (hereinafter referred to as a caption display command as appropriate) is supplied to the CPU 129.
[0423]
Infrared light from the remote controller 15 is also received by the IR receiver 155 of the child device 2 (FIG. 11). However, in the child device 2, this infrared light is ignored.
[0424]
When receiving the caption display command as described above, the CPU 129 of the parent device 1 (FIG. 10) performs the closed caption processing of the parent device according to the flowchart of FIG.
[0425]
That is, the CPU 129 first determines whether or not closed caption data is included in the transport stream supplied to the demultiplexer 124 in step S101.
[0426]
Here, when closed caption data is included in the MPEG video stream, the closed caption data is arranged, for example, as MPEG user data (MPEG-2 user data) in the sequence layer. In this case, in step S101, the CPU 129 refers to the transport stream supplied to the demultiplexer 124, and determines whether or not the closed caption data is included in the transport stream.
[0427]
If it is determined in step S101 that the closed caption data is not included in the transport stream, the subsequent processing is skipped and the closed caption processing is terminated.
[0428]
If it is determined in step S101 that the closed caption data is included in the transport stream, the process proceeds to step S102, and the CPU 129 stores the function information of the slave unit constituting the scalable TV system stored in the EEPROM 130, In addition, by referring to the function information of itself, the television receivers that constitute the scalable TV system are searched for those having coefficient seed data for closed captions. That is, as described above, the function information includes the type of coefficient seed data included in each television receiver constituting the scalable TV system. In step S102, the function information is referred to by referring to such function information. Then, a search for a television receiver having coefficient seed data for closed captioning is performed.
[0429]
Here, the coefficient seed data for closed caption is, for example, the image data of the closed caption displayed by the closed caption data as the teacher data, the image data in which the resolution of the teacher data is degraded, and the teacher data It is coefficient seed data obtained by learning image data with noise added to it or image data obtained by reducing the teacher data as student data. For closed caption images, improvement in resolution, noise It means coefficient seed data particularly suitable for performing removal or enlargement.
[0430]
Thereafter, the process proceeds to step S103, and the CPU 129 determines whether there is a television receiver having coefficient seed data dedicated to closed caption, based on the search result of step S102.
[0431]
If it is determined in step S103 that there is no television receiver having coefficient type data dedicated to closed caption, the process proceeds to step S104, and the CPU 129 sets the signal processing unit 137 to start normal closed caption display. Control.
[0432]
That is, the signal processing unit 137 also has a function as a so-called closed caption decoder, and the CPU 129 requests the demultiplexer 124 for closed caption data in the transport stream, and in response to the request, the demultiplexer 124. The closed caption data supplied from is supplied to the signal processing unit 137. The signal processing unit 137 decodes the closed caption data from the CPU 129 and superimposes the closed caption obtained as a result on a predetermined position of the image data stored in the frame memory 127. As a result, the image data in which the closed caption is superimposed on the image data decoded by the MPEG video decoder 125 is displayed on the CRT 11.
[0433]
Therefore, in this case, in the CRT 11 of the base unit 1, the corresponding closed caption is superimposed and displayed on the image as the content, as in the case of a general television receiver having a closed caption decoder. .
[0434]
As described above, when the display of the closed caption is started, the process proceeds to step S105, and the CPU 129 should still display in the transport stream supplied to the demultiplexer 124 as in the case of step S101. Determine whether closed caption data is included.
[0435]
If it is determined in step S105 that there is no closed caption data, the process skips step S106 and proceeds to step S107. The CPU 129 controls the signal processing unit 137 to end the decoding process of the closed caption data. Closed caption processing ends.
[0436]
On the other hand, if it is determined in step S105 that the closed-caption data to be displayed is still included in the transport stream supplied to the demultiplexer 124, the process proceeds to step S106, and the CPU 129 displays the closed caption display. It is determined whether a command to be terminated (hereinafter referred to as a closed caption display off command as appropriate) has been transmitted.
[0437]
If it is determined in step S106 that a closed caption display off command has not been transmitted, the process returns to step S105, and the same processing is repeated thereafter. That is, in this case, the closed caption display is continued.
[0438]
If it is determined in step S106 that a closed caption display off command has been transmitted, that is, for example, the user operates the guide button switch 63 of the remote controller 15 (FIG. 7) (or the guide button of the remote controller 35 (FIG. 8)). When the infrared ray corresponding to the closed caption display off command is emitted from the remote controller 15 and received by the IR receiver 135 by operating the switch 93) to be turned off, the process proceeds to step S107, and the CPU 129 As described above, by controlling the signal processing unit 137, the decoding process of the closed caption data is terminated, and the closed caption process is terminated.
[0439]
On the other hand, if it is determined in step S103 that there is a handset as a television receiver having coefficient type data dedicated to closed caption (hereinafter referred to as caption coefficient type data holding handset as appropriate), the process proceeds to step S108. CPU129 selects what displays a closed caption from the subunit | mobile_unit as a television receiver which comprises a scalable TV system.
[0440]
That is, the CPU 129, for example, the slave unit 2 arranged on the left side of the master unit 1twenty threeOr the slave unit 2 placed below32Are selected as slave units that display closed captions (hereinafter referred to as caption display slave units as appropriate). The master unit 1 is a slave unit 2ijAs described above, the arrangement position viewed from the parent device 1 is recognized in advance, so that the child device 2 arranged on the left side of the parent device 1 is recognized.twenty threeOr the slave unit 2 placed below32Etc.ijIs identified.
[0441]
Thereafter, the process proceeds to step S109, and the CPU 129 transmits a command to the caption coefficient seed data holding unit via the IEEE1394 interface 133, thereby requesting coefficient seed data dedicated to closed captioning.
[0442]
Here, the CPU 129 specifies a slave unit serving as a caption coefficient type data holding unit by a device ID stored together with function information in the EEPROM 130, and requests a coefficient type data dedicated to closed caption (hereinafter, referred to as a command type). If necessary, a coefficient seed data request command is transmitted to the device ID. The CPU 129 also specifies a slave device to which the command other than the coefficient seed data request command is to be sent by the device ID, and transmits it to the device ID.
[0443]
In step S109, the CPU 129 further waits for the coefficient seed data dedicated for closed captioning to be transmitted from the caption coefficient seed data holding unit that has received the coefficient seed data request command, and then the coefficient seed data dedicated to the closed caption. Is received via the IEEE1394 interface 133, thereby obtaining coefficient seed data dedicated to closed captions.
[0444]
Here, when the coefficient seed data dedicated to closed caption is stored in the EEPROM 137B of its own signal processing unit 137, the CPU 129 reads out the coefficient seed data dedicated to closed caption from the EEPROM 137B in step S109. get.
[0445]
Further, even when coefficient seed data dedicated to closed caption is not stored in any of the television receivers constituting the scalable TV system, for example, in a coefficient seed data providing server (not shown), closed caption When dedicated coefficient seed data is provided, the CPU 129 controls the modem 136 to access the coefficient seed data providing server, and from the coefficient seed data providing server, the coefficient seed data dedicated to closed captioning is accessed. It is possible to get.
[0446]
The provision of coefficient seed data by such a coefficient seed data providing server is not limited to coefficient seed data dedicated to closed captioning, but is also the same for coefficient seed data used for various processes (image conversion processing) described later. Can be done.
[0447]
The provision of the coefficient seed data by the coefficient seed data providing server can be performed free of charge or for a fee.
[0448]
When the CPU 129 obtains coefficient type data dedicated to closed captioning in step S109, the process proceeds to step S110, and the IEEE 1394 interface 133 is controlled to control the caption display slave unit to display closed captions. Along with the command, coefficient seed data dedicated to closed caption is transmitted, and the process proceeds to step S111.
[0449]
In step S111, the CPU 129 controls the IEEE1394 interface 133 to instruct the caption display slave unit to select an input to the IEEE1394 interface 153 (FIG. 11) and display it on the CRT 31. An external input selection command is transmitted, and the process proceeds to step S112.
[0450]
In step S112, the CPU 129 starts transferring the closed caption data to the caption display slave unit.
[0451]
That is, the CPU 129 requests the demultiplexer 124 for closed caption data in the transport stream, and receives the closed caption data supplied from the demultiplexer 124 in response to the request. Further, the CPU 129 controls the IEEE1394 interface 133 to transfer the closed caption data received from the demultiplexer 124 to the caption display slave unit.
[0452]
As described above, when the transfer of the closed caption data to the caption display slave unit is started, the process proceeds to step S113, and the CPU 129 transfers the transformer supplied to the demultiplexer 124 as in step S101. It is determined whether or not the closed caption data to be displayed is included in the port stream.
[0453]
If it is determined in step S113 that there is no closed caption data, step S114 is skipped and the process proceeds to step S115. The CPU 129 controls the IEEE1394 interface 133 to end the closed caption data transfer process, and closes the closed caption data. End the caption process.
[0454]
On the other hand, if it is determined in step S113 that the closed stream data to be displayed is still included in the transport stream supplied to the demultiplexer 124, the process proceeds to step S114, and the CPU 129 displays the closed caption display. It is determined whether a command to be ended (closed caption display off command) has been transmitted.
[0455]
If it is determined in step S114 that the closed caption display off command has not been transmitted, the process returns to step S113, and the same processing is repeated thereafter. That is, in this case, the transfer of the closed caption data to the caption display slave unit is continued.
[0456]
When it is determined in step S114 that a closed caption display off command has been transmitted, that is, for example, the user operates the guide button switch 63 of the remote controller 15 (FIG. 7) (or the guide button of the remote controller 35 (FIG. 8)). When the infrared ray corresponding to the closed caption display off command is emitted from the remote controller 15 and received by the IR receiver 135 by operating the switch 93) to be turned off, the process proceeds to step S115, where the CPU 129 By controlling the interface 133, the closed caption data transfer process is terminated, and the closed caption process is terminated.
[0457]
In the base unit 1, the closed caption process shown in FIG. 34 is performed, whereby a closed caption display command is transmitted in step S110, and the closed caption display command is received by the slave unit 2 as a caption display slave unit. Then (when received by the IEEE1394 interface 153 of the slave unit 2 (FIG. 11) and supplied to the CPU 149), the slave unit 2 performs the closed caption processing of the slave unit according to the flowchart of FIG.
[0458]
In other words, in the slave unit 2 (FIG. 11) as the caption display slave unit, first, in step S121, in step S110 of FIG. 34, the closed caption dedicated command transmitted from the master unit 1 together with the closed caption display command is displayed. The coefficient seed data is received by the IEEE1394 interface 153, supplied to the CPU 149, and the process proceeds to step S122.
[0459]
In step S122, the CPU 149 transfers the coefficient seed data dedicated to closed captions to the signal processing unit 157 and sets (stores) it in the coefficient seed memory 207 (FIG. 29). At this time, the signal processing unit 157 saves the coefficient seed data originally stored in the coefficient seed memory 207 in the empty area of the EEPROM 157B in advance.
[0460]
Here, when the slave unit 2 serving as a caption display slave unit is also a caption coefficient type data holding slave unit, that is, the coefficient memory 207 constituting the signal processing unit 157 of the slave unit 2 is originally used for closed captioning. When the coefficient seed data is stored, the processes in steps S121 and S122 described above and the process in step S128 described later can be skipped.
[0461]
Thereafter, the process proceeds to step S123, in which the CPU 149 determines whether or not the base unit 1 has received the external input selection command transmitted in step S111 in FIG. 34, and returns to step S123 if it is determined that it has not been received. .
[0462]
Further, when it is determined in step S123 that an external input selection command is received from the parent device 1, that is, when an external input selection command is received from the parent device 1 and supplied to the CPU 149 in the IEEE1394 interface 153. In step S124, the CPU 149 selects closed caption data received by the IEEE1394 interface 153 and supplies the closed caption data to the signal processing unit 157, and the process advances to step S125.
[0463]
In step S125, the CPU 149 determines whether or not the closed caption data for starting the transfer in step S112 of FIG.
[0464]
When it is determined in step S125 that the closed caption data from the parent device 1 has been transmitted, that is, when the closed caption data from the parent device 1 is received and supplied to the CPU 149 in the IEEE1394 interface 153, the processing is performed in step S126. In step S122, the CPU 149 supplies the closed caption data to the signal processing unit 157, and the coefficient dedicated to the closed caption set in the coefficient seed memory 207 (FIG. 29) in step S122. An image conversion process using the seed data is performed.
[0465]
That is, in this case, the signal processing unit 157 decodes the closed caption data from the CPU 149, and the closed caption image data obtained as a result is generated from the coefficient seed data dedicated to the closed caption stored in the coefficient seed memory 207. By performing image conversion processing using the tap coefficient, the image data is converted into high-quality closed caption image data.
[0466]
In step S127, the high-quality closed caption image data is supplied to the CRT 31 via the frame memory 147 and the NTSC encoder 148 and displayed. Then, the process returns to Step S125, and Steps S125 to S127 are repeated until it is determined in Step S125 that closed caption data is not transmitted from the parent device 1.
[0467]
If it is determined in step S125 that closed caption data is not transmitted from the base unit 1, that is, if the closed caption data cannot be received by the IEEE1394 interface 153, the process proceeds to step S128. The processing unit 157 resets (overwrites) the original coefficient seed data saved in the EEPROM 157B in the coefficient seed memory 207 (FIG. 29), and ends the closed caption processing.
[0468]
According to the closed caption processing of the master unit shown in FIG. 34 and the closed caption processing of the slave unit shown in FIG. 35, some television receivers constituting the scalable TV system have coefficient seed data dedicated to closed captions. If not, the base unit 1 superimposes the closed caption image data on the image data as the television broadcast program and displays it on the CRT 11 as in the conventional television receiver with a built-in closed caption decoder. The
[0469]
On the other hand, when there is a television receiver constituting the scalable TV system that has coefficient seed data dedicated for closed captioning, the CRT 11 of the parent device 1 only has image data as a television broadcast program. Is displayed. Further, in the CRT 31 of the slave unit 2 as the slave unit for caption display, the closed caption image data corresponding to the image data displayed on the CRT 11 of the master unit 1 is converted into high-quality image data. Is displayed.
[0470]
Therefore, the user can view the image data as the television broadcast program without being obstructed by the image data of the closed caption. Furthermore, the user can view high-quality closed caption image data.
[0471]
Note that even if there is no television receiver that constitutes a scalable TV system that has coefficient type data dedicated to closed captioning, the image data of the closed caption is the image data of the television broadcast program. In addition, it is possible to display on the CRT 31 of the slave unit 2 as a caption display slave unit. In this case, the user cannot view the image data of the closed caption with high image quality, but can still view the image data as the television broadcast program without being interrupted by the image data of the closed caption. .
[0472]
In the above-described case, the closed caption image data is displayed only on one slave unit 2 as a caption display slave unit. However, the closed caption image data can be displayed on a scalable TV system. It is also possible to display on two or more slave devices that constitute the device. That is, for example, when closed caption data in a plurality of languages exists, it is possible to display the closed caption image data in each language on different slave units.
[0473]
Next, the scalable TV system has, for example, a special function for enlarging a part of image data, and this special function is realized by performing partial enlargement processing in the master unit 1 and the slave unit 2. Is done.
[0474]
An instruction to perform the partial enlargement process can be performed from a menu screen, for example.
[0475]
That is, as described above, when the user operates the menu button switch 54 (or the menu button switch 84 of the remote controller 35 (FIG. 8)) of the remote controller 15 (FIG. 7), the CRT 11 (or the slave unit 2) of the parent device 1 is operated. A menu screen is displayed on the CRT 31). For example, an icon representing a partial enlargement process (hereinafter, referred to as a partial enlargement icon as appropriate) is displayed on the menu screen. When the user clicks this partially enlarged icon by operating the remote controller 15, a partially enlarged process is started in each of the parent device 1 and the child device 2.
[0476]
First, a partial enlargement process of the master unit will be described with reference to the flowchart of FIG.
[0477]
For example, if image data as a television broadcast program (hereinafter referred to as program image data as appropriate) is displayed on the CRT 11 of the main unit 1 and a partially enlarged icon is clicked, first, In step S131, the CPU 129 replaces the master unit 1 with a scalable slave unit that displays the entire program image data displayed on the CRT 11 of the master unit 1 (hereinafter, referred to as an overall display slave unit as appropriate). The television receiver constituting the TV system is selected from the television receivers, and the process proceeds to step S132.
[0478]
Here, as the slave unit for whole display, it is possible to select only one of the slave units constituting the scalable TV system, or to select two or more units (including all). It is also possible to make it.
[0479]
In step S132, the CPU 129 controls the IEEE1394 interface 133 to communicate with the whole display slave unit, and thereby determines whether the whole display slave unit is turned on.
[0480]
If it is determined in step S132 that the power supply of the whole display slave unit is not turned on, the process proceeds to step S133, and the CPU 129 controls the IEEE1394 interface 133 to control the whole display slave unit. A command instructing to turn on the power is transmitted, whereby the entire display slave is turned on, and the process proceeds to step S134.
[0481]
If it is determined in step S132 that the power of the whole display slave unit is on, step S133 is skipped and the process proceeds to step S134. The CPU 129 controls the signal processing unit 137. In the image displayed on the CRT 11, a message requesting to designate a position to be enlarged (enlarged position) (hereinafter referred to as an enlarged position designation request message) is displayed on the CRT 11 by, for example, OSD.
[0482]
That is, in this case, the signal processing unit 137 generates the OSD data of the enlarged position designation request message according to the control from the CPU 129 and superimposes it on the program image data stored in the frame memory 127. The program image data on which the OSD data of the enlargement position designation request message is superimposed is supplied from the frame memory 127 to the CRT 11 via the NTSC encoder 128. With this, in the CRT 11, the enlargement position designation is performed together with the program image data. The request message is OSD displayed.
[0483]
Thereafter, the process proceeds to step S135, and the CPU 129 determines whether or not the user has specified an enlarged position in response to the enlarged position designation request message displayed in step S134, and determines that the enlarged position has not been designated. If so, the process returns to step S135.
[0484]
If it is determined in step S135 that the user has designated an enlargement position, that is, the user designates a position on the display screen of the CRT 11 by operating the remote controller 15 (or the remote controller 35). When the infrared ray corresponding to the position is received by the IR receiver 135 and supplied to the CPU 129, the CPU 129 recognizes the designated position as an enlarged position, and proceeds to step S136.
[0485]
In step S136, the CPU 129 controls the IEEE1394 interface 133 to instruct the entire display slave unit to select an input to the IEEE1394 interface 153 (FIG. 11) and display it on the CRT 31. An external input selection command is transmitted, and the process proceeds to step S137.
[0486]
In step S137, CPU 129 starts transferring the program image data to the full display slave unit.
[0487]
That is, the CPU 129 requests the demultiplexer 124 for the TS packet supplied to the MPEG video decoder 125 in the transport stream, and receives the TS packet supplied from the demultiplexer 124 in response to the request. Further, the CPU 129 controls the IEEE1394 interface 133 to transfer the TS packet received from the demultiplexer 124 to the whole display slave unit. Accordingly, the TS packet corresponding to the program image data displayed on the CRT 11 of the master unit 1 is transferred to the full display slave unit. Further, in the full display slave unit, one of the slave units shown in FIG. By performing the part enlargement process, program image data corresponding to the TS packet is displayed. In other words, the entire display slave unit displays the entire program image data displayed on the master unit 1.
[0488]
In the CPU 129, the program image data stored in the frame memory 127, that is, the image data after MPEG decoding is read via the signal processing unit 137 and transferred to the entire display slave unit, not the TS packet. It is also possible to do so. In this case, the program display data can be displayed on the whole display slave unit without MPEG decoding.
[0489]
As described above, when the transfer of the TS packet to the whole display slave unit is started, the process proceeds to step S138, and the CPU 129 controls the signal processing unit 137 to store the program stored in the frame memory 127. Image conversion using a predetermined range centered on the enlargement position of image data as an enlargement range, and using the enlargement range as a target, and coefficient seed data for resizing processing set in the coefficient seed memory 167 (FIG. 22) Let the process do.
[0490]
That is, in this embodiment, at least coefficient type data for resizing processing is stored in the coefficient type memory 167 constituting the signal processing unit 137 (FIG. 22) of the base unit 1, and the signal processing unit 137 The tap coefficient generated from the coefficient seed data for resizing processing stored in the coefficient seed memory 167 is used for the expansion range as a predetermined range centering on the expansion position of the program image data stored in the frame memory 127. By performing image conversion processing, the program image data in the enlargement range is converted into image data enlarged (resized) at a predetermined enlargement rate (hereinafter referred to as “partially enlarged image data” as appropriate).
[0491]
This partially enlarged image data is supplied to the CRT 11 via the frame memory 127 and the NTSC encoder 128 and displayed in step S139.
[0492]
Therefore, in this case, the CRT 11 of the parent device 1 displays partially enlarged image data obtained by enlarging a predetermined range (enlarged range) centered on the enlarged position designated by the user of the program image data.
[0493]
Here, the size range of the enlargement range is set corresponding to the enlargement rate, for example.
[0494]
That is, when performing the partial enlargement process, for example, a default enlargement ratio (default enlargement ratio) is set in advance, and the CPU 129 assigns parameters corresponding to the default enlargement ratio to the signal processing unit 137 (FIG. 22). Parameter memory 168. Accordingly, the signal processing unit 137 performs a resizing process in which the program image data is enlarged by the default enlargement ratio.
[0495]
On the other hand, the size of the image data that can be displayed on the CRT 11, that is, the size of the display screen is determined in advance.
[0496]
Therefore, the CPU 129 sets a range centering on the enlargement position, which is the size of the display screen of the CRT 11 when the enlargement is performed by the default enlargement ratio, as the enlargement range.
[0497]
Note that the user can set the enlargement ratio when performing the image conversion processing in step S138.
[0498]
That is, for example, by controlling the signal processing unit 137 in the CPU 129, an enlargement ratio can be designated for the CRT 11, a lever that can be operated by the remote controller 15 (or the remote controller 35) (hereinafter designated as an enlargement ratio as appropriate). It is possible to display an enlargement ratio) and designate the enlargement ratio by the position of the enlargement ratio designation lever.
[0499]
In this case, when the user moves the position of the enlargement ratio designating lever by operating the remote controller 15, the CPU 129 sets the enlargement ratio parameter corresponding to the position after the movement in the signal processing unit 137 (FIG. 22). It is set in the parameter memory 168. Further, the CPU 129 sets an enlargement range centered on the enlargement position corresponding to the enlargement rate corresponding to the position of the enlargement rate designating lever as in the case of the default enlargement rate described above, and targets the enlargement range. The signal processing unit 137 is instructed to perform image conversion processing (resizing processing).
[0500]
As described above, the partially enlarged image data obtained by enlarging the program image data in the enlarged range centered on the enlarged position is displayed on the CRT 11 with the enlargement rate according to the operation of the remote controller 15 by the user.
[0501]
The enlargement factor designating lever can be displayed on the CRT 11 of the master unit 1 or displayed on a television receiver other than the master unit 1 constituting the scalable TV system.
[0502]
Thereafter, the process proceeds to step S140, and the CPU 129 determines whether a command for ending the display of the partially enlarged image data (hereinafter, referred to as a partially enlarged end command as appropriate) has been transmitted.
[0503]
If it is determined in step S140 that a partial enlargement end command has not been transmitted, the process returns to step S133, and the same processing is repeated thereafter.
[0504]
If it is determined in step S140 that a partial enlargement end command has been transmitted, that is, for example, the user operates the remote controller 15 (FIG. 7) to display a menu screen on the CRT 11, and The partial enlargement icon on the menu screen is clicked again, whereby the infrared of the partial enlargement end command, which is a command corresponding to the operation of the remote controller 15, is emitted from the remote controller 15 and received by the IR receiver 135. If it is supplied to the CPU 129, the process proceeds to step S141, and the CPU 129 controls the IEEE1394 interface 133 to end the transfer of the program image data to the whole display slave unit.
[0505]
In step S142, the CPU 129 controls the signal processing unit 137 to stop the resizing process, and ends the partial enlargement process. As a result, the CRT 11 displays an image in the normal size.
[0506]
Next, with reference to the flowchart of FIG. 37, the partial expansion process of the slave unit as the slave unit for whole display will be described.
[0507]
In handset 2 as the overall display handset, first, in step S151, CPU 149 determines whether or not base unit 1 has received the external input selection command transmitted in step S136 in FIG. If it is determined that it has not been received, the process returns to step S151.
[0508]
If it is determined in step S151 that an external input selection command has been received from the parent device 1, that is, the external input selection command from the parent device 1 has been received and supplied to the CPU 149 in the IEEE1394 interface 153. In step S152, the CPU 149 selects program image data received by the IEEE1394 interface 153, supplies the program image data to the MPEG video decoder 145 via the demultiplexer 144, and proceeds to step S153.
[0509]
In step S153, the CPU 149 determines whether or not the program image data that the base unit 1 starts to transfer in step S137 of FIG. 36 has been transmitted.
[0510]
If it is determined in step S153 that the program image data from the parent device 1 has been transmitted, that is, if the program image data from the parent device 1 is received and supplied to the CPU 149 in the IEEE1394 interface 153, the program is step S154. The CPU 149 causes the CRT 31 to display the program image data.
[0511]
That is, in the present embodiment, in step S137 of FIG. 36, transmission of TS packets as program image data is started from the master unit 1 to the slave unit 2 as the overall display slave unit. The CPU 149 supplies the TS packet from the parent device 1 received via the IEEE1394 interface 153 to the MPEG video decoder 145 via the demultiplexer 144. The MPEG video decoder 145 decodes the TS packet to obtain program image data, and writes it into the frame memory 147. The program image data written in the frame memory 147 is supplied to the CRT 31 via the NTSC encoder 148 and displayed.
[0512]
Thereafter, the process returns to step S153, and the processes of steps S153 and S154 are repeated until it is determined in step S153 that no program image data is transmitted from the parent device 1.
[0513]
If it is determined in step S153 that program image data has not been transmitted from base unit 1, that is, if it is no longer possible to receive program image data in IEEE1394 interface 153, the partial enlargement process is terminated. To do.
[0514]
According to the partial enlargement process of the master unit in FIG. 36 and the partial enlargement process of the slave unit in FIG. 37, for example, as shown in FIG. 38A, it is located in the second row and second column constituting the scalable TV system. When program image data is displayed on the master unit 1, if a certain position P in the program image data is designated as an enlargement position, a predetermined rectangular area centered on the enlargement position P (center of gravity) ( 38A is set as an enlarged range, and as shown in FIG. 38B, partially enlarged image data obtained by enlarging the program image data in the enlarged range is transferred to the master unit 1 instead of the program image data. Is displayed.
[0515]
Furthermore, for example, the handset 2 next to the left of the base unit 1twenty oneHowever, as shown in FIG. 38B, the slave unit 2 which is the slave unit for overall display is selected.twenty oneThe entire program image data displayed on the master unit 1 is displayed.
[0516]
Therefore, the user can see in detail the portion of the program image data that the user wants to see in detail in the master unit 1. Further, the user can view the entire program image data on the slave unit 2. Further, in the present embodiment, as described above, the user can set the enlargement ratio of the partially enlarged image data by operating the remote controller 15, so that the user can set the program image data in more detail. You can enlarge the part you want to see as much as you want.
[0517]
Here, in the signal processing unit 137 (FIG. 22) of the base unit 1 (FIG. 10), the tap coefficient w generated from the coefficient seed data is used.nIn accordance with Equation (1), the enlarged range of the program image data is converted into partially enlarged image data. This image conversion is a simple interpolation process at first glance if only attention is paid to Equation (1). Looks like that. However, the tap coefficient w used in equation (1)nAs described with reference to FIG. 24 to FIG. 28, the coefficient seed data used to generate the data is obtained by learning using teacher data and student data, and such coefficient seed data. Tap coefficient w generated fromnThe component included in the teacher data can be reproduced by converting the image using. That is, for the coefficient seed data for resizing processing, the tap coefficient w from which the coefficient seed data was generatednAccording to the above, it is possible to reproduce details not appearing in the original image and to enlarge the image. Therefore, the resizing process as the image conversion process by the equation (1) generated from the coefficient seed data obtained by learning is completely different from the image enlargement process by simple interpolation process.
[0518]
Note that the enlargement process of the enlargement range of the program image data to the partially enlarged image data can be performed by a simple interpolation process in addition to the tap coefficient obtained from the coefficient seed data. However, in the case of simple interpolation processing, the details that the original program image data does not have cannot be reproduced. Therefore, the larger the enlargement ratio, the more blurred the image that the block-like square portions are conspicuous. Will be.
[0519]
In the present embodiment, partially enlarged image data is displayed on the master unit 1 and the entire program image data is displayed on the slave unit 2, but the program image data remains displayed on the master unit 1. It is also possible to display partially enlarged image data on the slave unit 2.
[0520]
Further, in the present embodiment, the partially enlarged image data is displayed on the master unit 1 and the entire program image data is displayed on the slave unit 2 as the slave unit for overall display. Thus, it is also possible to display the partially enlarged image data or the entire program image data on another television receiver constituting the scalable TV system.
[0521]
In addition, in the master unit 1 constituting the scalable TV system, the entire program image data is displayed, and the slave unit 2 as another television receiver is displayed.11233It is possible to display partially enlarged image data having different enlargement ratios for each. In this case, all partially enlarged image data having different enlargement rates are generated by the signal processing unit 137 of the parent device 1 and the child device 2 as another television receiver.11233Can be supplied to each, or the slave unit 2 as another television receiver11233In each signal processing unit 157, it is possible to generate partially enlarged image data of each enlargement ratio.
[0522]
Furthermore, in the present embodiment, the coefficient seed data for resizing processing is stored in the parent device 1, but when the coefficient seed data for resizing processing is not stored in the parent device 1, When other television receivers constituting the scalable TV system store the coefficient seed data for resizing processing, the master unit 1 acquires the coefficient seed data for resizing processing from the television receiver. It is possible to In addition, the coefficient seed data for resizing processing can be obtained from the coefficient seed data providing server as described above.
[0523]
In the above case, the resizing process for enlarging the program image data is performed. However, in the resizing process, the program image data can be reduced.
[0524]
In the above case, the image data (program image data) as a television broadcast program is enlarged. However, in the partial enlargement process, other external devices (optical disk device, magneto-optical disk device, Image data input from a VTR or the like can be the target of the processing.
[0525]
Furthermore, in the partial enlargement process, both the horizontal direction and the vertical direction of a part of the program image data are enlarged by the same enlargement ratio, and the horizontal direction and the vertical direction are enlarged by different enlargement ratios. Is also possible.
[0526]
In the present embodiment, the partial enlargement process is performed only for the enlargement range that can be displayed on the display screen of the CRT 11 in the program image data. However, the partial enlargement process is performed on the entire program image data. It can also be done on the subject. In this case, since the entire enlarged image obtained by enlarging the program image data cannot be displayed on the CRT 11, only a part of the enlarged image is displayed, but which part of the enlarged image is displayed on the CRT 11. For example, it can be changed according to the operation of the remote controller 15.
[0527]
Next, as described above, the scalable TV system has a special function for enlarging a part of image data as well as for enlarging the entire image data. This is realized by performing the entire enlargement process.
[0528]
An instruction to perform the entire enlargement process can also be given from the menu screen, for example, similarly to an instruction to perform the partial enlargement process.
[0529]
That is, as described above, when the user operates the menu button switch 54 (or the menu button switch 84 of the remote controller 35 (FIG. 8)) of the remote controller 15 (FIG. 7), the CRT 11 (or the slave unit 2) of the parent device 1 is operated. In the CRT 31), a menu screen is displayed. For example, an icon representing the entire enlargement process (hereinafter referred to as an entire enlargement icon as appropriate) is displayed on the menu screen. By operating the remote control 15 and clicking on the entire enlargement icon, the entire enlargement process is started in each of the parent device 1 and the child device 2.
[0530]
First, the overall enlargement process of the master unit will be described with reference to the flowchart of FIG.
[0531]
For example, if the entire enlargement icon is clicked in a state where image data (program image data) as a television broadcast program is displayed on the CRT 11 of the parent device 1, first, in step S161, the parent data The CPU 129 of the device 1 (FIG. 10) controls the IEEE1394 interface 133 to transmit coefficient type data for resizing processing to all the slave devices constituting the scalable TV system.
[0532]
Here, in the present embodiment, it is assumed that coefficient type data for resizing processing is stored in the coefficient type memory 167 of the signal processing unit 137 (FIG. 22) of the base unit 1, and the CPU 129 determines in step S 161. The coefficient seed data for resizing processing is read from the signal processing unit 137 and transmitted.
[0533]
In addition, when the master unit 1 does not have coefficient seed data for resizing processing, as in the case of the partial enlargement processing described above, among other television receivers constituting the scalable TV system, It is possible to acquire the coefficient seed data for resizing processing from the one storing the coefficient seed data for resizing processing or the coefficient seed data providing server.
[0534]
Then, the process proceeds to step S162, and the CPU 129 transmits all the slave units 2 constituting the scalable TV system via the IEEE1394 interface 133.11Thru332 which is turned off by communicating withijDetermine if there is any.
[0535]
In step S162, handset 2 whose power is offijIf it is determined that there is a power, the process proceeds to step S163, where the CPU 129 transmits a command to turn on the power via the IEEE1394 interface 133, and thereby the handset 2 whose power is turned off.ijIs turned on, and the process proceeds to step S164.
[0536]
In step S162, the handset 2 whose power is turned off is also displayed.ijIf it is determined that there is not, step S163 is skipped, and the process proceeds to step S164. The CPU 129 controls the IEEE1394 interface 133 to control all the slave units 2.11233In response to this, an input to the IEEE1394 interface 153 (FIG. 11) is selected and an external input selection command for instructing display on the CRT 31 is transmitted, and the process proceeds to step S165.
[0537]
In step S165, the CPU 129 initializes the enlargement ratio N for enlarging the program image data to 1 and further increases the maximum enlargement ratio N.maxAnd enlargement pitch α.
[0538]
That is, in the overall enlargement process, for example, in the scalable TV system configured by 3 × 3 television receivers shown in FIG. 1A, the entire program image data (full screen) displayed on the master unit 1 is Main unit 1 is a slave unit 2 that is another television receiver.11233Finally, image data obtained by enlarging the entire program image data (hereinafter referred to as overall enlarged image data as appropriate) is spread over the entire 3 × 3 television receivers. Is displayed.
[0539]
Therefore, the entire program image data displayed on the master unit 1 is finally expanded to the entire enlarged image data having a size that can be displayed on the entire television receiver constituting the scalable TV system. The ratio between the final overall enlarged image data and the original program image data (program image data displayed on the main unit 1) is the maximum enlargement ratio N.maxSet as That is, in the present embodiment, the program image data displayed on the master unit 1 is enlarged to the entire enlarged image data displayed on the 3 × 3 television receivers. Since it will be enlarged three times simply, the maximum enlargement ratio NmaxIs set to 3 times.
[0540]
In the overall enlargement process, as described above, the entire program image data displayed on the master unit 1 is gradually enlarged. For example, the program image data is gradually enlarged at a large enlargement ratio N. Enlarged and finally the maximum magnification NmaxIt can be realized by enlarging with. Therefore, in this case, the enlargement ratio N is changed from 1 to the maximum enlargement ratio N.maxHowever, the pitch for changing the enlargement ratio N is the enlargement pitch α, for example, the maximum enlargement ratio NmaxA value obtained by dividing −1 by one or more predetermined values (hereinafter referred to as an enlargement number value as appropriate) is set.
[0541]
Here, the enlargement count value can be set in advance in the base unit 1 or can be set by the user operating the remote controller 15 (or the remote controller 35). When the enlargement count value is set to a small value, the program image data displayed on the master unit 1 is immediately enlarged to a large overall enlarged image data, and when the enlargement count value is set to a large value, The program image data displayed on the master unit 1 is gradually enlarged to large overall enlarged image data.
[0542]
In step S165, as described above, the enlargement ratio N is initialized and the maximum enlargement ratio N is set.maxAfter the setting of the enlargement pitch α, the process proceeds to step S166, and the CPU 129 newly sets the enlargement ratio N to N + α times, and then proceeds to step S167.
[0543]
The enlargement factor N newly set in step S166 is the maximum enlargement factor N.maxIn the case of exceeding the CPU 129, the CPU 129 sets the enlargement ratio N to the maximum enlargement ratio N.maxSet to.
[0544]
In step S167, the CPU 129 expands the range to be expanded by the signal processing unit 137 in the program image data displayed on the parent device 1, and each child device 2.ijAn enlargement range as a range to be enlarged by the signal processing unit 157 in FIG. 11 is obtained based on the enlargement ratio N set in step S165, and the process proceeds to step S168. In step S168, the CPU 129 determines the CRT 11 of the parent device 1 and each child device 2.ijIn each of the CRTs 31 (FIG. 11), a display range as a range for displaying the image data obtained by enlarging the enlarged range of the program image data (hereinafter also referred to as “partially enlarged image data”) is set in step S165. It calculates | requires based on the expansion rate N, and progresses to step S169.
[0545]
Here, referring to FIG. 40, the expansion range of master device 1 (the range of program image data to be enlarged by signal processing unit 137 of master device 1), and slave device 2ijExpansion range (slave unit 2ijRange of the program image data to be enlarged by the signal processing unit 157) and the slave unit 2ijDisplay range (slave unit 2ijIn CRT31, handset 2ijA calculation method for calculating a partially enlarged image data obtained by enlarging the program image data in the enlarged range based on the enlargement ratio N will be described.
[0546]
FIG. 40A shows a display screen of a scalable TV system composed of 3 × 3 television receivers.
[0547]
That is, the display screen of the scalable TV system includes a display screen by the CRT 11 of one master unit 1 and eight slave units 2.11233The display screen is composed of a total of nine CRTs and a display screen based on each CRT 31. As described above, the master unit 1 and the slave unit 2ijThe display screen sizes of are the same.
[0548]
In the entire enlargement process, as described above, the entire program image data displayed on the parent device 1 is gradually enlarged. Now, the program image data displayed on the parent device 1 is set as the image data Q. The entire enlarged image data obtained by enlarging the image data Q at a predetermined enlargement ratio N is defined as image data Q ′.
[0549]
In this case, when the vertical and horizontal lengths of the display screen size of the main unit 1 are represented by a and b, respectively, the vertical and horizontal lengths of the program image data Q are also a and b, respectively.
[0550]
Further, since the entire enlarged image data Q 'is obtained by multiplying the vertical and horizontal lengths of the program image data Q by N times, the vertical and horizontal lengths are Na and Nb, respectively.
[0551]
In the entire enlargement process, as described above, since the entire enlarged image data Q ′ obtained by enlarging the entire program image data Q displayed on the parent device 1 around the parent device 1 is displayed, the parent device 1 and the child device 1 are displayed. Machine 211233In the case where the entire enlarged image data Q ′ is displayed with the main unit 1 as the center, the main unit 1 displays the R in FIG. 40A in the display screen.1It is necessary to display partially enlarged image data in the range indicated byijIn FIG. 40A, RijIt is necessary to display partially enlarged image data in the range indicated by.
[0552]
Therefore, in step S168 of FIG. 39, the range R1Is obtained as the display range of base unit 1 and range RijIs handset 2ijIt is calculated as the display range.
[0553]
That is, for the base unit 1, the entire display screen is displayed in the display range R.1As required. In addition, the handset 2 at the upper left of the base 111, The display area R is the range of ((Nb−b) / 2) × ((Na−a) / 2) on the lower right side of the display screen.11As a slave unit 2 above the master unit 112, The lower horizontal x vertical area of the display screen is b x ((Na-a) / 2).12As required. Furthermore, handset 2 at the upper right of base 113In the display screen, the horizontal x vertical size on the lower left side of the display screen is the range of ((Nb−b) / 2) × ((Na−a) / 2).13The left handset 2 of the base unit 1twenty oneFor the display screen, the range of ((Nb−b) / 2) × a is the display range R on the right side of the display screen.twenty oneAs required. In addition, the slave unit 2 on the right side of the master unittwenty threeFor the display screen R, the horizontal x vertical range on the left side of the display screen is ((Nb−b) / 2) × a.twenty threeAs the slave unit 2 at the lower left of the master unit 131, The range of ((Nb−b) / 2) × ((Na−a) / 2) on the upper right side of the display screen is the display range R.31As required. Furthermore, the slave unit 2 under the master unit 132, The horizontal x vertical range on the upper side of the display screen is b x ((Na-a) / 2).32Sought as a handset 2 at the bottom right of the base unit33In the upper left side of the display screen, the horizontal x vertical range is ((Nb−b) / 2) × ((Na−a) / 2).33As required.
[0554]
On the other hand, the display range R of base unit 1 shown in FIG.1And handset 2ijDisplay range RijIs regarded as the range of the entire enlarged image data Q ′, the range R in the entire enlarged image data Q ′.1And RijSince the image data is partially enlarged image data obtained by enlarging a part of the original program image data Q, the display range R of the parent device 1 is displayed.1And handset 2ijDisplay range RijIt is necessary to obtain an enlarged range as the range of the program image data Q to be enlarged to the partially enlarged image data to be displayed on the screen.
[0555]
Therefore, in step S167, as shown in FIG. 40B, the range R of the entire enlarged image data Q ′.1And RijRange r of the original program image data Q corresponding to1And rijHowever, the expansion range of the master unit 1 and the slave unit 2ijAre each required as an expansion range.
[0556]
In other words, in this case, the entire enlarged image data Q ′ having a size of Nb × Na is obtained by enlarging the program image data Q having a size of b × a at an enlargement ratio of N times. Q 'range R1And RijRange r of program image data Q corresponding to the range reduced to 1 / N1And rijHowever, the expansion range of the master unit 1 and the slave unit 2ijAre each required as an expansion range.
[0557]
Specifically, for base unit 1, the range of horizontal / vertical b / N × a / N of the center portion of program image data Q is an enlarged range r.1As required. In addition, the handset 2 at the upper left of the base 111Is the range of ((b−b / N) / 2) × ((a−N / N) / 2) on the upper left side of the program image data Q is the expanded range r.11As a slave unit 2 above the master unit 112, The range of (b / N) × ((aa−N) / 2) in the upper side of the program image data Q is the expanded range r.12As required. Furthermore, handset 2 at the upper right of base 113For the program image data Q, the range of (× (b−b / N) / 2) × ((a−a / N) / 2) in the upper right side of the program image data Q is the expanded range r.13The left handset 2 of the base unit 1twenty one, The horizontal x vertical length of the program image data Q is ((b−b / N) / 2) × (a / N) in the enlarged range r.twenty oneAs required. In addition, the slave unit 2 on the right side of the master unittwenty threeAs for the right side of the program image data Q, the horizontal x vertical range is ((b−b / N) / 2) × (a / N).twenty threeAs the slave unit 2 at the lower left of the master unit 131Is the range of ((b−b / N) / 2) × ((a−a / N) / 2) in the lower left side of the program image data Q is the expanded range r.31As required. Furthermore, the slave unit 2 under the master unit 132, The lower horizontal x vertical range of the program image data Q is (b / N) × ((aa−N) / 2).32Sought as a handset 2 at the bottom right of the base unit33Is the range of ((b−b / N) / 2) × ((a−a / N) / 2) in the lower right side of the program image data Q is the expanded range r.33As required.
[0558]
Returning to FIG. 39, in step S169, the CPU 129 controls the IEEE1394 interface 133 to display the image data by performing resizing processing for enlarging the image data using the coefficient seed data for resizing processing transmitted in step S161. Is displayed together with the program image data, the enlargement ratio N, the enlargement range, and the display range.ijSend to.
[0559]
Here, for the program image data, the CPU 129 requests the demultiplexer 124 for TS packets supplied to the MPEG video decoder 125 in the transport stream, and is supplied from the demultiplexer 124 in response to the request. Each slave unit 2ijSend to.
[0560]
Further, the CPU 129 determines each child device 2 for the expansion range and the display range.ijThe expansion range and display range obtained for theijSend to.
[0561]
In addition, in CPU129, each cordless handset 2ijFor example, program image data stored in the frame memory 127, that is, image data after MPEG decoding, can be read out via the signal processing unit 137 and transmitted instead of the TS packet. In this case, each handset 2ijThen, it is not necessary to MPEG-decode the program image data.
[0562]
Further, in this way, the program image data after MPEG decoding is transferred to the slave unit 2.ijIn the case of transmitting to the slave unit 2, not the entire program image data but of the program image data.ijIt is possible to transmit only the portion of the expansion range obtained for.
[0563]
Thereafter, the process proceeds to step S170, and the CPU 129 sets the parameter z corresponding to the enlargement ratio N set in step S166 in the parameter memory 168 of the signal processing unit 137 (FIG. 22), and the process proceeds to step S171.
[0564]
In step S171, the CPU 129 controls the signal processing unit 137 (FIG. 22) to store each slave unit 2 in step S169, which is stored in the frame memory 127.ijOf the same program image data transmitted to the base unit 1 for the expanded range r1Image conversion processing for (FIG. 40B) is performed.
[0565]
That is, in the present embodiment, coefficient type data for resizing processing is stored in the coefficient type memory 167 constituting the signal processing unit 137 (FIG. 22) of the base unit 1, and the signal processing unit 137 Expansion range r of program image data stored in memory 1271Is subjected to image conversion processing using the coefficient seed data for resizing processing stored in the coefficient seed memory 167 and the tap coefficient generated from the parameter z stored in the parameter memory 168, thereby expanding the range r.1Is converted into partially enlarged image data as image data enlarged (resized) at an enlargement ratio N.
[0566]
Furthermore, at this time, the CPU 129 displays the partially enlarged image data in the display range R obtained for the parent device 1 in the display screen of the CRT 11.1The signal processing unit 137 is controlled so as to be displayed at the position (FIG. 40A). In other words, the signal processing unit 137 causes the partially enlarged image data to be displayed in the display range R obtained for the parent device 1 in the display screen of the CRT 11.1The display position is adjusted so that it is displayed at the position (FIG. 40A).
[0567]
Note that the display range R of the base unit 1 has been described with reference to FIG.1Since it matches the display screen size of the CRT 11, it is not actually necessary to adjust the display position of the partially enlarged image data.
[0568]
In step S172, the signal processing unit 137 supplies the partially enlarged image data obtained in step S171 to the CRT 11 via the frame memory 127 and the NTSC encoder 128 for display.
[0569]
Therefore, in this case, the CRT 11 of the base unit 1 has an enlarged range r of the program image data on the entire display screen.1Partially enlarged image data obtained by enlarging the image by the enlargement ratio N is displayed.
[0570]
Thereafter, the process proceeds to step S173, and the CPU 129 determines that the enlargement ratio N is equal to the maximum enlargement ratio N.maxDetermine if it is less than. In step S173, the enlargement ratio N is equal to the maximum enlargement ratio N.maxIf it is determined that the value is less than the value, the process proceeds to step S166, and the same processing is repeated thereafter.
[0571]
In step S173, the enlargement ratio N is set to the maximum enlargement ratio N.maxIf it is determined that the magnification is not less than, that is, the enlargement ratio N is the maximum enlargement ratio N in step S166.maxIf it is set, the process proceeds to step S174, and the CPU 129 controls the IEEE1394 interface 133 in the same manner as in step S169, so that the enlarged display command is sent to the program image data, the enlargement ratio N, the enlarged range, and the display range. For each handset 2ijThe process proceeds to step S175.
[0572]
In step S175, the CPU 129 controls the signal processing unit 137 (FIG. 22) to store each slave unit 2 in step S174, which is stored in the frame memory 127.ijOf the same program image data transmitted to the base unit 1 for the expanded range r1Image conversion processing for (FIG. 40B) is performed.
[0573]
That is, as a result, in step S175, as in step S169, the signal processing unit 137 causes the expanded range r of the program image data stored in the frame memory 127.1Is subjected to image conversion processing using the coefficient seed data for resizing processing stored in the coefficient seed memory 167 and the tap coefficient generated from the parameter z stored in the parameter memory 168, thereby expanding the range r.1Is converted into partially enlarged image data as image data enlarged (resized) at an enlargement ratio N.
[0574]
This partially enlarged image data is supplied to the CRT 11 via the frame memory 127 and the NTSC encoder 128 and displayed in step S176, as in step S172.
[0575]
Here, each handset 2 in step S174ijSince the enlargement ratio N, the enlargement range, and the display range that are transmitted to each are obtained in the last steps S166 to S168, the enlargement ratio N is the maximum enlargement ratio N.maxIt has become. Furthermore, the enlargement range and display range are the maximum enlargement ratio NmaxThe enlargement ratio N is calculated as follows.
[0576]
Therefore, in this case, the enlargement range and display range of the base unit 1 are also the maximum enlargement ratio N.maxThe enlargement ratio N is calculated as follows.
[0577]
Further, when the image conversion process of step S175 is performed, the maximum enlargement ratio N is stored in the parameter memory 168 of the signal processing unit 137 (FIG. 22) by the process of step S170 performed last.maxThe parameter z corresponding to is set.
[0578]
From the above, in step S176, the maximum magnification NmaxThe enlargement range r obtained for the enlargement ratio N1Program image data of the maximum magnification NmaxThe partially enlarged image data obtained by enlarging at the maximum magnification NmaxDisplay range R obtained for the enlargement factor N1(As described above, the base unit 1 is equivalent to the display screen of the CRT 11).
[0579]
Thereafter, the process proceeds to step S177, and the CPU 129 determines whether or not a command for ending the display of the entire enlarged image data (hereinafter, appropriately referred to as an entire enlargement end command) has been transmitted.
[0580]
If it is determined in step S177 that the entire enlargement end command has not been transmitted, the process returns to step S174, and the same processing is repeated thereafter. Therefore, in this case, the maximum magnification NmaxThe display of the partially enlarged image data enlarged at is continued.
[0581]
If it is determined in step S177 that the entire enlargement end command has been transmitted, that is, for example, the user operates the remote controller 15 (FIG. 7) to display a menu screen on the CRT 11, and then The whole enlargement icon on the menu screen is clicked again, whereby the infrared of the whole enlargement end command, which is a command corresponding to the operation of the remote controller 15, is emitted from the remote controller 15, received by the IR receiver 135, and supplied to the CPU 129. If YES in step S178, the flow advances to step S178 to end the image conversion process in the signal processing unit 137 and end the entire enlargement process of the base unit 1. As a result, the program image data stored in the frame memory 127 is supplied as it is to the CRT 11 via the NTSC encoder 128, and the program image data is displayed in a normal size on the CRT 11.
[0582]
Next, referring to the flowchart of FIG. 41, each slave unit 2 that constitutes the scalable TV system.ijThe whole expansion process of the handset performed in the above will be described.
[0583]
Handset 2ijIn FIG. 11, first, in step S181, the CPU 149 waits for the coefficient seed data for resizing processing to be transmitted from the master unit 1 in step S161 in FIG. Received via the IEEE1394 interface 153. Further, in step S181, the CPU 149 transfers the received coefficient type data for resizing processing to the signal processing unit 157 (FIG. 29) and sets the coefficient type data in the coefficient type memory 207. At this time, the signal processing unit 157 saves the coefficient seed data originally stored in the coefficient seed memory 207 in the empty area of the EEPROM 157B in advance.
[0584]
Here, handset 2ijWhen the coefficient seed data for resizing processing is stored in the coefficient memory 207 constituting the signal processing unit 157, the processing in the above-described step S181 and step S188 described later can be skipped.
[0585]
Thereafter, the process proceeds to step S182, in which the CPU 149 determines whether or not the base unit 1 has received the external input selection command transmitted in step S164 of FIG. 39, and returns to step S182 if it is determined that it has not been received. .
[0586]
If it is determined in step S182 that an external input selection command has been received from the parent device 1, that is, the external input selection command from the parent device 1 is received and supplied to the CPU 149 in the IEEE1394 interface 153. In step S183, the CPU 149 selects program image data received by the IEEE1394 interface 153, supplies the program image data to the MPEG video decoder 145 via the demultiplexer 144, and proceeds to step S184.
[0587]
In step S184, the CPU 149 sends the program image data, the enlargement ratio N, the enlargement range r together with the enlargement display command from the parent device 1.ij, And display range RijIt is determined whether or not has been transmitted.
[0588]
In step S184, program image data, an enlargement ratio N, an enlargement range r together with an enlargement display command from the master unit 1 are displayed.ij, And display range RijIn other words, in the IEEE1394 interface 153, the enlarged display command from the master unit 1, the program image data, the enlargement ratio N, and the enlargement range r are determined.ij, And display range RijIs received and supplied to the CPU 149, the CPU 149 follows the enlarged display command, and the enlarged range r of the program image data transmitted together with the enlarged display command will be described below.ijIs enlarged at an enlargement ratio N, and the partially enlarged image data obtained as a result is displayed in the display range R in the display screen of the CRT 31.ijProcess to be displayed on.
[0589]
That is, in this case, the process proceeds from step S184 to S185, and the CPU 149 sets the parameter z corresponding to the enlargement ratio N received together with the enlargement display command in the parameter memory 208 of the signal processing unit 157 (FIG. 29). The process proceeds to step S186.
[0590]
In step S186, the CPU 149 controls the signal processing unit 157 (FIG. 29), whereby the slave unit 2 of the program image data received together with the enlarged display command stored in the frame memory 147 is stored.ijEnlarged range r found forijImage conversion processing for (FIG. 40B) is performed.
[0591]
That is, in this embodiment, in steps S169 and S174 in FIG.ijOn the other hand, a TS packet as program image data is transmitted together with the enlarged display command. In this case, the CPU 149 sends the TS packet received from the base unit 1 via the IEEE1394 interface 153 via the demultiplexer 144. To the MPEG video decoder 145. The MPEG video decoder 145 decodes the TS packet to obtain program image data, and writes it into the frame memory 147.
[0592]
Meanwhile, handset 2ijIn the coefficient seed memory 207 constituting the signal processing unit 157 (FIG. 29), coefficient type data for resizing processing is set in step S181, and the signal processing unit 157 stores the program image stored in the frame memory 147. Data expansion range rijIs subjected to image conversion processing using the coefficient seed data for resizing processing stored in the coefficient seed memory 207 and the tap coefficient generated from the parameter z stored in the parameter memory 208, thereby expanding the range r.ijIs converted into partially enlarged image data as image data enlarged (resized) at an enlargement ratio N.
[0593]
Further, at this time, the CPU 149 determines that the partially enlarged image data is a slave unit in the display screen of the CRT 31.ijDisplay range R obtained forijThe signal processing unit 157 is controlled so as to be displayed at the position (FIG. 40A). That is, as a result, the signal processing unit 157 causes the partially enlarged image data to be displayed on the slave unit 2 in the display screen of the CRT 31.ijDisplay range R obtained forijThe display position is adjusted so that it is displayed at the position (FIG. 40A).
[0594]
Specifically, for example, handset 211Then, as shown in FIG. 40A, the partially enlarged image data is displayed in the lower right display range R in the display screen of the CRT 31.11The display position of the partially enlarged image data is adjusted so as to be displayed on the screen.
[0595]
In this case, handset 211Then, the display range R in the display screen of the CRT 3111The image data in a range other than is set to a black level, for example. Other handset 2ijThe same applies to.
[0596]
In step S187, the signal processing unit 157 supplies the partially enlarged image data obtained in step S186 to the CRT 31 via the frame memory 147 and the NTSC encoder 148 for display.
[0597]
Thereafter, the process returns to step S184, and the processes of steps S184 to S187 are repeated thereafter.
[0598]
On the other hand, in step S 184, the program image data, the enlargement ratio N, the enlargement range r together with the enlargement display command from the parent device 1.ij, And display range RijIn other words, in the IEEE1394 interface 153, an enlarged display command, program image data, an enlargement ratio N, an enlargement range r are determined.ij, And display range RijIn step S188, the signal processing unit 157 resets the original coefficient seed data saved in the EEPROM 157B in the coefficient seed memory 207 (FIG. 29), and sets the slave unit. The entire enlargement process is terminated.
[0599]
According to the overall enlargement process of the master unit in FIG. 39 and the overall enlargement process of the slave unit in FIG. 41, for example, as shown in FIG. 42A, the master unit located in the second row and second column constituting the scalable TV system 42, when the program image data is displayed, the entire program image data displayed on the parent device 1 is centered on the parent device 1, as shown in FIG.11233As shown in FIG. 42C, 3 × 3 master unit 1 and slave unit 2 are eventually expanded.11233Thus, the entire enlarged image data obtained by enlarging the entire program image data is displayed.
[0600]
Therefore, the user can view the entire enlarged image data obtained by enlarging the entire program image data over the details.
[0601]
However, in a scalable TV system, there is actually a casing of a television receiver that constitutes the scalable TV system. Therefore, the adjacent portion between adjacent television receivers is a casing. No image is displayed on the part. That is, in FIG. 42, a housing portion that exists between adjacent television receivers is omitted in order to simplify the drawing. However, in practice, there is a casing between adjacent television receivers, and therefore the entire enlarged image data is not displayed on the casing portion of the television receiver, although it is slight. In other words, there is a problem of being separated.
[0602]
However, in human vision, even if a part of an image has a line with a very small width that hinders viewing, there is an interpolation action that interpolates an image of a portion hidden by the line from the surrounding image. For this reason, the above-described problems are not so serious when viewing the entire enlarged image data.
[0603]
In the overall enlargement process, similarly to the case described in the partial enlargement process, the coefficient seed data for resizing processing is used to perform the image conversion process to obtain the entire enlarged image data. It is possible to obtain the entire enlarged image data obtained by enlarging the program image data.
[0604]
However, the entire enlarged image data obtained by enlarging the entire program image data over the details can be viewed in the signal processing units 137 and 157 by performing image conversion processing using the coefficient seed data for resizing processing. If the program image data is enlarged by simple interpolation processing, the entire enlarged image data can be viewed, but the details are not reproduced. In other words, in the case of simple interpolation processing, it is possible to see only the entire enlarged image data with greatly deteriorated image quality as compared with the case of image conversion processing using coefficient seed data for resizing processing.
[0605]
Here, in the present embodiment, the special function is provided only when the authentication described in FIGS. 31 and 33 is successful. However, even if the authentication fails, the special function is called It is possible to provide it with restrictions.
[0606]
That is, for example, when the authentication is successful, the entire enlarged image data is provided by the image conversion process using the coefficient seed data for the resizing process, and when the authentication fails, the entire enlarged image by the simple interpolation process is provided. It is possible to provide data.
[0607]
In this case, a user who configures a scalable TV system using a television receiver that is not a parent device or a child device can view the entire enlarged image data, but the entire enlarged image data is obtained by simple interpolation processing. Therefore, the image quality is considerably deteriorated as compared with the case of the image conversion process using the coefficient seed data for the resizing process.
[0608]
On the other hand, a user who configures a scalable TV system using a television receiver, which is a parent device or a child device, increases the overall image quality by image conversion processing using coefficient seed data for resizing processing. You can see the image data.
[0609]
As a result, in a user who configures a scalable TV system using a television receiver that is not a parent device or a child device, the television that is the parent device or the child device is used to view high-quality overall enlarged image data. An incentive to purchase a receiver will work.
[0610]
In the present embodiment, the enlargement ratio for enlarging the entire program image data displayed on the master unit 1 into the entire enlarged image data having a size that can be displayed on the entire television receiver constituting the scalable TV system. The maximum magnification NmaxIs set as the maximum magnification NmaxCan be set to an arbitrary value by the user operating the remote controller 15 (or the remote controller 35).
[0611]
In this case, the maximum magnification NmaxHowever, the value for expanding the program image data to image data larger than the entire enlarged image data of a size that can be displayed on the entire television receiver that constitutes the scalable TV system (hereinafter referred to as an unspecified maximum enlargement ratio as appropriate). In other words, the entire enlarged image data enlarged at the maximum enlargement ratio outside the specified range cannot be displayed on the scalable TV system. That is, only a part of the entire enlarged image data enlarged at the non-standard maximum enlargement ratio can be displayed. In this case, which part of the entire enlarged image data enlarged at the non-standard maximum enlargement ratio may be set by the user operating the remote controller 15 (or the remote controller 35), for example. it can.
[0612]
Further, in the above-described case, in each television receiver configuring the scalable TV system, partially enlarged image data to be displayed on the television receiver is generated. However, each component configuring the scalable TV system The partially enlarged image data to be displayed on the television receiver can be generated, for example, on one or a plurality of television receivers such as the master unit 1. That is, for example, in the parent device 1, the entire enlarged image data is generated, and the partially enlarged image data that is a part of the entire enlarged image data is transmitted to each child device 2 via the IEEE1394 interface 133.ijIt is possible to send to. However, in this case, the master unit 1 is not only partially enlarged image data to be displayed by itself, but also each slave unit 2 that is another television receiver.ijSince it is also necessary to generate partially enlarged image data to be displayed in (1), the processing load increases.
[0613]
Further, in the above-described case, the image data (program image data) as a television broadcast program is enlarged. However, in the entire enlargement process, as in the case of the partial enlargement process, it is input from an external device. Image data to be processed.
[0614]
Further, in the overall enlargement process, as in the case of the partial enlargement process, both the horizontal direction and the vertical direction of a part of the program image data are enlarged by the same enlargement ratio as well as the horizontal direction and the vertical direction. It is also possible to enlarge each by a different enlargement ratio.
[0615]
In the case described above, in the scalable TV system composed of 3 × 3 television receivers, the image data displayed on the base unit 1 arranged at the center thereof is arranged around each Handset 2ijThe entire enlarged image data that is magnified in each direction (upper left, left, lower left, upper, lower, upper right, right, lower right) is displayed, but for example, it is arranged in the lower left Handset 231The image data to be displayed on the handset 2 is arranged on it.twenty one, Base unit 1 arranged at the upper right, slave unit 2 arranged at the right32It is also possible to display the entire enlarged image data that is enlarged in the respective directions.
[0616]
Further, in the above case, the master unit 1 and each slave unit 2ijIn this case, the user operates the remote controller 15 to generate the entire enlarged image data (partially enlarged image data constituting the same) after the instruction to perform the entire enlargement process. And each handset 2ijThen, the enlargement ratio N is always 1 + α, 1 + 2α, 1 + 3α,.maxIf the entire enlargement image data is generated and there is a command to perform the entire enlargement process, the enlargement ratio N is immediately 1 + α, 1 + 2α, 1 + 3α,.maxIt is also possible to sequentially display double the entire enlarged image data.
[0617]
Next, the scalable TV system has a special function for displaying image data, that is, a so-called multi-screen display, on the entire television receiver constituting the scalable TV system. This is realized by performing multi-screen display processing in the handset 2.
[0618]
The instruction to perform the multi-screen display process can be performed from the menu screen as in the case of the instruction to perform the partial enlargement process or the entire enlargement process, for example.
[0619]
That is, as described above, when the user operates the menu button switch 54 (or the menu button switch 84 of the remote controller 35 (FIG. 8)) of the remote controller 15 (FIG. 7), the CRT 11 (or the slave unit 2) of the parent device 1 is operated. In the CRT 31), a menu screen is displayed. For example, an icon representing a multi-screen display process (hereinafter referred to as a multi-screen display icon) is displayed on the menu screen. When the user clicks the multi-screen display icon by operating the remote controller 15, multi-screen display processing is started in each of the parent device 1 and the child device 2.
[0620]
Therefore, the multi-screen display process of the master unit will be described with reference to the flowchart of FIG.
[0621]
Here, in the multi-screen display process, as shown in FIG. 42C, the program image data is displayed on the entire television receiver constituting the scalable TV system. Accordingly, the multi-screen display process of the base unit 1 substantially sets the enlargement ratio N to the maximum enlargement ratio N.maxThis is equivalent to the entire enlargement process of FIG. 39 performed by ignoring the enlargement pitch α.
[0622]
For this reason, in the multi-screen display process of base unit 1, the same processes as in steps S161 to S164 of FIG. 39 are performed in steps S191 to S194.
[0623]
Then, the process proceeds to step S195, and the maximum enlargement ratio N is the same as in step S165 of FIG.maxIs set, and the process proceeds to step S196. In step S196, CPU 129 of base unit 1 (FIG. 10) sets enlargement ratio N to maximum enlargement ratio N.maxAnd the process proceeds to step S197.
[0624]
In step S197, the CPU 129 determines the maximum enlargement ratio N.maxIs set on the basis of the enlargement ratio N, the program image data enlargement range r in the parent device 11And each handset 2ijExpansion range r of program image data in (FIG. 11)ijAre obtained in the same manner as in step S167 of FIG. 39, and the process proceeds to step S198.
[0625]
Here, in the entire enlargement process of FIG. 39, in addition to obtaining the enlargement range in step S167, the display range is also obtained in step S168, but the enlargement ratio N is the maximum enlargement ratio N.maxIs displayed, the display range R of the main unit 11Is the entire display screen of the CRT 11 and the slave unit 2ijDisplay range RijHowever, since it is the entire display screen of the CRT 31, it is known in advance and does not need to be obtained (or can be considered to have been obtained in advance). For this reason, in the multi-screen display process, the display range R of the main unit 1 is again introduced.1And handset 2ijDisplay range RijNot asking for.
[0626]
In step S198, the CPU 129 performs the maximum enlargement ratio N in the same manner as in step S170 of FIG.maxIs set in the parameter memory 168 of the signal processing unit 137 (FIG. 22).
[0627]
Then, the process proceeds to steps S199 to S201 in sequence, and the same processing as in steps S174 to S176 in FIG. 39 is performed.maxThe partially enlarged image data magnified in is displayed.
[0628]
Thereafter, the process proceeds to step S202, and the CPU 129 determines whether or not a command for ending the multi-screen display (hereinafter referred to as a multi-screen display end command as appropriate) has been transmitted.
[0629]
If it is determined in step S202 that the multi-screen display end command has not been transmitted, the process returns to step S199, and the same processing is repeated thereafter. Therefore, in this case, the maximum magnification NmaxThe display of the partially enlarged image data enlarged at is continued.
[0630]
If it is determined in step S202 that the multi-screen display end command has been transmitted, that is, for example, the user operates the remote controller 15 (FIG. 7) to display the menu screen on the CRT 11, and By re-clicking the multi-screen display icon on the menu screen, the infrared of the multi-screen display end command, which is a command corresponding to the operation of the remote controller 15, is emitted from the remote controller 15 and received by the IR receiver 135. When the image is supplied to the CPU 129, the process proceeds to step S203, the image conversion process in the signal processing unit 137 is terminated, and the multi-screen display process of the parent device 1 is terminated. As a result, the program image data stored in the frame memory 127 is supplied as it is to the CRT 11 via the NTSC encoder 128, and the program image data is displayed in a normal size on the CRT 11.
[0631]
In addition, cordless handset 2ijMulti-screen display processing (slave unit 2ijThe multi-screen display process performed by the slave unit 2 described with reference to FIG.ijSince this is the same as the entire enlargement process, description thereof will be omitted.
[0632]
Next, the scalable TV system has a special function that causes each television receiver that constitutes the scalable TV system to perform the same processing. It is realized by being performed.
[0633]
An instruction to perform the batch simultaneous control process can be performed from a menu screen, for example, as in the case of an instruction to perform a partial enlargement process.
[0634]
That is, as described above, when the user operates the menu button switch 54 (or the menu button switch 84 of the remote controller 35 (FIG. 8)) of the remote controller 15 (FIG. 7), the CRT 11 (or the slave unit 2) of the parent device 1 is operated. In the CRT 31), a menu screen is displayed. On this menu screen, for example, an icon representing a batch simultaneous control process (hereinafter referred to as a batch simultaneous control icon as appropriate) is displayed. When the user clicks the batch simultaneous control icon by operating the remote controller 15, the batch simultaneous control process is started in the parent device 1.
[0635]
Therefore, referring to the flowchart of FIG. 44, the batch simultaneous control process of the master unit will be described.
[0636]
In the collective simultaneous control process, the CPU 129 of the base unit 1 (FIG. 10) waits for a command for instructing a predetermined process by operating the remote controller 15 (or the remote controller 25), that is, IR The receiving unit 15 waits for infrared rays corresponding to a predetermined command from the remote controller 15 to be supplied to the CPU 129, and receives the command in step S211. Furthermore, in step S211, CPU 129 performs processing corresponding to the command, and proceeds to step S212.
[0637]
In step S212, the CPU 129 can perform processing corresponding to the command (hereinafter, appropriately referred to as remote control command) corresponding to the operation of the remote controller 15 received in step S211.ijIs present in the television receiver constituting the scalable TV system.
[0638]
Note that the determination processing in step S212 is performed by each CPU 2 stored in the EEPROM 130 by the CPU 129.ijThis is done by referring to the function information.
[0639]
In step S212, handset 2 that can perform processing corresponding to the remote control commandijWhen it is determined that there is a slave unit 2, the process proceeds to step S 213, and the CPU 129 controls the IEEE1394 interface 133 to perform processing corresponding to the remote control command 2.ijSend remote control commands to all.
[0640]
Therefore, for example, now, the slave unit 2 constituting the scalable TV system.ijIf all can perform processing corresponding to the remote control command, the slave unit 2ijRemote control commands are sent to all the slave units 2ijThen, the processing corresponding to the remote control command, that is, the same processing as that performed in the base unit 1 in step S211 is performed.
[0641]
On the other hand, in step S212, handset 2 that can perform processing corresponding to the remote control command.ijIs determined not to exist, step S213 is skipped, the process proceeds to step S214, and the CPU 129 has transmitted a command for ending the batch simultaneous control process (hereinafter referred to as a batch simultaneous control end command as appropriate). Determine.
[0642]
If it is determined in step S212 that the batch simultaneous control end command has not been transmitted, the remote controller 15 is operated to wait for a command (remote control command) for instructing predetermined processing to be input, Returning to step S211, the same processing is repeated thereafter.
[0643]
If it is determined in step S212 that the batch simultaneous control end command has been transmitted, that is, for example, the user operates the remote controller 15 (FIG. 7) to display the menu screen on the CRT 11, and The batch simultaneous control icon on the menu screen is re-clicked, whereby the infrared of the batch simultaneous control end command, which is a command corresponding to the operation of the remote controller 15, is emitted from the remote controller 15 and received by the IR receiver 135. When supplied to the CPU 129, the batch simultaneous control process ends.
[0644]
According to the collective simultaneous control processing, for example, the slave unit 2 constituting the scalable TV system nowijAssuming that all can perform processing corresponding to the remote control command, for example, when the user is instructed to select a certain channel by operating the remote control 15, as shown in FIG. 45A. In addition, in all of the master unit 1 and the slave unit 2 constituting the scalable TV system, image data broadcast on the channel is displayed. Further, when the user commands switching to another channel by operating the remote controller 15, as shown in FIG. 45B, the channel switching is performed in all of the master unit 1 and the slave unit 2 constituting the scalable TV system. Is done.
[0645]
Therefore, the user can control all the television receivers constituting the scalable TV system at the same time in the same manner by one remote controller 15.
[0646]
Next, as described above, the remote controller 15 is attached to the master unit 1 so that each slave unit 2 is connected.ijAlso, a remote controller 35 can be attached to each of them. Further, as described above, the master unit 1 is also connected to the slave unit 2 by the remote controller 15.ijCan also be controlled by the remote control 35 of the slave unit 2ijIn addition, the remote controller 35 and the remote controller 15 of the parent device 1 can be used for control.
[0647]
Therefore, all of the television receivers constituting the scalable TV system can be controlled by only one remote controller 15 (or 35).
[0648]
However, in order to individually control each of the plurality of television receivers with only one remote controller 15, for example, the device ID of each of the plurality of television receivers is set in the remote controller 15, Prior to performing an operation for inputting a desired command, an operation for specifying a television receiver to be controlled, such as an operation for inputting a device ID of the television receiver to be controlled, is necessary, which is troublesome.
[0649]
Therefore, in order to control the master unit 1, the remote controller 15 associated therewith is connected to each slave unit 2.ijAfter all, each slave unit 2ijThere is a method of using each of the remote controls 35 attached to the.
[0650]
However, this method requires a large number of nine remote controllers to separately control each of the television receivers constituting the scalable TV system of FIG. 1A. Furthermore, in this case, it may not be clear at a glance which remote controller controls which television receiver.
[0651]
Accordingly, the master unit 1 and each slave unit 2 constituting the scalable TV system.ijAmong them, the television receiver that is controlled by the user is the remote control 15 of the master unit 1 and each slave unit 2.ijIt is convenient if the user can control any of the remote controls 35 without performing an operation of specifying the television receiver to be controlled.
[0652]
Therefore, the scalable TV system has a special function that allows a user to recognize a television receiver as a control target and to control the control target television receiver with the remote controller 15 (or the remote controller 35). This special function is realized by performing individual processing in the master unit 1 and the slave unit 2.
[0653]
The instruction to perform the individual processing can be performed from a menu screen, for example.
[0654]
That is, as described above, when the user operates the menu button switch 54 of the remote controller 15 (FIG. 7) (or the menu button switch 84 of the remote controller 35 (FIG. 8)), the CRT 11 (or the slave unit 2) of the master unit 1 A menu screen is displayed on the CRT 31). For example, an icon representing individual processing (hereinafter, referred to as an individual processing icon as appropriate) is displayed on the menu screen. When the individual processing icon is clicked by operating the remote controller 15, the individual processing is started in each of the parent device 1 and the child device 2.
[0655]
First, the individual processing of the master unit 1 will be described with reference to the flowchart of FIG.
[0656]
In the individual processing of the base unit 1 (FIG. 10), the CPU 129 waits for the IR receiver 135 to receive infrared rays from the remote controller 15 (or the remote controller 35), and in step S221, the CPU 129 receives infrared rays from the IR receiver 135. Detect the received intensity. That is, when a user operates a remote controller 15 to control a control target of a certain television receiver that constitutes a scalable TV system, the remote controller 15 emits infrared rays corresponding to the operation. . This infrared light is transmitted to the IR receiver 135 of the base unit 1 and each handset 2ijAlthough the light is received by the IR receiver 155 of FIG. 11, in step S221, the CPU 129 causes the IR receiver 135 to detect the received intensity of the infrared light and receives the supply.
[0657]
Then, the process proceeds to step S222, in which the CPU 129 transmits each slave unit 2 via the IEEE1394 interface 133.ijIn addition, each cordless handset 2ijRequesting the receiving intensity of the infrared rays from the remote controller 15 in response to the request, and in response to the request, each slave unit 2ijThe received intensity of the infrared rays transmitted from is acquired (received) via the IEEE1394 interface 133.
[0658]
That is, as described above, when the user operates the remote controller 15, the infrared rays emitted from the remote controller 15 are transmitted not only to the master unit 1 but also to each slave unit 2.ijHowever, in step S222, each handset 2 of the infrared ray is received.ijThe reception intensity at is acquired.
[0659]
Thereafter, the process proceeds to step S223, in which the CPU 129 receives the infrared ray reception intensity at the base unit 1 detected at step S221 and each slave unit 2 acquired at step S222.ijThe maximum reception intensity (maximum reception intensity) is detected from the infrared reception intensity at, and the process proceeds to step S224.
[0660]
In step S224, the CPU 129 determines whether the television receiver from which the maximum reception intensity is obtained (hereinafter, appropriately referred to as the maximum reception intensity device) is the parent device 1 or the child device 2.
[0661]
If it is determined in step S224 that the maximum reception intensity device is the base unit 1, the process proceeds to step S225, and the CPU 129 assumes that the command represented by the infrared light received by the IR reception unit 135 is for the base unit 1. The process corresponding to the command is executed.
[0662]
On the other hand, if it is determined in step S224 that the maximum reception intensity device is the slave unit 2, the process proceeds to step S226, and the CPU 129 controls the IEEE1394 interface 133 to represent the infrared light received by the IR receiver 135. Command is handset 2 whose maximum reception strength isijThe command is sent to the handset 2 which is the maximum reception strength device.ijSend to.
[0663]
Therefore, in this case, the slave unit 2 which is the maximum reception strength deviceijThen, as will be described later with reference to FIG. 47, processing corresponding to a command represented by infrared rays from the remote controller 15 is performed.
[0664]
Here, when the user performs control of a certain television receiver constituting the scalable TV system by operating the remote controller 15 (or the remote controller 35), generally the remote controller 15 is controlled. Operate towards the target television receiver.
[0665]
In this case, for example, assuming that the infrared light emitted from the remote controller 15 (or the remote controller 35) is highly directional, the television receiver that the user intends to control is the infrared light emitted from the remote controller 15. This means that the device is in the direction of the main axis, that is, the maximum reception intensity device having the highest infrared reception intensity.
[0666]
Therefore, as described above, by executing processing corresponding to the command represented by the infrared rays from the remote controller 15 in the maximum reception intensity device, the user can control the television receiver, that is, the maximum reception intensity device, in the user. The processing corresponding to the operation of the remote controller 15 is performed.
[0667]
Specifically, for example, when the user operates the remote controller 15 toward the parent device 1 to perform channel operation or volume operation, the parent device 1 becomes the maximum reception strength device, and as a result, the maximum reception strength device. In base unit 1, the channel and volume are changed in accordance with the operation. Further, for example, the user can connect the remote controller 15 to a certain handset 2.ijWhen channel operation or volume operation is performed towardijBecomes the maximum reception strength device, and as a result, the handset 2 which is the maximum reception strength deviceijThe channel and volume are changed in response to the operation.
[0668]
After the processes in steps S225 and S226, the process proceeds to step S227, and the CPU 129 determines whether a command for ending the individual process (hereinafter referred to as an individual process end command as appropriate) has been transmitted.
[0669]
If it is determined in step S227 that the individual process end command has not been transmitted, the infrared light emitted by operating the remote controller 15 is received by the IR receiver 135, and the process proceeds to step S221. Thereafter, the same processing is repeated thereafter.
[0670]
If it is determined in step S227 that an individual process end command has been transmitted, that is, for example, the user operates the remote controller 15 (FIG. 7) to display a menu screen on the CRT 11, and then The individual process icon on the menu screen is re-clicked, whereby the infrared of the individual process end command, which is a command corresponding to the operation of the remote controller 15, is emitted from the remote controller 15, received by the IR receiver 135, and supplied to the CPU 129. If YES in step S228, the CPU 129 controls the IEEE1394 interface 133 to send an individual process end command to each slave unit 2.ijAnd the individual processing of the base unit 1 is terminated.
[0671]
Next, the individual processing of the slave unit will be described with reference to the flowchart of FIG.
[0672]
In the individual processing of the slave unit 2 (FIG. 11), the CPU 149 waits for the IR reception unit 155 to receive infrared rays from the remote controller 15 (or the remote control 35), and in step S231, the infrared rays in the IR reception unit 155. Detect the received intensity. That is, when a user operates a remote controller 15 to control a control target of a certain television receiver that constitutes a scalable TV system, the remote controller 15 emits infrared rays corresponding to the operation. However, this infrared light is received by the IR receiver 155 of the handset 2 as described above. In step S231, the CPU 149 causes the IR receiver 155 to detect the received intensity of the infrared light and receives the supply.
[0673]
In step S232, the CPU 149 waits for an infrared reception intensity request from the parent device 1 to be transmitted to the parent device 1 via the IEEE1394 interface 153 to receive the infrared light detected in step S231. Send strength. In step S232, the reception intensity of the infrared rays transmitted from the child device 2 is acquired (received) in step S222 of FIG.
[0674]
Thereafter, the process proceeds to step S233, and the CPU 149 determines whether a command is transmitted from the parent device 1. That is, base unit 1 transmits a command to slave unit 2 in steps S226 and S228 of FIG. 46 described above. In step S233, whether or not a command has been transmitted from base unit 1 in this way. Is determined.
[0675]
If it is determined in step S233 that a command has not been transmitted from the parent device 1, the process returns to step S233.
[0676]
If it is determined in step S233 that a command is transmitted from the parent device 1, that is, if a command transmitted from the parent device 1 is received and supplied to the CPU 149 in the IEEE1394 interface 153, the command is transmitted to step S234. The CPU 149 determines whether the command is an individual process end command.
[0677]
If it is determined in step S234 that the command transmitted from the parent device 1 is not an individual processing end command, the process proceeds to step S235, and the CPU 149 executes processing corresponding to the command transmitted from the parent device 1. Return to step S233.
[0678]
Thus, as described with reference to FIG. 46, when the user operates the remote controller 15, in the slave unit 2 to which the remote controller 15 is directed, processing corresponding to the operation of the remote controller 15 (for example, channel or volume change). Is done.
[0679]
On the other hand, if it is determined in step S234 that the command transmitted from the parent device 1 is an individual processing end command, the individual processing of the child device 2 is ended.
[0680]
As described above, the remote controller 15 (or the remote controller 35) having a strong infrared directivity is used. Further, in the television receiver constituting the scalable TV system, the maximum infrared reception intensity from the remote controller 15 is the largest. By detecting the reception intensity device, it is possible to identify (recognize) the television receiver that the user intends to control. Therefore, the master unit 1 and each slave unit 2 constituting the scalable TV system.ijAmong them, the television receiver that is controlled by the user is the remote control 15 of the master unit 1 and each slave unit 2.ijThe remote controller 35 can be controlled by any remote controller 35 without performing an operation of specifying the television receiver that the user is to control.
[0681]
Next, according to the individual processing, for example, a certain user A is controlled by a remote controller 15 with a certain handset 2.ijChannel operation, a program PGMA, And another user B uses the remote control 35 to receive another slave unit 2.pqChannel operation of other programs PGMBA plurality of users can view different programs individually such as watching a program.
[0682]
In this case, handset 2ijAnd 2pqAlthough the image data of the different program is displayed on the CRT 31 of FIG.ijAnd 2pqEven if they are arranged in adjacent positionsijAnd 2pqIt is not a big problem that image data of different programs are displayed on the screen.
[0683]
That is, in this case, handset 2ijIn the program PGMAImage data is displayed and handset 2pqIn the program PGMBTherefore, any image data will be in the field of view of the users A and B.
[0684]
However, the user A has the slave unit 2ijProgram PGM displayed onAThe user B tries to view the image data ofpqProgram PGM displayed onBSince the user A is trying to view the image data, the program PGM that the user A does not intend to viewBIn other words, the image data of the program PGM that the user B is not going to view is masked.AThe image data is masked.
[0685]
Therefore, for the user A, the other handset 2pqProgram PGM displayed onBImage data of the handset 2ijProgram PGM displayed onAIt is not a big hindrance to the viewing of the image data of the user, and for the user B, the other handset 2ijProgram PGM displayed onAImage data of the handset 2pqProgram PGM displayed onBIt will not hinder the viewing of the image data.
[0686]
However, in this case, different audio data associated with different image data is output.ijSpeaker PGM from the speaker units 32L and 32RAAudio data is output and the handset 2pqSpeaker PGM from the speaker units 32L and 32RBThere are some problems with the output of audio data.
[0687]
In other words, human auditory perception has a so-called cocktail party effect, and it is possible to distinguish desired audio data from a large number of audio data. However, low-power audio data The presence of audio data other than the desired audio data, that is, audio data that causes noise, such as being masked by large audio data, hinders viewing of the desired audio data.
[0688]
Therefore, the scalable TV system includes speaker units 12L and 12R of the master unit 1 and speaker units 32L and 32R (of the slave unit 2) in the direction of the user viewing the program on the master unit 1 and the slave unit 2. The speaker has a special function of directing the direction of the main axis of the directivity of the program so that the user can easily hear the audio data of the program being viewed by the user. And in the subunit | mobile_unit 2, it implement | achieves by performing a speaker control process.
[0689]
That is, here, for example, the directivity of the speaker units 12L and 12R of the base unit 1 (FIG. 10) is very strong, and the unit driving unit 138 drives the speaker units 12L and 12R, By changing the direction mechanically (mechanically), the direction of the main axis of directivity can be directed to a predetermined direction. Similarly, the speaker units 32L and 32R of the handset 2 are also highly directional, and when driven by the unit driving unit 158, the direction of the directional main axis can be directed to a predetermined direction. ing.
[0690]
For example, when the individual processing described with reference to FIGS. 46 and 47 is performed, the speaker control processing is performed in parallel with the individual processing.
[0691]
Therefore, the speaker control process of the master unit will be described with reference to the flowchart of FIG.
[0692]
In the speaker control process of the master unit, the CPU 129 waits for the IR receiving unit 135 to receive infrared rays from the remote controller 15 (or the remote controller 35), and in step S241, determines the infrared reception intensity at the IR receiving unit 135. To detect. That is, when a user operates a remote controller 15 to control a control target of a certain television receiver that constitutes a scalable TV system, the remote controller 15 emits infrared rays corresponding to the operation. . This infrared light is transmitted to the IR receiver 135 of the base unit 1 and each handset 2ijIn step S241, the CPU 129 causes the IR receiving unit 135 to detect the received intensity of the infrared light and receives the supplied light.
[0693]
Then, the process proceeds to step S242, in which the CPU 129 transmits each slave unit 2 via the IEEE1394 interface 133.ijIn addition, each cordless handset 2ijRequesting the receiving intensity of the infrared rays from the remote controller 15 in response to the request, and in response to the request, each slave unit 2ijThe received intensity of the infrared rays transmitted from is acquired (received) via the IEEE1394 interface 133.
[0694]
That is, as described above, when the user operates the remote controller 15, the infrared rays emitted from the remote controller 15 are transmitted not only to the master unit 1 but also to each slave unit 2.ijHowever, in step S242, each handset 2 of the infrared ray is received.ijThe reception intensity at is acquired.
[0695]
Here, in steps S241 and S242 in the speaker control process of base unit 1, the same processes as steps S221 and S222 in the individual process of base unit 1 in FIG. 46 are performed. Therefore, in the speaker control process of the parent device 1, the processing in steps S241 and S242 is not performed, and the reception intensity obtained in steps S221 and S222 in the individual processing of the parent device 1 can be employed as it is.
[0696]
Thereafter, the process proceeds to step S243, and the CPU 129 receives the infrared reception intensity at the base unit 1 detected at step S241 and each slave unit 2 acquired at step S242.ijAre selected from the three reception strengths, i.e., the reception strengths from the first to the third in descending order of the reception strength, and the process proceeds to step S244.
[0697]
In step S244, the CPU 129 detects the distance corresponding to each of the three first to third received intensities selected in step S243, and proceeds to step S245.
[0698]
That is, the reception intensity of the infrared light emitted from the remote controller 15 in the television receiver corresponds to, for example, the distance between the remote controller 15 and the television receiver (the IR receiver 135 or 155 thereof).
[0699]
Therefore, in the EEPROM 150 of the master unit 1 (FIG. 10), for example, as shown in FIG. 49, the received intensity of infrared rays emitted from the remote controller 15 in the television receiver and the remote controller 15 to the television receiver are displayed. An intensity-to-distance table representing the correspondence with the distance is stored, and in step S244, the CPU 129 refers to this intensity-to-distance table, for example, for each of the received intensities from the first place to the third place. Find the corresponding distance.
[0700]
The intensity versus distance table can be created, for example, by operating the remote controller 15 at each position separated from the television receiver by a plurality of distances and measuring the received intensity received by the television receiver. Is possible.
[0701]
Returning to FIG. 48, in step S245, the CPU 129 detects the position of the remote controller 15 that has emitted infrared rays having the received intensity from the distances corresponding to the first to third received intensity.
[0702]
Here, with reference to FIG. 50, a method for detecting the position of the remote controller 15 that emits infrared rays having the received intensities from the distances corresponding to the first to third received intensities will be described. Here, for the sake of simplicity, only the two received strengths of the first place and the second place are considered.
[0703]
For example, now, the reception intensity in the master unit 1 and the slave unit 2 on the right side (as viewed from the front of the scalable TV system)twenty threeIs the first and second received intensities, and the distance corresponding to the received intensity in base unit 1 is r1And handset 2twenty threeThe distance corresponding to the received intensity at rtwenty threeRespectively.
[0704]
In this case, considering a certain two-dimensional plane, as shown in FIG.1Radius r around1Circle of c1On the circumference of the handset 2 and handset 2twenty threeIR point received at the IR receiver 155twenty threeRadius r aroundtwenty threeCircle of ctwenty threeIt will exist on the circumference of.
[0705]
Therefore, the remote control 15 is1And ctwenty threeIntersection point PUAt the position P of the remote control 15UCan be detected.
[0706]
In the above case, since the position of the remote controller 15 is obtained from the two received intensities, the position on the two-dimensional plane is detected. The position of the remote controller 15 on the three-dimensional space is shown in FIG. Similarly to the case described above, detection can be performed by obtaining the intersection of spherical surfaces of spheres having a radius corresponding to each of the three received intensities.
[0707]
Returning to FIG. 48 again, after the position of the remote controller 15 is detected in step S245, the process proceeds to step S246, and the CPU 129 acquires the infrared reception intensity at the base unit 1 detected in step S241 and the received intensity in step S242. Each handset 2ijThe maximum reception intensity is detected from the infrared reception intensity at. Note that the detection of the maximum reception strength in step S246 is omitted, and instead, the maximum reception strength detected in step S223 of FIG. 46 described above can be used.
[0708]
In step S246, the CPU 129 further determines whether the television receiver (maximum reception intensity device) from which the maximum reception intensity is obtained is the master unit 1 or the slave unit 2.
[0709]
If it is determined in step S246 that the maximum reception intensity device is the parent device 1, the process proceeds to step S247, and the CPU 129 determines the main axis of directivity of the speaker units 12L and 12R of the parent device 1 that is the maximum reception intensity device. The unit driving unit 138 is controlled so that the direction is directed to the position of the remote controller 15 detected in step S245 (hereinafter referred to as user position as appropriate), and the process returns to step S241.
[0710]
In this case, the unit driving unit 138 drives the speaker units 12L and 12R to rotate in the pan direction or the tilt direction, for example, in accordance with the control of the CPU 129, thereby changing the direction of the main axis of directivity to the direction of the user position. Turn.
[0711]
On the other hand, if it is determined in step S246 that the maximum reception strength device is the slave unit 2, the process proceeds to step S248, and the CPU 129 controls the IEEE1394 interface 133 to control the directivity of the speaker units 32L and 32R. A speaker control command for instructing the direction to be directed to the user position is transmitted to the handset 2 that is the maximum reception intensity device.ijAnd return to step S241.
[0712]
Therefore, in this case, the slave unit 2 which is the maximum reception strength deviceijThen, as will be described later with reference to FIG. 51, the speaker units 32L and 32R are rotationally driven in the pan direction or the tilt direction so that the direction of the main axis of directivity is directed to the direction of the user position.
[0713]
As described above, when a user performs control of a certain television receiver constituting a scalable TV system by operating the remote controller 15 (or the remote controller 35), generally, the remote controller 15 is Operation is performed toward the television receiver that is the control target.
[0714]
In this case, for example, assuming that the infrared light emitted from the remote controller 15 (or the remote controller 35) is highly directional, the television receiver that the user intends to control is the infrared light emitted from the remote controller 15. This means that the device is in the direction of the main axis, that is, the maximum reception intensity device having the highest infrared reception intensity.
[0715]
Therefore, the maximum reception intensity device is a television receiver to which image data and audio data of a program viewed by the user who operates the remote controller 15 is output, and the speaker of the parent device 1 which is the maximum reception intensity device. By directing the direction of the main axis of directivity of the units 12L and 12R or the speaker units 32L and 32R of the slave unit 2 to the direction of the user who operates the remote controller 15, the user clearly displays the audio data of the desired program. Can be heard.
[0716]
Next, the speaker control process of the handset 2 will be described with reference to the flowchart of FIG.
[0717]
In the speaker control process of the slave unit 2 (FIG. 11), the CPU 149 waits for the IR receiving unit 155 to receive infrared rays from the remote control 15 (or the remote control 35), and in step S251, the IR receiving unit 155 Detects infrared reception intensity. That is, when a user operates a remote controller 15 to control a control target of a certain television receiver that constitutes a scalable TV system, the remote controller 15 emits infrared rays corresponding to the operation. However, this infrared light is received by the IR receiver 155 of the handset 2 as described above. In step S251, the CPU 129 causes the IR receiver 155 to detect the received intensity of the infrared light and receives the supply.
[0718]
In step S252, the CPU 149 waits for transmission of a request for infrared reception intensity from the parent device 1, and then receives the infrared ray detected in step S251 to the parent device 1 via the IEEE1394 interface 153. Send strength. In step S252, the received intensity of infrared rays transmitted from the slave unit 2 is acquired (received) in step S242 of FIG.
[0719]
Here, in steps S251 and S252 in the speaker control process of handset 2, the same processes as steps S231 and S232 in the individual process of handset 2 in FIG. 47 are performed. Therefore, in the speaker control processing of the slave unit 2, the processing in steps S251 and S252 is not performed, and the reception intensity obtained in steps S231 and S232 in the individual processing of the slave unit 2 can be employed as it is.
[0720]
Thereafter, the process proceeds to step S253, and the CPU 149 determines whether a speaker control command has been transmitted from the parent device 1. That is, base unit 1 transmits a speaker control command to slave unit 2 in step S248 of FIG. 48 described above. In step S253, the base unit 1 transmits a speaker control command as described above. Is determined.
[0721]
If it is determined in step S253 that the speaker control command has not been transmitted from the parent device 1, the process returns to step S251.
[0722]
If it is determined in step S253 that the speaker control command has been transmitted from the parent device 1, that is, the speaker control command transmitted from the parent device 1 is received by the IEEE1394 interface 153 and supplied to the CPU 149. In step S254, the CPU 149 determines the direction of the main axis of directivity of the speaker units 32L and 32R of the slave unit 2 according to the speaker control command, based on the position (user position) of the remote controller 15 detected in step S245 of FIG. The unit driving unit 158 is controlled so as to be directed in the direction of), and the process returns to step S251.
[0723]
In this case, the unit drive unit 158 rotationally drives the speaker units 32L and 32R, for example, in the pan direction or the tilt direction according to the control of the CPU 149, thereby changing the direction of the main axis of directivity to the direction of the user position. Turn.
[0724]
Therefore, in this case, in the handset 2, the user who has operated the remote controller 15 toward the handset 2, that is, the user who is viewing the program as image data and audio data output from the handset 2 is displayed. The direction of the main axis of directivity of the speaker units 32L and 32R is directed to the direction, and the user can clearly hear the audio data of the desired program.
[0725]
Note that the speaker control processing in FIGS. 48 and 51 ends when the individual processing in FIGS. 46 and 47 ends, for example.
[0726]
In the above-described case, only the direction of the direction of the main axis of directivity of the speaker units 12L and 12R (or the speaker units 32L and 32R) is controlled corresponding to the user position. It is also possible to control the volume of the speaker units 12L and 12R. That is, for example, the volume of the speaker units 12L and 12R can be increased as the television receiver from which the user is watching the program is further away from the user position.
[0727]
Furthermore, in the above-described case, the position of the remote controller 15 (user position) is detected based on the intensity of infrared rays received from the remote controller 15 in the television receiver. For example, it is possible to detect by using GPS (Global Positioning System) or emitting ultrasonic waves from each television receiver, receiving the ultrasonic waves with the remote controller 15 and sending them back.
[0728]
Next, in the speaker control process described above, the speaker units 12L and 12R (and the speaker units 32L and 32R) are those having directivity, and the direction of the main axis of the directivity is determined by the unit driving unit 138 (and the unit). The drive unit 158) is rotated in the pan direction or the tilt direction so as to be directed in a predetermined direction (the direction of the user position). It can also be done.
[0729]
That is, FIG. 52 shows a configuration example of the speaker unit 12L that electronically controls the direction of the main axis of directivity. The other speaker units 12R, 32L, and 32R are also configured in the same manner as the speaker unit 12L, and thus description thereof is omitted.
[0730]
In the embodiment of FIG. 52, the audio data output from the MPEG audio decoder 126 (FIG. 10) is the digital filter 211.1And 2112To be supplied. Digital filter 2111And 2112A predetermined tap coefficient is set by the unit driving unit 138 (FIG. 10), and the digital filter 2111And 2112Filters the same audio data supplied thereto based on the tap coefficient set by the unit driving unit 138, thereby converting each frequency component included in the audio data to a predetermined delay for each frequency component. Audio data delayed by time is obtained, and the speaker 2121And 2122To supply each.
[0731]
Speaker 2121And 2122Are omnidirectional speakers, and the digital filter 2111And 2112Outputs (sounds) audio data supplied from
[0732]
Now, in the speaker unit 12L, two speakers 2121And 2122Are expressed as Y1 and Y2, respectively.1And 2122The main axes Y1 and Y2 are arranged so as to be parallel in a two-dimensional plane (here, in the drawing). Further, the speaker 2121And 2122Are arranged so that the respective cones (diaphragms) are at equal positions in the directions of the main axes Y1 and Y2.
[0733]
Here, a distance between the main axes Y1 and Y2 (hereinafter referred to as a distance between the main axes as appropriate) is represented by a, and an angle (radiation) in the counterclockwise direction with respect to the main axis Y1 or Y2 in the two-dimensional plane. The angle is expressed by θ.
[0734]
When, for example, a sine wave signal having a single frequency component is input as audio data to the speaker unit 12L configured as described above, the sine wave signal as the audio data is converted into the digital filter 211.1And 2112So that, for example, the delay times D1 and D2 are respectively delayed by the speaker 212.1And 2122To be output.
[0735]
In this case, the speaker 2121And 2122Sound waves output from each other interfere with each other. Further, for example, if the delay times D1 and D2 are in a relationship of D2 ≧ D1, now the speaker 2121And 2122There is a time difference of D2−D1 (hereinafter referred to as a delay time difference as appropriate) between the sound waves output from each. The speaker 2121And 2122There is a path difference between the sound waves on the axes Y11 and Y12 that form an angle θ with each of the main axes Y1 and Y2.
[0736]
As a result, the speaker 2121And 2122For each observation point (listening position) of two sound waves output from, the phase relationship at the time of interference of the two sound waves will be different. For example, at a certain observation point, two sound waves are added in phase, Speaker 2121And 2122The sound wave is twice as loud as when there is only one of the two. At other observation points, the two sound waves are added in opposite phases (cancelled), and the sound volume becomes zero. Therefore, the speaker 2121And 2122The overall sound volume characteristic of this is directional.
[0737]
53 and 54 show the speaker 212 obtained as described above.1And 2122An example of the directivity of the overall volume characteristic is shown. In the embodiment of FIGS. 53 and 54, the maximum volume is normalized to 0 dB.
[0738]
FIG. 53 shows the directivity of the volume characteristic when a sine wave having a frequency of 1000 Hz is input with the distance a between the main axes being 10 cm and the delay time difference D2-D1 being a / C. C represents the speed of sound, and here it is 340 m / s.
[0739]
In the embodiment of FIG. 53, the maximum sound volume is obtained in the range where the angle θ is 30 degrees or more. In addition, the volume is almost 0 (null) at the position where the angle θ is −45 degrees.
[0740]
FIG. 54 shows the directivity of the volume characteristic when the input is replaced with a sine wave having a frequency of 5000 Hz among the conditions described in FIG.
[0741]
In the embodiment of FIG. 54, the main beam appears in a range where the angle θ is 45 degrees or more. Further, a sub beam (grating beam) having the same size as the main beam is generated in the range where the angle θ is 0 ° to 45 °. The reason why such a large sub beam is generated is that, in the sub beam range of FIG. 54, the phase difference between the two sound waves is an integral multiple of the wavelength of the sine wave of 5000 Hz, and the two sound waves are added in phase. It is.
[0741]
This is the same for the other sub beams, and the speaker 212 is used.1And 2122When the distance from each to the observation point is sufficiently larger than the distance a between the main axes, in general, when the following equation holds, the speaker 2121And 2122The phases of the two sound waves output by the are in phase, and a sub beam having the same size as the main beam is generated.
[0743]
Figure 0003693246
[0744]
However, in Formula (26), f represents an input frequency and n is an integer value of 0 or more.
[0745]
In formula (26), when n is 0, it represents the main beam.
[0746]
For example, when the frequency f is 1000 Hz, the expression (26) is satisfied only when n is 0. Therefore, in this case, a sub beam having the same size as the main beam is not generated. .
[0747]
Here, for example, when n is 1, the frequency f that satisfies the equation (26), that is, the frequency f that generates the sub-beam can be expressed by f = C / (a (1-cos θ)). Under the conditions described in the embodiment of FIG. 53, this frequency f is about 1700 Hz, which is the frequency when the distance between the main axes a is equal to the half wavelength of the sound wave.
[0748]
From the above, according to the speaker unit 12L of FIG.1And 2112, Each frequency component of the audio data supplied thereto is delayed for each frequency component, and thereby the audio data given a predetermined delay time difference D2-D1 for each frequency component is converted to the speaker 212.1And 2122And output to the speaker 212.1And 2122The overall sound volume characteristic of this is directional. The direction of the main beam and the null direction for each frequency component can be changed by a delay time difference given to the frequency component.
[0749]
That is, the direction of the main axis of directivity of the speaker unit 12L is determined by the digital filter 211.1And 2112Can be changed according to the tap coefficient to be set.
[0750]
Therefore, in the unit driving unit 138, the digital filter 2111And 2112Further, by giving a predetermined tap coefficient, the direction of the main axis of directivity of the speaker unit 12L can be directed to a desired direction.
[0751]
In the above case, the speaker unit 12L includes two speakers 212.1And 2122And the two speakers 2121And 2122The direction of the main axis of directivity is controlled using the interference between two sound waves output from the other, but for example, each of the speaker units 12L and 12R is configured by one speaker, and the speaker It is also possible to control the direction of the main axis of directivity by using interference between two sound waves output from the speaker of the unit 12L and the speaker of the speaker unit 12R.
[0752]
Further, the speaker unit 12L can be configured by a so-called speaker array including more than two speakers. When the speaker unit 12L is configured with a large number of speakers, steeper directivity can be realized.
[0753]
Next, in the above-described case, the position (user position) of the remote controller 15 is detected based on the intensity of infrared rays received from the remote controller 15 in the parent device 1 or the child device 2, and the direction of the position of the remote controller 15 is detected. The direction of the main axis of directivity of the speaker units 12L and 12R or the speaker units 32L and 32R is directed to the direction of the main axis of directivity of the speaker units 12L and 12R or the speaker units 32L and 32R. It is not necessary to detect the position of the remote controller 15 as long as it is directed in the direction of the position of the remote controller 15, and it is sufficient if the direction of the remote controller 15 from the master unit 1 or the slave unit 2 is known.
[0754]
Therefore, a method for detecting the direction of the remote controller 15 from the parent device 1 (or the child device 2) will be described with reference to FIGS.
[0755]
As shown in FIG. 55, the direction of the remote controller 15 from the master unit 1 is such that two IR receivers 135A and 135B separated by a predetermined distance D are provided in the IR receiver 135 of the master unit 1 (FIG. 10). It is possible to detect.
[0756]
Now, assuming that the distance from the base unit 1 to the remote controller 15 is sufficiently larger than the distance D between the light receivers 135A and 135B, the infrared light incident on the light receiver 135A from the remote controller 15 and the light receiver 135B from the remote controller 15 It can be regarded as parallel to the infrared rays incident on.
[0757]
As shown in FIG. 55, when the angle between the infrared rays incident on the light receiving portions 135A and 135B from the remote controller 15 and the straight line connecting the light receiving portions 135A and 135B is φ, the infrared rays incident on the light receiving portion 135A from the remote control 15 And the path difference d between the remote controller 15 and the infrared light incident on the light receiving unit 135B can be expressed by Dcosφ.
[0758]
Further, when the speed of light is represented by c and the time difference of the timing at which the infrared rays from the remote controller 15 are received by the light receiving units 135A and 135B is represented by τ, the path difference d can be represented by cτ.
[0759]
Therefore, the angle φ, that is, the direction φ of the remote controller 15 is expressed by arccos (τc / D). That is, the direction φ of the remote controller 15 can be obtained by measuring the time difference τ of the timing at which the infrared rays from the remote controller 15 are received by the light receiving units 135A and 135B.
[0760]
Next, the direction of the remote controller 15 from the parent device 1 (or the child device 2) can be detected by configuring the IR receiver 135 (or IR receiver 155) as shown in FIG. .
[0761]
That is, in the embodiment shown in FIG. 56, the IR receiver 135 includes an infrared line sensor 221 having pixels as a plurality of infrared light receivers, and a lens 222 that collects infrared rays on the infrared line sensor 221. Yes.
[0762]
The infrared line sensor 221 is disposed on the optical axis of the lens 222, for example.
[0763]
In the IR receiver 135 configured as described above, infrared light emitted from the remote controller 15 enters the infrared line sensor 221 via the lens 222 and is received by a pixel at a predetermined position on the infrared line sensor. The
[0764]
In this case, when the incident angle α of the infrared ray with respect to the infrared line sensor 221 changes, the pixel that receives the infrared ray, that is, the light receiving position also changes accordingly.
[0765]
Now, the distance between this light receiving position and the intersection of the optical axis of the lens 222 on the infrared line sensor 221 is represented by r, and the distance between the infrared line sensor 221 and the lens 222 is represented by S. The incident angle α, that is, the direction α of the remote controller 15 is expressed by arctan (S / r).
[0766]
Therefore, the direction α of the remote controller 15 can be obtained by measuring the distance r between the intersection of the lens 222 on the infrared line sensor 221 and the optical axis of the lens 222 and the position of the pixel receiving the infrared light.
[0767]
Next, FIG. 57 shows another configuration example of the parent device 1. In the figure, portions corresponding to those in FIG. 10 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate. That is, base unit 1 in FIG. 57 is configured in the same manner as in FIG. 10 except that connection detection unit 139 is newly provided.
[0768]
The connection detection unit 139 detects that another television receiver is connected electrically or mechanically and supplies it to the CPU 129.
[0769]
Therefore, in the embodiment of FIG. 57, the IEEE1394 terminal 21 in the terminal panel 21 is used.ijThe connection detection unit 139 detects a connection with another television receiver instead of the change in the terminal voltage in FIG. 3F.
[0770]
Next, FIG. 58 shows another configuration example of the slave unit 2. In the figure, portions corresponding to those in FIG. 11 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate. That is, the slave unit 2 in FIG. 58 is configured in the same manner as in FIG. 11 except that a connection detection unit 159 is newly provided.
[0771]
The connection detection unit 159 detects that another television receiver has been connected electrically or mechanically, and supplies it to the CPU 149.
[0772]
Therefore, in the embodiment of FIG. 58, the IEEE1394 terminal 41 in the terminal panel 41 is the same as in the embodiment of FIG.1The connection detector 159 detects a connection with another television receiver, not the change in terminal voltage in FIG. 5F.
[0773]
Next, the series of processes described above can be performed by hardware or software. When a series of processing is performed by software, a program constituting the software is installed in a general-purpose computer or the like.
[0774]
FIG. 59 shows a configuration example of an embodiment of a computer in which a program for executing the above-described series of processes is installed.
[0775]
The program can be recorded in advance on a hard disk 305 or a ROM 303 as a recording medium built in the computer.
[0776]
Alternatively, the program is stored temporarily on a removable recording medium 311 such as a flexible disk, a CD-ROM (Compact Disc Read Only Memory), an MO (Magneto Optical) disk, a DVD (Digital Versatile Disc), a magnetic disk, or a semiconductor memory. It can be stored (recorded) permanently. Such a removable recording medium 311 can be provided as so-called package software.
[0777]
The program is installed in the computer from the removable recording medium 311 as described above, or transferred from the download site to the computer wirelessly via a digital satellite broadcasting artificial satellite, or a LAN (Local Area Network), The program can be transferred to a computer via a network such as the Internet. The computer can receive the program transferred in this way by the communication unit 308 and install it in the built-in hard disk 305.
[0778]
The computer includes a CPU (Central Processing Unit) 302. An input / output interface 310 is connected to the CPU 302 via the bus 301, and the CPU 302 is operated by an input unit 307 including a keyboard, a mouse, a microphone, and the like by the user via the input / output interface 310. When a command is input as a result, the program stored in a ROM (Read Only Memory) 303 is executed accordingly. Alternatively, the CPU 302 also transfers a program stored in the hard disk 305, a program transferred from a satellite or a network, received by the communication unit 308 and installed in the hard disk 305, or a removable recording medium 311 attached to the drive 309. The program read and installed in the hard disk 305 is loaded into a RAM (Random Access Memory) 304 and executed. Thereby, the CPU 302 performs processing according to the above-described flowchart or processing performed by the configuration of the above-described block diagram. Then, the CPU 302 outputs the processing result from the output unit 306 configured with an LCD (Liquid Crystal Display), a speaker, or the like, for example, via the input / output interface 310 as necessary, or from the communication unit 308. Transmission and further recording on the hard disk 305 are performed.
[0779]
Here, in this specification, the processing steps for describing a program for causing a computer to perform various types of processing do not necessarily have to be processed in time series according to the order described in the flowchart, but in parallel or individually. This includes processing to be executed (for example, parallel processing or processing by an object).
[0780]
Further, the program may be processed by a single computer, or may be processed in a distributed manner by a plurality of computers. Furthermore, the program may be transferred to a remote computer and executed.
[0781]
Note that the above-described scalable TV system can be configured by either a digital or analog television receiver.
[0782]
The television receiver that constitutes the scalable TV system depends on, for example, whether the television receiver is a parent device or a child device, and, if it is a child device, the number of child devices. It is possible to make a difference in the selling price.
[0783]
That is, in the scalable TV system, as described above, if the parent device does not exist, the special function is not provided, so the value of the parent device is high, and therefore, the selling price can be set high.
[0784]
In addition, after the purchase of the master unit, the user is expected to purchase additional slave units as needed, but the first few slave units are, for example, less expensive than the master unit. It is possible to set a selling price that is higher than that of a general television receiver. And about the subunit | mobile_unit purchased after that, a further low selling price can be set.
[0785]
Note that a television receiver serving as a parent device that configures a scalable TV system, for example, adds a signal processing unit 137 to a general digital television receiver and changes a program to be executed by the CPU 129. It is possible to configure. Accordingly, a television receiver serving as a parent device constituting a scalable TV system can be manufactured relatively easily by using a general digital television receiver. Therefore, the above-mentioned provided by the scalable TV system is provided. Considering such special functions, it can be said that the cost merit (cost performance) is high. The same applies to a television receiver as a slave unit.
[0786]
The present invention can also be applied to a television receiver that is a display device incorporating a tuner and a display device that outputs images and sounds from the outside without incorporating a tuner.
[0787]
【The invention's effect】
As described above, according to the present invention, when a large number of display devices are connected and used, higher functions can be realized than when used alone.
[Brief description of the drawings]
FIG. 1 is a perspective view showing a configuration example of an embodiment of a scalable TV system to which the present invention is applied.
FIG. 2 is a perspective view showing an example of an external configuration of the base unit 1. FIG.
FIG. 3 is a 6-side view showing an example of an external configuration of the base unit 1;
FIG. 4 is a perspective view showing an example of an external configuration of the slave unit 2;
FIG. 5 is a 6-side view showing an example of the external configuration of the slave unit 2;
FIG. 6 is a perspective view showing an example of the external configuration of a dedicated rack that houses a parent device 1 and a child device 2 that constitute a scalable TV system.
7 is a plan view showing an external configuration example of a remote controller 15. FIG.
8 is a plan view showing an external configuration example of a remote controller 35. FIG.
FIG. 9 is a plan view showing another external configuration example of the remote controller 15;
FIG. 10 is a block diagram showing an example of the electrical configuration of the base unit 1;
FIG. 11 is a block diagram showing an example of the electrical configuration of the slave unit 2;
FIG. 12 is a diagram showing a layer structure of an IEEE1394 communication protocol.
FIG. 13 is a diagram showing an address space of the CSR architecture.
FIG. 14 is a diagram showing CSR offset addresses, names, and functions.
FIG. 15 is a diagram showing a general ROM format;
FIG. 16 is a diagram showing details of a bus info block, a root directory, and a unit directory.
FIG. 17 is a diagram showing the structure of PCR.
FIG. 18 is a diagram showing the structure of oMPR, oPCR, iMPR, and iPCR.
FIG. 19 is a diagram illustrating a data structure of a packet transmitted in the asynchronous transfer mode of the AV / C command.
FIG. 20 is a diagram illustrating a specific example of an AV / C command.
FIG. 21 is a diagram illustrating a specific example of an AV / C command and a response.
22 is a block diagram illustrating a detailed configuration example of a signal processing unit 137. FIG.
FIG. 23 is a flowchart for describing image conversion processing by the signal processing unit 137;
FIG. 24 is a block diagram illustrating a configuration example of a learning device.
FIG. 25 is a diagram for explaining processing of a student data generation unit 173;
FIG. 26 is a flowchart illustrating a learning process of coefficient seed data by the learning device.
FIG. 27 is a diagram for explaining a learning method of coefficient seed data.
FIG. 28 is a block diagram illustrating another configuration example of the learning device.
29 is a block diagram illustrating a configuration example of a signal processing unit 157. FIG.
FIG. 30 is a flowchart illustrating processing of base unit 1;
FIG. 31 is a flowchart illustrating authentication processing by base unit 1;
FIG. 32 is a flowchart for explaining processing of the slave unit 2;
FIG. 33 is a flowchart for explaining authentication processing by the slave unit 2;
FIG. 34 is a flowchart for explaining closed caption processing by the base unit 1;
FIG. 35 is a flowchart for explaining closed caption processing by the slave unit 2;
FIG. 36 is a flowchart for describing a partial enlargement process by base unit 1;
FIG. 37 is a flowchart for explaining partial enlargement processing by the child device 2;
FIG. 38 is a diagram illustrating a display example of the scalable TV system when a partial enlargement process is performed.
FIG. 39 is a flowchart illustrating an overall enlargement process performed by base unit 1;
FIG. 40 is a diagram for explaining how to obtain a display range and an enlarged range.
FIG. 41 is a flowchart illustrating an overall enlargement process performed by handset 2;
FIG. 42 is a diagram illustrating a display example of the scalable TV system when the entire enlargement process is performed.
FIG. 43 is a flowchart illustrating multi-screen display processing by base unit 1;
FIG. 44 is a flowchart illustrating batch simultaneous control processing by base unit 1;
FIG. 45 is a diagram illustrating a display example of a scalable TV system when a batch simultaneous control process is performed.
FIG. 46 is a flowchart for describing individual processing by the master unit 1;
FIG. 47 is a flowchart for explaining individual processing by the slave unit 2;
FIG. 48 is a flowchart for explaining speaker control processing by base unit 1;
FIG. 49 is a diagram showing an intensity versus distance table.
FIG. 50 is a diagram for explaining a method of calculating a distance to the remote controller 15;
FIG. 51 is a flowchart illustrating speaker control processing by handset 2;
FIG. 52 is a block diagram illustrating a configuration example of a speaker unit 12L.
FIG. 53 is a diagram showing directivity.
FIG. 54 is a diagram showing directivity.
FIG. 55 is a diagram for explaining a method of detecting the direction of the remote controller 15;
56 is a diagram illustrating a configuration example of an IR receiving unit 135. FIG.
FIG. 57 is a block diagram showing another example of the electrical configuration of the parent device 1;
FIG. 58 is a block diagram showing another example of the electrical configuration of the slave unit 2;
FIG. 59 is a block diagram illustrating a configuration example of an embodiment of a computer to which the present invention has been applied.
[Explanation of symbols]
1 Base unit, 2, 211, 212, 213, 214, 215, 2twenty one, 2twenty two, 2twenty three, 2twenty four, 2twenty five, 231, 232, 233, 234, 235, 241, 242, 243, 244, 245, 251, 252, 253, 254, 255  Slave unit, 11 CRT, 12L, 12R Speaker unit, 15 Remote control, 21 Terminal panel, 2111, 2112, 2113, 21twenty one, 21twenty three, 2131, 2132, 2133  IEEE1394 terminal, 22 antenna terminal, 23 input terminal, 24 output terminal, 31 CRT, 32L, 32R speaker unit, 35 remote control, 41 terminal panel, 411  IEEE1394 terminal, 42 antenna terminal, 43 input terminal, 44 output terminal, 51 select button switch, 52 volume button switch, 53 channel up / down button switch, 54 menu button switch, 55 exit button switch, 56 display button, 57 enter button switch , 58 Numeric keypad switch, 59 TV / video switch button switch, 60 TV / DSS switch button switch, 61 Jump button switch, 62 Language button, 63 Guide button switch, 64 Favorite button switch, 65 Cable button switch, 66 TV switch, 67 DSS button switch, 68-70 LED, 71 Cable power button switch , 72 TV power button switch, 73 DSS power button switch, 74 Muting button switch, 75 Sleep button switch, 76 Light emitting part, 81 Select button switch, 82 Volume button switch, 83 Channel up / down button switch, 84 Menu button switch, 85 exit button switch, 86 display button, 87 enter button switch, 88 numeric button (numeric keypad) switch, 89 TV / video switch button switch, 90 TV / DSS switch button switch, 91 jump button switch, 92 language button, 93 guide button Switch, 94 favorite button switch, 95 cable button switch, 96 TV switch , 97 DSS button switch, 98 to 100 LEDs, 101 cable power button switch, 102 TV power button switch, 103 DSS power button switch, 104 muting button switch, 105 sleep button switch, 106 light emitting unit, 110 button switch, 111 to 114 Direction button switch, 121 tuner, 122 QPSK demodulation circuit, 123 error correction circuit, 124 demultiplexer, 125 MPEG video decoder, 126 MPEG audio decoder, 127 frame memory, 128 NTSC encoder, 129 CPU, 130 EEPROM, 131 ROM, 132 RAM, 133 IEEE1394 interface, 134 front panel, 135 I R receiver, 135A, 135B light receiver, 136 modem, 137 signal processor, 137A DSP, 137B EEPROM, 137C RAM, 138 unit driver, 139 connection detector, 141 tuner, 142 QPSK demodulator, 143 error correction circuit, 144 Demultiplexer, 145 MPEG video decoder, 146 MPEG audio decoder, 147 Frame memory, 148 NTSC encoder, 149 CPU, 150 EEPROM, 151 ROM, 152 RAM, 153 IEEE1394 interface, 154 Front panel, 155 IR receiver, 156 Modem, 157 signal processing unit, 157A DSP, 157B EEPROM, 157C RAM, 158 unit Drive unit, 159 connection detection unit, 161, 162 tap extraction unit, 163 class classification unit, 164 coefficient memory, 165 prediction unit, 166 coefficient generation unit, 167 coefficient seed memory, 168 parameter memory, 171 teacher data generation unit, 172 teacher Data storage unit, 173 Student data generation unit, 174 Student data storage unit, 175, 176 Tap extraction unit, 177 Class classification unit, 178 Addition unit, 179 Coefficient seed calculation unit, 180 Parameter generation unit, 190 Addition unit, 191 Tap coefficient calculation unit, 192 Addition unit, 193 Coefficient seed calculation unit, 201, 202 Tap extraction unit, 203 class classification unit, 204 coefficient memory, 205 prediction unit, 206 coefficient generation unit, 207 coefficient seed memory, 208 Parameter memo , 2111, 2112  Digital filter, 2121, 2122  Speaker, 221 infrared line sensor, 222 lens, 301 bus, 302 CPU, 303 ROM, 304 RAM, 305 hard disk, 306 output unit, 307 input unit, 308 communication unit, 309 drive, 310 input / output interface, 311 removable recording medium

Claims (26)

他の表示装置と接続され、画像を表示する表示手段を有する表示装置であって、
前記他の表示装置が接続されたことを検出する接続検出手段と、
前記接続検出手段において接続が検出された前記他の表示装置との間で認証を行う認証手段と、
前記認証が成功した場合に、前記表示装置の機能を変化させる機能変化手段と
を備え、
前記表示装置および前記他の表示装置には、自身に接続された接続装置を制御しうる親の表示装置と、前記接続装置から制御しうるが、前記接続装置を制御できない子の表示装置との2種類が存在し、
前記認証手段は、前記他の表示装置が正当なものであるかどうかについての認証と、前記他の表示装置が前記親または子の表示装置であるかどうかについての認証とを行う
ことを特徴とする表示装置。
A display device connected to another display device and having display means for displaying an image,
Connection detecting means for detecting that the other display device is connected;
Authentication means for performing authentication with the other display device whose connection is detected by the connection detection means;
If the authentication is successful, Bei example and a function change means for changing the function of the display device,
The display device and the other display device include a parent display device that can control a connection device connected to the display device and a child display device that can be controlled from the connection device but cannot control the connection device. There are two types
The authentication means performs authentication as to whether or not the other display device is valid, and authentication as to whether or not the other display device is the parent or child display device.
A display device characterized by that.
前記機能変化手段は、前記認証手段において、前記他の表示装置が正当なものであることの認証と、前記他の表示装置が前記親または子の表示装置であることの認証の両方が成功した場合に、前記表示装置の機能を変化させる
ことを特徴とする請求項1に記載の表示装置。
In the function changing means, the authentication means has succeeded in both authentication that the other display device is valid and authentication that the other display device is the parent or child display device. The display device according to claim 1, wherein a function of the display device is changed.
前記他の表示装置は、単体で使用される場合に使用しうる第1の機能と、前記第1の機能と異なる第2の機能とを有し、
前記機能変化手段は、前記他の表示装置の前記第2の機能を制御できない状態から、前記第2の機能を制御しうる状態に、前記表示装置の機能を変化させる
ことを特徴とする請求項1に記載の表示装置。
The other display device has a first function that can be used when used alone and a second function that is different from the first function,
The function changing means changes the function of the display device from a state in which the second function of the other display device cannot be controlled to a state in which the second function can be controlled. The display device according to 1.
前記他の表示装置は、第1の画像データを、第2の画像データに変換する機能を、前記第2の機能として有する
ことを特徴とする請求項3に記載の表示装置。
The display device according to claim 3 , wherein the other display device has a function of converting first image data into second image data as the second function.
前記他の表示装置は、
前記第2の画像データを構成する画素のうちの注目している注目位置の画素を予測するのに用いる予測タップを、前記第1の画像データから抽出する予測タップ抽出手段と、
前記注目位置の画素を予測するのに利用されるタップ係数を発生するタップ係数発生手段と、
前記タップ係数発生手段から発生されたタップ係数と、前記予測タップとに基づいて、前記注目位置の画素を予測する予測手段と
を備え、
前記第1の画像データを、前記予測手段において予測された画素でなる前記第2の画像データに変換する
ことを特徴とする請求項4に記載の表示装置。
The other display device includes:
A prediction tap extracting means for extracting, from the first image data, a prediction tap used for predicting a pixel at a target position of interest among the pixels constituting the second image data;
Tap coefficient generating means for generating a tap coefficient used to predict a pixel at the target position;
Prediction means for predicting the pixel at the target position based on the tap coefficient generated from the tap coefficient generation means and the prediction tap;
The display device according to claim 4 , wherein the first image data is converted into the second image data including pixels predicted by the prediction unit.
前記機能変化手段は、前記表示手段に表示される画像の一部を拡大する指令があった場合に、前記画像の一部を拡大した拡大画像を、前記表示手段に表示し、前記画像の全体を前記他の表示装置に表示させるように、前記表示装置の機能を変化させる
ことを特徴とする請求項5に記載の表示装置。
The function changing means displays, on the display means, an enlarged image obtained by enlarging a part of the image when there is an instruction to enlarge a part of the image displayed on the display means, and the entire image is displayed. The display device according to claim 5 , wherein the function of the display device is changed so that the other display device displays the image.
前記表示手段に表示される画像の一部を、前記拡大画像に変換する変換手段をさらに備える
ことを特徴とする請求項6に記載の表示装置。
The display device according to claim 6 , further comprising conversion means for converting a part of the image displayed on the display means into the enlarged image.
前記変換手段は、
前記拡大画像を構成する画素のうちの注目している注目位置の画素を予測するのに用いる予測タップを、前記表示手段に表示される画像から抽出する予測タップ抽出手段と、
前記注目位置の画素を予測するのに利用されるタップ係数を発生するタップ係数発生手段と、
前記タップ係数発生手段から発生されたタップ係数と、前記予測タップとに基づいて、前記注目位置の画素を予測する予測手段と
を備え、
前記表示手段に表示される画像を、前記予測手段において予測された画素でなる前記拡大画像に変換する
ことを特徴とする請求項7に記載の表示装置。
The converting means includes
A prediction tap extracting means for extracting a prediction tap used for predicting a pixel at a focused position of interest among pixels constituting the enlarged image from an image displayed on the display means;
Tap coefficient generating means for generating a tap coefficient used to predict a pixel at the target position;
Prediction means for predicting the pixel at the target position based on the tap coefficient generated from the tap coefficient generation means and the prediction tap;
Display device according to claim 7 you and converting the image displayed on the display unit, the enlarged image formed of predicted pixel in the prediction means.
所定の処理を行うことを指令するコマンドを入力する入力手段からのコマンドを受信するコマンド受信手段と、
前記コマンド受信手段において受信された前記コマンドに対応する処理を行う処理手段と
をさらに備え、
前記機能変化手段は、前記コマンド受信手段において前記コマンドが受信された場合に、前記コマンドを、前記他の表示装置に送信するように、前記表示装置の機能を変化させる
ことを特徴とする請求項1に記載の表示装置。
Command receiving means for receiving a command from an input means for inputting a command for instructing to perform a predetermined process;
Processing means for performing processing corresponding to the command received by the command receiving means,
The function changing means changes the function of the display device so that the command is sent to the other display device when the command is received by the command receiving means. The display device according to 1.
前記表示装置は前記親の表示装置として機能しており、
所定の処理を行うことを指令するコマンドを入力する入力手段からのコマンドを受信するコマンド受信手段をさらに備え、
前記機能変化手段は、
前記コマンド受信手段において受信された前記コマンドが与えられるべき対象の装置である対象装置を認識し、
前記対象装置が、前記表示装置または前記他の表示装置のうちのいずれであるかを判定し、
前記対象装置が前記表示装置である場合には、前記コマンドに対応する処理を行い、前記対象装置が前記他の表示装置である場合には、前記コマンドを、前記対象装置である前記他の表示装置に送信する
ように、前記表示装置の機能を変化させる
ことを特徴とする請求項1に記載の表示装置。
The display device functions as the parent display device,
Command receiving means for receiving a command from an input means for inputting a command for instructing to perform a predetermined process;
The function changing means is
Recognizing a target device that is a target device to which the command received by the command receiving means is to be given,
Determining whether the target device is the display device or the other display device;
When the target device is the display device, processing corresponding to the command is performed. When the target device is the other display device, the command is displayed as the other display that is the target device. The display device according to claim 1, wherein the function of the display device is changed so as to be transmitted to the device.
前記入力手段は、前記コマンドに対応する無線の信号を送信し、
前記コマンド受信手段は、前記無線の信号を受信し、
前記対象装置を、前記コマンド受信手段において受信された前記無線の信号の強度と、前記他の表示装置において受信された前記無線の信号の強度に基づいて認識する
ことを特徴とする請求項10に記載の表示装置。
The input means transmits a wireless signal corresponding to the command;
The command receiving means receives the wireless signal,
The target device, and the intensity of the received the radio signal at said command receiving means, to claim 10, wherein the recognized based on the intensity of the radio signals received at the other display device The display device described.
前記表示装置は前記親の表示装置として機能しており、
所定の処理を行うことを指令するコマンドを入力する入力手段からのコマンドを受信するコマンド受信手段と、
前記表示手段に表示される前記画像に付随する音声を出力する音声出力手段と
をさらに備え、
前記機能変化手段は、
前記入力手段の方向を検出し、
前記コマンド受信手段において受信された前記コマンドが与えられるべき対象の装置である対象装置を認識し、
前記対象装置が、前記表示装置または前記他の表示装置のうちのいずれであるかを判定し、
前記対象装置が前記表示装置である場合には、前記音声出力手段の指向性の主軸の方向を、前記入力手段の方向に向ける
ように、前記表示装置の機能を変化させる
ことを特徴とする請求項1に記載の表示装置。
The display device functions as the parent display device,
Command receiving means for receiving a command from an input means for inputting a command for instructing to perform a predetermined process;
Voice output means for outputting voice accompanying the image displayed on the display means; and
The function changing means is
Detecting the direction of the input means;
Recognizing a target device that is a target device to which the command received by the command receiving means is to be given,
Determining whether the target device is the display device or the other display device;
When the target device is the display device, the function of the display device is changed so that the direction of the main axis of directivity of the audio output means is directed to the direction of the input means. Item 4. The display device according to Item 1.
前記他の表示装置は、画像を表示するとともに、その画像に付随する音声を出力し、
前記機能変化手段は、前記対象装置が前記他の表示装置である場合には、前記対象装置である前記他の表示装置が出力する音声の指向性の主軸の方向を、前記入力手段の方向に向けることを指令するコマンドを、前記対象装置である前記他の表示装置に送信するように、前記表示装置の機能を変化させる
ことを特徴とする請求項12に記載の表示装置。
The other display device displays an image and outputs a sound accompanying the image,
When the target device is the other display device, the function changing means changes the direction of the principal axis of the directivity of the sound output from the other display device that is the target device to the direction of the input means. The display device according to claim 12 , wherein a function of the display device is changed so that a command for directing is transmitted to the other display device that is the target device.
前記入力手段は、前記コマンドに対応する無線の信号を送信し、
前記コマンド受信手段は、前記無線の信号を受信し、
前記対象装置を、前記コマンド受信手段において受信された前記無線の信号の強度と、前記他の表示装置において受信された前記無線の信号の強度に基づいて認識する
ことを特徴とする請求項12に記載の表示装置。
The input means transmits a wireless signal corresponding to the command;
The command receiving means receives the wireless signal,
The target device, and the intensity of the received the radio signal at said command receiving means, to claim 12, wherein the recognized based on the intensity of the radio signals received at the other display device The display device described.
前記他の表示装置には、前記他の表示装置に接続された接続装置を制御しうる親の表示装置と、前記接続装置から制御しうるが、前記接続装置を制御できない子の表示装置との2種類が存在し、
前記認証手段は、前記他の表示装置が正当なものであるかどうかについての認証と、前記他の表示装置が前記親の表示装置であるかどうかについての認証とを行う
ことを特徴とする請求項1に記載の表示装置。
The other display device includes a parent display device that can control a connection device connected to the other display device, and a child display device that can be controlled from the connection device but cannot control the connection device. There are two types
The authentication means performs authentication as to whether or not the other display device is valid, and authentication as to whether or not the other display device is the parent display device. Item 4. The display device according to Item 1.
前記機能変化手段は、前記認証手段において、前記他の表示装置が正当なものであることの認証と、前記他の表示装置が前記親の表示装置であることの認証の両方が成功した場合に、前記表示装置の機能を変化させる
ことを特徴とする請求項15に記載の表示装置。
The function changing unit is configured when the authentication unit succeeds in both authentication that the other display device is valid and authentication that the other display device is the parent display device. The display device according to claim 15 , wherein the function of the display device is changed.
単体で使用される場合に使用しうる第1の機能と、前記第1の機能と異なる第2の機能とを有し、
前記機能変化手段は、外部から前記第2の機能を制御できない状態から、前記第2の機能を制御しうる状態に、前記表示装置の機能を変化させる
ことを特徴とする請求項1に記載の表示装置。
A first function that can be used when used alone and a second function that is different from the first function;
2. The function of the display device according to claim 1, wherein the function changing unit changes the function of the display device from a state in which the second function cannot be controlled from outside to a state in which the second function can be controlled. Display device.
第1の画像データを、第2の画像データに変換する機能を、前記第2の機能として有する
ことを特徴とする請求項17に記載の表示装置。
The display device according to claim 17 , wherein the second function has a function of converting first image data into second image data.
前記第2の画像データを構成する画素のうちの注目している注目位置の画素を予測するのに用いる予測タップを、前記第1の画像データから抽出する予測タップ抽出手段と、
前記注目位置の画素を予測するのに利用されるタップ係数を発生するタップ係数発生手段と、
前記タップ係数発生手段から発生されたタップ係数と、前記予測タップとに基づいて、前記注目位置の画素を予測する予測手段と
をさらに備え、
前記第1の画像データを、前記予測手段において予測された画素でなる前記第2の画像データに変換する
ことを特徴とする請求項18に記載の表示装置。
A prediction tap extracting means for extracting, from the first image data, a prediction tap used for predicting a pixel at a target position of interest among the pixels constituting the second image data;
Tap coefficient generating means for generating a tap coefficient used to predict a pixel at the target position;
Prediction means for predicting a pixel at the target position based on the tap coefficient generated from the tap coefficient generation means and the prediction tap; and
The display device according to claim 18 , wherein the first image data is converted into the second image data including pixels predicted by the prediction unit.
前記表示装置は前記子の表示装置として機能しており、
所定の処理を行うことを指令するコマンドを入力する入力手段からのコマンドを受信するコマンド受信手段と、
前記コマンドに対応する処理を行う処理手段と
をさらに備え、
前記機能変化手段は、前記コマンド受信手段において受信されたコマンドを無視し、前記他の表示装置からのコマンドに対応する処理を行うように、前記表示装置の機能を変化させる
ことを特徴とする請求項1に記載の表示装置。
The display device functions as the child display device,
Command receiving means for receiving a command from an input means for inputting a command for instructing to perform a predetermined process;
Processing means for performing processing corresponding to the command, and
The function changing unit changes the function of the display device so as to perform processing corresponding to a command from the other display device, ignoring the command received by the command receiving unit. Item 4. The display device according to Item 1.
前記入力手段は、前記コマンドに対応する無線の信号を送信し、
前記コマンド受信手段は、前記無線の信号を受信し、
前記機能変化手段は、前記コマンド受信手段において受信された前記無線の信号の強度を検出し、前記他の表示装置に送信するように、前記表示装置の機能を変化させる
ことを特徴とする請求項20に記載の表示装置。
The input means transmits a wireless signal corresponding to the command;
The command receiving means receives the wireless signal,
Claim wherein the capability change means, which detects the intensity of the received the radio signal at said command receiving means, to transmit to the other display device, and wherein the changing the function of the display device 20. The display device according to 20 .
前記表示手段に表示される前記画像に付随する音声を出力する音声出力手段をさらに備え、
前記機能変化手段は、前記他の表示装置からのコマンドに対応して、前記音声出力手段の指向性の主軸の方向を、前記入力手段の方向に向けるように、前記表示装置の機能を変化させる
ことを特徴とする請求項21に記載の表示装置。
Audio output means for outputting audio accompanying the image displayed on the display means;
The function changing means changes the function of the display device so that the direction of the main axis of directivity of the audio output means is directed to the direction of the input means in response to a command from the other display device. The display device according to claim 21 .
他の表示装置と接続され、画像を表示する表示手段を有する表示装置の制御方法であって、
前記他の表示装置が接続されたことを検出する接続検出ステップと、
前記接続検出ステップにおいて接続が検出された前記他の表示装置との間で認証を行う認証ステップと、
前記認証が成功した場合に、前記表示装置の機能を変化させる機能変化ステップと
を含み、
前記表示装置および前記他の表示装置には、自身に接続された接続装置を制御しうる親の表示装置と、前記接続装置から制御しうるが、前記接続装置を制御できない子の表示装置との2種類が存在し、
前記認証ステップは、前記他の表示装置が正当なものであるかどうかについての認証と、前記他の表示装置が前記親または子の表示装置であるかどうかについての認証とを行うステップを含む
ことを特徴とする制御方法。
A control method for a display device connected to another display device and having a display means for displaying an image,
A connection detection step of detecting that the other display device is connected;
An authentication step of performing authentication with the other display device in which connection is detected in the connection detection step;
A function changing step of changing the function of the display device when the authentication is successful;
Including
The display device and the other display device include a parent display device that can control a connection device connected to the display device and a child display device that can be controlled from the connection device but cannot control the connection device. There are two types
The authentication step includes a step of performing authentication as to whether or not the other display device is valid, and authentication as to whether or not the other display device is the parent or child display device.
A control method characterized by that .
他の表示装置と接続され、画像を表示する表示手段を有する表示装置の制御処理を、コンピュータに行わせるプログラムであって、
前記他の表示装置が接続されたことを検出する接続検出ステップと、
前記接続検出ステップにおいて接続が検出された前記他の表示装置との間で認証を行う認証ステップと、
前記認証が成功した場合に、前記表示装置の機能を変化させる機能変化ステップと
を含み、
前記表示装置および前記他の表示装置には、自身に接続された接続装置を制御しうる親の表示装置と、前記接続装置から制御しうるが、前記接続装置を制御できない子の表示装置との2種類が存在し、
前記認証ステップは、前記他の表示装置が正当なものであるかどうかについての認証と、前記他の表示装置が前記親または子の表示装置であるかどうかについての認証とを行うステップを含む
ことを特徴とするプログラム。
A program for causing a computer to perform control processing of a display device connected to another display device and having a display means for displaying an image,
A connection detection step of detecting that the other display device is connected;
An authentication step of performing authentication with the other display device in which connection is detected in the connection detection step;
A function changing step of changing the function of the display device when the authentication is successful;
Including
The display device and the other display device include a parent display device that can control a connection device connected to the display device and a child display device that can be controlled from the connection device but cannot control the connection device. There are two types
The authentication step includes a step of performing authentication as to whether or not the other display device is valid, and authentication as to whether or not the other display device is the parent or child display device.
Program, characterized in that.
他の表示装置と接続され、画像を表示する表示手段を有する表示装置の制御処理を、コンピュータに行わせるプログラムが記録されている記録媒体であって、
前記他の表示装置が接続されたことを検出する接続検出ステップと、
前記接続検出ステップにおいて接続が検出された前記他の表示装置との間で認証を行う認証ステップと、
前記認証が成功した場合に、前記表示装置の機能を変化させる機能変化ステップと
を含み、
前記表示装置および前記他の表示装置には、自身に接続された接続装置を制御しうる親の表示装置と、前記接続装置から制御しうるが、前記接続装置を制御できない子の表示装置との2種類が存在し、
前記認証ステップは、前記他の表示装置が正当なものであるかどうかについての認証と、前記他の表示装置が前記親または子の表示装置であるかどうかについての認証とを行う ステップを含む
プログラムが記録されている
ことを特徴とする記録媒体。
A recording medium on which a program for causing a computer to perform control processing of a display device connected to another display device and having a display means for displaying an image is recorded,
A connection detection step of detecting that the other display device is connected;
An authentication step of performing authentication with the other display device in which connection is detected in the connection detection step;
A function changing step of changing the function of the display device when the authentication is successful;
Including
The display device and the other display device include a parent display device that can control a connection device connected to the display device and a child display device that can be controlled from the connection device but cannot control the connection device. There are two types
The authentication step includes a step of performing authentication as to whether or not the other display device is valid, and authentication as to whether or not the other display device is the parent or child display device.
A recording medium on which a program is recorded.
他の表示装置を制御しうる親の表示装置と、
前記他の表示装置から制御しうるが、前記他の表示装置を制御できない1以上の子の表示装置と
からなる表示システムであって、
前記親および子の表示装置は、
前記他の表示装置が接続されたことを検出する接続検出手段と、
前記接続検出手段において接続が検出された前記他の表示装置との間で認証を行う認証手段と、
前記認証が成功した場合に、自身の機能を変化させる機能変化手段と
を有し、
前記認証手段は、接続が検出された前記他の表示装置が正当なものであるかどうかについての認証と、前記他の表示装置が前記親または子の表示装置であるかどうかについての認証とを行う
ことを特徴とする表示システム。
A parent display device that can control other display devices;
A display system comprising one or more child display devices that can be controlled from the other display device but cannot control the other display device,
The parent and child display devices are:
Connection detecting means for detecting that the other display device is connected;
Authentication means for performing authentication with the other display device whose connection is detected by the connection detection means;
If the authentication is successful, it possesses a function change means for changing its function,
The authentication means performs authentication as to whether the other display device from which connection is detected is valid, and authentication as to whether the other display device is the parent or child display device. A display system characterized by performing .
JP2001399868A 2001-12-28 2001-12-28 Display device, control method, program, recording medium, and display system Expired - Fee Related JP3693246B2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2001399868A JP3693246B2 (en) 2001-12-28 2001-12-28 Display device, control method, program, recording medium, and display system
EP02258939A EP1326436B1 (en) 2001-12-28 2002-12-24 Displaying information
US10/330,970 US7071990B2 (en) 2001-12-28 2002-12-27 Display apparatus, display method, program, storage medium, and display system
CNB021400334A CN1247010C (en) 2001-12-28 2002-12-28 Displaying apparatus, displaying device, programme, storage medium and displaying system
KR1020020085917A KR100953790B1 (en) 2001-12-28 2002-12-28 Display apparatus, display method, program, storage medium and display system
US11/387,677 US7777811B2 (en) 2001-12-28 2006-03-23 Display apparatus, display method, program, storage medium, and display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001399868A JP3693246B2 (en) 2001-12-28 2001-12-28 Display device, control method, program, recording medium, and display system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2005079999A Division JP4003778B2 (en) 2005-03-18 2005-03-18 Remote control control method and display system

Publications (2)

Publication Number Publication Date
JP2003195843A JP2003195843A (en) 2003-07-09
JP3693246B2 true JP3693246B2 (en) 2005-09-07

Family

ID=27604723

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001399868A Expired - Fee Related JP3693246B2 (en) 2001-12-28 2001-12-28 Display device, control method, program, recording medium, and display system

Country Status (1)

Country Link
JP (1) JP3693246B2 (en)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3880561B2 (en) * 2002-09-05 2007-02-14 株式会社ソニー・コンピュータエンタテインメント Display system
US7737910B2 (en) * 2003-12-04 2010-06-15 Microsoft Corporation Scalable display
JP4956913B2 (en) 2005-04-28 2012-06-20 ソニー株式会社 Display device and method, program, recording medium, and composite display device
JP4543324B2 (en) * 2005-04-28 2010-09-15 ソニー株式会社 Display system, display apparatus and method, recording medium, and program
US8102333B2 (en) 2005-04-28 2012-01-24 Sony Corporation Display device securing mechanism and display system that rotates display devices around a rotational axis
JP4580825B2 (en) * 2005-06-16 2010-11-17 シャープ株式会社 Display device
JP4774861B2 (en) * 2005-08-18 2011-09-14 ソニー株式会社 Flat panel speaker
JP4736659B2 (en) 2005-09-15 2011-07-27 ソニー株式会社 Multi-screen television receiver remote control system, remote controller and operation method, multi-screen television receiver and operation method, recording medium, and program
JP4839782B2 (en) * 2005-11-08 2011-12-21 ソニー株式会社 Output control system and method, output control apparatus and method, and program
JP2007164060A (en) * 2005-12-16 2007-06-28 Sharp Corp Multi-screen display device
CN101406043B (en) 2006-03-28 2011-04-06 汤姆森特许公司 Method and apparatus for displaying image by using production switching device
JP4778823B2 (en) * 2006-03-31 2011-09-21 京セラ株式会社 Mobile terminal device
JP4633012B2 (en) * 2006-07-04 2011-02-16 シャープ株式会社 Display device
JP2008034977A (en) * 2006-07-26 2008-02-14 Sharp Corp Display device
JP5025230B2 (en) * 2006-11-14 2012-09-12 三菱電機株式会社 Multi-monitor monitoring control apparatus and process monitoring control system using the same
KR101319536B1 (en) * 2006-12-15 2013-10-21 삼성전자주식회사 Display device and method of the driving
JP5157320B2 (en) * 2007-08-28 2013-03-06 ソニー株式会社 Program simultaneous viewing system
US8849570B2 (en) 2009-03-19 2014-09-30 Microsoft Corporation Projected way-finding
US8121640B2 (en) * 2009-03-19 2012-02-21 Microsoft Corporation Dual module portable devices
JP2015097090A (en) * 2014-11-26 2015-05-21 日本電気株式会社 Portable terminal system, control method of portable terminal system, and control program of portable terminal system
JP6562621B2 (en) * 2014-12-02 2019-08-21 キヤノン株式会社 Image display device, control method, program, and storage medium

Also Published As

Publication number Publication date
JP2003195843A (en) 2003-07-09

Similar Documents

Publication Publication Date Title
KR100953790B1 (en) Display apparatus, display method, program, storage medium and display system
JP3693246B2 (en) Display device, control method, program, recording medium, and display system
KR100922029B1 (en) Display apparatus and control method
US6907301B2 (en) Method and system for selecting and controlling devices in a home network
US9147342B2 (en) Techniques for configuring and remotely controlling a multimedia system
JP4707673B2 (en) User interface method and system for searching in devices connected to a network
US6785720B1 (en) Method for connecting to server devices in browser-based home network apparatus therefor
US20040068756A1 (en) Virtual link between CE devices
WO2008086371A2 (en) Monitor configuration for media device
JP2006511997A (en) Residential gateway system having a portable controller with a display for displaying video signals
KR20010074891A (en) A method and system for electronic communication
JP4660877B2 (en) Electronic equipment system
JP3700649B2 (en) Display device, control method, program, recording medium, and display system
JP4003778B2 (en) Remote control control method and display system
JP3969401B2 (en) Display device and method, and program
JP4618319B2 (en) Display control device and method, recording medium, program, display device, and display system
JP4602027B2 (en) Display control apparatus and method, display apparatus, and display system
JP4462272B2 (en) Display system
JP3624883B2 (en) Display control apparatus, display control method, recording medium, program, and display system
JP2003199092A (en) Display device and method for controlling, program and recording medium as well as display system
JP4618258B2 (en) Display control apparatus and method, program
JP2010050792A (en) Control unit of electronic device
US20090113470A1 (en) Content management method, and broadcast receiving apparatus and video apparatus using the same

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050603

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050616

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080701

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090701

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100701

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100701

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110701

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120701

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130701

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees