JP4143889B2 - Video signal processing apparatus and method, and program - Google Patents

Video signal processing apparatus and method, and program Download PDF

Info

Publication number
JP4143889B2
JP4143889B2 JP2001305377A JP2001305377A JP4143889B2 JP 4143889 B2 JP4143889 B2 JP 4143889B2 JP 2001305377 A JP2001305377 A JP 2001305377A JP 2001305377 A JP2001305377 A JP 2001305377A JP 4143889 B2 JP4143889 B2 JP 4143889B2
Authority
JP
Japan
Prior art keywords
signal
code
video
video signal
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001305377A
Other languages
Japanese (ja)
Other versions
JP2003111060A (en
Inventor
惇 岩崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001305377A priority Critical patent/JP4143889B2/en
Publication of JP2003111060A publication Critical patent/JP2003111060A/en
Application granted granted Critical
Publication of JP4143889B2 publication Critical patent/JP4143889B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、映像信号処理装置および方法、並びにプログラムに関し、映像機器間のデータをより確実に伝送できるようにした映像信号処理装置および方法、並びにプログラムに関する。
【0002】
【従来の技術】
制作、監視、FA(Factory Automation)などの用途の映像は、point to pointの伝送が主で、高品質映像を要求されるため、非圧縮、あるいは低圧縮とされ、さらに広帯域とされることが多い。
【0003】
その映像機器間のインターフェイスとして、現在、標準的に使用されているHDTV信号のSDI(Serial Digital Interface)が、SMPTE(The Society of Motion Picture and Television Engineers) 292M、あるいは、BTA S-004として規格化されている。これは、映像データを元のアナログの映像区間にTS(タイムスロット)割付けし、音声あるいはその他のデータをパケット化し、映像のH/V(Horizontal / Vertical)ブランキング期間に載せるものである。
【0004】
【発明が解決しようとする課題】
しかしながら、SDIは、伝送路符号化(チャンネルコーディング)に、スクランブル方式を使用しているため、伝送レートの増加はないが、パソロジーパターンのような特定信号のとき、出力が0または1の連続になり、クロック再生が厳しくなり、伝送距離の短縮を余儀なくされたり、あるいは、符号誤りが発生する課題があった。
【0005】
本発明は、このような状況に鑑みてなされたものであり、映像機器間のデータを、長距離でもより確実に伝送することができるようにするものである。
【0006】
【課題を解決するための手段】
本発明の映像信号処理装置は、映像信号、音声信号およびデータ信号を、8ビットの整数倍のタイムスロットのうち所定のビットに割り付けた映像チャンネルと、その余剰ビットに音声信号およびデータ信号を割り付けたデータチャンネルから構成される合成信号に多重化する多重化手段と、多重化手段より出力されたタイムスロットであって、映像信号のブランキング期間に位置する特定の1つ、または複数の、データチャンネルが無信号であるタイムスロットに8B/10B符号の同期符号を割り付けるとともに、合成信号を8B/10B符号に変換する符号化手段と、8B/10B符号を送信する送信手段とを備え、多重化手段は、8B/10B 符号の送信相手が、8B/10B符号の位相を制御するときに参照されるGenlock制御信号を、合成信号にさらに多重化することを特徴とする。
【0007】
8B/10B 符号の同期符号はコンマ符号であるようにすることができる。
【0008】
送信相手から送信されてきた8B/10B符号を受信する受信手段と、8B/10B符号から同期符号を検出するとともに、検出された同期符号に基づいて、8B/10B符号を合成信号に10B/8B復号する復号手段と、合成信号を、映像信号、音声信号、およびデータ信号に分解する分解手段とをさらに備えるようにすることができる。
【0009】
映像チャンネルのフレームは、映像信号のライン周期と同一の周期であり、データチャンネルは、マルチフレーム構成であり、マルチフレームは、映像信号のライン周期と同一の周期であるようにすることができる。
【0010】
多重化手段は、データチャンネルを構成するサブチャンネルのうちの任意のサブチャンネルにマルチフレームの同期符号を配置し、符号化手段は、マルチフレームの同期符号を配置したサブチャンネル以外のタイムスロットの所定のもの 8B/10B 符号の同期符号を割り付けるようにすることができる。
【0011】
データチャンネルの同期符号として、8B/10B 符号の同期符号を用いるようにすることができる。
【0012】
多重化手段は、映像チャンネルのブランキング期間内にフレームの同期符号を配置するようにすることができる。
【0013】
映像チャンネルの同期符号として、8B/10B 符号の同期符号を用いるようにすることができる。
【0015】
本発明の映像信号処理方法は、映像信号、音声信号およびデータ信号を、8ビットの整数倍のタイムスロットのうち所定のビットに割り付けた映像チャンネルと、その余剰ビットに音声信号およびデータ信号を割り付けたデータチャンネルから構成される合成信号に多重化する多重化ステップと、多重化ステップの処理より出力されたタイムスロットであって、映像信号のブランキング期間に位置する特定の1つ、または複数の、データチャンネルが無信号であるタイムスロットに8B/10B符号の同期符号を割り付けるとともに、合成信号を8B/10B符号に変換する符号化ステップと、8B/10B符号を送信する送信ステップとを含み、多重化ステップにおいては、8B/10B 符号の送信相手が、8B/10B符号の位相を制御するときに参照されるGenlock制御信号が、合成信号にさらに多重化されることを特徴とする。
【0016】
本発明のプログラムは、映像信号、音声信号およびデータ信号を、8ビットの整数倍のタイムスロットのうち所定のビットに割り付けた映像チャンネルと、その余剰ビットに音声信号およびデータ信号を割り付けたデータチャンネルから構成される合成信号に多重化する多重化ステップと、多重化ステップの処理より出力されたタイムスロットであって、映像信号のブランキング期間に位置する特定の1つ、または複数の、データチャンネルが無信号であるタイムスロットに8B/10B符号の同期符号を割り付けるとともに、合成信号を8B/10B符号に変換する符号化ステップと、8B/10B符号を送信する送信ステップとを含む処理を実行させ、多重化ステップにおいては、8B/10B 符号の送信相手が、8B/10B符号の位相を制御するときに参照されるGenlock制御信号が、合成信号にさらに多重化されることを特徴とする。
【0017】
本発明の映像信号処理装置および方法、並びにプログラムにおいては、映像信号、音声信号およびデータ信号が、8ビットの整数倍のタイムスロットのうち所定のビットに割り付けた映像チャンネルと、その余剰ビットに音声信号およびデータ信号を割り付けたデータチャンネルから構成される合成信号に多重化され、出力された前記タイムスロットであって、映像信号のブランキング期間に位置する特定の1つ、または複数の、データチャンネルが無信号であるタイムスロットに8B/10B符号の同期符号が割り付けられるとともに、合成信号が8B/10B符号に変換され、8B/10B符号が送信される。また、8B/10B 符号の送信相手が、8B/10B符号の位相を制御するときに参照されるGenlock制御信号が、合成信号にさらに多重化される。
【0018】
【発明の実施の形態】
図1は、本発明を適用したカメラコントロールシステムの構成例を示す図である。
【0019】
カメラコントロールシステムは、カメラヘッド1とCCU(カメラコントロールユニット)2により構成される。通常、カメラヘッド1は、映像の撮影を行なうスタジオなどに配置され、CCU2は、そのカメラヘッド1の全体を制御するものであり、遠隔制御できるような別の部屋(コントロールルーム)に配置されている。
【0020】
そして、カメラヘッド1とCCU2は、G-bit(ギガビット) Ether、あるいは光ファイバを利用したFiber Channelなどのケーブルにより接続されている。このケーブルにおける伝送には、G-bit EtherあるいはFiber Channelの物理層を用い、伝送効率を上げるため、パケットではなく、TS(タイムスロット)割付けのフレーム構成が使用される(その詳細は、図5を参照して後述する)。
【0021】
図1に示されるように、カメラヘッド1からCCU2へ伝送される信号には、例えば、カメラヘッド1によって撮影された映像信号、音声信号、カメラ制御データ、メタデータ、外部制御データ、およびインカム信号がある。
【0022】
カメラ制御データは、例えば、カメラヘッド1がNDフィルタなどを使用したような場合、そのことをCCU2側に通知するための信号を含み、外部制御データは、パン、チルトなど、カメラヘッド1を垂直方向や、水平方向に傾けたり、移動させたりするような外部からの信号を含む。メタデータは、撮影された映像信号の付加情報データであり、例えば、撮影年月日、GPS(Global Positioning System)による位置情報、タイトル、および著作権情報などを含む。インカム信号は、カメラヘッド1の操作者とCCU2の操作者との間で通話するためのインカム信号を含む。
【0023】
また、CCU2からカメラヘッド1へ伝送される信号には、例えば、リターン映像信号、リターン音声信号、カメラ制御データ、Genlock制御信号、外部制御データ、およびインカム信号がある。
【0024】
リターン映像信号およびリターン音声信号は、他のカメラヘッド(図示しない)で撮影された映像や、VTR(図示しない)などで再生された再生信号などの、そのときの放送(出力)されている信号である。これにより、カメラヘッド1を操作するカメラマンは、他のカメラヘッドで撮影された映像やVTRで再生され、そのとき放送されている映像を確認することができる。また、CCU2からカメラヘッド1へ伝送されるカメラ制御データは、例えば、カメラの撮影時の明るさなどの調整をCCU2側で制御するための信号である。Genlock制御信号は、カメラコントロールシステム(放送局)内の信号の相互の同期をとるための制御信号である。このGenlock制御信号は、CCU2が図示されない他の基準の機器から受信したものである。
【0025】
また、カメラヘッド1およびCCU2はそれぞれ、外部制御データとインカム信号を外部機器との間で入出力する。さらに、CCU2は、図示しない他の映像機器に、カメラヘッド1により撮影された映像信号、音声信号、メタデータを送信し、他の映像機器からリターン映像信号および音声信号を受信する。このとき、音声信号およびメタデータは、データチャンネルに多重化される。
【0026】
図2は、図1のカメラヘッド1の構成例を示すブロック図である。
【0027】
撮影表示部11は、撮影部21、表示部22、および制御部23などにより構成されている。撮影部21により撮影された映像信号は、表示部22に供給、表示される。これにより、カメラマンは、表示部22に表示された映像を見ながら、所定の操作を行なうことができる。制御部23は、映像信号以外の諸信号(音声信号あるいは各制御データなど)をデータ信号として生成する。
【0028】
撮影部21により撮影された映像の各10bitsのG,B,Rの色信号は、マルチプレクサ12に出力される(映像信号によっては、Y,Pb,Prの場合もある)。また、制御部23からのデータ信号も、マルチプレクサ12に出力される。マルチプレクサ12は、このG,B,Rの色信号とデータ信号を、15bitsの映像信号と1bitのデータ信号で構成される16bitsの合成信号に多重化し、符号化部13に出力する。
【0029】
符号化部13は、16bitsの合成信号を8B / 10B変換(チャンネルコーディング)する。このとき、符号化部13は、8bitsの区切りを表わすコンマ符号を映像の1ラインに1回挿入する。
【0030】
符号化部13より出力された合成信号は、P/S(Parallel / Serial)変換部14により、パラレル信号からシリアル信号に変換され、E/O(Electrical-Optical)変換部15により、電気信号から光信号に変換され、光ファイバケーブルを介して、CCU2に伝送される。
【0031】
なお、図2において、光ファイバケーブルを使用するものとしたが、光ファイバケーブルの代わりに、同軸ケーブルを用いてもよいし、短距離であれば、シリアル変換の後に、LVDS(Low Voltage Differential Signal)などのインターフェイスで(撚り線で)伝送することも可能である。
【0032】
また、O/E変換部(Optical -Electrical)16は、CCU2から光ファイバケーブルを介して受信した映像信号を光信号から電気信号に変換し、S/P (Serial /Parallel)変換部17に出力する。S/P変換部17は、入力信号をシリアル信号からパラレル信号に変換し、復号部18に出力する。
【0033】
復号部18は、入力信号からコンマ符号を検出し、このコンマ符号に基づいて8B / 10Bの逆変換(チャンネルデコーディング)する。同時に、復号部18は、CCU2においてコード化されたGenlock制御信号もデコードする(図4を参照して後述する)。デマルチプレクサ19は、入力信号を各10bitsのG,B,Rの色信号、データ信号およびGenlock制御信号に分解して、撮影表示部11に供給する。また、デマルチプレクサ19は、Genlock制御信号から指示パルスを再生する。
【0034】
図3は、撮影表示部11の撮像方式に対応する、図2の各部におけるパラメータを表わしている。上段は、撮影表示部11が出力する映像信号が、1440×1080 / 59.94i GBR 3:3:3各10bits符号化の映像信号である場合、中段は、1920×1080 / 60i GBR 4:4:4各10bits符号化の映像信号である場合、および下段は、1920×1080 / 59.94i YPbPr 4:2:2各12bits符号化の映像信号である場合の各パラメータを表わしている。まず、上段の1440×1080 / 59.94i GBR 3:3:3各10bits符号化の映像信号について説明する。
【0035】
撮影表示部11から出力された、あるいは、デマルチプレクサ19から出力された映像信号(各10bitsのG,B,Rの色信号)の映像標本化周波数fsは、55.631868MHzであり、このときの総映像データ量は、1.112637Gbpsである。
【0036】
次の、マルチプレクサ12から出力された、あるいは、復号部18から出力された合成信号(映像信号15bitsとデータ信号1bitの信号)のパラレルデータレートfpは、111.263736Mbpsであり、このときの総データ量は、1.780220Gbpsである。
【0037】
さらに、符号化部13から出力された、あるいは、S/P変換部17から出力された映像信号のパラレル・チャンネルコーディング・レートfccは、139.079670Mbpsであり、P/S変換部14から出力された、あるいは、O/E変換部16から出力された映像信号のシリアル伝送レートftは、2.225275Gbpsである。
【0038】
同様に、中段の1920×1080 / 60i GBR 4:4:4各10bits符号化の映像信号の場合、映像標本化周波数fsは、74.25MHzであり、このときの総映像データ量は、2.2275Gbpsである。また、パラレルデータレートfpは、148.5Mbpsであり、このときの総データ量は、2.376Gbpsであり、パラレル・チャンネルコーディング・レートfccは、185.625Mbpsであり、シリアル伝送レートftは、2.97Gbpsである。
【0039】
さらに、同様に、下段の1920×1080 / 59.94i YPbPr 4:2:2各12bits符号化の映像信号の場合、映像標本化周波数fsは、74.25MHzであり、このときの総映像データ量は、1.782Gbpsである。また、パラレルデータレートfpは、148.5Mbpsであり、このときの総データ量は、2.376Gbpsであり、パラレル・チャンネルコーディング・レートfccは、185.625Mbpsであり、シリアル伝送レートftは、2.97Gbpsである。
【0040】
次に、図4は、図1のCCU2の構成例を示すブロック図である。マルチプレクサ52、符号化部53、P/S変換部54、E/O変換部55、O/E変換部56、S/P変換部57、復号部58、およびデマルチプレクサ59は、それぞれ、図2のマルチプレクサ12、符号化部13、P/S変換部14、E/O変換部15、O/E変換部16、S/P変換部17、復号部18、およびデマルチプレクサ19と、基本的に同様の機能を実行するものであり、その説明は繰り返しになるので省略する。
【0041】
復号部58は、合成信号からコンマ符号を検出し、このコンマ符号に基づいて8B / 10B逆変換(チャンネルデコーディング)し、デマルチプレクサ59に出力する。デマルチプレクサ59は、合成信号を各10bitsのG,B,Rの色信号とデータ信号に分解して、プロセス制御部60に供給する。
【0042】
CPU61は、予め設定されているカメラコントロールシステムの基準信号に基づいて、カメラヘッド1およびCCU2の位相差を求め、送信する映像信号のフレーム位相を同相にするように、Genlock発生部62を制御し、Genlock制御信号を発生させる。このGenlock制御信号は、カメラヘッド1およびCCU2間の伝送遅延、カメラヘッド1内、および、CCU2内のシステム遅延に相当する分位相を進めるように制御し、最終的に出力端での位相が特定の位相関係(例えば、同位相)になるようにするものである。さらに、CPU61は、プロセス制御部60より供給されたカメラヘッド1からの映像信号に基づいて、伝送回線に余裕があるか否かを判断し、Genlock制御信号の送信方法を指令する。
【0043】
プロセス制御部60は、送信する各10bitsのG,B,Rの色信号とデータ信号をCPU61とマルチプレクサ52に出力する。
【0044】
マルチプレクサ52は、このG,B,Rの色信号とデータ信号およびGenlock発生部62により発生させたGenlock制御信号を、15bitsの映像信号と1bitのデータ信号で構成される16bitsの合成信号に多重化し、符号化部53に出力する。
【0045】
図5,図8乃至図12は、SMPTE 274Mで規定されるHDTV、またはそれに準ずる映像方式数種の伝送フレームの構成例を表わしている。これらのフレーム構成は、SMPTE 274M、296M、超1920×1080など他の映像方式に対しても同様に構成できる。
【0046】
まず、図5を参照して、アクティブエリアが1440×1080、59.94i、GBR 3:3:3各10bits符号化の映像信号のフレーム構成例を説明する。
【0047】
この場合(1440×1080、60i(60/1.001i))のスキャンパラメータは、図6Aに示されるように、水平総サンプル数/lineが1650であり、水平標準アクティブ画素数/lineが1440であり、水平ナローブランキング時画素数/lineが1468である。また、総ライン数が1125/frameであり、1フレームは、第1フィールド(field1)563および第2フィールド(field2)562の2つのフィールドで構成される。標準アクティブライン数は1080/frameであり、各フィールドは540/fieldで構成され、ナローブランキング時アクティブライン数が1082/frameであり、各フィールドは541/fieldとされている。サンプリング周波数(Y相当)は、55.6875(55.6875/1.001)MHzである。なお、ナローブランキング時の画素数は一例である。
【0048】
一般に、ビデオカメラ内においては、映像信号のアクティブエリア(有効画素)の外側に、映像信号処理に役立てるため、多少の余裕を付加しており、カメラコントロールシステム内においては、水平ブランキング(以下、H(Horizontal)ブランキングと称する)期間、および垂直ブランキング(以下、V(Vertical)ブランキングと称する)期間は、その分、ブランキング期間が狭くなったナローブランキング(narrow BLK)の映像信号を扱う。
【0049】
図5Aは、このような映像信号のVブランキング期間の標準ブランキングとナローブランキングを示したものであり、上段の数字は、ライン番号を示す。図6Aに示されるように、1フレームの総ライン数は、1125/frameあり、1フレームは、第1フィールド(field1)563および第2フィールド(field2)562の2つのフィールドで構成されている。したがって、図5AのFは、SMPTE 274M、292Mに準じたフィールド識別符号であり、第1フィールド (#1)(ライン番号1乃至ライン番号563(563ライン))では、その値が「0」とされ、第2フィールド (#2)(ライン番号564乃至ライン番号1125(562ライン))では、その値が「1」とされる。
【0050】
Vは、SMPTE 274M、292Mに準じたVブランキング識別符号であり、値「1」は、標準ブランキング期間であることを示しており、値「0」は、標準ブランキング期間ではない、すなわち、標準アクティブライン(video)であることを示している。したがって、ライン番号1124乃至ライン番号20(22ライン)は、値「1」の標準ブランキング期間(BLK)であり、ライン番号21乃至ライン番号560(540ライン)は、値「0」の標準アクティブラインであり、ライン番号56 1乃至ライン番号583(23ライン)は、値「1」の標準ブランキング期間(BLK)であり、および、ライン番号584乃至ライン番号1123(540ライン)は、値「0」の標準アクティブラインである。
【0051】
さらに、ナローブランキング期間は、ライン番号1124乃至ライン番号19(21ライン)、および、ライン番号561乃至ライン番号582(22ラインであり、それ以外の期間(ライン番号20乃至ライン番号560(541ライン)およびライン番号583乃至ライン番号1123(541ライン))は、ナローブランキング時のアクティブライン(n.b.video)である。
【0052】
一方、図5Bは、Hブランキング付近におけるナローブランキングの場合の映像およびデータ信号の多重フレームを表わしている。
【0053】
上段のG,B,Rは、それぞれ、図2の撮影表示部11から出力された10bits符号化されたデジタルGBR信号であり、中段の#0乃至#1649(1650サンプル)は、1ラインのサンプル番号を表わす(図6Aの水平総サンプル数/line)。このときのHナローブランキング期間は、182サンプル(画素)であり、標準ブランキング期間は、210画素である。下段は、図2のマルチプレクサ12から出力される合成信号の多重フレーム(伝送フレーム)の16bitsパラレルデータ系列を示す。
【0054】
マルチプレクサ12において、GBR各10bitsは、16bitsパラレルデータの上位15bits(b0乃至b14)の2個のTS(タイムスロット)に割り付けられる。1サンプル(画素)は、2個のTSにより構成されるので、各TSを、それぞれ順に、φ1とφ2のTSとする。したがって、φ1のTSには、上位10bits(b0乃至b9)にGのデータが、次の5bits(b10乃至b14)には、10bitsのBデータのうちの上位5bitsがそれぞれ割り付けられ、φ2のTSには、上位10bitsにRのデータが、次の5bitsには、10bitsのBデータのうちの下位5bitsがそれぞれ割り付けられる。最下位の16bit目(b15)は、データ用とされる。なお、以下、16bitsパラレルデータ(合成信号)の上位15bits(b0乃至b14)を映像チャンネル、最下位の16bit目(b15)をデータチャンネルと称する。
【0055】
この16bitsパラレルデータの映像伝送フレームは、GBR映像信号の1ラインと同一の周期とされる。そして、フレーム同期符号として、「SAV(Start of Active Video)」が設けられる。SAVは、ナローブランキング期間のTSであって、映像信号の開始TSの直前の4個のTSのMSB(Most Significant Bit)から10bitsが割り付けられる。SMPTE 292MのSAV(あるいは、EAV(End of Active Video))と同一の目的のものであるが、それらよりも簡易化され、最初の3個のTSに3FFh(10bitsすべて"1")、000h(10bitsすべて"0")、3FFh(10bitsすべて"1")が同期符号として割付けられ、4個目のTSには、図5AのF(フィールド識別符号)およびV(Vブランキング識別符号)などの情報が割り付けられる。
【0056】
同期符号として使用する3FFh、000h、3FFhコード(10bits)は、映像データの一部が同期符号として誤検出されるのを防ぐため、映像データには出現し得ないコード(禁止コード)とされる。映像データとしては、001h乃至3FEhの範囲が使用される。また、図5Bにおいて、"Res"は、Reserveを表わし、必要に応じて信号が割り当てられる。
【0057】
さらに、HブランキングおよびVブランキング期間の映像データは、特定のコード、例えば、040h(映像信号の黒レベル)に固定される。この部分には、必要に応じて他のデータ信号などを挿入することが可能である。
【0058】
16bitsパラレルデータの最下位の16bit目(b15)は、映像信号以外の諸信号(オーディオ信号やデータ信号)用のデータチャンネルとされる。このデータチャンネルは、マルチフレーム構成とされ、必要な数のサブチャンネル(トリビュータリ)が設けられる。マルチフレーム周期は、映像伝送フレームと同様に、GBR映像信号の1ラインと同一の周期とされる。例えば、図5Bの例の場合、1マルチフレームは、3300(= 1650×2 )個のTSで構成されているので、サブチャンネルの数は、1マルチフレームのTS数(この場合、3300TS)の約数であれば、いくつであってもよい。例えば、サブチャンネル数を20とすると、パラレルデータレートfpが、111.263736Mbps(図3)であるので、サブチャンネル当りのデータレートは約5.6Mbpsとなる。制御データは、非同期であるので、パケットとして伝送することも可能であるが、5.6MHzで多点サンプルして伝送したとしても、十分な容量を確保できる。
【0059】
サブチャンネル数を20とすると、データチャンネルには、図7に示されるように、0乃至19のサブチャンネルナンバー(Sub ch No.)のTSが順次配置される。そのうちの1つのサブチャンネル(例えば、第1chであるSub ch No.0)はマルチフレームの同期用に割り当てられる。サブチャンネルの1マルチフレーム当りのbit数は、3300 / 20 = 165であり、同期符号(Multi Frame Sync pattern)は、そのうちの適当な長さの固定パターン、例えば20bits長で、"10111111101000000010"とされる(残りの145bitsは、空きbitになる)。そして、このマルチフレームの開始位置は、映像チャンネルの、例えば、SAVの最初のTSのような特定位相に合わせられる。
【0060】
さらに、図2の符号化部13において、8B/10B変換(チャンネルコーディング)する場合、受信側において10Bを8Bに逆変換するとき区切りを検出することができるようにするために、一般に「K28.5」と称される特定の10bitsコード「コンマ符号」が挿入される。
【0061】
8B/10B変換および逆変換が、伝送回線として確立するためには、伝送開始時のみK28.5を伝送し、確立後は送信しない方法もあるが、本発明では、ビットエラーなどを考慮し、同期後もK28.5が送信される。
【0062】
K28.5が挿入されるTSは、元のデータがK28.5に置換されてしまうため、元のデータのその部分には、意味をなさないデータを配置することが必要になる。そこで、例えば、K28.5も映像の1ラインの周期で挿入し、図7に示されるように、その位相は、映像のHブランキング(あるいは、Hナローブランキング)期間内で、かつ、多重データチャンネルの中のマルチフレーム同期用チャンネル(第1サブチャンネル)のMulti Frame Sync patternではない、すなわち、有意の信号のない(無信号の)TSとされる。
【0063】
したがって、図5Bおよび図7において、K28.5は、#1638φ1,#1628φ1,,#1618φ1,…#1468φ1の18個のTSのうちの1個のTS、あるいは、複数のTSに割り当てられる。例えば、#1638φ1にK28.5が割り当てられる場合、コンマ符号は、16bitsであるので、#1638φ1の映像チャンネルおよびデータチャンネルの16bitsが、K28.5に置換される。さらに、コンマ符号の同期(マルチフレーム同期)は、データチャンネルのみで行なわれる。
【0064】
以上のように、本発明のフレーム構成は、映像チャンネル、データチャンネルおよびコンマ符号(K28.5)を同一周期にしているため、K28.5で映像チャンネル、あるいは、データチャンネルのマルチフレーム同期を取ることも可能である。
【0065】
図8は、アクティブエリアが1920×1080、60i(59.94i)、GBR 4:4:4各10bits符号化の映像信号のフレーム構成例を示す。図8Aは、Vブランキング期間の標準ブランキングとナローブランキングを示し、図8Bは、Hブランキング付近におけるナローブランキングの場合の映像およびデータ信号の多重フレームを表わしている。
【0066】
この場合(1920×1080、60i(60/1.001i))のスキャンパラメータは、図6Bに示されるように、水平総サンプル数/lineが2200であり、水平標準アクティブ画素数/lineが1920であり、水平ナローブランキング時アクティブ画素数/lineが1956である。また、総ライン数が1125/frameであり、1フレームは、第1フィールド(field1)563および第2フィールド(field2)562の2つのフィールドで構成され、標準アクティブライン数が1080/frameであり、各フィールドは540/fieldで構成される。ナローブランキング時アクティブライン数は1086/frameとなり、各フィールドでは543/fieldとなる。サンプリング周波数(Y相当)は、74.25(74.25/1.001)MHzである。このときのHナローブランキング期間は、244(= 2200−1956 )画素であり、標準ブランキング期間は、280(= 2200−1920 )画素である。なお、ナローブランキング時の画素数は一例である。
【0067】
図8のフレーム構成は、総サンプル数および1ラインの画素数が異なる点を除いて、その他の構成は、上述した図5のフレーム構成と同様の構成であるので、その説明は繰り返しになるので省略する。
【0068】
図9は、アクティブエリアが1920×1080、60i(59.94i)、YPbPr 4:4:4各10bits符号化の映像信号のフレーム構成例を示す。図9は、Hブランキング付近におけるナローブランキングの場合の映像およびデータ信号の多重フレームを表わし、図8BのGBRがそれぞれYPbPrとされている点、並びに、Y,Pb,PrのHブランキング期間の値が、それぞれ、040h,200h,200hとされている点を除いて、その他の構成は、上述した図5Bあるいは図8Bのフレーム構成と同様の構成であるので、その説明は繰り返しになるので省略する。
【0069】
図10は、アクティブエリアが1920×1080、60i(59.94i)、GBR 4:4:4各12bits符号化の映像信号のフレーム構成例を示す。
【0070】
この場合、74.25MHzサンプルの12bits符号化されたデジタルGBR映像信号(12bits×3(GBR))が、148.5Mbpsの16bitsパラレルデータの3個のTSの上位12bits(b0乃至b11)に順次割り当てられる。下位3bits(b12乃至b14)は、Res(Reserve)とされる。GBRのHブランキング期間の値は、いずれも100hとされている。
【0071】
SAVの同期符号としては、誤検出されるのを防ぐため、映像信号には出現し得ないコード(禁止コード)であるFFFh、000h、FFFh(それぞれ12bits)が使用される。なお、同期検出回路を10bits符号化の場合と共通にするために、同期符号を上位10bitsとし、3FFh、000h、3FFh(10bits)としてもよい。その場合、禁止コードは、FFFh乃至FFBh、および、000h乃至003h(12bits)となる。
【0072】
図10のフレーム構成の、その他の構成は、上述した図5Bのフレーム構成と同様の構成であるので、その説明は繰り返しになるので省略する。
【0073】
さらに、図11は、アクティブエリアが1920×1080、60i(59.94i)、YPbPr 4:2:2
各10bits符号化の映像信号のフレーム構成例を示し、図12は、アクティブエリアが1920×1080、60i(59.94i)、YPbPr 4:2:2各12bits符号化の映像信号のフレーム構成例を示す。中段の#0乃至#2199は、Yのサンプル番号を示している。
【0074】
図11の10bits符号化の映像信号の場合は、74.25MHzサンプルの10bits符号化された映像信号(10bits×2(YPb/Pr))が、148.5Mbpsの16bitsパラレルデータの2個のTSの上位10bits(b0乃至b9)に順次割り当てられる。下位5bits(b10乃至b14)は、Reserveとされる。Y,Pb,PrのHブランキング期間の値は、それぞれ、040h,200h,200hとされる。
【0075】
図12の12bits符号化の映像信号の場合は、74.25MHzサンプルの12bits符号化された映像信号(12bits×2(YPb/Pr))が、148.5Mbpsの16bitsパラレルデータの2個のTSの上位12bits(b0乃至b11)に順次割り当てられる。下位3bits(b12乃至b14)は、Reserveとされる。Y,Pb,PrのHブランキング期間の値は、それぞれ、100h,800h,800hとされる。
【0076】
図11および図12のフレーム構成の、その他の構成は、上述した図5Bあるいは図10のフレーム構成と同様の構成であるので、その説明は繰り返しになるので省略する。
【0077】
次に、図13のフローチャートを参照して、カメラヘッド1の映像信号送信処理を説明する。以下では、1440×1080 / 59.94i GBR 3:3:3各10bits符号化の映像信号処理を行うものとする。
【0078】
ステップS1において、撮影表示部11は、撮影部21により撮影されたGBR映像信号(10bits×3)と制御部23により生成されたデータ信号をマルチプレクサ12に供給する。
【0079】
ステップS2において、マルチプレクサ12は、供給された映像信号とデータ信号を16bitsの映像信号に多重化し、多重化した映像信号(合成信号)を符号化部13に供給する。
【0080】
ステップS3において、符号化部13は、映像信号の予め定められたTSをK28.5(コンマ符号)に置き換え、8B/10B変換(チャンネルコーディング)し、その映像信号をP/S変換部14に供給する。
【0081】
ステップS4において、P/S変換部14は、16bitsパラレルデータの映像信号をシリアルデータに変換し、E/O変換部15に供給する。
【0082】
ステップS5において、E/O変換部15は、供給された映像信号を光信号に変換し、光ファイバケーブルを介して、CCU2に送信する。
【0083】
このカメラヘッド1の送信処理に対応して、CCU2は、送信された映像信号の受信処理を行う。CCU2の受信処理を、図14のフローチャートを参照して説明する。
【0084】
ステップS21において、O/E変換部56は、カメラヘッド1より光ファイバケーブルを介して送信された映像信号を受信し、電気信号に変換し、S/P変換部57に供給する。
【0085】
ステップS22において、S/P変換部57は、シリアルデータの映像信号をパラレルデータに変換し、復号部58に出力する。
【0086】
ステップS23において、復号部58は、図13のステップS3の処理により置き換えられたコンマ符号を検出し、そのコンマ符号に基づいて、10Bの映像信号を8Bに逆変換し、デマルチプレクサ59に供給する。
【0087】
ステップS24において、デマルチプレクサ59は、供給された映像信号をRGBの各色信号およびその他のデータ信号に分解し、プロセス制御部60に供給する。
【0088】
このように、カメラヘッド1およびCCU2間の映像信号の送受信は、8B/10B変換する送信側において、コンマ符号を挿入し、そのコンマ符号を受信側で検出することにより、8B/10B逆変換することができる。これにより、カメラヘッド1およびCCU2間において、G-bit EtherあるいはFiber Channel の、8B/10Bチャンネルコーディングの物理層を利用して映像信号の送受信が可能になる。
【0089】
近年のインターネットの発達に伴い、G-bit (ギガビット)EtherあるいはFiber Channelなどのインフラが整ってきており、広帯域の映像信号に対しても、適用可能なレベルとなってきている。したがって、本発明では、SDIに代えて、これらのインフラを利用することができる。これらは、8B/10Bのチャンネルコーディングを用いており、25%の伝送レート増はあるものの、SDIの欠点であるパソロジーパターンは発生しない。
【0090】
さらに、G-bit (ギガビット)EtherあるいはFibre Channnelを使用したシステムは、SDIよりも普及されているため、安価に構築することができる。
【0091】
次に、図15のフローチャートに基づいて、CCU2の映像信号の送信処理を説明する。この処理は、基本的に、カメラヘッド1と同様の処理であるが、CCU2は、映像信号を送信する場合、CCU2およびカメラヘッド1間の特有の制御として、位相を合わせるGenlock制御信号を発生させる。
【0092】
プロセス制御部60は、ステップS41において、カメラヘッド1に送信する映像信号(他のカメラヘッドで撮影された映像や、VTRなどで再生された再生信号であるリターン映像信号など)、音声信号およびデータ信号をマルチプレクサ52に供給し、ステップS42において、カメラヘッド1より受信した映像信号をCPU61に供給する。
【0093】
ステップS43において、CPU61は、予め設定されたカメラコントロールシステムの基準信号に基づいて、カメラヘッド1およびCCU2の位相差を求める。
【0094】
ステップS44において、CPU61は、ステップS43で求められた位相差に基づいて、CCU2からの映像信号のフレーム位相を特定の位相関係(例えば、同相)にするように、Genlock発生部62を制御し、Genlock制御信号を発生させ、マルチプレクサ52に供給する。このGenlock制御信号は、カメラヘッド1およびCCU2間の伝送遅延、カメラヘッド1内、および、CCU2内のシステム遅延に相当する分位相を進めるように制御し、最終的に出力端での位相が特定の位相関係(例えば、同相)になるようにするものである。
【0095】
ステップS45において、CPU61は、カメラヘッド1より受信した映像信号に基づいて、カメラヘッド1およびCCU2間の伝送回線に余裕があるか否かを判断する。例えば、8B/10Bの16bitsの伝送フレームのうち、2bits以上がデータ信号用に使用できるか否かを判断する。ステップS45において、伝送回線に余裕があると判断された場合、ステップS46において、マルチプレクサ52は、8B/10Bの16bitsの伝送フレームの2bitsをデータ信号に使用し、そのうちの1bitにGenlock制御信号の制御パルスを割り当てる。この場合、例えば、映像信号の16bitsの1bitをGenlock制御信号に使用することにより、カメラヘッド1側の位相をfpの精度で制御することができる。
【0096】
ステップS45において、伝送回線に余裕がないと判断された場合、例えば、本発明のフレーム構成のようにデータチャンネルが1チャンネルしかない場合、データサブチャンネルは、例えば、fp/20の精度となるため、ステップS47において、デマルチプレクサ52は、特定のサブチャンネル(例えば、第19ch)を用い、データチャンネルのマルチフレーム同期位相との位相差(Genlock制御信号)をコード化(タイムスタンプ)して、カメラヘッド1への指示を行う。
【0097】
この場合の位相差(Genlock制御信号)のbit数は、位相差の精度を画素のサンプリングfsの精度とした場合、1ラインの総サンプル数が1650(例えば、図5)のときは、11bitsで表わされ、1ラインの総サンプル数が2200(例えば、図8)のときは12bitsで表わされ、さらに、ライン数が1125のときは、11bitsで表わされる。このGenlock制御信号は、毎フレーム送信される。また、ライン数を11bitsでコード化する代わりに、1bitで指示を行なう伝送フレームのみにフラグを立てるようにしてもよい。
【0098】
ステップS48において、符号化部53は、マルチプレクサ52より供給された映像信号を8B/10B変換し、P/S変換部54に供給する。
【0099】
ステップS49において、P/S変換部54は、8B/10B変換された映像信号をシリアル変換し、ステップS50において、E/O変換部55は、シリアル変換された映像信号を光信号に変換し、光ファイバケーブルを介して、カメラヘッド1に送信する。
【0100】
このCCU2の送信処理に対応して、カメラヘッド1は、送信された映像信号の受信処理を行う。カメラヘッド1の受信処理を、図16のフローチャートを参照して説明する。
【0101】
ステップS61において、O/E変換部16は、CCU2から光ファイバケーブルを介して受信した映像信号を光信号から電気信号に変換し、S/P変換部17に出力する。ステップS62において、S/P変換部17は、シリアルデータの映像信号をパラレルデータに変換し、復号部18に出力する。
【0102】
ステップS63において、復号部18は、映像信号からコンマ符号を検出し、そのコンマ符号に基づいて8B / 10Bの逆変換(チャンネルデコーディング)する。なお、このとき、復号部18は、図15のステップS43において、コード化されたGenlock制御信号も8B / 10Bの逆変換処理する。
【0103】
ステップS64において、デマルチプレクサ19は、映像信号を各10bitsのG,B,Rの色信号、データ信号、およびGenlock制御信号に分解し、Genlock制御信号から、指示パルスを再生する。デマルチプレクサ19は、それら全てを撮影表示部11に供給する。
【0104】
以上のように、CCU2にてコード化されたGenlock制御信号を、カメラヘッド1側で8B / 10Bの逆変換(デコード)し、指示パルスを再生することによって、カメラヘッド1およびCCU2間の位相差を減少させる(位相同期させる)ことができる。
【0105】
上記のように、規格化されており、広い普及が見込まれているG-bit EtherあるいはFiber Channel の、8B/10Bチャンネルコーディング(変換)の物理層を利用することで、多くの高速デバイスを利用することができる。また、8B/10Bチャンネルコーディングにより、ビデオのSDI(scrambled NRZI)のパソロジーパターン問題を回避することができる。さらに、本発明は、Beond HDおよびD-cinemaなど、2k×4k画素クラスの映像にも応用が可能である。
【0106】
また、データチャンネルを映像チャンネルから独立させることにより、同期符号などの制御データが扱いやすくなる。例えば、映像チャンネルのフレーム同期をとることなく、データチャンネルのみで同期が取れるようになり、映像チャンネルの同期外れが起こっても、データチャンネルは影響を受けなくなる。また、パケットの組み立てあるいは分解が不要になるため、回路負担が軽減され、あるいは、非同期制御データの多点サンプルによる伝送が可能になる。
【0107】
さらに、映像のHブランキングとデータチャンネルの空きTS(タイムスロット)を同相に配置するフレーム構成により、8B/10Bのコンマ符号を映像信号の速度変換をすることなく周期的に、置き換えができ、回線の信頼性が向上するようになる。
【0108】
上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。この場合、例えば、マルチプレクサ12,52、符号化部13,53、P/S変換部14,54、E/O変換部15,55、O/E変換部16,56、S/P変換部17,57、復号部18,58、およびデマルチプレクサ19,59のうちの所定のものが、映像信号処理装置70により構成される。
【0109】
図17において、CPU(Central Processing Unit)71は、ROM(Read Only Memory)72に記憶されているプログラム、または、記憶部78からRAM(Random Access Memory)73にロードされたプログラムに従って各種の処理を実行する。RAM73にはまた、CPU71が各種の処理を実行する上において必要なデータなどが適宜記憶される。
【0110】
CPU71、ROM72、およびRAM73は、バス74を介して相互に接続されている。このバス74にはまた、入出力インタフェース75も接続されている。
【0111】
入出力インタフェース75には、キーボード、マウスなどよりなる入力部76、CRT(Cathode Ray Tube),LCD(Liquid Crystal Display)などよりなるディスプレイ、並びにスピーカなどよりなる出力部77、ハードディスクなどより構成される記憶部78、モデム、ターミナルアダプタなどより構成される通信部79が接続されている。通信部79は、図示しないネットワークを介しての通信処理を行う。
【0112】
入出力インタフェース75にはまた、必要に応じてドライブ80が接続され、磁気ディスク81、光ディスク82、光磁気ディスク83、或いは半導体メモリ84などが適宜装着され、それから読み出されたコンピュータプログラムが、必要に応じて記憶部78にインストールされる。
【0113】
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば、汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。
【0114】
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に従って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
【0115】
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
【0116】
【発明の効果】
以上の如く、本発明の映像信号処理装置および方法、並びにプログラムによれば、映像信号、音声信号およびデータ信号を、8ビットの整数倍のタイムスロットのうち所定のビットに割り付けた映像チャンネルと、その余剰ビットに音声信号およびデータ信号を割り付けたデータチャンネルから構成される合成信号に多重化し、出力されたタイムスロットであって、映像信号のブランキング期間に位置する特定の1つ、または複数の、データチャンネルが無信号であるタイムスロットに8B/10B符号の同期符号を割り付けるとともに、合成信号を8B/10B符号に変換し、8B/10B符号を送信し、そして、8B/10B 符号の送信相手が、8B/10B符号の位相を制御するときに参照されるGenlock制御信号を、合成信号にさらに多重化するようにしたので、映像機器間のデータを長距離でもより確実に伝送することが可能となる。
【図面の簡単な説明】
【図1】本発明を適用したカメラコントロールシステムの構成例を示す図である。
【図2】図1のカメラヘッドの構成例を示すブロック図である。
【図3】図2のカメラヘッドの各部でのパラメータを説明する図である。
【図4】図1のCCUの構成例を示すブロック図である。
【図5】図1のカメラコントロールシステムの伝送フレームの構成例を説明する図である。
【図6】図1のカメラコントロールシステムのスキャンパラメータを説明する図である。
【図7】データサブチャンネルとコンマ符号を説明する図である。
【図8】図1のカメラコントロールシステムの伝送フレームの他の構成例を説明する図である。
【図9】図1のカメラコントロールシステムの伝送フレームのさらに他の構成例を説明する図である。
【図10】図1のカメラコントロールシステムの伝送フレームのさらに他の構成例を説明する図である。
【図11】図1のカメラコントロールシステムの伝送フレームのさらに他の構成例を説明する図である。
【図12】図1のカメラコントロールシステムの伝送フレームのさらに他の構成例を説明する図である。
【図13】図2のカメラヘッドの映像信号送信処理を説明するフローチャートである。
【図14】図4のCCUの映像信号受信処理を説明するフローチャートである。
【図15】図4のCCUの映像信号送信処理を説明するフローチャートである。
【図16】図2のカメラヘッドの映像信号受信処理を説明するフローチャートである。
【図17】映像信号処理装置の他の構成例を示す図である。
【符号の説明】
1 カメラヘッド,2 CCU,12 マルチプレクサ,13 符号化部,14 P/S変換部,17 S/P変換部,18 復号部,19 デマルチプレクサ,52 マルチプレクサ,53 符号化部,54 P/S変換部,57 S/P変換部,58 復号部,59 デマルチプレクサ,60 プロセス制御部,61 CPU,62 Genlock発生部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a video signal processing apparatus and method, and a program, and more particularly to a video signal processing apparatus and method, and a program that can more reliably transmit data between video devices.
[0002]
[Prior art]
Video for production, monitoring, FA (Factory Automation), etc. is mainly point-to-point transmission and requires high-quality video, so it may be uncompressed or low-compressed, and further widened. Many.
[0003]
The SDI (Serial Digital Interface) of HDTV signals that are currently used as an interface between the video equipment is standardized as SMPTE (The Society of Motion Picture and Television Engineers) 292M or BTA S-004. Has been. In this method, video data is allocated to a TS (time slot) in the original analog video section, audio or other data is packetized, and placed in a video H / V (horizontal / vertical) blanking period.
[0004]
[Problems to be solved by the invention]
However, since the SDI uses a scramble method for channel coding (channel coding), there is no increase in transmission rate, but when a specific signal such as a pathological pattern is used, the output is 0 or 1 continuously. As a result, clock reproduction becomes severe and transmission distance must be shortened, or a code error occurs.
[0005]
The present invention has been made in view of such a situation, and makes it possible to more reliably transmit data between video devices even over a long distance.
[0006]
[Means for Solving the Problems]
  The video signal processing device of the present invention allocates a video signal, an audio signal, and a data signal to predetermined bits in a time slot that is an integer multiple of 8 bits, and an audio signal and a data signal to the surplus bits. Multiplexing means for multiplexing the synthesized signal composed of the data channels, and one or more specific data that are time slots output from the multiplexing means and located in the blanking period of the video signal 8B / 10B code synchronization code is assigned to a time slot with no signal in the channel, encoding means for converting the composite signal into 8B / 10B code, and transmission means for transmitting 8B / 10B code are provided, and multiplexed. Means8B / 10B The other party of the code isControl the phase of 8B / 10B codeSometimes referred toThe Genlock control signal is further multiplexed with the synthesized signal.
[0007]
  8B / 10B SignThe synchronization code can be a comma code.
[0008]
  Sent from the other partyReceiving means for receiving the 8B / 10B code, decoding means for detecting the synchronization code from the 8B / 10B code, and decoding the 8B / 10B code into the synthesized signal based on the detected synchronization code, and synthesis Signal, video signal, audio signal,And data signalsAnd a disassembling means for disassembling.
[0009]
The frame of the video channel has the same cycle as the line cycle of the video signal, the data channel has a multi-frame configuration, and the multi frame can have the same cycle as the line cycle of the video signal.
[0010]
  The multiplexing means arranges a multiframe synchronization code in an arbitrary subchannel of the subchannels constituting the data channel, and the encoding means predetermines a time slot other than the subchannel in which the multiframe synchronization code is arranged. ThingsIn 8B / 10B SignSynchronization codeAssignCan be.
[0011]
  As a synchronization code for the data channel,8B / 10B SignCan be used.
[0012]
The multiplexing means may arrange the frame synchronization code within the blanking period of the video channel.
[0013]
  As the synchronization code of the video channel,8B / 10B SignCan be used.
[0015]
  The video signal processing method of the present invention allocates a video signal, an audio signal, and a data signal to a predetermined bit in a time slot that is an integer multiple of 8 bits, and an audio signal and a data signal to the surplus bits. A multiplexing step that multiplexes into a composite signal composed of a plurality of data channels, and a time slot that is output from the processing of the multiplexing step, and one or more specific ones located in the blanking period of the video signal Allocating a synchronization code of 8B / 10B code to a time slot in which the data channel is no signal, an encoding step for converting the synthesized signal into an 8B / 10B code, and a transmission step for transmitting the 8B / 10B code, In the multiplexing step,8B / 10B The other party of the code isControl the phase of 8B / 10B codeSometimes referred toThe Genlock control signal is further multiplexed with the synthesized signal.
[0016]
  The program of the present invention includes a video channel in which a video signal, an audio signal, and a data signal are allocated to a predetermined bit in a time slot that is an integer multiple of 8 bits, and a data channel in which the audio signal and the data signal are allocated to the surplus bits. A multiplexing step that multiplexes the resultant signal into a composite signal, and one or more specific data channels that are time slots output by the processing of the multiplexing step and are located in the blanking period of the video signal Assigns an 8B / 10B code synchronization code to a time slot in which no signal is present, and executes a process including an encoding step for converting the synthesized signal into an 8B / 10B code and a transmission step for transmitting the 8B / 10B code. In the multiplexing step,8B / 10B The other party of the code isControl the phase of 8B / 10B codeSometimes referred toThe Genlock control signal is further multiplexed with the synthesized signal.
[0017]
  In the video signal processing apparatus and method and the program according to the present invention, the video signal, the audio signal, and the data signal are assigned to a predetermined bit in a time slot that is an integral multiple of 8 bits, and the surplus bits are audio. One or more specific data channels, which are the time slots multiplexed and output in a composite signal composed of a data channel to which a signal and a data signal are allocated, and located in a blanking period of the video signal A synchronous code of 8B / 10B code is assigned to a time slot in which no signal is present, and the combined signal is converted into an 8B / 10B code, and an 8B / 10B code is transmitted. Also,8B / 10B The other party of the code isControl the phase of 8B / 10B codeSometimes referred toGenlock control signals are further multiplexed into the composite signal.
[0018]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a diagram showing a configuration example of a camera control system to which the present invention is applied.
[0019]
The camera control system includes a camera head 1 and a CCU (camera control unit) 2. Usually, the camera head 1 is arranged in a studio or the like where video is shot, and the CCU 2 controls the entire camera head 1 and is arranged in a separate room (control room) that can be remotely controlled. Yes.
[0020]
The camera head 1 and the CCU 2 are connected by a cable such as G-bit (Gigabit) Ether or Fiber Channel using an optical fiber. For transmission over this cable, a G-bit Ether or Fiber Channel physical layer is used, and a TS (time slot) allocation frame configuration is used instead of a packet in order to increase transmission efficiency (details are shown in FIG. 5). To be described later).
[0021]
As shown in FIG. 1, the signals transmitted from the camera head 1 to the CCU 2 include, for example, video signals, audio signals, camera control data, metadata, external control data, and intercom signals captured by the camera head 1. There is.
[0022]
For example, when the camera head 1 uses an ND filter or the like, the camera control data includes a signal for notifying the CCU 2 side of this, and the external control data indicates the camera head 1 such as pan and tilt. Includes external signals that tilt or move in a horizontal direction. The metadata is additional information data of a captured video signal, and includes, for example, a shooting date, position information by GPS (Global Positioning System), a title, and copyright information. The income signal includes an income signal for making a call between the operator of the camera head 1 and the operator of the CCU 2.
[0023]
The signals transmitted from the CCU 2 to the camera head 1 include, for example, a return video signal, a return audio signal, camera control data, a Genlock control signal, external control data, and an income signal.
[0024]
The return video signal and the return audio signal are signals that are being broadcast (output) at that time, such as video captured by other camera heads (not shown) or playback signals played back by a VTR (not shown) or the like. It is. As a result, the cameraman who operates the camera head 1 can check the video captured by another camera head or the VTR and the video broadcast at that time. Further, the camera control data transmitted from the CCU 2 to the camera head 1 is a signal for controlling, for example, adjustment of brightness and the like at the time of shooting by the camera on the CCU 2 side. The Genlock control signal is a control signal for synchronizing signals in the camera control system (broadcast station). This Genlock control signal is received by the CCU 2 from another reference device not shown.
[0025]
Each of the camera head 1 and the CCU 2 inputs / outputs external control data and an income signal to / from an external device. Further, the CCU 2 transmits a video signal, an audio signal, and metadata captured by the camera head 1 to another video device (not shown), and receives a return video signal and an audio signal from the other video device. At this time, the audio signal and the metadata are multiplexed on the data channel.
[0026]
FIG. 2 is a block diagram illustrating a configuration example of the camera head 1 of FIG.
[0027]
The imaging display unit 11 includes an imaging unit 21, a display unit 22, a control unit 23, and the like. The video signal photographed by the photographing unit 21 is supplied and displayed on the display unit 22. Thereby, the cameraman can perform a predetermined operation while viewing the video displayed on the display unit 22. The control unit 23 generates various signals (such as audio signals or control data) other than video signals as data signals.
[0028]
The 10-bit G, B, and R color signals of the video imaged by the imaging unit 21 are output to the multiplexer 12 (there may be Y, Pb, and Pr depending on the video signal). A data signal from the control unit 23 is also output to the multiplexer 12. The multiplexer 12 multiplexes the G, B, and R color signals and data signals into a 16-bit synthesized signal composed of a 15-bit video signal and a 1-bit data signal, and outputs the multiplexed signal to the encoding unit 13.
[0029]
The encoding unit 13 performs 8B / 10B conversion (channel coding) on the 16-bit composite signal. At this time, the encoding unit 13 inserts a comma code representing an 8-bit break once into one line of the video.
[0030]
The synthesized signal output from the encoding unit 13 is converted from a parallel signal to a serial signal by a P / S (Parallel / Serial) conversion unit 14 and converted from an electric signal by an E / O (Electrical-Optical) conversion unit 15. It is converted into an optical signal and transmitted to the CCU 2 via an optical fiber cable.
[0031]
In FIG. 2, an optical fiber cable is used. However, a coaxial cable may be used instead of the optical fiber cable. If the distance is short, LVDS (Low Voltage Differential Signal) is used after serial conversion. ) Or the like (with a stranded wire).
[0032]
An O / E converter (Optical-Electrical) 16 converts a video signal received from the CCU 2 via an optical fiber cable from an optical signal to an electrical signal, and outputs it to an S / P (Serial / Parallel) converter 17. To do. The S / P converter 17 converts the input signal from a serial signal to a parallel signal and outputs the parallel signal to the decoder 18.
[0033]
The decoding unit 18 detects a comma code from the input signal, and performs 8B / 10B inverse conversion (channel decoding) based on the comma code. At the same time, the decoding unit 18 also decodes the Genlock control signal encoded in the CCU 2 (described later with reference to FIG. 4). The demultiplexer 19 decomposes the input signal into 10-bit G, B, and R color signals, data signals, and Genlock control signals, and supplies them to the imaging display unit 11. Further, the demultiplexer 19 reproduces the instruction pulse from the Genlock control signal.
[0034]
FIG. 3 shows parameters in each part of FIG. 2 corresponding to the imaging method of the photographing display unit 11. In the upper row, when the video signal output by the photographing display unit 11 is a video signal of 1440 × 1080 / 59.94i GBR 3: 3: 3 each 10 bits encoded, the middle row shows 1920 × 1080 / 60i GBR 4: 4: 4 In the case of each 10-bit encoded video signal, and the lower part, each parameter in the case of a 1920 × 1080 / 59.94i YPbPr 4: 2: 2 12-bit encoded video signal is shown. First, the video signal of 10 bits encoding of each 1440 × 1080 / 59.94i GBR 3: 3: 3 in the upper stage will be described.
[0035]
The video sampling frequency fs of the video signal (10-bit G, B, and R color signals) output from the imaging display unit 11 or output from the demultiplexer 19 is 55.631868 MHz. The amount of video data is 1.112637 Gbps.
[0036]
The parallel data rate fp of the next composite signal (video signal 15 bits and data signal 1 bit) output from the multiplexer 12 or output from the decoding unit 18 is 111.263736 Mbps, and the total amount of data at this time Is 1.780220 Gbps.
[0037]
Furthermore, the parallel channel coding rate fcc of the video signal output from the encoding unit 13 or output from the S / P conversion unit 17 is 139.079670 Mbps and output from the P / S conversion unit 14. Alternatively, the serial transmission rate ft of the video signal output from the O / E converter 16 is 2.225275 Gbps.
[0038]
Similarly, in the case of a video signal of 10 bits encoded at 1920 × 1080 / 60i GBR 4: 4: 4 in the middle stage, the video sampling frequency fs is 74.25 MHz, and the total video data amount at this time is 2.2275 Gbps. is there. The parallel data rate fp is 148.5 Mbps, the total data amount at this time is 2.376 Gbps, the parallel channel coding rate fcc is 185.625 Mbps, and the serial transmission rate ft is 2.97 Gbps. .
[0039]
Further, similarly, in the case of a video signal of 12 bits encoding each of 1920 × 1080 / 59.94i YPbPr 4: 2: 2 in the lower stage, the video sampling frequency fs is 74.25 MHz, and the total video data amount at this time is 1.782Gbps. The parallel data rate fp is 148.5 Mbps, the total data amount at this time is 2.376 Gbps, the parallel channel coding rate fcc is 185.625 Mbps, and the serial transmission rate ft is 2.97 Gbps. .
[0040]
Next, FIG. 4 is a block diagram showing a configuration example of the CCU 2 of FIG. The multiplexer 52, encoding unit 53, P / S conversion unit 54, E / O conversion unit 55, O / E conversion unit 56, S / P conversion unit 57, decoding unit 58, and demultiplexer 59 are respectively shown in FIG. Multiplexer 12, encoding unit 13, P / S conversion unit 14, E / O conversion unit 15, O / E conversion unit 16, S / P conversion unit 17, decoding unit 18, and demultiplexer 19, basically The same function is executed, and the description thereof will be repeated and will be omitted.
[0041]
The decoding unit 58 detects a comma code from the combined signal, performs 8B / 10B inverse transform (channel decoding) based on the comma code, and outputs the result to the demultiplexer 59. The demultiplexer 59 decomposes the combined signal into 10-bit G, B, and R color signals and data signals, and supplies them to the process control unit 60.
[0042]
The CPU 61 obtains a phase difference between the camera head 1 and the CCU 2 based on a preset reference signal of the camera control system, and controls the Genlock generator 62 so that the frame phase of the video signal to be transmitted is in phase. Generate a Genlock control signal. This Genlock control signal is controlled to advance the phase corresponding to the transmission delay between the camera head 1 and the CCU 2, the system delay in the camera head 1, and the CCU 2, and finally the phase at the output end is specified. Phase relationship (for example, the same phase). Further, the CPU 61 determines whether or not there is a margin in the transmission line based on the video signal from the camera head 1 supplied from the process control unit 60, and instructs the method for transmitting the Genlock control signal.
[0043]
The process control unit 60 outputs the 10-bit G, B, and R color signals and data signals to be transmitted to the CPU 61 and the multiplexer 52.
[0044]
The multiplexer 52 multiplexes the G, B, and R color signals, the data signal, and the Genlock control signal generated by the Genlock generator 62 into a 16-bit composite signal composed of a 15-bit video signal and a 1-bit data signal. And output to the encoding unit 53.
[0045]
5 and 8 to 12 show configuration examples of transmission frames of HDTV defined by SMPTE 274M or several video schemes equivalent thereto. These frame configurations can be similarly configured for other video formats such as SMPTE 274M, 296M, and super 1920 × 1080.
[0046]
First, with reference to FIG. 5, an example of a frame configuration of a 10-bit encoded video signal with an active area of 1440 × 1080, 59.94i, and GBR 3: 3: 3 will be described.
[0047]
In this case (1440 × 1080, 60i (60 / 1.001i)), as shown in FIG. 6A, the horizontal total number of samples / line is 1650, and the horizontal standard active pixel number / line is 1440. The number of pixels / line at the time of horizontal narrowing ranking is 1468. The total number of lines is 1125 / frame, and one frame is composed of two fields, a first field (field 1) 563 and a second field (field 2) 562. The standard number of active lines is 1080 / frame, each field is composed of 540 / field, the number of active lines at the time of narrowing ranking is 1082 / frame, and each field is 541 / field. The sampling frequency (equivalent to Y) is 55.6875 (55.6875 / 1.001) MHz. The number of pixels at the time of narrowing ranking is an example.
[0048]
In general, in a video camera, a slight margin is added outside the active area (effective pixel) of the video signal in order to be useful for video signal processing. In the camera control system, horizontal blanking (hereinafter, H (Horizontal) blanking) period and vertical blanking (hereinafter referred to as V (Vertical) blanking) period, the narrowing blanking period (narrow BLK) video signal. Handle.
[0049]
FIG. 5A shows the standard blanking and narrowing ranking of such a video signal during the V blanking period, and the upper numbers indicate line numbers. As shown in FIG. 6A, the total number of lines in one frame is 1125 / frame, and one frame is composed of two fields, a first field (field 1) 563 and a second field (field 2) 562. Therefore, F in FIG. 5A is a field identification code according to SMPTE 274M and 292M, and the value is “0” in the first field (# 1) (line number 1 to line number 563 (563 lines)). In the second field (# 2) (line number 564 to line number 1125 (562 lines)), the value is “1”.
[0050]
V is a V blanking identification code according to SMPTE 274M, 292M, a value “1” indicates a standard blanking period, and a value “0” is not a standard blanking period. , Indicating a standard active line (video). Therefore, line numbers 1124 to 20 (22 lines) are standard blanking periods (BLK) with a value of “1”, and line numbers 21 to 560 (540 lines) are standard active with a value of “0”. Line numbers 56 1 to 583 (23 lines) are standard blanking periods (BLK) of value “1”, and line numbers 584 to 1123 (540 lines) are values “ 0 "standard active line.
[0051]
Furthermore, the narrowing ranking period includes line numbers 1124 to 19 (21 lines) and line numbers 561 to 582 (22 lines, and other periods (line numbers 20 to 560 (541 lines)). ) And line numbers 583 to 1123 (541 lines)) are active lines (nbvideo) at the time of narrowing ranking.
[0052]
On the other hand, FIG. 5B shows a multiplexed frame of video and data signals in the case of narrowing ranking near H blanking.
[0053]
The upper G, B, and R are 10-bit encoded digital GBR signals output from the imaging display unit 11 in FIG. 2, respectively, and the middle # 0 to # 1649 (1650 samples) are samples of one line. Numbers are shown (total number of horizontal samples / line in FIG. 6A). At this time, the H narrowing ranking period is 182 samples (pixels), and the standard blanking period is 210 pixels. The lower part shows a 16-bit parallel data sequence of a multiplexed frame (transmission frame) of the composite signal output from the multiplexer 12 of FIG.
[0054]
In the multiplexer 12, each 10 bits of GBR is allocated to two TS (time slots) of the upper 15 bits (b0 to b14) of 16 bits parallel data. Since one sample (pixel) is composed of two TSs, each TS is set as a TS of φ1 and φ2, respectively. Therefore, the upper 10 bits (b0 to b9) are assigned G data to the φ1 TS, and the upper 5 bits of the 10 bit B data are assigned to the next 5 bits (b10 to b14). Is assigned the R data in the upper 10 bits, and the lower 5 bits of the 10 bits of B data are assigned to the next 5 bits. The lowest 16th bit (b15) is used for data. Hereinafter, the upper 15 bits (b0 to b14) of the 16-bit parallel data (synthesized signal) are referred to as a video channel, and the lowermost 16th bit (b15) is referred to as a data channel.
[0055]
This 16-bit parallel data video transmission frame has the same cycle as one line of the GBR video signal. Then, “SAV (Start of Active Video)” is provided as a frame synchronization code. SAV is a TS in the narrowing ranking period, and 10 bits are allocated from the MSB (Most Significant Bit) of four TSs immediately before the start TS of the video signal. It has the same purpose as SMPTE 292M's SAV (or EAV (End of Active Video)), but it is simplified and 3FFh (all 10 bits are "1"), 000h ( 10 bits all “0”), 3FFh (10 bits all “1”) are assigned as synchronization codes, and the fourth TS includes F (field identification code) and V (V blanking identification code) in FIG. Information is allocated.
[0056]
The 3FFh, 000h, and 3FFh codes (10 bits) used as the synchronization code are codes that cannot appear in the video data (prohibition code) in order to prevent a part of the video data from being erroneously detected as the synchronization code. . As the video data, a range from 001h to 3FEh is used. In FIG. 5B, “Res” represents Reserve, and a signal is assigned as necessary.
[0057]
Further, the video data in the H blanking period and the V blanking period is fixed to a specific code, for example, 040h (black level of the video signal). It is possible to insert other data signals or the like into this portion as necessary.
[0058]
The lowest 16th bit (b15) of the 16-bit parallel data is a data channel for various signals (audio signal and data signal) other than the video signal. The data channel has a multi-frame configuration, and a necessary number of subchannels (tributaries) are provided. The multi-frame cycle is the same cycle as one line of the GBR video signal, like the video transmission frame. For example, in the example of FIG. 5B, since one multiframe is composed of 3300 (= 1650 × 2) TSs, the number of subchannels is the number of TSs of one multiframe (in this case, 3300 TS). Any number may be used as long as it is a divisor. For example, if the number of subchannels is 20, the parallel data rate fp is 111.263736 Mbps (FIG. 3), so the data rate per subchannel is about 5.6 Mbps. Since the control data is asynchronous, it can be transmitted as a packet, but even if it is sampled and transmitted at 5.6 MHz, a sufficient capacity can be secured.
[0059]
When the number of subchannels is 20, TSs with subchannel numbers (Subch No.) of 0 to 19 are sequentially arranged in the data channel as shown in FIG. One of the subchannels (for example, Subch No. 0 which is the first channel) is assigned for multi-frame synchronization. The number of bits per multi-frame of the subchannel is 3300/20 = 165, and the synchronization code (Multi Frame Sync pattern) is a fixed pattern of an appropriate length, for example, 20 bits length, and is “10111111101000000010” (The remaining 145 bits become free bits). Then, the start position of the multiframe is set to a specific phase of the video channel, for example, the first TS of the SAV.
[0060]
Further, when 8B / 10B conversion (channel coding) is performed in the encoding unit 13 of FIG. 2, in order to be able to detect a break when 10B is reversely converted to 8B on the receiving side, generally “K28. A specific 10-bit code “Comma Code” called “5” is inserted.
[0061]
In order to establish 8B / 10B conversion and inverse conversion as a transmission line, there is a method of transmitting K28.5 only at the start of transmission and not transmitting after establishment, but in the present invention, in consideration of bit errors, K28.5 is transmitted even after synchronization.
[0062]
In the TS into which K28.5 is inserted, the original data is replaced with K28.5, and therefore, it is necessary to place meaningless data in that portion of the original data. Therefore, for example, K28.5 is also inserted at a period of one line of the video, and the phase thereof is multiplexed within the H blanking (or H narrowing ranking) period of the video as shown in FIG. It is not a Multi Frame Sync pattern of a multi-frame synchronization channel (first subchannel) in the data channel, that is, a TS without a significant signal (no signal).
[0063]
Therefore, in FIG. 5B and FIG. 7, K28.5 is assigned to one TS or a plurality of TSs among 18 TSs # 1638φ1, # 1628φ1, # 1618φ1,. For example, when K28.5 is assigned to # 1638φ1, since the comma code is 16 bits, the 16 bits of the video channel and data channel of # 1638φ1 are replaced with K28.5. Further, comma code synchronization (multi-frame synchronization) is performed only on the data channel.
[0064]
As described above, in the frame configuration of the present invention, since the video channel, the data channel, and the comma code (K28.5) have the same period, multi-frame synchronization of the video channel or the data channel is achieved at K28.5. It is also possible.
[0065]
FIG. 8 shows a frame configuration example of a video signal with an active area of 1920 × 1080, 60i (59.94i), and GBR 4: 4: 4 each 10 bits encoded. FIG. 8A shows standard blanking and narrowing ranking in the V blanking period, and FIG. 8B shows multiple frames of video and data signals in the case of narrowing ranking in the vicinity of H blanking.
[0066]
In this case (1920 × 1080, 60i (60 / 1.001i)), as shown in FIG. 6B, the horizontal total number of samples / line is 2200, and the horizontal standard active pixel number / line is 1920. The number of active pixels / line at the time of horizontal narrowing ranking is 1956. The total number of lines is 1125 / frame, and one frame is composed of two fields, a first field (field1) 563 and a second field (field2) 562, and the standard active line number is 1080 / frame. Each field consists of 540 / field. The number of active lines at the time of narrowing ranking is 1086 / frame, and in each field is 543 / field. The sampling frequency (equivalent to Y) is 74.25 (74.25 / 1.001) MHz. At this time, the H narrowing ranking period is 244 (= 2200-1956) pixels, and the standard blanking period is 280 (= 2200-1920) pixels. The number of pixels at the time of narrowing ranking is an example.
[0067]
The frame configuration in FIG. 8 is the same as the frame configuration in FIG. 5 described above except that the total number of samples and the number of pixels in one line are different, so the description will be repeated. Omitted.
[0068]
FIG. 9 shows an example of a frame configuration of a video signal with an active area of 1920 × 1080, 60i (59.94i), and YPbPr 4: 4: 4 each 10 bits encoded. FIG. 9 shows multiplexed frames of video and data signals in the case of narrowing ranking in the vicinity of H blanking, where GBR in FIG. 8B is YPbPr, and the Y blanking period of Y, Pb, and Pr. Since the other configurations are the same as the frame configuration of FIG. 5B or FIG. 8B described above except that the values of are set to 040h, 200h, and 200h, the description thereof will be repeated. Omitted.
[0069]
FIG. 10 shows an example of a frame configuration of a video signal with an active area of 1920 × 1080, 60i (59.94i), and GBR 4: 4: 4 12-bit encoding.
[0070]
In this case, a 12-bit encoded digital GBR video signal (12 bits × 3 (GBR)) of 74.25 MHz samples is sequentially assigned to the upper 12 bits (b0 to b11) of three TSs of 148.5 Mbps 16-bit parallel data. The lower 3 bits (b12 to b14) are Res (Reserve). The value of the H blanking period of GBR is 100h in all cases.
[0071]
As SAV synchronization codes, FFFh, 000h, and FFFh (12 bits each), which are codes (prohibition codes) that cannot appear in the video signal, are used to prevent erroneous detection. In order to make the synchronization detection circuit common to the case of 10 bits encoding, the synchronization code may be upper 10 bits and may be 3FFh, 000h, 3FFh (10 bits). In that case, the prohibition codes are FFFh to FFBh and 000h to 003h (12 bits).
[0072]
Since the other configuration of the frame configuration in FIG. 10 is the same as the frame configuration in FIG. 5B described above, the description thereof will be omitted and will be omitted.
[0073]
Further, FIG. 11 shows that the active area is 1920 × 1080, 60i (59.94i), YPbPr 4: 2: 2
FIG. 12 shows an example of the frame configuration of each 10-bit encoded video signal, and FIG. 12 shows an example of the frame configuration of each 12-bit encoded video signal with an active area of 1920 × 1080, 60i (59.94i), YPbPr 4: 2: 2. . # 0 to # 2199 in the middle row indicate Y sample numbers.
[0074]
In the case of the 10-bit encoded video signal of FIG. 11, the 10-bit encoded video signal (10 bits × 2 (YPb / Pr)) of 74.25 MHz sample is the upper 10 bits of two TSs of 148.5 Mbps 16-bit parallel data. Allocated sequentially to (b0 to b9). The lower 5 bits (b10 to b14) are reserved. The values of the H blanking periods of Y, Pb, and Pr are 040h, 200h, and 200h, respectively.
[0075]
In the case of the 12-bit encoded video signal of FIG. 12, the 12-bit encoded video signal of 74.25 MHz sample (12 bits × 2 (YPb / Pr)) is the upper 12 bits of two TSs of 148.5 Mbps 16-bit parallel data. Allocated sequentially to (b0 to b11). The lower 3 bits (b12 to b14) are reserved. The values of the Y blanking period of Y, Pb, and Pr are 100h, 800h, and 800h, respectively.
[0076]
Other configurations of the frame configurations of FIGS. 11 and 12 are the same as those of the above-described frame configuration of FIG. 5B or FIG.
[0077]
Next, the video signal transmission processing of the camera head 1 will be described with reference to the flowchart of FIG. In the following, it is assumed that video signal processing of 1440 × 1080 / 59.94i GBR 3: 3: 3 each 10 bits encoding is performed.
[0078]
In step S <b> 1, the photographing display unit 11 supplies the multiplexer 12 with the GBR video signal (10 bits × 3) photographed by the photographing unit 21 and the data signal generated by the control unit 23.
[0079]
In step S <b> 2, the multiplexer 12 multiplexes the supplied video signal and data signal into a 16-bit video signal, and supplies the multiplexed video signal (synthesized signal) to the encoding unit 13.
[0080]
In step S3, the encoding unit 13 replaces a predetermined TS of the video signal with K28.5 (comma code), performs 8B / 10B conversion (channel coding), and sends the video signal to the P / S conversion unit 14. Supply.
[0081]
In step S <b> 4, the P / S conversion unit 14 converts the video signal of 16-bit parallel data into serial data and supplies it to the E / O conversion unit 15.
[0082]
In step S5, the E / O conversion unit 15 converts the supplied video signal into an optical signal, and transmits the optical signal to the CCU 2 via the optical fiber cable.
[0083]
Corresponding to the transmission processing of the camera head 1, the CCU 2 performs reception processing of the transmitted video signal. The reception processing of CCU2 will be described with reference to the flowchart of FIG.
[0084]
In step S <b> 21, the O / E conversion unit 56 receives the video signal transmitted from the camera head 1 via the optical fiber cable, converts it into an electrical signal, and supplies it to the S / P conversion unit 57.
[0085]
In step S <b> 22, the S / P converter 57 converts the serial data video signal into parallel data and outputs the parallel data to the decoder 58.
[0086]
In step S23, the decoding unit 58 detects the comma code replaced by the process of step S3 in FIG. 13, converts the 10B video signal back to 8B based on the comma code, and supplies it to the demultiplexer 59. .
[0087]
In step S <b> 24, the demultiplexer 59 decomposes the supplied video signal into RGB color signals and other data signals, and supplies them to the process control unit 60.
[0088]
As described above, transmission / reception of the video signal between the camera head 1 and the CCU 2 is reversely converted to 8B / 10B by inserting a comma code and detecting the comma code on the receiving side on the transmitting side for 8B / 10B conversion. be able to. As a result, video signals can be transmitted and received between the camera head 1 and the CCU 2 by using a physical layer of 8B / 10B channel coding of G-bit Ether or Fiber Channel.
[0089]
With the development of the Internet in recent years, infrastructure such as G-bit (Gigabit) Ether or Fiber Channel has been established, and it has become a level applicable to wideband video signals. Therefore, in the present invention, these infrastructures can be used instead of SDI. These use 8B / 10B channel coding and have a 25% increase in transmission rate, but do not generate the pathological pattern that is a drawback of SDI.
[0090]
Furthermore, since a system using G-bit (Gigabit) Ether or Fiber Channel is more popular than SDI, it can be constructed at low cost.
[0091]
Next, video signal transmission processing of the CCU 2 will be described based on the flowchart of FIG. This process is basically the same process as the camera head 1, but when transmitting a video signal, the CCU 2 generates a Genlock control signal for phase matching as a unique control between the CCU 2 and the camera head 1. .
[0092]
In step S41, the process control unit 60 transmits a video signal (video captured by another camera head, return video signal that is a reproduction signal reproduced by a VTR, etc.), audio signal, and data to be transmitted to the camera head 1 The signal is supplied to the multiplexer 52, and the video signal received from the camera head 1 is supplied to the CPU 61 in step S42.
[0093]
In step S43, the CPU 61 obtains a phase difference between the camera head 1 and the CCU 2 based on a preset reference signal of the camera control system.
[0094]
In step S44, the CPU 61 controls the Genlock generator 62 so that the frame phase of the video signal from the CCU 2 has a specific phase relationship (for example, in-phase) based on the phase difference obtained in step S43. A Genlock control signal is generated and supplied to the multiplexer 52. This Genlock control signal is controlled to advance the phase corresponding to the transmission delay between the camera head 1 and the CCU 2, the system delay in the camera head 1, and the CCU 2, and finally the phase at the output end is specified. Phase relationship (for example, in-phase).
[0095]
In step S <b> 45, the CPU 61 determines whether there is a margin in the transmission line between the camera head 1 and the CCU 2 based on the video signal received from the camera head 1. For example, it is determined whether 2 bits or more of an 8B / 10B 16-bit transmission frame can be used for a data signal. If it is determined in step S45 that there is a margin in the transmission line, in step S46, the multiplexer 52 uses 2 bits of the 8B / 10B 16-bit transmission frame for the data signal, and controls the Genlock control signal in 1 bit of the data signal. Assign pulses. In this case, for example, by using 1 bit of 16 bits of the video signal as a Genlock control signal, the phase on the camera head 1 side can be controlled with an accuracy of fp.
[0096]
In step S45, if it is determined that there is no room in the transmission line, for example, if there is only one data channel as in the frame configuration of the present invention, the data subchannel has an accuracy of, for example, fp / 20. In step S47, the demultiplexer 52 encodes (time stamps) the phase difference (Genlock control signal) from the multi-frame synchronization phase of the data channel using a specific subchannel (for example, the 19th channel), and The head 1 is instructed.
[0097]
The number of bits of the phase difference (Genlock control signal) in this case is 11 bits when the accuracy of the phase difference is the precision of the pixel sampling fs and the total number of samples per line is 1650 (for example, FIG. 5). When the total number of samples per line is 2200 (for example, FIG. 8), it is represented by 12 bits, and when the number of lines is 1125, it is represented by 11 bits. This Genlock control signal is transmitted every frame. Further, instead of coding the number of lines with 11 bits, a flag may be set only for a transmission frame instructed with 1 bit.
[0098]
In step S <b> 48, the encoding unit 53 performs 8B / 10B conversion on the video signal supplied from the multiplexer 52 and supplies the converted video signal to the P / S conversion unit 54.
[0099]
In step S49, the P / S converter 54 serially converts the 8B / 10B converted video signal. In step S50, the E / O converter 55 converts the serially converted video signal into an optical signal. It transmits to the camera head 1 via an optical fiber cable.
[0100]
Corresponding to the transmission processing of the CCU 2, the camera head 1 performs reception processing of the transmitted video signal. The reception process of the camera head 1 will be described with reference to the flowchart of FIG.
[0101]
In step S <b> 61, the O / E converter 16 converts the video signal received from the CCU 2 via the optical fiber cable from an optical signal to an electrical signal, and outputs the electrical signal to the S / P converter 17. In step S <b> 62, the S / P conversion unit 17 converts the serial data video signal into parallel data and outputs the parallel data to the decoding unit 18.
[0102]
In step S63, the decoding unit 18 detects a comma code from the video signal, and performs inverse 8B / 10B conversion (channel decoding) based on the comma code. At this time, the decoding unit 18 also performs 8B / 10B inverse conversion processing on the encoded Genlock control signal in step S43 of FIG.
[0103]
In step S64, the demultiplexer 19 decomposes the video signal into 10-bit G, B, and R color signals, data signals, and Genlock control signals, and reproduces the instruction pulse from the Genlock control signals. The demultiplexer 19 supplies all of them to the imaging display unit 11.
[0104]
As described above, the Genlock control signal encoded by the CCU 2 is inversely converted (decoded) by 8B / 10B on the camera head 1 side, and the instruction pulse is reproduced, so that the phase difference between the camera head 1 and the CCU 2 is obtained. Can be reduced (phase-synchronized).
[0105]
As described above, many high-speed devices are used by using the physical layer of 8B / 10B channel coding (conversion) of G-bit Ether or Fiber Channel, which is standardized and expected to be widely used. can do. Also, the 8B / 10B channel coding can avoid the SDI (scrambled NRZI) pathology pattern problem of video. Furthermore, the present invention can be applied to 2k × 4k pixel class images such as Beond HD and D-cinema.
[0106]
In addition, by making the data channel independent of the video channel, control data such as synchronization codes can be handled easily. For example, the video channel can be synchronized only by the data channel without taking the frame synchronization of the video channel, and the data channel is not affected even if the video channel is out of synchronization. Further, since the assembly or disassembly of the packet is not necessary, the circuit load is reduced, or the asynchronous control data can be transmitted by multipoint sampling.
[0107]
Furthermore, the frame configuration in which the H blanking of the video and the vacant TS (time slot) of the data channel are arranged in phase allows the 8B / 10B comma code to be replaced periodically without converting the speed of the video signal. The line reliability is improved.
[0108]
The series of processes described above can be executed by hardware, but can also be executed by software. In this case, for example, multiplexers 12 and 52, encoding units 13 and 53, P / S conversion units 14 and 54, E / O conversion units 15 and 55, O / E conversion units 16 and 56, and S / P conversion unit 17. , 57, decoding units 18, 58, and demultiplexers 19, 59 are constituted by a video signal processing device 70.
[0109]
In FIG. 17, a CPU (Central Processing Unit) 71 performs various processes according to a program stored in a ROM (Read Only Memory) 72 or a program loaded from a storage unit 78 to a RAM (Random Access Memory) 73. Execute. The RAM 73 also appropriately stores data necessary for the CPU 71 to execute various processes.
[0110]
The CPU 71, ROM 72, and RAM 73 are connected to each other via a bus 74. An input / output interface 75 is also connected to the bus 74.
[0111]
The input / output interface 75 includes an input unit 76 including a keyboard and a mouse, a display including a CRT (Cathode Ray Tube) and an LCD (Liquid Crystal Display), an output unit 77 including a speaker, and a hard disk. A communication unit 79 including a storage unit 78, a modem, a terminal adapter, and the like is connected. The communication unit 79 performs communication processing via a network (not shown).
[0112]
A drive 80 is connected to the input / output interface 75 as necessary, and a magnetic disk 81, an optical disk 82, a magneto-optical disk 83, a semiconductor memory 84, or the like is appropriately mounted, and a computer program read from the drive is required. Is installed in the storage unit 78 according to the above.
[0113]
When a series of processing is executed by software, a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a network or a recording medium into a general-purpose personal computer or the like.
[0114]
In the present specification, the step of describing the program recorded in the recording medium is not limited to the processing performed in time series according to the described order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.
[0115]
Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.
[0116]
【The invention's effect】
  As described above, according to the video signal processing apparatus and method and the program of the present invention, a video channel in which a video signal, an audio signal, and a data signal are allocated to predetermined bits in a time slot that is an integer multiple of 8 bits; One or more specific time slots that are multiplexed and output to a synthesized signal composed of a data channel in which audio signals and data signals are assigned to the surplus bits, and are located in the blanking period of the video signal , Assigning an 8B / 10B code synchronization code to a time slot in which the data channel is no signal, converting the synthesized signal to an 8B / 10B code, transmitting an 8B / 10B code, and8B / 10B The other party of the code isControl the phase of 8B / 10B codeSometimes referred toSince the Genlock control signal is further multiplexed with the composite signal, the data between the video devices can be transmitted more reliably over a long distance.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating a configuration example of a camera control system to which the present invention is applied.
FIG. 2 is a block diagram illustrating a configuration example of the camera head of FIG.
FIG. 3 is a diagram illustrating parameters in each part of the camera head in FIG. 2;
4 is a block diagram illustrating a configuration example of the CCU in FIG. 1. FIG.
5 is a diagram for explaining a configuration example of a transmission frame of the camera control system of FIG. 1; FIG.
6 is a diagram for explaining scan parameters of the camera control system of FIG. 1; FIG.
FIG. 7 is a diagram illustrating a data subchannel and a comma code.
8 is a diagram for explaining another configuration example of a transmission frame of the camera control system in FIG. 1. FIG.
9 is a diagram illustrating still another configuration example of the transmission frame of the camera control system in FIG. 1. FIG.
10 is a diagram illustrating still another configuration example of a transmission frame of the camera control system in FIG. 1. FIG.
11 is a diagram illustrating still another configuration example of the transmission frame of the camera control system in FIG. 1. FIG.
12 is a diagram illustrating still another configuration example of a transmission frame of the camera control system in FIG. 1. FIG.
13 is a flowchart for explaining video signal transmission processing of the camera head of FIG. 2;
14 is a flowchart illustrating video signal reception processing of the CCU of FIG.
15 is a flowchart for explaining video signal transmission processing of the CCU of FIG. 4;
16 is a flowchart for explaining video signal reception processing of the camera head of FIG. 2;
FIG. 17 is a diagram illustrating another configuration example of the video signal processing apparatus.
[Explanation of symbols]
1 camera head, 2 CCU, 12 multiplexer, 13 encoding unit, 14 P / S conversion unit, 17 S / P conversion unit, 18 decoding unit, 19 demultiplexer, 52 multiplexer, 53 encoding unit, 54 P / S conversion Unit, 57 S / P conversion unit, 58 decoding unit, 59 demultiplexer, 60 process control unit, 61 CPU, 62 Genlock generation unit

Claims (10)

映像信号、音声信号およびデータ信号をシリアル伝送する映像信号処理装置において、
前記映像信号、前記音声信号および前記データ信号を、8ビットの整数倍のタイムスロットのうち所定のビットに割り付けた映像チャンネルと、その余剰ビットに前記音声信号および前記データ信号を割り付けたデータチャンネルから構成される合成信号に多重化する多重化手段と、
前記多重化手段より出力された前記タイムスロットであって、前記映像信号のブランキング期間に位置する特定の1つ、または複数の、前記データチャンネルが無信号である前記タイムスロットに8B/10B符号の同期符号を割り付けるとともに、前記合成信号を8B/10B符号に変換する符号化手段と、
前記8B/10B符号を送信する送信手段と
を備え、
前記多重化手段は、前記 8B/10B 符号の送信相手が、前記8B/10B符号の位相を制御するときに参照されるGenlock制御信号を、前記合成信号にさらに多重化する
ことを特徴とする映像信号処理装置。
In a video signal processing apparatus for serial transmission of video signals, audio signals and data signals,
From the video channel in which the video signal, the audio signal, and the data signal are allocated to predetermined bits in a time slot that is an integer multiple of 8 bits, and the data channel in which the audio signal and the data signal are allocated to the surplus bits A multiplexing means for multiplexing the composed composite signal;
8B / 10B code in the time slot output from the multiplexing means and in one or more specific time slots located in the blanking period of the video signal where the data channel is no signal And encoding means for converting the synthesized signal into an 8B / 10B code,
Transmission means for transmitting the 8B / 10B code,
Said multiplexing means is a video in which the 8B / 10B code of the transmission partner, the Genlock control signal to be referred in controlling the 8B / 10B code phase, characterized by further multiplexing the combined signal Signal processing device.
前記8B/10B符号の同期符号はコンマ符号であること
を特徴とする請求項1に記載の映像信号処理装置。
The video signal processing apparatus according to claim 1, wherein the synchronization code of the 8B / 10B code is a comma code.
前記送信相手から送信されてきた前記8B/10B符号を受信する受信手段と、
前記8B/10B符号から前記同期符号を検出するとともに、検出された前記同期符号に基づいて、前記8B/10B符号を前記合成信号に10B/8B復号する復号手段と、
前記合成信号を、前記映像信号、前記音声信号、および前記データ信号に分解する分解手段と
をさらに備えることを特徴とする請求項1に記載の映像信号処理装置。
Receiving means for receiving the 8B / 10B code transmitted from the transmission partner ;
Detecting the synchronization code from the 8B / 10B code, and based on the detected synchronization code, decoding means for 10B / 8B decoding the 8B / 10B code into the synthesized signal;
The video signal processing apparatus according to claim 1, further comprising: a decomposing unit that decomposes the synthesized signal into the video signal, the audio signal, and the data signal .
前記映像チャンネルのフレームの周期は、前記映像信号のライン周期と同一の周期であり、
前記データチャンネルは、マルチフレーム構成であり、
前記マルチフレームの周期は、前記映像信号のライン周期と同一の周期である
ことを特徴とする請求項1に記載の映像信号処理装置。
The frame period of the video channel is the same period as the line period of the video signal,
The data channel has a multi-frame configuration,
The video signal processing apparatus according to claim 1, wherein a period of the multiframe is the same as a line period of the video signal.
前記多重化手段は、前記データチャンネルを構成するサブチャンネルのうちの任意のサブチャンネルに前記マルチフレームの同期符号を配置し、
前記符号化手段は、前記マルチフレームの同期符号を配置した前記サブチャンネル以外のタイムスロットの所定のものに前記8B/10B符号の同期符号を割り付ける
ことを特徴とする請求項4に記載の映像信号処理装置。
The multiplexing means arranges the multiframe synchronization code in an arbitrary subchannel among the subchannels constituting the data channel,
5. The video signal according to claim 4, wherein the encoding means assigns the synchronization code of the 8B / 10B code to a predetermined one of time slots other than the subchannel in which the multiframe synchronization code is arranged. Processing equipment.
前記データチャンネルの前記同期符号として、前記8B/10B符号の同期符号を用いる
ことを特徴とする請求項5に記載の映像信号処理装置。
The video signal processing apparatus according to claim 5, wherein the synchronization code of the 8B / 10B code is used as the synchronization code of the data channel.
前記多重化手段は、前記映像チャンネルのブランキング期間内に前記フレームの同期符号を配置する
ことを特徴とする請求項4に記載の映像信号処理装置。
The video signal processing apparatus according to claim 4, wherein the multiplexing unit arranges the synchronization code of the frame within a blanking period of the video channel.
前記映像チャンネルの前記同期符号として、前記8B/10B符号の同期符号を用いる
ことを特徴とする請求項7に記載の映像信号処理装置。
The video signal processing apparatus according to claim 7, wherein the synchronization code of the 8B / 10B code is used as the synchronization code of the video channel.
映像信号、音声信号およびデータ信号をシリアル伝送する映像信号処理装置用の映像信号処理方法において、
前記映像信号、前記音声信号および前記データ信号を、8ビットの整数倍のタイムスロットのうち所定のビットに割り付けた映像チャンネルと、その余剰ビットに前記音声信号および前記データ信号を割り付けたデータチャンネルから構成される合成信号に多重化する多重化ステップと、
前記多重化ステップの処理により出力された前記タイムスロットであって、前記映像信号のブランキング期間に位置する特定の1つ、または複数の、前記データチャンネルが無信号である前記タイムスロットに8B/10B符号の同期符号を割り付けるとともに、前記合成信号を8B/10B符号に変換する符号化ステップと、
前記8B/10B符号を送信する送信ステップと
を含み、
前記多重化ステップにおいては、前記 8B/10B 符号の送信相手が、前記8B/10B符号の位相を制御するときに参照されるGenlock制御信号が、前記合成信号にさらに多重化される
ことを特徴とする映像信号処理方法。
In a video signal processing method for a video signal processing apparatus that serially transmits a video signal, an audio signal, and a data signal,
From the video channel in which the video signal, the audio signal, and the data signal are allocated to predetermined bits in a time slot that is an integer multiple of 8 bits, and the data channel in which the audio signal and the data signal are allocated to the surplus bits A multiplexing step for multiplexing into a composed composite signal;
8B / in the time slot output by the processing of the multiplexing step, and in one or more specific time slots in the blanking period of the video signal in which the data channel is no signal. An encoding step of allocating a synchronization code of 10B code and converting the synthesized signal into an 8B / 10B code;
Transmitting the 8B / 10B code, and
In the multiplexing step, and wherein said 8B / 10B code of the transmission partner, Genlock control signal to be referred in controlling the 8B / 10B code phase is further to be multiplexed into the combined signal Video signal processing method.
映像信号、音声信号およびデータ信号をシリアル伝送する映像信号処理装置用のコンピュータに、
前記映像信号、前記音声信号および前記データ信号を、8ビットの整数倍のタイムスロットのうち所定のビットに割り付けた映像チャンネルと、その余剰ビットに前記音声信号および前記データ信号を割り付けたデータチャンネルから構成される合成信号に多重化する多重化ステップと、
前記多重化ステップの処理により出力された前記タイムスロットであって、前記映像信号のブランキング期間に位置する特定の1つ、または複数の、前記データチャンネルが無信号である前記タイムスロットに8B/10B符号の同期符号を割り付けるとともに、前記合成信号を8B/10B符号に変換する符号化ステップと、
前記8B/10B符号を送信する送信ステップと
を含む処理を実行させ、
前記多重化ステップにおいては、前記 8B/10B 符号の送信相手が、前記8B/10B符号の位相を制御するときに参照されるGenlock制御信号が、前記合成信号にさらに多重化される
ことを特徴とするプログラム。
To a computer for a video signal processing device that serially transmits video signals, audio signals, and data signals,
From the video channel in which the video signal, the audio signal, and the data signal are allocated to predetermined bits in a time slot that is an integer multiple of 8 bits, and the data channel in which the audio signal and the data signal are allocated to the surplus bits A multiplexing step for multiplexing into a composed composite signal;
8B / in the time slot output by the processing of the multiplexing step, and in one or more specific time slots in the blanking period of the video signal in which the data channel is no signal. An encoding step of allocating a synchronization code of 10B code and converting the synthesized signal into an 8B / 10B code;
A process including a transmission step of transmitting the 8B / 10B code,
In the multiplexing step, and wherein said 8B / 10B code of the transmission partner, Genlock control signal to be referred in controlling the 8B / 10B code phase is further to be multiplexed into the combined signal Program to do.
JP2001305377A 2001-10-01 2001-10-01 Video signal processing apparatus and method, and program Expired - Fee Related JP4143889B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001305377A JP4143889B2 (en) 2001-10-01 2001-10-01 Video signal processing apparatus and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001305377A JP4143889B2 (en) 2001-10-01 2001-10-01 Video signal processing apparatus and method, and program

Publications (2)

Publication Number Publication Date
JP2003111060A JP2003111060A (en) 2003-04-11
JP4143889B2 true JP4143889B2 (en) 2008-09-03

Family

ID=19125180

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001305377A Expired - Fee Related JP4143889B2 (en) 2001-10-01 2001-10-01 Video signal processing apparatus and method, and program

Country Status (1)

Country Link
JP (1) JP4143889B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102084644A (en) * 2008-10-10 2011-06-01 索尼公司 Solid-state imaging sensor, optical device, signal processing device, and signal processing system

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4977981B2 (en) * 2005-08-29 2012-07-18 富士ゼロックス株式会社 Optical transmission equipment
EP2509314B1 (en) * 2011-04-04 2019-12-04 Interlemo Holding S.A. Installation for conveying signals between a video camera equipment and a remote equipment
JP6049554B2 (en) * 2013-06-27 2016-12-21 京セラドキュメントソリューションズ株式会社 Image processing device
JP6722010B2 (en) * 2016-03-16 2020-07-15 ソニー・オリンパスメディカルソリューションズ株式会社 Medical observation system
JP6706109B2 (en) * 2016-03-23 2020-06-03 キヤノン株式会社 Imaging device and signal processing method
JP7451192B2 (en) 2020-01-29 2024-03-18 池上通信機株式会社 remote production system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102084644A (en) * 2008-10-10 2011-06-01 索尼公司 Solid-state imaging sensor, optical device, signal processing device, and signal processing system

Also Published As

Publication number Publication date
JP2003111060A (en) 2003-04-11

Similar Documents

Publication Publication Date Title
US8421915B2 (en) HD signal transmitting device, HD signal transmitting method, HD signal receiving device, and signal receiving method using a conventional interface
US8311093B2 (en) Signal transmission apparatus and signal transmission method
US20100007787A1 (en) Signal transmitting device and signal transmitting method
US8854540B2 (en) Signal transmission apparatus, signal transmission method, signal reception apparatus, signal reception method, and signal transmission system
US20130010187A1 (en) Signal transmitting device, signal transmitting method, signal receiving device, signal receiving method, and signal transmission system
JP6221606B2 (en) Signal processing apparatus, signal processing method, program, and signal transmission system
US20090303385A1 (en) Signal transmitting device, signal transmitting method, signal receiving device, and signal receiving method
US8982959B2 (en) Signal transmission apparatus, signal transmission method, signal reception apparatus, signal reception method, and signal transmission system
US9071375B2 (en) Signal transmitting apparatus, signal transmitting method, signal receiving apparatus, signal receiving method, and signal transmission system
US11044439B2 (en) Signal processing apparatus, signal processing method, program, and signal transmission system
US20150016538A1 (en) Signal processing apparatus, signal processing method, program, and signal transmission system
JP4143889B2 (en) Video signal processing apparatus and method, and program
US7564484B2 (en) Synchronising a base unit and a camera unit which are connected by two opposite-direction digital video signal connections
US20120307144A1 (en) Signal transmission apparatus, signal transmission method, signal reception apparatus, signal reception method, and signal transmission system
US7454142B2 (en) Data transmission method and data transmission apparatus
US7477168B2 (en) Apparatus for and method of processing data
US7221406B2 (en) Data creation method and data transfer method and apparatus
JP3982390B2 (en) Data transmission method and apparatus
JP2006013830A (en) Data transmission apparatus and data reception apparatus
EP1667467B1 (en) Method and apparatus for encoding or decoding two digital video signals multiplexed in a single-video signal path
EP1667430A1 (en) Synchronising a base unit and a camera unit which are connected by two opposite-direction digital video signal connections
JPH04322588A (en) Transmission system for high vision signal
JP2009010722A (en) Data transmission system and data transmission method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070801

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080522

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080604

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110627

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees