JPS6120192B2 - - Google Patents

Info

Publication number
JPS6120192B2
JPS6120192B2 JP51117817A JP11781776A JPS6120192B2 JP S6120192 B2 JPS6120192 B2 JP S6120192B2 JP 51117817 A JP51117817 A JP 51117817A JP 11781776 A JP11781776 A JP 11781776A JP S6120192 B2 JPS6120192 B2 JP S6120192B2
Authority
JP
Japan
Prior art keywords
signal
color
circuit
output
luminance signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired
Application number
JP51117817A
Other languages
Japanese (ja)
Other versions
JPS5342626A (en
Inventor
Seisuke Yamanaka
Fumio Nagumo
Toshiji Nishimura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP11781776A priority Critical patent/JPS5342626A/en
Publication of JPS5342626A publication Critical patent/JPS5342626A/en
Publication of JPS6120192B2 publication Critical patent/JPS6120192B2/ja
Granted legal-status Critical Current

Links

Description

【発明の詳細な説明】[Detailed description of the invention]

本発明は固体撮像体を使用したカラー固体撮像
体に係り、特に固体撮像体から標準方式のカラー
映像信号が直接得られるようになすと共に、画質
の改善を図らんとするものである。 BBD、CCDなどの半導体素子を固体撮像体と
して使用したカラーの固体撮像装置は種々提案さ
れている。固体撮像体の前面に配される色フイル
タの構成も同様に多種多様であるが、そのうちの
いわゆるダブルグリーン型色フイルタは輝度信号
を構成する色成分のうち、緑色成分を他の色成分
より多く含むようにして解像度の向上を図るよう
にしたものである。 このダブルグリーン型色フイルタは第1図で示
すように、例えば1絵素を単位領域とした複数の
透過領域を有し、奇数領域を有し、奇数番目の水
平走査線に対応した領域は図のように緑色成分G
が赤色及び青色各成分R、B対に対して2倍含ま
れるように、例えば透過光が水平走査線方向に向
つてG−R−G−Bとなるように選ばれ、これが
順次繰り返えされた分光特性を採る。 偶数番目は後述するような信号処理の関係上、
緑色成分Gが逆相となるように透過光の位置が選
ばれる。 従つて、このような色フイルタ1を利用して被
写体を撮像した場合、各色成分のスペクトラム及
び位相関係は第2図で示すようになる。 今水平走査方向のサンプリング周波数をC
したとき、緑色成分Gの帯域をサンプリング周波
C(4.5MHz程度)に選んだ場合、固体撮像体
から得られる出力のうち緑色信号に関するサンプ
リング出力は第2図Aで示すように、変調成分
(直流成分)SDGのほかにサンプリング周波数C
をキヤリヤとする側波帯成分(交流成分)SMG
得られる。サンプリング周波数Cが上述のよう
に4.5MHz程度なら、信号帯域の関係は図のよう
になり、側波帯成分SMGが変調成分SDG中に混入
する。 この側波帯成分による折り返し歪は画像を劣化
させるものであるから、通常は垂直相関を利用し
て折り返し歪の除去が図られる。すなわち、隣り
合う水平走査線から得られるキヤリヤの位相は第
1図の構成より明らかなように逆相関係にあるの
で、垂直相関処理すれば折り返し歪を除去するこ
とができる。 赤色成分Rと青色成分Bとはその夫々のキヤリ
ヤが丁度緑色成分Gにおけるキヤリヤの半分とな
つているので、夫々における変調成分と側波帯成
分との関係は第2図Cの如くなる。この場合、各
水平走査線からR及びBの成分が得られるも、キ
ヤリヤの位相は逆相関係にないので、緑色成分G
と同じように垂直相関処理を施して側波帯成分S
MR(SMB)を除去することは不可能である。 なお、この側波帯成分にあつて変調成分、特に
その低域側に混入しているレベルが変調成分のレ
ベルに比し十分小さければ、差程問題にならない
が、この設例のようにR及びBにおけるキヤリヤ
が1/2Cと低い場合には低域成分中に混入してい
る側波帯成分のレベルは大きく、従つてこの側波
帯成分による再生画像への影響は無視することが
できない。 このような再生画像への影響(画質劣化)をな
くすには、RとBに関する色成分の帯域を光学的
手段によつて1/4C以下にすれば、このときの変
調成分及び側波帯成分の関係は第2図Dのように
なり、変調成分中に側波帯成分が混入することは
ない。 しかし、このように光学的に所望とする波長の
みその通過帯域を制限すること、すなわち、波長
依在型の光学的ローパスフイルタの形成は一般に
容易でない。 波長依在型の光学的ローパスフイルタを使用し
ないで、上述した折り返し歪の欠点を除去するに
は例えば、色フイルタ1の分光特性を第3図によ
うに選定すればよい。本例では所望とする透過領
域から標準方式における輝度信号となる成分Yが
得られ全体としてR−Y及びB−Yの各色差出力
が線順次に得られるような分光特性に選定された
色フイルタを使用するもので、すなわち、奇数ラ
インは例えばY−R−Y−R…の如く選び、偶数
ラインはB−Y−B−Y…の如く選ぶと共に、Y
に関しては逆相となるように透過領域を選定すれ
ば、輝度成分Yはライン毎に逆相になるから、垂
直相関処理にて輝度成分Yに関する折り返し歪は
除去できる。 又、RとBの成分のキヤリヤはYにおけるキヤ
リヤと同一周波数であり、通過帯域は全く制限さ
れていないので、R及びBにおける変調成分と側
波帯成分の関係は丁度第2図Aで示す関係と同じ
になる。RとBに関する側波帯成分は第1図の場
合と同様に、垂直相関を利用できないので夫々の
変調成分中に側波帯成分が残留することになる
が、第2図Aで示すような残留状況での変調成分
の特に低域側に存在する側波帯成分のレベル(残
留レベル)は、従来例で示した第2図Cの場合に
おける残留レベルよりも遥かに少なく、側波帯成
分の残留による再生画像への影響は実際上問題に
はならない。 第4図はこの第3図に示す色フイルタ1を使用
した場合の回路系を示すも、固体撮像体としては
例えば第5図に示すようなCCDによるフレーム
トランスフア方式のものを使用しうる。この固体
撮像体10は周知のように、被写体が投影される
縦横に配列形成された絵素となる複数の受光部2
を有する撮像部10Aと、被写体像に応じて誘起
されたキヤリヤを蓄積するための蓄積部10B
と、更にキヤリヤ読出用の水平シフトレジスタ1
0Cとから構成される。3は出力端子である。 固体撮像体10には同期盤11で得た駆動信号
Paが供給されるも、この駆動信号Pa中には被写
体像に応じたキヤリヤを誘起させ、これを転送さ
せ、そして読出するために夫々必要な複数のパル
スが含まれる。端子3に得られた撮像出力のうち
輝度信号Yに関しては垂直相関処理が施される。
それがため、サンプリングホールド回路12にて
読出された輝度信号Yiは垂直相関処理回路20
に供給される。本例では垂直方向の解像度の劣化
を防止するため低域成分は垂直相関処理せず、高
域成分だけ行なうようにしている。従つて、輝度
信号Yiは一旦ローパスフイルタ13に供給さ
れ、輝度信号Yiのうち低域成分YL(500〜1000K
Hz)が抽出される。低域成分YLは元の輝度信号
Yiと共に減算器14に供給されるから、出力に
は高域成分YHのみが得られることになるが、こ
の高域成分YHは1H(Hは水平走査期間)の遅延
回路15を通じて加算器16に、非遅延出力と共
に供給される。 キヤリヤの位相関係は隣り合う水平走査区間で
は逆相になつているので、上述した信号処理を行
うことによつて側波帯成分は相殺され、その結果
この加算出力を次段の加算器17に低域成分YL
とともに供給すれば、側波帯成分の除去された輝
度信号YOが得られる。なお、減算器14の前段
に設けられた遅延回路18はローパスフイルタ1
3にて生ずる時間遅れによる伝送時間の不一致を
是正するためのものである。 一方、赤色成分Rと青色成分Bとは1H毎に得
られるので、目的とするカラー映像信号Soを得
ようとするにはこれら成分R、Bを同時化して輝
度信号Yと同様、連続的に得られるように工夫す
る必要がある。同時化のための回路系を続いて説
明する。 サンプリングホールド回路21にて抽出された
赤色信号R(又は青色信号B)はローパスフイル
タ22を介して同時化回路23に供給される。同
時化回路23は1Hの遅延回路24とスイツチン
グ回路25とで構成され、スイツチング回路25
は例えば一方の端子より常時赤色信号Rが、他方
の端子より青色信号Bが得られるように、機械的
なスイツチ関係をもつて示すならば、図の如く2
回路2接点式に構成され、所望とする端子に遅延
出力と非遅延出力とが供給されるようになつてい
る。 一対のスイツチSWa、SWbは同期盤11で得
た制御信号Pbにて1H毎に切換えられ、これにて
1H毎に交互に得られるR及びBの各原色信号
(サンプリング出力)は同時化され、出力側には
RとBの原色信号が同時に得られるようになる。 同時化された原色信号R及びBは輝度信号YO
と共にエンコーダ26に供給され、従つて、端子
27からは標準方式、例えばNTSC方式における
カラー映像信号Soが得られることになる。 なお、このエンコーダ26を始めとして、上述
したサンプリングホールド回路12、21には
夫々所望とする駆動パルスPd、Peが同期盤11
より供給される。 ところで、このように原色信号RとBを同時化
して目的とするカラー映像信号Soを形成する場
合には、上述した欠点は除去しうるも、以下述べ
る問題が新たに生ずる。 すなわち、原色信号を同時化するということは
互に隣り合う水平ラインのサンプリング出力を同
時に使用することであるから、今Nライン(例え
ば奇数ライン)とN+1ラインの出力を考えた場
合、各ラインの色差出力ECR(N)、ECR(N+1)
夫々次式で示すようになる。 ECR(N)=a(R(N)−YO(N)) +b(B(N-1)−YO(N)) ……(1) ECR(N+1)=a(R(N)−YO(N+1)) +b(B(N+1)−YO(N+1)) ……(2) (a、bは定数) 従つて、各ラインの色差出力中には必ず1H前
の原色信号が含まれることになるから、垂直方向
に相関のない被写体を撮像した場合、特に白黒像
を撮像した場合には1、2の色差出力が零にはな
らず、色付きが生じ、再現画像が劣化する欠点を
有する。 本発明はこのような点を考慮し、波長依存性の
光学的ローパスフイルタ等の手段を用いることな
く、側波帯成分の残留に基づく画像劣化を除去す
ると共に、第3図に示す色フイルタ1の特殊性を
巧みに利用して回路、特にカラーエンコーダ26
を省略できるようにして回路構成の簡略化を図ら
んとするものである。 カラーエンコーダを省略することについては、
その背景を若干説明するも、第4図に示す従来例
において、出力端子3に得られる撮像出力に注目
すると、この撮像出力中の輝度信号Yiは第3図
の説明からも明らかなようにNTSC方式を満足し
た輝度信号であり、そして色フイルタ1の構成か
らR−Y及びB−Yの各色差信号が得られるはず
であることにかんがみ、特殊な信号処理を施すこ
とにより、カラーエンコーダ26を使用しないで
も端子3から直接目的とするNTSC方式を満足す
るカラー映像信号が得られるように構成できる。
このような信号処理の方式をダイレクトNTSC方
式と呼称する。 ここで、撮像出力そのものがNTSC方式のカラ
ー映像信号SNTSCとして出力されるためには、少
くとも以下に示す条件を満足しなければならな
い。 () SNTSC=SY+SC ……(3) SY=0.30ER+0.59EG+0.11EB ……(4) SC=R−Y/1.14cos2πSt+B−Y/2.0
3sin2πSt… …(5) () S=455/2H ……(6) H=525/2V ……(7) 但し、SY:輝度信号YO(≒Yi) SC:搬送色信号 ER〜EB:R〜Bの各信号 S:色副搬送波周波数 H:水平走査周波数 V:垂直走査周波数 ()及び()の条件式にあつて、(3)式の条
件は色フイルタ1の構成から即座に満足する。そ
して、固体撮像体10の水平シフトレジスタ10
Cに供給される読出しクロツクパルス、すなわち
サンプリングパルスの周波数Cを例えば色副搬
送波周波数S(=3.579545MHz)とすれば、(5)
式の条件も満たすことができる。 すなわち、固体撮像体10にあつては被写体像
に応じた入力情報は、絵素毎にサンプリングされ
た状態で得られるので、撮像出力中の色成分は搬
送色信号として得られ、しかもサンプリング周波
Cを上述のように色副搬送波周波数Sに選べ
ば、搬送色信号SCの搬送周波数は色副搬送波周
波数となつて、(5)式を満足する。 このように、()及び()式を満足すれ
ば、カラーエンコーダ26を用いないでもNTSC
方式におけるカラー映像信号SNTSCが得られる訳
であるが、サンプリング周波数Cを色副搬送波
周波数Sそのものに選んだ場合には、固体撮像
体10の空間的な絵素配列と再生された場合その
絵素配列が異なつてしまう。 すなわち、搬送周波数が色副搬送波周波数S
の場合は周知のように搬送色信号の位相は2フレ
ームで完結するため、第1フレーム(奇数)と第
2フレーム(偶数)との位相が逆相となるは勿論
のこと、各フレームにあつても第1フイールドの
第1水平ラインと第2の水平ラインが逆相で、第
2フイールドは第1フイールドに対し逆相関係に
なる。 これらの関係を絵素2の配列状態をもつて示す
ならば第6図の如くなる。同図は撮像部10Aに
おける開口中心に着目して描いた絵素2の概念図
で、第5図構成図では図のように絵素2は平行に
配列されている。τHは水平方向における絵素2
の配列ピツチである。 なお、本例ではインターレースの場合を示して
あるので、偶数フイールドでは点線図示の絵素の
みが使用される。 このように平行に絵素が配列されたものにおけ
る再生絵素配列は同図B及びCの如くなる。ま
ず、第1フレームでは第1フイールドのとき第2
の水平ラインの絵素2が1/2τHだけ空間的配列位
置よりずれ、第2フイールドでは逆に第1水平ラ
インの絵素2が1/2τHだけ移動した同図Bに示す
ような再生絵素の配列パターンとなる。第2フレ
ームは第1フレームと全く逆の絵素移動が生じ、
従つてこの絵素移動がある状態で被写体像を撮像
した場合には、再生画像がちらついたりして見に
くくなるなどの再生画像への影響が現われる。 このような再生画像への影響を除去するには、
水平シフトレジスタ10Cに供給するサンプリン
グパルス(クロツクパルス)の周波数Cを、 C=2S ……(8) の如く選定すればよい。すなわち、サンプリング
周波数Cを(8)式のように選定すれば、色副搬送
波信号の位相はライン完結となり、常に同相とな
つて得られるから、再生絵素配列パターンを空間
的絵素の配列パターンに合致させることができ、
ちらつき現象を一掃できる。 なお、この場合には搬送色信号SCとしては1/2
Cの側波帯成分を使用すれば、(5)式を満足する
は勿論である。又、サンプリング周波数Cを定
める色副搬送波周波数Sは(6)式に示される正規
な色副搬送波周波数(=3.579545MHz)だけでな
く、若干ずれた値(変更周波数)でも勿論可能で
ある。その場合には、変更周波数は受像器側にお
けるAPC回路の同期引込み範囲内にあるよう
に、好ましくは放送規格内にあるように選ばれ
る。通常、10Hzから200Hz程度規格値に対して相
違しても同期は乱れない。 変更周波数を得るには水平周波数Hそのもの
を若干変更(そのためには、垂直走査周波数を変
更することになる)してもよいし、(6)式における
Hの係数を変更してもよい。 本発明では以上のようなダイレクトNTSC方式
を採る固体撮像装置に適用すると共に、上述した
ダブルグリーン法の欠点を一掃しうるように構成
したものである。 第7図以下を参照して本発明装置を詳細に説明
しよう。前掲図と対応する部分には同一符号を付
して説明するも、まず上述した白黒撮像時におけ
る色付きがなくなるようにするため、本発明にお
いては原色信号の被変調信号を同時化して信号処
理するのではなく、色差信号よりなる搬送色信号
自体を同時化して信号処理を行なうようにしたも
ので、R−Y及びB−Yの各色差信号は側波帯成
分よりも抽出してもよく、変調成分から形成して
もよい。 第7図に示す実施例は前者の場合で、変調成分
と側波帯成分との関係は第8図で示すようにな
り、又第3図に示す色フイルタ1を使用する関係
上、R−Y及びB−Yの各色差信号は線順次に得
られることになる。すなわち、奇数ラインにおい
ては輝度信号YiとRの原色信号が逆相関係をも
つて得られ、同様に偶数ラインからはBの原色信
号と輝度信号Yiとが逆相状態で得られる。 それ故、第7図で示すようにサンプリングホー
ルド回路21で得たR−Y及びB−Yの各サンプ
リングホールド出力はバンドパス色フイルタ30
に供給され、1/2のサンプリング周波数、つまり
1/2の搬送周波数1/2C(=S)を中心とした所
望とする帯域巾(500kHz〜1MHz)をとる搬送色
信号成分(第8図破線図示)が抽出される。従つ
て、この搬送色信号成分を同時化回路23に供給
して同時化すれば、R−YのほかにB−Yの色差
信号が同時に得られる。なお、バンドパスフイル
タ30にて抽出された搬送色信号成分中には第8
図で示すように変調成分の高域成分が含まれてい
るが、この高域成分レベルは非常に小さいので、
高域成分の存在は無視できる。 ここで、(1)、(2)式で示したと同様に、本発明の
色差出力ECR(N)、ECR(N+1)を求めれば次式のよ
うになる。 ECR(N)=a(R(N)−YO(N)) +b(B(N-1)−YO(N-1)) ……(9) ECR(N+1)=a(R(N)−YO(N)) +b(B(N+1)−YO(N+1)) ……(10) (9)、(10)式における色差出力中にも1H前の原色
信号が得られる訳であるが、この1H前の原色信
号には1H前の輝度信号も含まれているので、垂
直相関が全くない場合で、特に白黒像を撮像して
いる場合においても、a項及びb項は夫々零にな
るから、従来装置の如く白黒の画像に色が付くよ
うなことはなくなる。 本発明ではこのような構成に対し、更にダイレ
クトNTSC方式における色差信号の位相関係を充
すため、同時化回路23を構成するスイツチング
回路25の前段に位相補正回路40が設けられ
る。 位相補正回路40を設ける所似は以下述べる通
りである。すなわち、サンプリング周波数C
Sに設定すると、再生絵素の移動がなくなる
訳であるが、NTSC方式における搬送色信号SC
の位相関係は第9図で示すように、今バースト信
号の位相を縦軸に選ぶと、搬送色信号を構成する
色差信号R−Y、B−Yの位相関係は第1の水平
ライン(Nライン)が同図Aであると、第2の水
平ライン(N+1ライン)は同図Bの如く逆相に
なる。 これに対し、C=2Sに設定した場合、搬送
色信号SCの位相関係は空間的な位相関係と完全
に一致するから、Nラインでの色差信号の位相が
第10図Aであつたなら、その他のラインの位相
関係は同図B及びCで示す関係にある。従つて、
1Hの遅延回路24にて色差信号を同時化して
も、第9図の関係を満足しない。 それ故、まず奇数(第1)フイールドについて
考察すると、Nライン目に得られるR−Yを1H
遅延させると共に、3/4πに相当する時間(3/4 μsec)だけ更に遅延させる(第11図A)。同様
に、N+1ラインのB−Y出力を位相反転(遅延
時間にして1/2μsec、同図B)し、これらライ ンの各出力を合成すれば、第9図Aの位相関係と
なる。 N+1ラインとN+2ラインから、第9図Bの
関係とするためには、まずR−Y出力を90゜移相
(1/4μsec遅延時間、同図C)したものと、1H 遅延されたB−Y出力(同図D)を合成すればよ
い。 偶数フイールドに関しては上記位相関係と逆関
係となる(第12図参照)。 このような位相補正を達成すべく、位相補正回
路40は夫々遅延時間の異なる3つの遅延回路4
1A〜41Cと2個の切換スイツチSWc、SWd
で達成され、遅延時間は図示の如くである。スイ
ツチSWc、SWdは1H及び1F(フイールド)毎に
夫々切換制御される。切換制御信号Pfは同期盤1
1より供給される。 上述の位相補正回路40を同時化回路23に設
ければ、スイツチング回路25かららは位相補正
されたR−Y及びB−Yの各盤送色信号SC(R-Y
、SC(B-Y)が得られるから、これらは夫々レベ
ル調整回路43A、43Bに供給され、(5)式の如
く夫々の係数が定められたのち、これらは輝度信
号SY(=YO)と共に加算器44に供給される。
合成出力は更に後段の同期信号合成回路45に供
給され、ここにおいて、周知のように同期盤11
で得たブランキングパルス(BLK)を始めとし
て、同期信号(VD、HD)やバースト信号
(BURST)などが付加されて、周知のカラー映
像信号SNTSCとされるものである。 バースト信号の位相は第9図のように選ばれる
は言うまでもない。46がそのための位相調整回
路である。 なお、バースト信号の位相を通常周知の如くに
選ぶことも勿論可能であるが、こうすると回路4
0が若干複雑になる。 上述した本発明構成によれば、極めて簡単にダ
イレクトNTSC方式のカラー固体撮像装置を構成
できるから、特にカラーエンコーダを省略でき、
回路構成の簡略化を達成できると共に、白黒撮像
時における色付きを完全に除去でき、画質の改善
を図ることができる。 次に、本発明装置の他の実施例について述べ
る。第7図の実施例は輝度信号SY中に混入する
側波帯成分を垂直相関を利用して除去すべく、色
フイルタ1として第3図に示されるような分光特
性のものを使用したが、垂直相関処理とは関係な
く、白黒撮像時に側波帯成分が相殺されるように
構成しても画質の改善を図ることができる。この
場合には、第13図のような分光特性になされた
色フイルタ1を使用すればよい。第14図はこの
色フイルタ1を使用した回路処理系の一例であ
る。 本例では輝度信号の高域成分は第15図Aに示
される輝度信号でなく、輝度信号とR又はBの原
色信号との合成撮像出力が利用される。このよう
に、高域成分として合成撮像出力を利用する所似
は、合成撮像出力中に含まれる側波帯成分のキヤ
リヤの位相が輝度信号と原色信号とでは逆相関係
にあることに基づくもので、このキヤリヤ位相の
相違を利用して側波帯成分を除去しようとするた
めである。 又固体撮像体10から得られる輝度信号は、色
フイルタ1の分光特性の関係上、NTSC方式にお
ける輝度信号そのものであるから、低域成分はこ
の輝度信号の低域成分そのものが利用される。 従つて、端子3に得られた輝度信号はローパス
フイルタ52に供給され、所望とする帯域(500
〜100kHz)に制限された低域成分SDYL(第15
図B)が輝度信号YOの低域成分としてそのまま
利用される。 輝度信号YOを構成する高域側の成分は側波帯
成分の相殺を図る観点から次のようにして得たも
のが使用される。すなわち、出力端子3側に設け
られた他方のサンプリングホールド回路21は絵
素毎に供給されるサンプリング信号Pd2にて駆動
され、その結果第15図C及びDで示すように輝
度信号のほかに、原色信号R又はBが含まれた合
成撮像出力が得られる。この合成撮像出力は上述
したローパスフイルタ52と同一のフイルタ特性
に選ばれたローパスフイルタ53Aと減算器53
Bよりなるフイルタ回路53に供給され、従つて
撮像出力のうち高域成分SDY+SDR(又はSDB
(第15図E)が出力される。 本例ではこの高域成分を輝度信号のそれに利用
するものである。なお、54は遅延回路である。 このようにして得た高域成分は上述した低域成
分と共に加算器55に供給され、合成されるもの
であるが、この合成出力たる輝度信号中にはその
高域側に第15図Eで示すような搬送周波数1/2
C以上の側波帯成分も含まれているので、合成
出力は4.5MHz程度をカツトオフ周波数とするロ
ーパスフイルタ56に供給される。従つて、最終
的には第15図Fで示す如く、高域側は撮像出力
で構成された輝度信号YOが得られるものであ
る。 57は色信号系の伝送時間を考慮して設けられ
た遅延回路である。 ところで、白黒像を撮像しているときに色フイ
ルタ51の各単位領域から得られる出力がすべて
等しくなるように、つまりY=R=Bとなるよう
に色フイルタ1の分光特性が選ばれているものと
すれば、輝度信号と各原色信号との位相関係が第
15図C及びDの如く逆相関係にあるから、白黒
像を撮像することによつて、同図C及びDに示さ
れる各側波帯成分(SMR−SMY)及び(SMB−S
MY)は相殺されてしまう。そのため、側波帯成分
の除去された輝度信号YOを得ることができる。 なお、低域側に含まれる側波帯成分(同図B)
は上記信号処理にても残留するが、低域成分に対
する残留側波帯成分のレベル(残留レベル)は極
めて小さいから、影響はない。 カラー像の場合では垂直相関のあるなしに拘わ
らず、輝度信号中に側波帯成分が残留することに
なるが、この場合には上述もしたように画像に対
する影響が少なく、しかもR及びBの原色信号の
うち、4.0MHzという高域側に含まれる成分は零
か、あつても少ないので、画質は劣化しない。 搬送色信号の処理系については第7図の実施例
と同じであるから、その説明は省略するも、本例
で使用する色フイルタ1は第13図で示すように
各水平ラインから得られる色差信号はすべて同相
であるから、第16図で示すようになる。 従つて、この場合には第17図及び第18図で
示す如き位相補正を施す必要がある。その説明は
割愛する。 第19図は色フイルタの更に他の例を示す。こ
の例は今までの場合と違つて、固体撮像体10の
絵素配列が第4図Aに示すような平行型のもので
なく、1H毎に絵素2が1/4τHだけずれたいわゆ
る市松状に配列形成された固体撮像体10を対象
とするもので、絵素配列パターンと同一の分光パ
ターンになされている。分光特性は第3図の場合
と同様である。側波帯成分の除去は垂直相関を利
用しない。従つて第14図で示すような信号処理
方式が利用される。 水平シフトレジスタ10Cに供給するサンプリ
ングパルスは、C=2Sに選んでも空間的絵素
配列が特殊であるから、再生絵素配列パターンも
空間的なそれと一致させるためには、ライン毎に
位相反転されたサンプリンパルスが使用される。 各ラインから得られる色差信号の位相関係は第
20図のようになるから、この場合にはバースト
信号の位相を通常の如く横軸に選べば、位相補正
回路40の構成を簡単にして目的の位相補正を達
成できる。 例えば、第21図に示すように、その遅延時間
が共に1/2になされた2個の遅延回路41D、4 1Eを設けるだけで位相補正回路40を構成でき
る。 ところで、今まで述べてきた実施例はいずれも
(6)式及び(7)式を夫々満足するような場合である
が、本発明ではこれら実施例に限られるものでは
ない。すなわち、色副搬送波周波数Sは上述し
たように、受像機側の同期引込み特を考慮する
と、規準値(3579545MHz)より若干変更しても
別段差支えないので、例えば
The present invention relates to a color solid-state image sensor using a solid-state image sensor, and in particular, it is an object to directly obtain a standard color video signal from the solid-state image sensor and to improve image quality. Various color solid-state imaging devices using semiconductor elements such as BBD and CCD as solid-state imaging bodies have been proposed. The configurations of color filters placed in front of the solid-state image sensor are similarly diverse, but among these, the so-called double green color filter filters out the green component more than the other color components out of the color components that make up the luminance signal. The resolution is improved by including the As shown in Fig. 1, this double green type color filter has a plurality of transmissive areas with one pixel as a unit area, and odd-numbered areas, and the areas corresponding to the odd-numbered horizontal scanning lines are shown in the figure. Green component G as in
For example, the transmitted light is selected to be G-R-G-B in the horizontal scanning line direction so that the red and blue components are included twice as much for each pair of R and B, and this is sequentially repeated. The resulting spectral characteristics are taken. The even number is due to signal processing as described below.
The position of the transmitted light is selected so that the green component G is in reverse phase. Therefore, when an object is imaged using such a color filter 1, the spectrum and phase relationship of each color component will be as shown in FIG. If the sampling frequency in the horizontal scanning direction is C , and if the band of the green component G is selected to be the sampling frequency C (approximately 4.5MHz), the sampling output related to the green signal among the outputs obtained from the solid-state image sensor is shown in Figure 2. As shown in A, in addition to the modulation component (DC component) S DG , the sampling frequency C
A sideband component (alternating current component) SMG with the carrier is obtained. If the sampling frequency C is about 4.5MHz as described above, the relationship between the signal bands will be as shown in the figure, and the sideband component SMG will be mixed into the modulation component SDG . Since the aliasing distortion caused by the sideband components degrades the image, vertical correlation is usually used to remove the aliasing distortion. That is, since the phases of carriers obtained from adjacent horizontal scanning lines have an inverse phase relationship as is clear from the configuration of FIG. 1, aliasing distortion can be removed by vertical correlation processing. Since the carrier of each of the red component R and the blue component B is exactly half the carrier of the green component G, the relationship between the modulation component and the sideband component of each is as shown in FIG. 2C. In this case, although R and B components are obtained from each horizontal scanning line, the carrier phases are not in an antiphase relationship, so the green component G
In the same way as above, vertical correlation processing is applied to obtain the sideband component S.
It is not possible to remove MR (S MB ). Note that if the level of the modulation component mixed in this sideband component, especially in the low frequency side, is sufficiently small compared to the level of the modulation component, there will not be much of a problem, but as in this example, R and When the carrier at B is as low as 1/2 C , the level of the sideband component mixed into the low frequency component is large, and therefore the influence of this sideband component on the reproduced image cannot be ignored. . In order to eliminate this kind of influence on reproduced images (image quality deterioration), if the band of the color components related to R and B is reduced to 1/4 C or less by optical means, the modulation components and sidebands at this time can be reduced. The relationship between the components is as shown in FIG. 2D, and no sideband components are mixed into the modulation components. However, it is generally not easy to limit the passband to only optically desired wavelengths, that is, to form a wavelength-dependent optical low-pass filter. In order to eliminate the above-described drawback of aliasing distortion without using a wavelength-dependent optical low-pass filter, the spectral characteristics of the color filter 1 may be selected as shown in FIG. 3, for example. In this example, the color filter is selected to have spectral characteristics such that the component Y, which is the luminance signal in the standard method, is obtained from the desired transmission region, and the color difference outputs of R-Y and B-Y are obtained line-sequentially as a whole. In other words, odd lines are selected as Y-R-Y-R..., even lines are selected as B-Y-B-Y..., and Y-R-Y-R... is used.
If the transmission area is selected so that the luminance component Y has an opposite phase for each line, the luminance component Y will have an opposite phase for each line, so the aliasing distortion regarding the luminance component Y can be removed by vertical correlation processing. Also, the carriers of the R and B components have the same frequency as the carrier in Y, and the passband is not restricted at all, so the relationship between the modulation components and sideband components in R and B is exactly as shown in Figure 2A. It becomes the same as the relationship. As in the case of Fig. 1, sideband components regarding R and B cannot utilize vertical correlation, so sideband components will remain in each modulation component, but as shown in Fig. 2A. In the residual situation, the level (residual level) of the sideband component that exists in the lower frequency side of the modulation component is much lower than the residual level in the case of Fig. 2 C shown in the conventional example, and the sideband component The influence of the residual on the reproduced image is not a problem in practice. Although FIG. 4 shows a circuit system when the color filter 1 shown in FIG. 3 is used, a frame transfer system using a CCD as shown in FIG. 5, for example, can be used as the solid-state image sensor. As is well known, this solid-state image sensor 10 includes a plurality of light receiving sections 2 that serve as picture elements arranged vertically and horizontally onto which a subject is projected.
an image pickup section 10A having a camera, and an accumulation section 10B for accumulating carriers induced according to a subject image.
and further horizontal shift register 1 for carrier readout.
It consists of 0C. 3 is an output terminal. The solid-state image sensor 10 receives a drive signal obtained from the synchronous board 11.
Although the driving signal Pa is supplied, the drive signal Pa includes a plurality of pulses each necessary for inducing a carrier according to the object image, transmitting it, and reading it. Among the imaging outputs obtained at the terminal 3, the luminance signal Y is subjected to vertical correlation processing.
Therefore, the luminance signal Yi read out by the sampling and holding circuit 12 is transmitted to the vertical correlation processing circuit 20.
is supplied to In this example, in order to prevent deterioration of resolution in the vertical direction, vertical correlation processing is not performed on low frequency components, and only high frequency components are processed. Therefore, the luminance signal Yi is once supplied to the low-pass filter 13, and the low-frequency component Y L (500 to 1000K
Hz) is extracted. Low frequency component Y L is the original luminance signal
Since it is supplied to the subtracter 14 along with Yi, only the high frequency component Y H is obtained as an output, but this high frequency component Y H is passed through the delay circuit 15 of 1H (H is the horizontal scanning period) to the adder. 16 with a non-delayed output. Since the phase relationship of the carriers is opposite in adjacent horizontal scanning sections, sideband components are canceled by performing the above-mentioned signal processing, and as a result, this addition output is sent to the adder 17 in the next stage. Low frequency component Y L
If both are supplied, a luminance signal Y O from which sideband components have been removed can be obtained. Note that the delay circuit 18 provided before the subtracter 14 is a low-pass filter 1.
This is to correct the mismatch in transmission time due to the time delay that occurs in step 3. On the other hand, since the red component R and the blue component B are obtained every 1H, in order to obtain the desired color video signal So, these components R and B must be simultaneously obtained and continuously processed like the luminance signal Y. It is necessary to devise ways to obtain it. Next, a circuit system for synchronization will be explained. The red signal R (or blue signal B) extracted by the sampling and hold circuit 21 is supplied to the synchronization circuit 23 via the low-pass filter 22. The synchronization circuit 23 is composed of a 1H delay circuit 24 and a switching circuit 25.
For example, if shown in a mechanical switch relationship such that a red signal R is always obtained from one terminal and a blue signal B is obtained from the other terminal, then 2 is shown in the figure.
The circuit is configured as a two-contact type, and a delayed output and a non-delayed output are supplied to desired terminals. A pair of switches SWa and SWb are switched every 1H by the control signal Pb obtained from the synchronization board 11.
The R and B primary color signals (sampling output) obtained alternately every 1H are synchronized, so that the R and B primary color signals can be obtained simultaneously on the output side. The synchronized primary color signals R and B are the luminance signal Y O
Therefore, from the terminal 27, a color video signal So in a standard format, for example, the NTSC format, is obtained. In addition, starting with this encoder 26, the above-mentioned sampling and holding circuits 12 and 21 receive desired drive pulses Pd and Pe, respectively, from the synchronization board 11.
Supplied by By the way, when the primary color signals R and B are synchronized to form the target color video signal So in this way, although the above-mentioned drawbacks can be eliminated, new problems described below arise. In other words, to synchronize the primary color signals means to simultaneously use the sampling outputs of adjacent horizontal lines, so if we consider the outputs of N lines (for example, odd lines) and N+1 lines, the output of each line is The color difference outputs E CR(N) and E CR(N+1) are respectively expressed by the following equations. E CR(N) = a(R (N) −Y O(N) ) +b(B (N-1) −Y O(N) ) ...(1) E CR(N+1) = a(R (N) −Y O(N+1) ) +b(B (N+1) −Y O(N+1) ) ...(2) (a and b are constants) Therefore, the color difference of each line is being output will always include the primary color signal from 1H before, so when an object with no correlation in the vertical direction is imaged, especially when a monochrome image is imaged, the color difference outputs of 1 and 2 will not become zero, It has the disadvantage that coloration occurs and the reproduced image deteriorates. Taking these points into consideration, the present invention removes image deterioration due to residual sideband components without using wavelength-dependent optical low-pass filters, etc., and uses a color filter 1 shown in FIG. The circuit, especially the color encoder 26, skillfully utilizes the special characteristics of
The purpose is to simplify the circuit configuration by making it possible to omit the circuit. Regarding omitting the color encoder,
To briefly explain the background, in the conventional example shown in FIG. 4, if we pay attention to the imaging output obtained at the output terminal 3, the luminance signal Yi in this imaging output is NTSC, as is clear from the explanation of FIG. 3. Considering that the luminance signal is a luminance signal that satisfies the standard, and that R-Y and B-Y color difference signals should be obtained from the configuration of the color filter 1, the color encoder 26 is processed by special signal processing. Even if it is not used, it can be configured so that a color video signal that satisfies the target NTSC format can be obtained directly from the terminal 3.
This type of signal processing method is called the direct NTSC method. Here, in order for the imaging output itself to be output as an NTSC color video signal S NTSC , at least the following conditions must be satisfied. () S NTSC = S Y + S C ......(3) S Y =0.30E R +0.59E G +0.11E B ......(4) S C =R-Y/1.14cos2π S t+B-Y/2. 0
3sin2π S t… (5) () S = 455/2 H …(6) H = 525/2 V …(7) However, S Y : Luminance signal Y O (≒Yi) S C : Carrier color Signal E R ~ E B : Each signal from R to B S : Color subcarrier frequency H : Horizontal scanning frequency V : Vertical scanning frequency In the conditional expressions () and (), the condition of equation (3) is based on the color filter. Immediate satisfaction from configuration 1. Then, the horizontal shift register 10 of the solid-state image sensor 10
If the frequency C of the readout clock pulse supplied to C, that is, the sampling pulse, is, for example, the color subcarrier frequency S (=3.579545MHz), then (5)
It is also possible to satisfy the conditions of Eq. That is, in the case of the solid-state image sensor 10, the input information corresponding to the subject image is obtained in a state where it is sampled for each pixel, so the color components in the image pickup output are obtained as carrier color signals, and moreover, the sampling frequency C If the color subcarrier frequency S is selected as described above, the carrier frequency of the carrier color signal S C becomes the color subcarrier frequency and satisfies equation (5). In this way, if formulas () and () are satisfied, NTSC can be used without using the color encoder 26.
However, if the sampling frequency C is selected as the color subcarrier frequency S itself, the spatial pixel arrangement of the solid-state image sensor 10 and the picture when reproduced are obtained. The elementary arrays will be different. That is, the carrier frequency is the color subcarrier frequency S
In the case of , as is well known, the phase of the carrier color signal is completed in two frames, so the first frame (odd number) and the second frame (even number) are of course opposite in phase, and each frame has a different phase. Even if the first horizontal line and the second horizontal line of the first field are in opposite phases, the second field has an opposite phase relationship with respect to the first field. If these relationships are shown in terms of the arrangement of the picture elements 2, it will be as shown in FIG. This figure is a conceptual diagram of picture elements 2 drawn focusing on the center of the aperture in the imaging section 10A, and in the configuration diagram of FIG. 5, the picture elements 2 are arranged in parallel as shown. τ H is picture element 2 in the horizontal direction
This is the array pitch of . Note that since this example shows the case of interlacing, only picture elements indicated by dotted lines are used in even fields. The reproduced picture element arrangement in which the picture elements are arranged in parallel in this way is as shown in B and C in the figure. First, in the first frame, when the first field
In the second field, picture element 2 on the horizontal line is shifted by 1/2τ H from the spatial arrangement position, and conversely, picture element 2 on the first horizontal line is shifted by 1/2τ H in the second field, as shown in Figure B. This becomes an arrangement pattern of picture elements. In the second frame, the picture element movement is completely opposite to that of the first frame,
Therefore, if a subject image is captured with this pixel movement, the reproduced image will be affected, such as flickering and becoming difficult to see. To remove this effect on the reproduced image,
The frequency C of the sampling pulse (clock pulse) supplied to the horizontal shift register 10C may be selected as follows: C = 2 S (8). In other words, if the sampling frequency C is selected as shown in equation (8), the phase of the color subcarrier signal will be line-complete and will always be in phase, so the reproduced pixel arrangement pattern can be transformed into a spatial pixel arrangement pattern. can be matched to
It can eliminate the flickering phenomenon. In this case, the carrier color signal S C is 1/2
Of course, if the sideband components of C are used, equation (5) is satisfied. Further, the color subcarrier frequency S that determines the sampling frequency C is not only the regular color subcarrier frequency (=3.579545MHz) shown in equation (6), but also a slightly shifted value (changed frequency) can of course be used. In that case, the changing frequency is chosen to be within the synchronization pull-in range of the APC circuit on the receiver side, preferably within the broadcast standard. Normally, synchronization will not be disrupted even if the frequency differs from the standard value by about 10Hz to 200Hz. To obtain the changed frequency, the horizontal frequency H itself may be slightly changed (for that purpose, the vertical scanning frequency must be changed), or
The coefficient of H may be changed. The present invention is applied to a solid-state imaging device employing the direct NTSC method as described above, and is configured to eliminate the drawbacks of the double green method described above. The apparatus of the present invention will be explained in detail with reference to FIG. 7 and subsequent figures. Parts corresponding to those in the previous figure will be described with the same reference numerals.First, in order to eliminate the coloration during monochrome imaging described above, in the present invention, the modulated signals of the primary color signals are synchronized and signal processed. Instead, signal processing is performed by synchronizing the carrier color signal itself, which is made up of color difference signals, and each of the R-Y and B-Y color difference signals may be extracted rather than the sideband components. It may also be formed from modulation components. The embodiment shown in FIG. 7 is the former case, and the relationship between the modulation component and the sideband component is as shown in FIG. 8, and since the color filter 1 shown in FIG. 3 is used, the R- The Y and BY color difference signals are obtained line-sequentially. That is, on the odd-numbered lines, the luminance signal Yi and the R primary color signal are obtained with an antiphase relationship, and similarly, on the even-numbered lines, the B primary color signal and the luminance signal Yi are obtained with an antiphase relationship. Therefore, as shown in FIG.
is supplied to 1/2 the sampling frequency, i.e.
A carrier color signal component (shown by a broken line in FIG. 8) having a desired bandwidth (500 kHz to 1 MHz) centered on 1/2 carrier frequency 1/2 C (= S ) is extracted. Therefore, by supplying this carrier color signal component to the synchronization circuit 23 and synchronizing it, color difference signals of B-Y as well as R-Y can be obtained simultaneously. Note that the carrier color signal component extracted by the bandpass filter 30 includes the eighth
As shown in the figure, the high frequency component of the modulation component is included, but the level of this high frequency component is very small, so
The presence of high frequency components can be ignored. Here, similarly to equations (1) and (2), if the color difference outputs E CR (N) and E CR (N+1) of the present invention are calculated, the following equations are obtained. E CR(N) = a(R (N) −Y O(N) ) +b(B (N-1) −Y O(N-1) ) …(9) E CR(N+1) = a (R (N) −Y O(N) ) +b(B (N+1) −Y O(N+1) ) ...(10) Also during color difference output in equations (9) and (10), 1H before However, since this primary color signal from 1H before also includes the luminance signal from 1H before, even when there is no vertical correlation, especially when capturing a black and white image, , a term, and b term each become zero, so that black and white images will not be colored as in the conventional device. In the present invention, in addition to such a configuration, a phase correction circuit 40 is provided before the switching circuit 25 constituting the synchronization circuit 23 in order to satisfy the phase relationship of the color difference signals in the direct NTSC system. The arrangement of the phase correction circuit 40 is as described below. In other words, if the sampling frequency C is set to 2 S , there will be no movement of the reproduced picture elements, but the carrier color signal S C in the NTSC system
As shown in FIG. 9, if we choose the phase of the burst signal on the vertical axis, the phase relationship of the color difference signals R-Y and B-Y constituting the carrier color signal is as shown in the first horizontal line (N When the line) is shown in A in the same figure, the second horizontal line (N+1 line) has an opposite phase as shown in B in the same figure. On the other hand, when C = 2 S , the phase relationship of the carrier color signal S C completely matches the spatial phase relationship, so the phase of the color difference signal on the N line is as shown in Figure 10A. Then, the phase relationships of the other lines are as shown in B and C in the figure. Therefore,
Even if the color difference signals are synchronized by the 1H delay circuit 24, the relationship shown in FIG. 9 is not satisfied. Therefore, first considering the odd number (first) field, we can calculate R-Y obtained at the Nth line by 1H.
It is further delayed by a time corresponding to 3/4π (3/4 S μsec) (FIG. 11A). Similarly, if the phase of the BY output of the N+1 line is inverted (delay time is 1/2 S μsec, figure B) and the outputs of these lines are combined, the phase relationship shown in figure 9A is obtained. In order to obtain the relationship shown in Figure 9B from the N+1 and N+2 lines, first, the R-Y output must be phase-shifted by 90° (1/4 S μsec delay time, C in the same figure), and then delayed by 1H. It is sufficient to combine the BY output (D in the same figure). For even fields, the phase relationship is inverse to the above (see FIG. 12). In order to achieve such phase correction, the phase correction circuit 40 includes three delay circuits 4 each having a different delay time.
1A to 41C and two changeover switches SWc, SWd
The delay time is as shown in the figure. Switches SWc and SWd are switched and controlled for each 1H and 1F (field), respectively. Switching control signal Pf is synchronous board 1
1. If the above-mentioned phase correction circuit 40 is provided in the synchronization circuit 23, the switching circuit 25 outputs phase-corrected R-Y and B-Y color feed signals S C (RY
) , S C (BY) are obtained, and these are supplied to the level adjustment circuits 43A and 43B, respectively, and after their respective coefficients are determined as in equation (5), they are converted to the luminance signal S Y (=Y O ) is supplied to the adder 44.
The synthesized output is further supplied to a subsequent synchronization signal synthesis circuit 45, where, as is well known, the synchronization board 11
In addition to the blanking pulse (BLK) obtained in the above, synchronization signals (VD, HD) and burst signals (BURST) are added to form the well-known color video signal SNTSC . It goes without saying that the phase of the burst signal is selected as shown in FIG. 46 is a phase adjustment circuit for this purpose. Note that it is of course possible to select the phase of the burst signal in a well-known manner, but in this case, the phase of the burst signal
0 becomes a little more complicated. According to the configuration of the present invention described above, it is possible to configure a direct NTSC type color solid-state imaging device extremely easily, and in particular, the color encoder can be omitted.
It is possible to simplify the circuit configuration, completely eliminate coloring during monochrome imaging, and improve image quality. Next, another embodiment of the device of the present invention will be described. In the embodiment shown in FIG. 7, a color filter 1 with spectral characteristics as shown in FIG. 3 is used in order to remove sideband components mixed in the luminance signal S Y using vertical correlation. The image quality can also be improved by configuring the sideband components to be canceled out during monochrome imaging, regardless of the vertical correlation processing. In this case, a color filter 1 having spectral characteristics as shown in FIG. 13 may be used. FIG. 14 shows an example of a circuit processing system using this color filter 1. In this example, the high-frequency component of the luminance signal is not the luminance signal shown in FIG. 15A, but a composite imaging output of the luminance signal and the R or B primary color signal. In this way, the reason why the composite imaging output is used as a high-frequency component is that the phase of the carrier of the sideband component included in the composite imaging output is in an inverted phase relationship between the luminance signal and the primary color signal. This is because the sideband components are to be removed by utilizing this difference in carrier phase. Further, since the luminance signal obtained from the solid-state image sensor 10 is the luminance signal itself in the NTSC system due to the spectral characteristics of the color filter 1, the low-frequency component of this luminance signal itself is used as the low-frequency component. Therefore, the luminance signal obtained at the terminal 3 is supplied to the low-pass filter 52 to filter the desired band (500
Low frequency component S DYL (15th
Figure B) is used as is as a low-frequency component of the luminance signal Y O. The high-frequency components constituting the luminance signal Y O are obtained in the following manner from the viewpoint of canceling sideband components. That is, the other sampling and holding circuit 21 provided on the output terminal 3 side is driven by the sampling signal Pd 2 supplied for each picture element, and as a result, as shown in FIG. 15C and D, in addition to the luminance signal, , a composite imaging output containing the primary color signal R or B is obtained. This composite image output is produced by a low-pass filter 53A selected to have the same filter characteristics as the above-mentioned low-pass filter 52 and a subtracter 53.
Therefore, the high-frequency component S DY +S DR (or S DB ) of the imaging output is supplied to the filter circuit 53 consisting of B.
(Fig. 15E) is output. In this example, this high frequency component is used for the luminance signal. Note that 54 is a delay circuit. The high-frequency component thus obtained is supplied to the adder 55 together with the low-frequency component described above and is combined, but the luminance signal that is the composite output includes the high-frequency component shown in FIG. 15E on the high-frequency side. carrier frequency 1/2 as shown
Since sideband components higher than C are also included, the combined output is supplied to a low-pass filter 56 with a cutoff frequency of about 4.5 MHz. Therefore, in the end, as shown in FIG. 15F, a luminance signal Y O composed of the imaging output on the high frequency side is obtained. 57 is a delay circuit provided in consideration of the transmission time of the color signal system. By the way, the spectral characteristics of the color filter 1 are selected so that when a monochrome image is captured, the outputs obtained from each unit area of the color filter 51 are all equal, that is, Y=R=B. In this case, since the luminance signal and each primary color signal have an inverse phase relationship as shown in FIG. Sideband components (S MR - S MY ) and (S MB - S
MY ) will be canceled out. Therefore, it is possible to obtain a luminance signal Y O from which sideband components have been removed. In addition, sideband components included in the low frequency side (B in the same figure)
remains even after the above signal processing, but since the level (residual level) of the residual sideband component relative to the low frequency component is extremely small, there is no effect. In the case of a color image, sideband components will remain in the luminance signal regardless of the presence or absence of vertical correlation, but in this case, as mentioned above, the influence on the image is small, and moreover, the sideband components of R and B remain. Of the primary color signals, the components included in the high frequency range of 4.0 MHz are either zero or very small, so the image quality does not deteriorate. The processing system for the carrier color signal is the same as the embodiment shown in FIG. 7, so its explanation will be omitted. However, the color filter 1 used in this example processes the color difference obtained from each horizontal line as shown in FIG. Since all the signals are in phase, the result is as shown in FIG. Therefore, in this case, it is necessary to perform phase correction as shown in FIGS. 17 and 18. I will omit that explanation. FIG. 19 shows still another example of the color filter. In this example, unlike the previous cases, the pixel arrangement of the solid-state image sensor 10 is not parallel as shown in FIG . The object is a solid-state image sensor 10 arranged in a checkered pattern, and the spectral pattern is the same as the pixel arrangement pattern. The spectral characteristics are similar to those shown in FIG. Sideband component removal does not utilize vertical correlation. Therefore, a signal processing method as shown in FIG. 14 is used. The sampling pulse supplied to the horizontal shift register 10C has a special spatial pixel arrangement even if C = 2 S , so in order to match the reproduced pixel arrangement pattern spatially, the phase must be inverted for each line. sample pulses are used. The phase relationship of the color difference signals obtained from each line is as shown in FIG. Phase correction can be achieved. For example, as shown in FIG. 21, the phase correction circuit 40 can be constructed by simply providing two delay circuits 41D and 41E whose delay times are both 1/2 S. By the way, all the examples mentioned so far
This is a case in which each of equations (6) and (7) is satisfied, but the present invention is not limited to these examples. In other words, as mentioned above, if the color subcarrier frequency S is slightly changed from the standard value (3579545MHz), it will not make any difference considering the synchronization pull-in characteristics of the receiver, so for example,

【表】 〓 …………(11)
525
[Table] 〓 …………(11)
525

Claims (1)

【特許請求の範囲】[Claims] 1 固体撮像体と、一つおきの水平ラインには赤
色光を透過し読出された信号が赤色信号となる単
位領域と全光を透過し読出された信号が標準方式
における輝度信号となる単位領域とが順次交互に
配され、残りの水平ラインには青色光を透過し読
出された信号が青色信号となる単位領域と全光を
透過し続出された信号が標準方式における輝度信
号となる単位領域とが順次交互に配される色フイ
ルタと、上記固体撮像体を標準方式の色副搬送波
周波数の略2倍の周波数を有するクロツク信号で
駆動する駆動回路とを有し、さらに、上記固体撮
像体から得られる信号のうち上記色フイルタの輝
度信号の得られる単位領域に対応する部分をサン
プリングする第1のサンプリングホールド回路
と、該第1のサンプリングホールド回路の出力か
ら輝度信号を発生する輝度信号発生回路と、上記
固体撮像体から得られる信号のうち上記色フイル
タの全ての単位領域に対応する部分をサンプリン
グする第2のサンプリングホールド回路と、該第
2のサンプリングホールド回路の出力から線順次
で、赤色差信号、青色差信号の成分で変調された
搬送色信号が得られる搬送色信号発生回路と、該
発生回路の出力信号の位相を補正する位相補正回
路と、該位相補正回路の出力を同時化する同時化
回路と、該同時化回路の出力と上記輝度信号発生
回路の出力とを加算する加算器とを有し、該加算
器の出力に標準方式の複合カラー映像信号を得る
ようにしたカラー固体撮像装置。
1. On the solid-state image sensor and every other horizontal line, there is a unit area where red light is transmitted and the readout signal becomes a red signal, and a unit area where all the light is transmitted and the readout signal is the luminance signal in the standard method. are arranged alternately, and the remaining horizontal lines include a unit area where blue light is transmitted and the readout signal becomes the blue signal, and a unit area where all the light is transmitted and the readout signal becomes the luminance signal in the standard method. and a drive circuit for driving the solid-state image pickup body with a clock signal having a frequency approximately twice the color subcarrier frequency of the standard method, a first sampling and hold circuit that samples a portion of the signal obtained from the color filter that corresponds to the unit area from which the luminance signal of the color filter is obtained; and a luminance signal generator that generates a luminance signal from the output of the first sampling and hold circuit. a second sampling and holding circuit that samples a portion of the signal obtained from the solid-state image pickup device that corresponds to all the unit areas of the color filter; line-sequentially from the output of the second sampling and holding circuit; A carrier color signal generation circuit that obtains a carrier color signal modulated by the red difference signal and blue difference signal components, a phase correction circuit that corrects the phase of the output signal of the generation circuit, and a phase correction circuit that simultaneously outputs the output of the phase correction circuit. and an adder that adds the output of the synchronization circuit and the output of the luminance signal generation circuit, and a standard composite color video signal is obtained at the output of the adder. Color solid-state imaging device.
JP11781776A 1976-09-30 1976-09-30 Color solid pickup unit Granted JPS5342626A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11781776A JPS5342626A (en) 1976-09-30 1976-09-30 Color solid pickup unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11781776A JPS5342626A (en) 1976-09-30 1976-09-30 Color solid pickup unit

Publications (2)

Publication Number Publication Date
JPS5342626A JPS5342626A (en) 1978-04-18
JPS6120192B2 true JPS6120192B2 (en) 1986-05-21

Family

ID=14720983

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11781776A Granted JPS5342626A (en) 1976-09-30 1976-09-30 Color solid pickup unit

Country Status (1)

Country Link
JP (1) JPS5342626A (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5753792A (en) * 1980-09-18 1982-03-30 Yamaha Kyohan Kk KANGATSUKIRENS HUYOSHOONKI
JPH09172108A (en) * 1996-12-24 1997-06-30 Toshiba Corp Aluminum nitride circuit board

Also Published As

Publication number Publication date
JPS5342626A (en) 1978-04-18

Similar Documents

Publication Publication Date Title
JPH05219513A (en) Solid-state image pickup device
JP2004309868A (en) Imaging device and stereoscopic video generating device
JPS6118912B2 (en)
JPH0724422B2 (en) Luminance signal generation circuit for color TV camera
JPS6129196B2 (en)
JPS6033022B2 (en) tv jiyoung camera
JPS6118913B2 (en)
JPS5931918B2 (en) Color solid-state imaging device
JP2505160B2 (en) Solid color imaging device
JPS5972283A (en) Video signal processor of electronic still camera
JP2000023046A (en) Image pickup device
JPS6120192B2 (en)
GB2191061A (en) Television film scanner
JPH06276449A (en) High sensitivity color camera device
JPS631278A (en) Color solid-state image pickup device
JP3425161B2 (en) Simple TV camera
JPS6243398B2 (en)
JP2623084B2 (en) Imaging device
JP3651015B2 (en) Solid-state imaging device
JP2655436B2 (en) Color solid-state imaging device
JPS5918909B2 (en) color imaging device
JPS62206987A (en) High definition solid-state color image pickup device
JPS62115985A (en) Solid-state color image pickup device
JPH07226940A (en) High definition television camera
JPS60125090A (en) Color solid-state image pickup device