JPH09270941A - Method for superimposing data on photographing video and photographing device - Google Patents

Method for superimposing data on photographing video and photographing device

Info

Publication number
JPH09270941A
JPH09270941A JP8080232A JP8023296A JPH09270941A JP H09270941 A JPH09270941 A JP H09270941A JP 8080232 A JP8080232 A JP 8080232A JP 8023296 A JP8023296 A JP 8023296A JP H09270941 A JPH09270941 A JP H09270941A
Authority
JP
Japan
Prior art keywords
data
camera head
supplied
image
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8080232A
Other languages
Japanese (ja)
Inventor
Shigeyuki Takakura
成行 高倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP8080232A priority Critical patent/JPH09270941A/en
Publication of JPH09270941A publication Critical patent/JPH09270941A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To match the direction of superimposing data with that of an image pickup output from an image pickup means on a screen, by outputting the superimposing data kept by a holding means based on the direction detection output content of the image pickup means. SOLUTION: A necessary signal processing, such as digitization and gamma correction, are executed on primary color signals from a camera head and they are supplied to a multiplexer 77. At that time, a control signal from the camera head is supplied to CPU 92, and bit map data in vertical/lateral directions, which are stored in a flash memory 93, are written into SRAM 97. Then, a controller 96 reads bit map data from SRAM 97 and converts it into one bit serial data, supplies it to the multiplexer 77, and it is mixed with the primary color signals. The necessary signal processing are executed on the mixed primary color signals, and they are outputted from output terminals 81r, 81g and 81c. Then, they are outputted from 81c to a television monitor, as composite signals.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、例えばCCD(C
harge Coupled Device)に適用し
て好適な撮影映像に対するデータ重畳方法及び撮影装置
に関する。
BACKGROUND OF THE INVENTION The present invention relates to, for example, a CCD (C
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a data superimposing method and a photographing device suitable for a photographed video when applied to a charge coupled device.

【0002】[0002]

【従来の技術】従来、CCDを用いた撮影装置が提案さ
れている。この撮影装置は、CCDを有するカメラヘッ
ドと、CCDの駆動系と、操作部と、CCDからの映像
信号の処理系と、CCDで撮像している映像信号、若し
くは、撮影した静止画画像を映出するテレビジョンモニ
タと、コンピュータと、コンピュータの操作により映像
信号を紙に印刷するプリンタとからなる。撮影の仕方は
簡単である。先ず、操作部のレリーズボタンを押圧す
る。これにより、CCDにより撮像された映像信号が、
処理系において処理された後に、間断なくテレビジョン
モニタに供給され、その管面上に画像として映出され
る。続いて、再度、操作部のレリーズボタンを押圧す
る。
2. Description of the Related Art Conventionally, a photographing device using a CCD has been proposed. This photographing device displays a camera head having a CCD, a driving system of the CCD, an operation unit, a processing system of a video signal from the CCD, a video signal captured by the CCD, or a captured still image. It is composed of a television monitor for outputting, a computer, and a printer for printing a video signal on paper by operating the computer. Shooting is easy. First, the release button on the operation unit is pressed. As a result, the video signal captured by the CCD is
After being processed in the processing system, it is continuously supplied to the television monitor and displayed as an image on its tube surface. Then, the release button of the operation unit is pressed again.

【0003】すると、このボタンの押圧時点にCCDに
よって取り込まれた映像信号が、処理系のメモリに保持
される。この処理系のメモリに保持された1フレーム分
の映像信号は、撮影画像として、テレビジョンモニタの
管面上に静止画画像として映出される。続いて、コンピ
ュータの画面上において、撮影した画像をプリントする
ことをコンピュータに対して指示すると、コンピュータ
は、処理系からの静止画画像データを、プリンタに供給
する。プリンタは、処理系からの静止画画像データを、
紙に画像としてプリントする。このようにして、CCD
を用いた撮影装置では、撮影からプリントまで一貫して
行われている。
Then, the video signal taken in by the CCD when the button is pressed is held in the memory of the processing system. The video signal for one frame held in the memory of this processing system is displayed as a still image on the screen of the television monitor as a captured image. Then, when the computer is instructed to print the captured image on the screen of the computer, the computer supplies the still image image data from the processing system to the printer. The printer uses the still image data from the processing system
Print as an image on paper. In this way, the CCD
In the photographing device using the, the process from photographing to printing is consistently performed.

【0004】[0004]

【発明が解決しようとする課題】ところで、35mmフ
ィルムを用いたカメラ等では、カメラを横にした状態で
被写体を撮影する方法と、カメラを縦にした状態で被写
体を撮影する方法が知られている。CCDを用いた撮影
装置においても、カメラヘッドを横にした状態での被写
体の撮影、並びに、カメラヘッドを縦にした状態での被
写体の撮影が採用可能である。
By the way, as for a camera using a 35 mm film, there are known a method of photographing a subject with the camera in a horizontal position and a method of photographing a subject with the camera in a vertical position. There is. Also in a photographing device using a CCD, it is possible to adopt photographing of a subject with the camera head lying sideways and photographing of a subject with the camera head lying vertically.

【0005】図5は、撮影装置により被写体を撮影した
場合における、テレビジョンモニタ上での映出状態を示
す説明図である。図5Aは、カメラヘッドを横にした状
態で被写体Hを撮影した場合におけるテレビジョンモニ
タ上の映出状態を示し、図5Bは、カメラヘッドを縦に
した状態で被写体Hを撮影した場合におけるテレビジョ
ンモニタ上の映出状態を示している。尚、図5Bに示す
状態は、テレビジョンモニタを縦にした状態である。通
常、カメラヘッドを縦にした状態で被写体Hを撮影する
場合においては、テレビジョンモニタは縦にされる。ま
た、図5Bに示す状態は、カメラヘッドの右側が上にさ
れた場合における、テレビジョンモニタの映出状態であ
る。また、図5A及びBに夫々示されているメニューM
1及びM2は、夫々カメラヘッドの駆動の仕方を予め設
定するためのものである。
FIG. 5 is an explanatory diagram showing a projected state on a television monitor when a subject is photographed by a photographing device. FIG. 5A shows a projection state on the television monitor when the subject H is photographed with the camera head lying sideways, and FIG. 5B is a television when the subject H is photographed with the camera head placed vertically. The projection state on the John monitor is shown. The state shown in FIG. 5B is a state in which the television monitor is set vertically. Normally, when the subject H is photographed with the camera head set vertically, the television monitor is set vertically. Further, the state shown in FIG. 5B is a projection state of the television monitor when the right side of the camera head is turned up. Also, the menu M shown in FIGS. 5A and 5B, respectively.
1 and M2 are for presetting the driving method of the camera head, respectively.

【0006】図5Aに示されているように、カメラヘッ
ドを横にした状態で被写体Hを撮影すると、被写体Hも
メニューM1も、テレビジョンモニタの管面上において
水平に映出される。一方、カメラヘッドを縦にした状態
で被写体Hを撮影すると、被写体Hは、テレビジョンモ
ニタの管面上において垂直に映出されるが、テレビジョ
ンモニタが縦にされているので、オペレータの眼に映る
映像としては、被写体Hが、テレビジョンモニタの管面
上において水平に映出されたものとなる。しかしなが
ら、メニューM2は、テレビジョンモニタの管面上にお
いて水平に映出されているので、テレビジョンモニタが
縦にされていると、オペレータの眼に映る映像として
は、メニューM2が、テレビジョンモニタの管面上にお
いて垂直に映出されたものとなる。
As shown in FIG. 5A, when the subject H is photographed with the camera head lying sideways, both the subject H and the menu M1 are projected horizontally on the screen of the television monitor. On the other hand, when the subject H is photographed with the camera head vertically, the subject H is vertically projected on the tube surface of the television monitor. However, since the television monitor is vertically oriented, it is visible to the operator's eyes. As the image to be reflected, the subject H is horizontally projected on the tube surface of the television monitor. However, since the menu M2 is projected horizontally on the screen surface of the television monitor, if the television monitor is set vertically, the menu M2 is displayed on the television monitor as an image seen by the operator. It is projected vertically on the tube surface of.

【0007】よって、カメラヘッドを縦にして被写体を
撮影した場合には、メニューM2が見づらいという不都
合があった。
Therefore, when a subject is photographed with the camera head set vertically, the menu M2 is difficult to see.

【0008】本発明はこのような点を考慮してなされた
もので、カメラヘッドを横にして被写体を撮影しても、
また、カメラヘッドを縦にして被写体を撮影しても、表
示面上における撮影画像の向きと、キャラクタデータ等
の画像の向きを一致させることのできる撮影映像に対す
るデータ重畳方法及び撮影装置を提案しようとするもの
である。
The present invention has been made in consideration of such a point, and even if a subject is photographed with the camera head lying sideways,
In addition, even if the camera head is placed vertically and a subject is photographed, it is possible to propose a data superimposing method and a photographing device for a photographed video that can match the orientation of a captured image on the display surface with the orientation of an image such as character data. It is what

【0009】[0009]

【課題を解決するための手段】本発明は、被写体からの
光を撮像する撮像手段と、上記撮像手段の向きを検出す
る検出手段と、異なる重畳用データを保持すると共に、
上記検出手段からの検出出力の内容に基いて、上記保持
手段に保持されている重畳用データを出力する重畳用デ
ータ発生手段と、上記重畳用データ発生手段からの重畳
用データと、上記撮像手段からの撮像出力とを重畳する
重畳手段とからなるものである。
The present invention holds an image pickup means for picking up light from a subject, a detecting means for detecting the direction of the image pickup means, and different superimposition data.
Based on the content of the detection output from the detecting means, the superimposing data generating means for outputting the superimposing data held in the holding means, the superimposing data from the superimposing data generating means, and the imaging means. And a superimposing unit that superimposes the image pickup output from.

【0010】上述せる本発明によれば、検出手段からの
検出出力の内容に基いて、保持手段に保持されている重
畳用データが出力され、この重畳用データが、重畳手段
により、撮像手段からの撮像出力と重畳される。
According to the present invention described above, the superposition data held in the holding means is output based on the content of the detection output from the detection means, and the superposition data is output from the imaging means by the superposition means. Is superimposed with the image pickup output of.

【0011】[0011]

【発明の実施の形態】以下に、図1〜図5を順次参照し
て本発明撮影映像に対するデータ重畳方法及び撮影装置
の実施の形態について詳細に説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of a data superimposing method and a photographing apparatus according to the present invention will be described in detail below with reference to FIGS.

【0012】本発明撮影映像に対するデータ重畳方法及
び撮影装置の実施の形態の説明は、次に示す項目説明を
各項目の先頭に記載し、各項目について次に示す順序で
説明する。
In the description of the embodiment of the data superimposing method and the photographing apparatus for the photographed video of the present invention, the following item explanations are described at the head of each item, and each item will be explained in the following order.

【0013】 A.撮影システムの構成及びその動作(図1) B.図1に示したカメラヘッド2の構成及びその動作
(図2) C.図1に示したプロセッサ5の構成及びその動作(図
3) D.図1に示したプロセッサ5の制御動作(図4) E.カメラヘッドを縦にした状態で被写体を撮影した場
合の映像例(図5)
A. Configuration of imaging system and its operation (FIG. 1) B. Configuration and Operation of Camera Head 2 Shown in FIG. 1 (FIG. 2) C.I. Configuration and Operation of Processor 5 Shown in FIG. 1 (FIG. 3) D. Control operation of the processor 5 shown in FIG. 1 (FIG. 4) E. Image example of shooting a subject with the camera head vertically (Fig. 5)

【0014】A.撮影システムの構成及びその動作(図
1)
A. Configuration of the imaging system and its operation (Fig. 1)

【0015】〔接続及び構成〕この図1に示される撮影
システムは、レンズユニット1と、CCDを有するカメ
ラヘッド2と、レリーズボタン等を有し、カメラヘッド
2やプロセッサ5を遠隔操作するリモートコントローラ
3と、カメラヘッド2の側で被写体の撮像映像を見るた
めのLCD(Liquid Cristal Disp
lay)4と、カメラヘッド2からの撮像映像信号に対
し後述する各種処理を施すプロセッサ5と、プロセッサ
5側で被写体の撮像映像を見るためのテレビジョンモニ
タ6と、プロセッサ5からのディジタル映像データを取
り込み、例えばハードディスクドライブ等に保持した
り、ディジタル映像データの編集を行うためのメインコ
ンピュータ9と、メインコンピュータ9からのディジタ
ル映像データを、紙にプリントするプリンタ(いわゆる
ビデオプリンタ)10と、上記メインコンピュータ9の
サブシステムとしてのサブコンピュータ12とで構成さ
れる。
[Connection and Configuration] The photographing system shown in FIG. 1 has a lens unit 1, a camera head 2 having a CCD, a release button, etc., and a remote controller for remotely operating the camera head 2 and the processor 5. 3 and an LCD (Liquid Crystal Display) for viewing the imaged image of the subject on the camera head 2 side.
4), a processor 5 for performing various kinds of processing described later on an imaged video signal from the camera head 2, a television monitor 6 for viewing an imaged image of a subject on the processor 5 side, and digital image data from the processor 5. The main computer 9 for capturing and holding the same in a hard disk drive or the like or for editing digital video data, a printer (so-called video printer) 10 for printing digital video data from the main computer 9 on paper, and It is composed of a sub computer 12 as a subsystem of the main computer 9.

【0016】ここで、上記メインコンピュータ9は、プ
ロセッサ5とメインコンピュータ9、メインコンピュー
タ9とプリンタ10は、SCSI(Small Com
puter Systems Interface)に
よりディジーチェーン接続されている。プリンタ10に
は終端抵抗器(ターミネータ)11が接続される。ま
た、上記プロセッサ5は、カメラヘッド2からの映像信
号をディジタル映像データに変換し、変換して得られた
ディジタル映像データに対し、ガンマ補正等の各種処理
を施した後に、ディジタル映像データに対し、キャラク
タデータからなるメニュー画像データを重畳する。
The main computer 9 is the processor 5 and the main computer 9, and the main computer 9 and the printer 10 are the SCSI (Small Com).
daisy chain connection by a computer system interface. A terminating resistor (terminator) 11 is connected to the printer 10. Further, the processor 5 converts the video signal from the camera head 2 into digital video data, performs various processes such as gamma correction on the digital video data obtained by the conversion, and then processes the digital video data. , Superimposes menu image data composed of character data.

【0017】〔動作〕リモートコントローラ3のレリー
ズボタンが押圧されると、カメラヘッド2は、レンズユ
ニット1によって集光された被写体の光を、映像信号に
変換してプロセッサ5に供給する。プロセッサ5は、カ
メラヘッド2からの映像信号を、画像としてテレビジョ
ンモニタ6の表示面上に表示する。また、プロセッサ5
は、カメラヘッド2からの映像信号を、画像としてLC
D(Liquid Cristal Display)
4の表示面上に表示する。
[Operation] When the release button of the remote controller 3 is pressed, the camera head 2 converts the light of the subject condensed by the lens unit 1 into a video signal and supplies it to the processor 5. The processor 5 displays the video signal from the camera head 2 as an image on the display surface of the television monitor 6. Also, the processor 5
Is an image of the video signal from the camera head 2 as an image.
D (Liquid Crystal Display)
4 is displayed on the display surface.

【0018】更に、リモートコントローラ3のレリーズ
ボタンが押圧されると、カメラヘッド2からストロボ駆
動回路7並びにプロセッサ5に対し、夫々制御信号が供
給される。カメラヘッド2からの制御信号により、スト
ロボ駆動回路7は、発光部8を駆動する。これによっ
て、発光部8は発光する。一方、カメラヘッド2からの
制御信号により、プロセッサ5は、カメラヘッド2から
供給されている映像信号を1フレーム分だけ保持する。
この保持された1フレーム分の映像信号が、撮影画像で
ある。
Further, when the release button of the remote controller 3 is pressed, control signals are supplied from the camera head 2 to the strobe drive circuit 7 and the processor 5, respectively. The strobe drive circuit 7 drives the light emitting unit 8 in response to a control signal from the camera head 2. As a result, the light emitting unit 8 emits light. On the other hand, according to the control signal from the camera head 2, the processor 5 holds the video signal supplied from the camera head 2 for one frame.
The held video signal for one frame is a captured image.

【0019】上記撮影画像としての映像信号は、SCS
I(Small ComputerSystems I
nterface)を介してメインコンピュータ9に供
給され、メインコンピュータ9のメインメモリに一旦保
持された後に、メインコンピュータ9のハードディスク
等に記録される。また、このメインコンピュータ9に
は、撮影画像を管理したり、編集したり、プリンタ10
から出力するためのプログラムデータがインストールさ
れている。よって、オペレータが、メインコンピュータ
9を操作して撮影画像を選択し、プリンタ10から出力
する旨を示す指示を、メインコンピュータ9に与える
と、メインコンピュータ9は、選択された撮影画像の映
像信号を、ハードディスク等から読み出し、当該映像信
号を、SCSIを介してプリンタ10に供給する。プリ
ンタ10に供給された映像信号は、画像として紙にプリ
ントされる。
The video signal as the photographed image is SCS.
I (Small Computer Systems I
interface) to the main computer 9, and is temporarily stored in the main memory of the main computer 9 and then recorded in the hard disk or the like of the main computer 9. In addition, the main computer 9 manages and edits photographed images, and the printer 10
The program data for output from is installed. Therefore, when the operator operates the main computer 9 to select a captured image and gives an instruction to the printer 10 to output the image, the main computer 9 outputs the video signal of the selected captured image. , And reads the video signal from the hard disk or the like and supplies the video signal to the printer 10 via SCSI. The video signal supplied to the printer 10 is printed on paper as an image.

【0020】尚、リモートコントローラ3を操作するこ
とにより、プロセッサ5は、内部メモリに保持している
撮影画像としての映像信号を、カメラヘッド2を介して
LCD4に供給する。つまり、オペレータは、カメラヘ
ッド2の近くでLCD4の表示面上に表示された撮影画
像若しくは撮像映像信号をモニタすることができる。
By operating the remote controller 3, the processor 5 supplies a video signal as a captured image held in the internal memory to the LCD 4 via the camera head 2. That is, the operator can monitor the captured image or the captured video signal displayed on the display surface of the LCD 4 near the camera head 2.

【0021】B.図1に示したカメラヘッド2の構成及
びその動作(図2)
B. Configuration and operation of the camera head 2 shown in FIG. 1 (FIG. 2)

【0022】〔接続及び構成〕図2は、図1に示したカ
メラヘッド2の内部構成例を示す構成図である。この図
2に示すカメラヘッド2は、赤、緑、青用の3つの系
と、これら3つの系を制御する系とからなる。赤、緑及
び青用の系は、夫々、CCD(Charge Coup
led Device)50r、50g及び50b、C
DS(Correlate Double Sanpl
ing:相関二重サンプリング)回路51r、51g及
び51b、プロセス回路52r、52g及び52b、ガ
ンマ補正回路53r、53g及び53b、増幅回路54
r、54g及び54bからなる。かく系の出力は、出力
端子55r、55g及び55bから夫々出力される。
[Connection and Configuration] FIG. 2 is a configuration diagram showing an internal configuration example of the camera head 2 shown in FIG. The camera head 2 shown in FIG. 2 includes three systems for red, green and blue, and a system for controlling these three systems. The red, green, and blue systems are CCDs (Charge Coups), respectively.
red Device) 50r, 50g and 50b, C
DS (Correlate Double Sanpl)
ing: correlated double sampling) circuits 51r, 51g and 51b, process circuits 52r, 52g and 52b, gamma correction circuits 53r, 53g and 53b, amplifier circuit 54
r, 54g and 54b. The outputs of the system are output from the output terminals 55r, 55g and 55b, respectively.

【0023】上記3つの系を制御する系は、赤、緑及び
青用のCCD50r、50g及び50bを夫々制御する
CCDドライバ56と、水晶発信器58からの基準信号
に基いて各種信号を発生するタイミングジェネレータ5
7と、タイミングジェネレータ57からのクロック信号
に基いて水平及び垂直同期信号を発生する同期信号発生
回路59と、各種制御を行うマイクロコンピュータ61
と、カメラヘッド2が縦向きにされているか横向きにさ
れているかを検出するセンサ62と、各種パラメータデ
ータを記憶するためのEEPROM63と、図1に示し
たプロセッサ5からの映像信号を増幅してBNCコネク
タ66を介して図1に示したLCD4に供給する増幅回
路65とで構成される。
The system for controlling the above three systems generates various signals based on the CCD driver 56 for controlling the CCDs 50r, 50g and 50b for red, green and blue, respectively, and the reference signal from the crystal oscillator 58. Timing generator 5
7, a sync signal generation circuit 59 for generating horizontal and vertical sync signals based on a clock signal from the timing generator 57, and a microcomputer 61 for performing various controls.
A sensor 62 for detecting whether the camera head 2 is oriented vertically or horizontally, an EEPROM 63 for storing various parameter data, and an image signal from the processor 5 shown in FIG. The amplifier circuit 65 is provided to the LCD 4 shown in FIG. 1 via the BNC connector 66.

【0024】ここで、上記タイミングジェネレータ57
は、水晶発信器58からの基準信号に基いてクロック信
号、水平及び垂直転送パルス、サンプルホールドパルス
等を発生する。そしてタイミングジェネレータ57は、
クロック信号を、同期信号発生回路59に、水平及び垂
直転送パルスをCCDドライバ56に、サンプルホール
ドパルスをCDS回路51r、51g及び51bに夫々
供給する。
Here, the timing generator 57 is used.
Generates a clock signal, horizontal and vertical transfer pulses, sample and hold pulses, etc. based on the reference signal from the crystal oscillator 58. And the timing generator 57
The clock signal is supplied to the synchronizing signal generation circuit 59, the horizontal and vertical transfer pulses are supplied to the CCD driver 56, and the sample hold pulse is supplied to the CDS circuits 51r, 51g and 51b.

【0025】また、マイクロコンピュータ61は、セン
サ62からの検出信号、即ち、カメラヘッド2が縦向き
になっているか、横向きになっているかを示す信号を、
入出力端子61bを介してプロセッサ5に供給する。ま
た、マイクロコンピュータ61は、リモートコントロー
ラ3からの入力端子51aを介して供給される操作情報
に基いて、例えばフォーカスやアイリス制御等、レンズ
ユニット1を制御するための制御信号を、出力端子61
cを介して、レンズユニット1に供給する。尚、センサ
62は、カメラヘッド3の向きに応じて、機械的にオ
ン、オフするスイッチで構成される。
Further, the microcomputer 61 sends a detection signal from the sensor 62, that is, a signal indicating whether the camera head 2 is oriented vertically or horizontally.
It is supplied to the processor 5 via the input / output terminal 61b. Further, the microcomputer 61 outputs a control signal for controlling the lens unit 1, such as focus and iris control, based on the operation information supplied from the remote controller 3 via the input terminal 51 a, to the output terminal 61.
It is supplied to the lens unit 1 via c. The sensor 62 is composed of a switch that is mechanically turned on and off according to the orientation of the camera head 3.

【0026】また、図1に示したリモートコントローラ
3により、カメラヘッド3におけるホワイトバランス、
ブラックバランス、ニー補正等の各種パラメータを設定
することができる。この設定値は、上記EEPROM6
3に記憶される。そして、マイクロコンピュータ61
は、上記EEPROM63に記憶されているパラメータ
データに基いて、上記パラメータデータが示す状態とな
るよう、プロセス回路52r、52g及び52bを夫々
制御する。
Further, by the remote controller 3 shown in FIG. 1, the white balance in the camera head 3,
Various parameters such as black balance and knee correction can be set. This set value is the same as the EEPROM 6
3 is stored. Then, the microcomputer 61
Controls the process circuits 52r, 52g and 52b based on the parameter data stored in the EEPROM 63 so that the state indicated by the parameter data is obtained.

【0027】〔動作〕レンズユニット1からの赤、緑及
び青成分の光は、夫々CCD50r、50g及び50b
の受光面に入射し、夫々光電変換されて電気信号として
出力され、CDS回路51r、51g及び51bにより
サンプルホールドされる。CDS回路51r、51g及
び51bからの出力は、夫々プロセス回路52r、52
g及び52bにおいて上述したパラメータデータにより
夫々処理された後に、夫々ガンマ補正回路53r、53
g及び53b、増幅回路54r、54g及び54bを介
して、出力端子55r、55g及び55bを介して出力
され、図1に示したプロセッサ5に夫々供給される。
[Operation] Lights of red, green and blue components from the lens unit 1 are CCDs 50r, 50g and 50b, respectively.
Incident on the light-receiving surface of, and photoelectrically converted respectively and output as an electric signal, and sampled and held by the CDS circuits 51r, 51g and 51b. The outputs from the CDS circuits 51r, 51g and 51b are process circuits 52r and 52, respectively.
g and 52b are respectively processed by the above-mentioned parameter data, and then gamma correction circuits 53r and 53, respectively.
g and 53b, amplifier circuits 54r, 54g and 54b, and output terminals 55r, 55g and 55b, respectively, which are supplied to the processor 5 shown in FIG.

【0028】一方、センサ62からの、カメラヘッド3
が縦向きにされているか横向きにされているかを示す検
出信号がマイクロコンピュータ61に供給されると、マ
イクロコンピュータ61は、上記検出信号を、入出力端
子61bを介して図1に示したプロセッサ5に供給す
る。
On the other hand, the camera head 3 from the sensor 62
1 is supplied to the microcomputer 61, the microcomputer 61 supplies the detection signal to the processor 5 shown in FIG. 1 via the input / output terminal 61b. Supply to.

【0029】C.図1に示したプロセッサ5の構成及び
その動作(図3)
C. Configuration and operation of the processor 5 shown in FIG. 1 (FIG. 3)

【0030】〔接続及び構成〕図3は、図1に示したプ
ロセッサ5の構成例を示す構成図である。この図3に示
すプロセッサ5は、第1の処理系と、第2の処理系と制
御系とで構成される。第1の処理系は、赤、緑及び青用
の増幅及び位相補償回路70r、70g及び70bと、
赤、緑及び青用のA−Dコンバータ71r、71g及び
71bと、赤、緑及び青用のガンマ補正回路72r、7
2g及び72bと、ホワイトバランスを制御するための
ホワイト制御回路73と、映像信号の転送レートを、2
4フレーム/秒から30フレーム/秒に変換するための
VRAM74と、VRAM74から読み出しを行う読み
出し制御回路75と、テレビジョンモニタ上の画像の色
と紙にプリントされた画像の色を合致させるための赤、
緑及び青用のガンマ補正回路76r、76g及び76b
と、マルチプレクサ77と、赤、緑及び青用のD−Aコ
ンバータ78r、78g及び78bと、赤、緑及び青用
のローパスフィルタ79r、79g及び79bと、RG
Bマトリクスエンコーダ80とで構成される。
[Connection and Configuration] FIG. 3 is a configuration diagram showing a configuration example of the processor 5 shown in FIG. The processor 5 shown in FIG. 3 is composed of a first processing system, a second processing system and a control system. The first processing system includes amplification and phase compensation circuits 70r, 70g and 70b for red, green and blue,
A-D converters 71r, 71g and 71b for red, green and blue, and gamma correction circuits 72r, 7 for red, green and blue.
2g and 72b, a white control circuit 73 for controlling white balance, and a video signal transfer rate of 2
The VRAM 74 for converting from 4 frames / sec to 30 frames / sec, the read control circuit 75 for reading from the VRAM 74, and the image color on the television monitor to match the color of the image printed on the paper Red,
Gamma correction circuits 76r, 76g and 76b for green and blue
A multiplexer 77, red-green-blue D-A converters 78r, 78g and 78b, red-green-blue low-pass filters 79r, 79g and 79b, and RG.
And a B matrix encoder 80.

【0031】ここで、RGBマトリクスエンコーダ80
は、ローパスフィルタ79r、79g及び79bからの
各出力であるところの原色信号R、G、Bを、出力端子
81r、81g及び81bから夫々出力すると共に、上
記原色信号R、G及びBに基いて、コンポジット映像信
号を得、これを出力端子81cから出力する。
Here, the RGB matrix encoder 80
Outputs primary color signals R, G, B, which are outputs from the low-pass filters 79r, 79g, and 79b, from output terminals 81r, 81g, and 81b, respectively, and based on the primary color signals R, G, and B, , A composite video signal is obtained and output from the output terminal 81c.

【0032】また、図3に示す第2の処理系は、赤、緑
及び青用の1フレーム分の容量を有するDRAM83
r、83g及び83bと、これらのDRAM83r、8
3g及び83bに対するデータの書き込み、データの読
み出しを制御するDRAMコントローラ82と、予備の
フレームメモリ84と、平均回路85と、空間絵素ずら
しを行うための補間回路87と、ディテール/コントラ
スト回路88と、マトリクスエンコーダ86と、色の飽
和度を制御するためのマスキング回路89と、SCSI
インターフェース回路90とで構成される。
The second processing system shown in FIG. 3 is a DRAM 83 having a capacity for one frame for red, green and blue.
r, 83g and 83b and these DRAMs 83r, 8
A DRAM controller 82 for controlling writing and reading of data to and from 3g and 83b, a spare frame memory 84, an averaging circuit 85, an interpolating circuit 87 for performing spatial pixel shift, and a detail / contrast circuit 88. A matrix encoder 86, a masking circuit 89 for controlling color saturation, and a SCSI
And an interface circuit 90.

【0033】ここで、上記赤、緑及び青用のDRAM8
3r、83g及び83bの各容量は、少なくとも夫々1
280×1024画素分である。そして、これらDRA
M83r、83g及び83bの内の1つから読み出され
た夫々1280×1024画素の画像データは、輝度信
号として、補間回路87において、夫々2560×20
48画素に変換される。また、補間回路は、補間後の画
像データを、夫々低域輝度成分と高域輝度成分に分け、
高域輝度成分のみをディテール/コントラスト回路88
に供給する。マトリクスエンコーダ86は、平均回路8
5からの原色信号R、G及びBをそのままマスキング回
路89に供給すると共に、原色信号R、G及びB、ディ
テール/コントラスト回路88からの高域輝度成分、補
間回路87からの低域輝度成分とに基いて、色差信号R
−Y、B−Y及び輝度信号Yを得、これらを、出力端子
86r、86b及び86yから夫々出力する。
Here, the DRAMs 8 for red, green and blue are used.
Each capacity of 3r, 83g and 83b is at least 1 respectively.
It is 280 × 1024 pixels. And these DRA
The image data of 1280 × 1024 pixels read from one of M83r, 83g, and 83b is used as a luminance signal in the interpolation circuit 87, and 2560 × 20.
Converted to 48 pixels. The interpolation circuit divides the interpolated image data into a low-frequency luminance component and a high-frequency luminance component,
Detail / contrast circuit 88 for high-frequency luminance component only
To supply. The matrix encoder 86 uses the averaging circuit 8
The primary color signals R, G and B from No. 5 are supplied to the masking circuit 89 as they are, and the primary color signals R, G and B, the high band luminance component from the detail / contrast circuit 88, and the low band luminance component from the interpolation circuit 87 are supplied. Based on the color difference signal R
-Y, BY, and luminance signal Y are obtained, and these are output from output terminals 86r, 86b, and 86y, respectively.

【0034】また、図3に示す制御系は、CPU92に
バス93が接続され、このバス93にEEPROM9
4、フラッシュメモリ95、コントローラ96及びSR
AM97が夫々接続されて構成される。ここで、上記E
EPROM94には、ローダーとしてのプログラムデー
タが記憶されている。このプログラムデータは、CPU
92に対し、既に説明した、カメラヘッド3が縦向きか
横向きかを示す検出データに応じて、フラッシュメモリ
95から、対応するビットマップデータを読み出す機能
と、SCSIインターフェース回路90を介して供給さ
れる外部データを出力するか、フラッシュメモリ95に
記憶されているデータを出力するか否かを決定し、その
決定に基いた動作を行う機能を持たせる。
In the control system shown in FIG. 3, a bus 93 is connected to the CPU 92, and the EEPROM 9 is connected to the bus 93.
4, flash memory 95, controller 96 and SR
AM97 are connected to each other. Where E above
The EPROM 94 stores program data as a loader. This program data is the CPU
A function to read the corresponding bitmap data from the flash memory 95 according to the already-described detection data indicating whether the camera head 3 is in the vertical direction or the horizontal direction is supplied to the unit 92 via the SCSI interface circuit 90. It has a function of determining whether to output external data or data stored in the flash memory 95 and performing an operation based on the determination.

【0035】そして、フラッシュメモリ95には、同じ
内容のビットマップデータが、カメラヘッド3が縦向き
になっているときに出力するための縦方向ビットマップ
データと、カメラヘッド3が横向きになっているときに
出力するための横方向ビットマップデータが夫々記憶さ
れている。これらのデータは、8ビットで並列にSRA
M97に供給され、コントローラ96からの書き込み制
御信号により、SRAM97に記憶される。SRAM9
7に記憶されているデータは、コントローラ96からの
読み出し制御信号により、1ビットシリアルデータとし
て、マルチプレクサ77に供給される。
Then, in the flash memory 95, bitmap data having the same content is output as vertical bitmap data for outputting when the camera head 3 is in the vertical orientation, and the bitmap data in which the camera head 3 is in the horizontal orientation. The horizontal direction bit map data to be output when each of them is stored. These data are 8 bits in parallel and SRA
It is supplied to the M97 and is stored in the SRAM 97 by the write control signal from the controller 96. SRAM9
The data stored in 7 is supplied to the multiplexer 77 as 1-bit serial data in response to a read control signal from the controller 96.

【0036】〔1回目のレリーズボタンの押圧時の動
作〕図1に示したカメラヘッド3からの原色信号R、G
及びBが、入力端子69r、69g及び69bを夫々介
して増幅及び位相補償回路70r、70g及び70bに
夫々供給される。増幅及び位相補償回路70r、70g
及び70bは、A−Dコンバータ71r、71g及び7
1bに供給され、夫々ディジタルデータに変換される。
これらディジタルデータは、ガンマ補正回路72r、7
2g及び72bに夫々供給され、内部のLUT(Loo
k Up Table)に基いた補正処理が施される。
ガンマ補正回路72r、72g及び72bの各出力は、
ホワイト制御回路73に供給され、ここで、ホワイトバ
ランスが制御される。ホワイト制御回路73の出力は、
夫々VRAM74に供給される。VRAM74に供給さ
れたディジタル原色データR、G及びBは、夫々、ホワ
イト制御回路73からの書き込み制御信号により、VR
AM74に書き込まれる。
[Operation When First Pressing Release Button] Primary color signals R and G from the camera head 3 shown in FIG.
And B are respectively supplied to the amplification and phase compensation circuits 70r, 70g and 70b via the input terminals 69r, 69g and 69b, respectively. Amplification and phase compensation circuit 70r, 70g
And 70b are A / D converters 71r, 71g and 7b.
1b, and converted into digital data respectively.
These digital data are stored in the gamma correction circuits 72r and 7r.
2g and 72b, respectively, and the internal LUT (Loo
A correction process based on k Up Table) is performed.
The outputs of the gamma correction circuits 72r, 72g and 72b are
It is supplied to the white control circuit 73, where the white balance is controlled. The output of the white control circuit 73 is
Each is supplied to the VRAM 74. The digital primary color data R, G, and B supplied to the VRAM 74 are VR-controlled by a write control signal from the white control circuit 73, respectively.
Written to AM74.

【0037】VRAM74に記憶されているディジタル
原色データR、G及びBは、夫々読み出し制御回路75
からの読み出し制御信号により夫々読み出される。VR
AM74から読み出されたディジタル原色データR、G
及びBは、ガンマ補正回路76r、76g及び76bに
供給され、LUTに基いて夫々補正処理が施される。こ
れらガンマ補正回路76r、76g及び76bからのデ
ィジタル原色データR、G及びBは、マルチプレクサ7
7に供給される。
The digital primary color data R, G, and B stored in the VRAM 74 are read out by the read control circuit 75, respectively.
Are read by the read control signals from the respective. VR
Digital primary color data R, G read from AM74
B and B are supplied to gamma correction circuits 76r, 76g, and 76b, and correction processing is performed based on the LUT. The digital primary color data R, G and B from these gamma correction circuits 76r, 76g and 76b are sent to the multiplexer 7
7 is supplied.

【0038】このとき、図2に示したカメラヘッドのマ
イクロコンピュータ61からの制御信号、即ち、カメラ
ヘッド2が、縦向きになっているのか、横向きになって
いるのかを示す信号が、入出力端子93a及びバス93
を介して、CPU92に供給される。CPU92は、上
記制御信号に基いて、フラッシュメモリ95に記憶され
ている縦若しくは横方向ビットマップデータを、読み出
し、読み出したデータを、SRAM97に供給する。コ
ントローラ96は、SRAM97に対し、書き込み制御
信号を供給する。これにより、縦若しくは横方向ビット
マップデータが、SRAM97に書き込まれる。以降、
コントローラ96は、SRAM97に対し、読み出し制
御信号を供給する。コントローラ96からの読み出し制
御信号がSRAM97に供給されると、SRAM97に
記憶されている縦若しくは横方向ビットマップデータ
が、コントローラ96に供給される。コントローラ96
は、SRAM97からの縦若しくは横方向ビットマップ
データを、1ビットシリアルデータに変換してマルチプ
レクサ77に供給する。よって、マルチプレクサ77に
おいては、ガンマ補正回路76r、76g及び76bか
らの原色信号R、G及びBと、上記縦若しくは横方向ビ
ットマップデータとが混合される。
At this time, a control signal from the microcomputer 61 of the camera head shown in FIG. 2, that is, a signal indicating whether the camera head 2 is oriented vertically or horizontally is input / output. Terminal 93a and bus 93
Is supplied to the CPU 92 via. The CPU 92 reads the vertical or horizontal direction bitmap data stored in the flash memory 95 based on the control signal, and supplies the read data to the SRAM 97. The controller 96 supplies a write control signal to the SRAM 97. As a result, the vertical or horizontal direction bitmap data is written in the SRAM 97. Or later,
The controller 96 supplies a read control signal to the SRAM 97. When the read control signal from the controller 96 is supplied to the SRAM 97, the vertical or horizontal direction bitmap data stored in the SRAM 97 is supplied to the controller 96. Controller 96
Converts the vertical or horizontal bit map data from the SRAM 97 into 1-bit serial data and supplies it to the multiplexer 77. Therefore, in the multiplexer 77, the primary color signals R, G and B from the gamma correction circuits 76r, 76g and 76b are mixed with the vertical or horizontal direction bitmap data.

【0039】マルチプレクサ77からのディジタル原色
データR、G及びBは、夫々D−Aコンバータ78r、
78g及び78bに供給され、ここで、夫々アナログ原
色信号R、G及びBに変換される。D−Aコンバータ7
8r、78g及び78bからの各アナログ原色信号R、
G及びBは、夫々ローパスフィルタ79r、79g及び
79bを介してエンコーダ80に供給される。エンコー
ダ80は、ローパスフィルタ79r、79g及び79b
からのアナログ原色信号R、G及びBを、各出力端子8
1r、81g及び81bから出力すると共に、アナログ
原色信号R、G及びBに基いてコンポジット映像信号を
生成する。このコンポジット映像信号は、出力端子81
cを介して、図1に示したテレビジョンモニタ6に供給
されると共に、カメラヘッド2を介してLCD4に夫々
供給される。
The digital primary color data R, G and B from the multiplexer 77 are supplied to the DA converter 78r, respectively.
78g and 78b, where they are converted to analog primary color signals R, G and B, respectively. DA converter 7
Each analog primary color signal R from 8r, 78g and 78b,
G and B are supplied to the encoder 80 via low-pass filters 79r, 79g, and 79b, respectively. The encoder 80 includes low pass filters 79r, 79g and 79b.
The analog primary color signals R, G and B from the output terminals 8
1r, 81g and 81b are output, and a composite video signal is generated based on the analog primary color signals R, G and B. This composite video signal is output to the output terminal 81.
It is supplied to the television monitor 6 shown in FIG. 1 via c and to the LCD 4 via the camera head 2.

【0040】このときの映像の例は、図5A及びCに示
されるように、カメラヘッド2が横向きにされたときに
は、横方向ビットマップデータが出力されるので、映像
上における被写体Hの向きとメニュー画像M1の向きが
一致する。また、カメラヘッド2が縦向きにされたとき
には、縦方向ビットマップデータが出力されるので、映
像上における被写体Hの向きとメニュー画像M3の向き
が一致する。
An example of the image at this time is, as shown in FIGS. 5A and 5C, when the camera head 2 is set in the horizontal direction, the horizontal direction bitmap data is output. The directions of the menu image M1 match. Further, when the camera head 2 is oriented vertically, the vertical direction bitmap data is output, so that the orientation of the subject H and the orientation of the menu image M3 on the video match.

【0041】〔2回目のレリーズボタンの押圧時の動
作〕2回目のレリーズボタンの押圧時には、図1に示し
たカメラヘッド2のマイクロコンピュータ61からの制
御信号(2回目のレリーズボタンの押圧を意味する信
号)が、入出力端子93aを介して、図3に示すCPU
92に供給される。CPU92は、DRAMコントロー
ラ82に対し、撮影画像の取り込みを示す制御信号を供
給する。これにより、DRAMコントローラ82は、ガ
ンマ補正回路72r、72g及び72bからの原色信号
R、G及びBを、DRAM83r、83g及び83bに
記憶する。DRAM83r、83g及び83bに記憶さ
れている原色信号R、G及びBは、DRAMコントロー
ラ82の読み出し制御により読み出される。読み出され
た原色信号R、G及びBは、平均回路85を介してマト
リクスエンコーダ86に供給される。
[Operation When Second Release Button is Pressed] When the second release button is pressed, a control signal from the microcomputer 61 of the camera head 2 shown in FIG. 1 (means the second release button is pressed). Signal) to the CPU shown in FIG. 3 via the input / output terminal 93a.
Is supplied to 92. The CPU 92 supplies the DRAM controller 82 with a control signal indicating the capture of a captured image. As a result, the DRAM controller 82 stores the primary color signals R, G and B from the gamma correction circuits 72r, 72g and 72b in the DRAMs 83r, 83g and 83b. The primary color signals R, G, and B stored in the DRAMs 83r, 83g, and 83b are read by the read control of the DRAM controller 82. The read primary color signals R, G, and B are supplied to the matrix encoder 86 via the averaging circuit 85.

【0042】一方、上記原色信号R、G及びBは、補間
回路87に供給され、ここで、補間処理が施されると共
に、高域輝度成分と低域輝度成分のみが抽出される。高
域輝度成分は、ディテール/コントラスト回路88に供
給され、ここでディテールとコントラストの調整処理が
行われる。ディテール/コントラスト回路88からの高
域輝度成分は、マトリクスエンコーダ86に供給され
る。また、低域輝度成分は、マトリクスエンコーダ86
に供給される。マトリクスエンコーダ86は、原色信号
R、G及びBを、マスキング回路89に供給すると共
に、原色信号R、G及びBに基いて輝度信号Y、色差信
号R−Y及びB−Yを生成し、これらを夫々出力端子8
6y、86r及び86bから出力する。マスキング回路
89に供給された原色信号R、G及びBは、ここで色の
飽和度が制御された後に、インターフェース回路90及
び入出力端子91を介して、図1に示したメインコンピ
ュータ9に供給される。
On the other hand, the primary color signals R, G and B are supplied to an interpolation circuit 87, where they are subjected to interpolation processing and at the same time, only the high band luminance component and the low band luminance component are extracted. The high-frequency luminance component is supplied to the detail / contrast circuit 88, where detail and contrast adjustment processing is performed. The high-frequency luminance component from the detail / contrast circuit 88 is supplied to the matrix encoder 86. Further, the low-frequency luminance component is the matrix encoder 86.
Is supplied to. The matrix encoder 86 supplies the primary color signals R, G and B to the masking circuit 89 and also generates a luminance signal Y and color difference signals RY and BY based on the primary color signals R, G and B, and these Output terminal 8 respectively
Output from 6y, 86r and 86b. The primary color signals R, G, and B supplied to the masking circuit 89 are supplied to the main computer 9 shown in FIG. 1 through the interface circuit 90 and the input / output terminal 91 after the color saturation is controlled here. To be done.

【0043】D.図1に示したプロセッサ5の制御動作
(図4)
D. Control operation of the processor 5 shown in FIG. 1 (FIG. 4)

【0044】図4は、図1に示したプロセッサ5の制御
動作を示すフローチャートである。
FIG. 4 is a flow chart showing the control operation of the processor 5 shown in FIG.

【0045】ステップS1では、プロセッサ5のCPU
92が、図1に示したカメラヘッド2のマイクロコンピ
ュータ61から入出力端子93aを介して供給される、
カメラヘッド2の向きが、縦向きか横向きかを示す制御
信号受け付け、当該制御信号が示す向きが、縦か否かを
判断し、「YES」であればステップS2に移行し、
「NO」であればステップS3に移行する。
In step S1, the CPU of the processor 5
92 is supplied from the microcomputer 61 of the camera head 2 shown in FIG. 1 via the input / output terminal 93a,
A control signal indicating whether the orientation of the camera head 2 is portrait orientation or landscape orientation is accepted, it is determined whether the orientation indicated by the control signal is portrait orientation, and if “YES”, the process proceeds to step S2,
If “NO”, the process proceeds to step S3.

【0046】ステップS2では、プロセッサ5のCPU
92が、フラッシュメモリ95の縦方向ビットマップデ
ータの記憶されているエリアの先頭アドレスをセットす
る。
In step S2, the CPU of the processor 5
92 sets the start address of the area of the flash memory 95 in which the vertical direction bitmap data is stored.

【0047】ステップS3では、プロセッサ5のCPU
92が、フラッシュメモリ95の横方向ビットマップデ
ータの記憶されているエリアの先頭アドレスをセットす
る。
In step S3, the CPU of the processor 5
92 sets the start address of the area of the flash memory 95 in which the horizontal bitmap data is stored.

【0048】ステップS4では、プロセッサ5のCPU
92が、内部データか外部データかを判断し、「YE
S」であればステップS5に移行し、「NO」であれば
ステップS6に移行する。ここで内部データとは、上記
縦若しくは横方向ビットマップデータであり、外部デー
タとは、図1に示したメインコンピュータ9から入出力
端子91及びインターフェース回路90を介して供給さ
れる入力データを意味する。この入力データは、例えば
アスキーコード等である。オペレータにより、図1に示
したリモートコントローラ3でメニュー画像を出力する
ことが指定されている場合には、プロセッサ5のCPU
92は、このステップS4において、「YES」と判断
するが、この指定がなく、且つ、メインコンピュータ9
からデータが伝送されている場合は、そのデータに応じ
たビットマップデータを生成する。
In step S4, the CPU of the processor 5
92 judges whether the data is internal data or external data, and "YE
If "S", the process proceeds to step S5, and if "NO", the process proceeds to step S6. Here, the internal data means the vertical or horizontal direction bitmap data, and the external data means the input data supplied from the main computer 9 shown in FIG. 1 via the input / output terminal 91 and the interface circuit 90. To do. This input data is, for example, an ASCII code or the like. If the operator has specified that the remote controller 3 shown in FIG.
92 determines "YES" in this step S4, but this designation is not made and the main computer 9
If the data is transmitted from, the bitmap data corresponding to the data is generated.

【0049】ステップS5では、プロセッサ5のCPU
92が、フラッシュメモリ95に対し、縦若しくは横方
向ビットマップデータが記憶されているエリアの先頭の
アドレスから順次歩進するアドレスデータ、並びに読み
出し制御信号を、夫々供給する。これにより、フラッシ
ュメモリ95から、縦若しくは横方向ビットマップデー
タが、順次読み出される。
In step S5, the CPU of the processor 5
The flash memory 95 supplies the flash memory 95 with the address data sequentially stepping from the head address of the area where the vertical or horizontal bit map data is stored, and the read control signal. As a result, the vertical or horizontal direction bitmap data is sequentially read from the flash memory 95.

【0050】ステップS6では、CPU92が、メイン
コンピュータ9からのデータに基いて、ビットマップデ
ータを得る。
In step S6, the CPU 92 obtains the bit map data based on the data from the main computer 9.

【0051】ステップS7では、コントローラ96が、
SRAM97に対し、書き込み制御信号を供給する。こ
れにより、フラッシュメモリ95から読み出された縦若
しくは横方向ビットマップデータ、または、メインコン
ピュータ9から供給されたデータに基いてCPU92が
生成したビットマップデータは、SRAM97に書き込
まれる。
In step S7, the controller 96
A write control signal is supplied to the SRAM 97. As a result, the vertical or horizontal direction bitmap data read from the flash memory 95 or the bitmap data generated by the CPU 92 based on the data supplied from the main computer 9 is written in the SRAM 97.

【0052】ステップS8では、コントローラ96が、
SRAM97に対し、読み出し制御信号を供給する。こ
れにより、SRAM96に記憶されているビットマップ
データが、読み出される。コントローラ96の制御によ
りSRAM97から読み出されたビットマップデータ
は、一旦コントローラ96に供給され、ここで1ビット
シリアルデータに変換される。
In step S8, the controller 96
A read control signal is supplied to the SRAM 97. As a result, the bitmap data stored in the SRAM 96 is read. The bitmap data read from the SRAM 97 under the control of the controller 96 is once supplied to the controller 96, and is converted into 1-bit serial data here.

【0053】ステップS9では、コントローラ96が、
上記1ビットシリアルデータを、マルチプレクサ77に
供給する。そして、マルチプレクサ77は、ガンマ補正
回路76r、76g及び76bからの原色信号R、G及
びBと、上記1ビットシリアルデータを、重畳する。
In step S9, the controller 96
The 1-bit serial data is supplied to the multiplexer 77. Then, the multiplexer 77 superimposes the primary color signals R, G and B from the gamma correction circuits 76r, 76g and 76b on the 1-bit serial data.

【0054】ステップS10では、マルチプレクサ77
が、原色信号R、G及びBと、1ビットシリアルデータ
との重畳信号を、D−Aコンバータ78r、78g及び
78bに供給する。
In step S10, the multiplexer 77
Supplies the superimposed signals of the primary color signals R, G and B and the 1-bit serial data to the DA converters 78r, 78g and 78b.

【0055】ステップS11では、CPU92が、カメ
ラヘッド2のマイクロコンピュータ61からの、処理を
停止する旨を示す制御信号が、入出力端子93aを介し
て供給されたか否かを判断し、「YES」であれば終了
し、「NO」であれば再びステップS1に移行する。
In step S11, the CPU 92 determines whether or not a control signal from the microcomputer 61 of the camera head 2 indicating that the processing is to be stopped is supplied via the input / output terminal 93a, and "YES". If so, the process ends. If "NO", the process returns to step S1.

【0056】E.カメラヘッドを縦にした状態で被写体
を撮影した場合の映像例(図5)
E. Image example of shooting a subject with the camera head vertically (Fig. 5)

【0057】以上説明したように、カメラヘッド2の向
きを検出し、その検出結果に応じて、フラッシュメモリ
95に予め記憶されている縦若しくは横方向ビットマッ
プデータを出力するようにしたので、撮影画像とメニュ
ー画像を重畳した場合に画像上での方向を一致させるこ
とができる。図5Aと図5Cを参照すれば一目瞭然であ
ろう。図5Aは、カメラヘッド2を横向きにして被写体
Hを撮像しているときのモニタ画像の一例である。ま
た、図5Cは、カメラヘッド2を縦向きにして被写体H
を撮像しているときのモニタ画像の一例である。図5A
に示されているように、カメラヘッド2を横向きにして
被写体Hを撮影した場合には、LCD4若しくはテレビ
ジョンモニタ6上に映出される映像上では、被写体Hの
方向と、メニュー画像M1の方向が一致している。ま
た、図5Bに示されているように、カメラヘッド2を縦
向きにして被写体Hを撮影した場合には、LCD4若し
くはテレビジョンモニタ6上に映出される映像上では、
被写体Hの方向と、メニュー画像Mの方向が一致してい
る。
As described above, the orientation of the camera head 2 is detected, and the vertical or horizontal direction bitmap data stored in advance in the flash memory 95 is output according to the detection result. When the image and the menu image are superimposed, the directions on the image can be matched. It will be obvious with reference to FIGS. 5A and 5C. FIG. 5A is an example of a monitor image when the subject H is imaged with the camera head 2 facing sideways. In addition, FIG.
3 is an example of a monitor image when an image is captured. FIG. 5A
As shown in FIG. 3, when the subject H is photographed with the camera head 2 facing sideways, on the image displayed on the LCD 4 or the television monitor 6, the direction of the subject H and the direction of the menu image M1. Are matched. Further, as shown in FIG. 5B, when the subject H is photographed with the camera head 2 oriented vertically, on the image displayed on the LCD 4 or the television monitor 6,
The direction of the subject H and the direction of the menu image M match.

【0058】つまり、図5Cに示すような状態、即ち、
映像上において、被写体Hの向きとメニュー画像M2の
向きが不一致となる状態を回避することができる。図5
Cに示されるような状態になると、例えば被写体Hの方
向に合わせてテレビジョンモニタの向きを設定すると、
メニュー画像M2がオペレータから見て横になってしま
うので非常に見にくい。一方、メニュー画像M2の方向
に合わせてテレビジョンモニタの向きを設定、即ち、テ
レビジョンモニタを左側を下して立てると、被写体Hが
オペレータから見て横になってしまうので非常に見にく
い。
That is, the state shown in FIG. 5C, that is,
It is possible to avoid a state where the orientation of the subject H and the orientation of the menu image M2 do not match on the video. FIG.
In the state shown in C, for example, when the direction of the television monitor is set in accordance with the direction of the subject H,
Since the menu image M2 lies on the side of the operator, it is very difficult to see. On the other hand, if the direction of the television monitor is set in accordance with the direction of the menu image M2, that is, if the television monitor is set up with the left side down, the subject H lies sideways when viewed from the operator, which is very difficult to see.

【0059】しかしながら、本形態においては、カメラ
ヘッド2の向きを検出し、その検出結果に応じて、フラ
ッシュメモリ95に予め記憶されている縦若しくは横方
向ビットマップデータを出力するようにしたので、撮影
画像とメニュー画像を重畳した場合に画像上での方向を
一致させることができる。よって、オペレータに対し、
使い勝手の良い作業環境を提供することができ、ひいて
は、作業の効率化を図ることができる。
However, in this embodiment, the orientation of the camera head 2 is detected, and the vertical or horizontal direction bitmap data stored in advance in the flash memory 95 is output according to the detection result. When the captured image and the menu image are superimposed, the directions on the image can be matched. Therefore, for the operator
A work environment that is easy to use can be provided, which in turn can improve work efficiency.

【0060】[0060]

【発明の効果】上述せる本発明によれば、検出手段から
の検出出力の内容に基いて、保持手段に保持されている
重畳用データが出力され、この重畳用データが、重畳手
段により、撮像手段からの撮像出力と重畳されるので、
撮像出力と重畳用データの画像上での向きを一致させる
ことができるという効果がある。
According to the present invention described above, the superposition data held in the holding means is output based on the content of the detection output from the detection means, and the superposition data is captured by the superposition means. Since it is superimposed with the image output from the means,
There is an effect that the imaging output and the orientation of the superimposition data on the image can be matched.

【図面の簡単な説明】[Brief description of drawings]

【図1】実施の形態を示す撮影システムの構成図であ
る。
FIG. 1 is a configuration diagram of an image capturing system showing an embodiment.

【図2】図1に示したカメラヘッドの構成例を示す構成
図である。
FIG. 2 is a configuration diagram showing a configuration example of a camera head shown in FIG.

【図3】図1に示したプロセッサの構成例を示す構成図
である。
FIG. 3 is a configuration diagram showing a configuration example of a processor shown in FIG.

【図4】図1に示したプロセッサの制御動作を説明する
ためのフローチャートである。
FIG. 4 is a flowchart for explaining a control operation of the processor shown in FIG.

【図5】本発明及び従来の撮影システムの説明に供する
カメラヘッドを横にした場合と縦にした場合におけるテ
レビジョンモニタ上に映出される画像の一例を示す説明
図である。
FIG. 5 is an explanatory diagram showing an example of an image displayed on a television monitor when the camera head is laid horizontally and vertically when the photographic system according to the present invention and the conventional photographic system are described.

【符号の説明】[Explanation of symbols]

1 レンズユニット、2 カメラヘッド、3 リモート
コントローラ、4 LCD、5 プロセッサ、6 テレ
ビジョンモニタ、7 ストロボ駆動回路、8発光部、9
メインコンピュータ、10 プリンタ、11 ターミ
ネータ、12サブコンピュータ、50r、50g、50
b CCD、51r、51g、51b CDS、52
r、52g、52b プロセス回路、53r、53g、
53bガンマ補正回路、54r、54g、54b、65
増幅回路、56 CCDドライバ、57 タイミング
ジェネレータ、58 クリスタルオシレータ、59同期
信号発生回路、61 マイクロコンピュータ、62 セ
ンサ、63 EEPROM、70r、70g、70b
増幅及び位相補償回路、71r、71g、71b A−
Dコンバータ、72r、72g、72b ガンマ補正回
路、73 ホワイト制御回路、74 VRAM、75
読み出し制御回路、76r、76g、76b ガンマ補
正回路、77 マルチプレクサ、78r、78g、78
b D−Aコンバータ、79r、79g、79b ロー
パスフィルタ、80 エンコーダ、82 DRAMコン
トローラ、83r、83g、83b DRAM、84フ
レームメモリ、85 平均回路、86 エンコーダ、8
7 補間回路、88ディテール/コントラスト回路、8
9 マスキング回路、90 インターフェース回路、9
2 CPU、93 バス、94 EEPROM、95
フラッシュメモリ、96 コントローラ、97 SRA
1 lens unit, 2 camera head, 3 remote controller, 4 LCD, 5 processor, 6 television monitor, 7 strobe drive circuit, 8 light emitting part, 9
Main computer, 10 printers, 11 terminators, 12 sub-computers, 50r, 50g, 50
b CCD, 51r, 51g, 51b CDS, 52
r, 52g, 52b process circuit, 53r, 53g,
53b gamma correction circuit, 54r, 54g, 54b, 65
Amplifier circuit, 56 CCD driver, 57 timing generator, 58 crystal oscillator, 59 sync signal generation circuit, 61 microcomputer, 62 sensor, 63 EEPROM, 70r, 70g, 70b
Amplification and phase compensation circuit, 71r, 71g, 71b A-
D converter, 72r, 72g, 72b Gamma correction circuit, 73 White control circuit, 74 VRAM, 75
Read control circuit, 76r, 76g, 76b Gamma correction circuit, 77 Multiplexer, 78r, 78g, 78
b DA converter, 79r, 79g, 79b low-pass filter, 80 encoder, 82 DRAM controller, 83r, 83g, 83b DRAM, 84 frame memory, 85 averaging circuit, 86 encoder, 8
7 Interpolation circuit, 88 detail / contrast circuit, 8
9 Masking circuit, 90 Interface circuit, 9
2 CPU, 93 bus, 94 EEPROM, 95
Flash memory, 96 controller, 97 SRA
M

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 被写体からの光を撮像する撮像手段の向
きを検出する向き検出ステップと、 上記向き検出ステップでの検出結果に応じた重畳データ
を選択する選択ステップと、 上記選択ステップにおいて選択された重畳データを上記
撮像手段からの撮像出力と重畳する重畳ステップとを有
する撮影映像に対するデータ重畳方法。
1. A direction detecting step of detecting a direction of an image pickup means for picking up light from a subject, a selecting step of selecting superimposition data according to a detection result of the direction detecting step, and a selecting step in the selecting step. And a superimposing step of superimposing the superimposition data on the imaging output from the imaging means.
【請求項2】 被写体からの光を撮像する撮像手段と、 上記撮像手段の向きを検出する検出手段と、 異なる重畳用データを保持すると共に、上記検出手段か
らの検出出力の内容に基いて、上記保持手段に保持され
ている重畳用データを出力する重畳用データ発生手段
と、 上記重畳用データ発生手段からの重畳用データと、上記
撮像手段からの撮像出力とを重畳する重畳手段とからな
る撮影装置。
2. An image pickup means for picking up light from a subject, a detection means for detecting the direction of the image pickup means, different superimposition data are held, and based on the content of the detection output from the detection means, The superimposing data generating means outputs the superimposing data held in the holding means, and the superimposing means for superimposing the superimposing data from the superimposing data generating means and the image pickup output from the image pickup means. Imaging device.
JP8080232A 1996-04-02 1996-04-02 Method for superimposing data on photographing video and photographing device Pending JPH09270941A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8080232A JPH09270941A (en) 1996-04-02 1996-04-02 Method for superimposing data on photographing video and photographing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8080232A JPH09270941A (en) 1996-04-02 1996-04-02 Method for superimposing data on photographing video and photographing device

Publications (1)

Publication Number Publication Date
JPH09270941A true JPH09270941A (en) 1997-10-14

Family

ID=13712608

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8080232A Pending JPH09270941A (en) 1996-04-02 1996-04-02 Method for superimposing data on photographing video and photographing device

Country Status (1)

Country Link
JP (1) JPH09270941A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007208854A (en) * 2006-02-03 2007-08-16 Canon Inc Imaging apparatus and display control method
JP2010219641A (en) * 2009-03-13 2010-09-30 Olympus Imaging Corp Image capturing apparatus, and method for switching mode of the same
EP2285093A2 (en) * 1999-05-28 2011-02-16 Sony Corporation Image Pick-Up Apparatus
JP2013150359A (en) * 2013-04-24 2013-08-01 Olympus Imaging Corp Imaging apparatus and mode switching method therefor

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2285093A2 (en) * 1999-05-28 2011-02-16 Sony Corporation Image Pick-Up Apparatus
JP2007208854A (en) * 2006-02-03 2007-08-16 Canon Inc Imaging apparatus and display control method
JP2010219641A (en) * 2009-03-13 2010-09-30 Olympus Imaging Corp Image capturing apparatus, and method for switching mode of the same
JP2013150359A (en) * 2013-04-24 2013-08-01 Olympus Imaging Corp Imaging apparatus and mode switching method therefor

Similar Documents

Publication Publication Date Title
US4914746A (en) Electronic digital still camera for separately storing component video signals in memory
EP0377025B1 (en) Low resolution verifier for a still video image
US5493335A (en) Single sensor color camera with user selectable image record size
US6819359B1 (en) Method and apparatus for controlling the processing of signals containing defective pixels in accordance with imaging operation mode
JP2848396B2 (en) Electronic still camera
JPH07264606A (en) Cfa-compatible electronic camera having reduced resolution and single sensor
JP3374651B2 (en) Digital electronic imaging apparatus and imaging method
JPH09270941A (en) Method for superimposing data on photographing video and photographing device
JP2002218479A (en) Image pickup device
JP2006340100A (en) Photographic device
JP2731523B2 (en) Camera system
JP3846860B2 (en) Imaging apparatus and imaging method
JPH07322149A (en) Image pickup device
JP4455545B2 (en) Imaging apparatus and imaging method
JPH07322121A (en) High picture quality image input device
JP2602949B2 (en) Video camera
JP4843210B2 (en) Digital still camera and control method thereof
JPH10136400A (en) Color image pickup device and color image pickup method
JP3510664B2 (en) Negative image pickup device
JP3567046B2 (en) Image data transfer method and image input device
JP3130910B2 (en) Digital electronic still camera
JPH09270959A (en) Digital electronic image pickup device, image pickup system and its method
JPH1079951A (en) Camera device
JPH03173288A (en) Solid-state image pickup device
JPH0537856A (en) Video camera

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050302

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050614