JP4738251B2 - Synchronous automatic adjustment device - Google Patents

Synchronous automatic adjustment device Download PDF

Info

Publication number
JP4738251B2
JP4738251B2 JP2006140624A JP2006140624A JP4738251B2 JP 4738251 B2 JP4738251 B2 JP 4738251B2 JP 2006140624 A JP2006140624 A JP 2006140624A JP 2006140624 A JP2006140624 A JP 2006140624A JP 4738251 B2 JP4738251 B2 JP 4738251B2
Authority
JP
Japan
Prior art keywords
video signal
camera
unit
camera control
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006140624A
Other languages
Japanese (ja)
Other versions
JP2007312223A (en
Inventor
慎吾 石山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP2006140624A priority Critical patent/JP4738251B2/en
Publication of JP2007312223A publication Critical patent/JP2007312223A/en
Application granted granted Critical
Publication of JP4738251B2 publication Critical patent/JP4738251B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Description

本発明は、複数台のカメラから与えられる映像信号の同期調整に係り、特に、ワイヤレスカメラシステムに好適な同期自動調整装置に関する。   The present invention relates to synchronization adjustment of video signals given from a plurality of cameras, and more particularly to an automatic synchronization adjustment apparatus suitable for a wireless camera system.

例えば、テレビジョン放送局などにおいては、スタジオなど比較的狭隘な場所で数多くのカメラ(テレビカメラ)が使用される場合が多いが、このとき、カメラにケーブルが接続されていると、これが自由なカメラ運用の障害になる。そこで、近年、カメラをワイヤレス化した、いわゆるワイヤレスカメラシステムが業務用として使用されるようになってきた(例えば、特許文献1、2参照。)。   For example, in a television broadcasting station, many cameras (TV cameras) are often used in a relatively narrow place such as a studio. At this time, if a cable is connected to the camera, this is free. It becomes an obstacle to camera operation. Therefore, in recent years, a so-called wireless camera system in which a camera is wirelessly used has been used for business purposes (see, for example, Patent Documents 1 and 2).

そこで、以下、このようなワイヤレスカメラシステムについて説明すると、まず、このような業務用のカメラシステムの場合、通常、カメラが単体で構成されるのではなく、カメラ本体にCCU(Camera Controll Unit:カメラ制御装置)が対になって組合わされた、いわゆるカメラシステムとして構成されるのが一般的であり、従って、この場合の、例えばスタジオでの運用状況は、図4に示すようになる。   Therefore, in the following, such a wireless camera system will be described. First, in the case of such a commercial camera system, a camera is not usually configured as a single unit, but a CCU (Camera Controll Unit: camera) is installed in the camera body. In general, a control system is configured as a so-called camera system in which a pair of control devices are combined. Therefore, for example, the operation status in a studio in this case is as shown in FIG.

この図4は、テレビ放送用のスタジオSにおいて、例えばステージ上の歌手を被写体Pとし、これを、例えば6台のカメラ1A、1B、1C、1D、1E、1F(以下、1A〜1F)により撮像し、放送プログラムを作成する場合の例であり、このとき、各カメラ1A〜1Fには、夫々対になるCCU2A、2B、2C、2D、2E、2F(以下、2A〜2F)があって、これにより上記したカメラシステムを構成していることが示されている。   FIG. 4 shows, for example, a singer on a stage as a subject P in a television broadcasting studio S, and this is processed by, for example, six cameras 1A, 1B, 1C, 1D, 1E, and 1F (hereinafter referred to as 1A to 1F). This is an example of imaging and creating a broadcast program. At this time, each camera 1A to 1F has a pair of CCUs 2A, 2B, 2C, 2D, 2E, and 2F (hereinafter referred to as 2A to 2F). Thus, it is shown that the above-described camera system is configured.

このとき、各々のカメラとCCUには、図示のように、付属したアンテナが描かれていて、これにより各カメラ1A〜1Fと各CCU2A〜2Fの間がワイヤレス化され、この結果、いわゆるワイヤレスカメラシステムを構成し、且つ、これらのカメラ1A〜1FはカメラマンMにより持ち運び運用されるようになっていることが判る。   At this time, as shown in the drawing, an attached antenna is drawn on each camera and CCU, whereby the cameras 1A to 1F and the CCUs 2A to 2F are made wireless, and as a result, so-called wireless cameras are obtained. It can be seen that the system is configured and these cameras 1A to 1F are carried and operated by the cameraman M.

そこで、カメラマンMは、カメラ1A〜1Fにより、種々のアングルから被写体Pを撮像し、本線映像信号と呼ばれる映像信号を各個に取得する。そして、この本線映像信号はカメラ本体内でデータ圧縮処理され、対になっているCCU2A〜2Fの各々に無線伝送される。なお、このときのデータ圧縮処理とは、例えばH .264やMPEGなどの符号化方式のことであるが、これらに限定されるものではない。   Therefore, the cameraman M captures the subject P from various angles by the cameras 1A to 1F, and acquires video signals called main line video signals. The main line video signal is subjected to data compression processing in the camera body and wirelessly transmitted to each of the paired CCUs 2A to 2F. Note that the data compression processing at this time is an encoding method such as H.264 or MPEG, but is not limited thereto.

これによりCCU2A〜2Fは、各々受信された信号を伸長処理し、対応するカメラの本線映像信号110a〜110fとして再生し、夫々を切替器3に供給する。そこで切替器3は、これら本線映像信号110a〜110fの中からオンエア信号(実際に送信機から送信される信号)候補となる映像信号、つまりオンエア映像信号114を選択し、スタジオ副調整室4に出力する。従って、このときの切替器3の操作は、通称サブと呼ばれているスタジオ副調整室4から行われるようになっている。   As a result, the CCUs 2A to 2F decompress the received signals, reproduce the signals as main video signals 110a to 110f of the corresponding cameras, and supply each to the switch 3. Therefore, the switch 3 selects a video signal that is a candidate for an on-air signal (a signal that is actually transmitted from the transmitter) from these main video signals 110a to 110f, that is, the on-air video signal 114, and sends it to the studio sub-adjustment room 4. Output. Accordingly, the operation of the switch 3 at this time is performed from the studio sub-adjustment room 4 which is commonly called a sub.

このとき、図示されていないが、切替器3の出力であるオンエア映像信号114は、スタジオ副調整室4に出力されるだけではなく、これと並行してCCU2A〜2Fの各々にも供給され、それらから対応するカメラ1A〜1Fの各々にリターン映像信号として無線伝送され、各カメラ1A〜1FのVF(ビデオファインダ)に画像表示されるようになっている。従って、各カメラマンMは、自分が撮像している画像のほか、オンエア映像信号による画像もモニタし、このことを前提としたカメラ操作ができることになる。   At this time, although not shown, the on-air video signal 114 that is the output of the switch 3 is not only output to the studio sub-adjustment room 4, but is also supplied to each of the CCUs 2A to 2F in parallel therewith, From there, it is wirelessly transmitted as a return video signal to each of the corresponding cameras 1A to 1F, and an image is displayed on a VF (video finder) of each camera 1A to 1F. Therefore, each cameraman M can monitor an image based on an on-air video signal in addition to an image captured by the cameraman M, and can perform a camera operation based on this assumption.

ところで、この場合、各CCU2A〜2Fから出力される本線映像信号110a〜110fが全て同じ位相になっていたとすれば何も問題はないが、もしも位相が同期していなっていたとすると、切替器3で切替えられたとき、再び同期が掛かるまでの間、短時間ではあるが、画像乱れが発生してしまう。この場合、オンエア映像にも画像乱れが発生してしまうので、放送品質が維持できなくなってしまうことになる。   In this case, there is no problem if the main video signals 110a to 110f output from the CCUs 2A to 2F are all in the same phase. However, if the phases are synchronized, the switch 3 When it is switched at, image disturbance occurs although it is a short time until synchronization is again applied. In this case, image disturbance occurs in the on-air video, so that the broadcast quality cannot be maintained.

そこで、各カメラ1A〜1Fでは、上記したリターン映像信号を利用し、詳しくは後述するが、撮像した本線映像信号をリターン映像信号に同期させて上記の問題に対処するようになっており、従って、各CCU2A〜2Fから出力される本線映像信号110a〜110fについては互いに同期が保たれた状態にされていることになり、切替えに伴う画像乱れが生じないようにしてある。   Therefore, each of the cameras 1A to 1F uses the above-described return video signal, and will be described in detail later. However, the captured main line video signal is synchronized with the return video signal to cope with the above-described problem. The main line video signals 110a to 110f output from the CCUs 2A to 2F are kept in synchronization with each other, so that image disturbance due to switching does not occur.

次に、この図4におけるカメラ1A〜1FとCCU2A〜2Fの詳細について、図5により説明する。このとき、図示されているように、カメラ1A〜1Fの各々についてはカメラ1で代表させ、CCU2A〜2Fの各々はCCU2で代表して示してある。   Next, details of the cameras 1A to 1F and CCUs 2A to 2F in FIG. 4 will be described with reference to FIG. At this time, as illustrated, each of the cameras 1A to 1F is represented by the camera 1, and each of the CCUs 2A to 2F is represented by the CCU 2.

そして、まず、カメラ1には光学系と撮像系を構成するカメラヘッド9があり、ここで被写体Pを撮像して取得した信号が本線映像信号100として出力され、S/P変換部10に供給される。このときの本線映像信号100は、例えば1.485Gbit/sのHD−SDI(HDTV SERIAL DIGITAL INTERFACE)形式対応であり、従って、S/P変換部10では、この本線映像信号100がパラレル映像データ101に変換され、これがアクティブ映像抽出部11に供給されることになる。   First, the camera 1 has a camera head 9 constituting an optical system and an imaging system. A signal acquired by imaging the subject P is output as a main video signal 100 and supplied to the S / P converter 10. Is done. The main line video signal 100 at this time is compatible with, for example, 1.485 Gbit / s HD-SDI (HDTV SERIAL DIGITAL INTERFACE) format. Therefore, in the S / P converter 10, the main line video signal 100 is converted into parallel video data 101. And is supplied to the active video extraction unit 11.

このとき、アクティブ映像抽出部11は、パラレル映像データ101から、表示画像には不要な垂直ブランキング期間と水平ブランキング期間のデータを除去し、アクティブ映像データ102を圧縮部12に供給する働きをする。ここで、アクティブ映像とは、実際に表示される映像のことで、これは、例えばHDTVの1080i形式の信号の場合、2200画素×1125ラインの画像(いわゆるフル画像)の中の1920画素×1080ラインの画像となる。なお、HDTVとは、いわゆるハイビジョン規格のことであり、これに対してNTSC標準規格はSDTVと呼ばれている。   At this time, the active video extraction unit 11 removes the vertical blanking period and horizontal blanking period data unnecessary for the display image from the parallel video data 101 and supplies the active video data 102 to the compression unit 12. To do. Here, the active video is a video that is actually displayed. For example, in the case of an HDTV 1080i format signal, the active video is 1920 pixels × 1080 in an image of 2200 pixels × 1125 lines (so-called full image). It becomes an image of a line. HDTV is a so-called high-vision standard, whereas the NTSC standard is called SDTV.

圧縮部12は、入力されたアクティブ映像データ102にデータ圧縮処理を施し、映像圧縮データ103として多重部13に出力する。このときのデータ圧縮処理は、例えばMPEG−2準拠による符号化のことであるが、但し圧縮による符号化に限られるものではなく、非圧縮方式による符号化であってもかまわない。   The compression unit 12 performs a data compression process on the input active video data 102 and outputs the compressed video data 103 to the multiplexing unit 13. The data compression processing at this time is, for example, encoding based on MPEG-2, but is not limited to encoding by compression, and may be encoding by a non-compression method.

一方、カメラ1にはマイク(マイクロホン)14が設けてあり、カメラマンMの声が拾えるようになっている。そして、このマイク14から出力される音声信号104はS/P変換部15に入力され、パラレル音声データ105に変換されて多重部13に供給されるようになっている。   On the other hand, the camera 1 is provided with a microphone 14 so that the voice of the cameraman M can be picked up. The audio signal 104 output from the microphone 14 is input to the S / P converter 15, converted into parallel audio data 105, and supplied to the multiplexer 13.

そこで、多重部13は、映像圧縮データ103とパラレル音声データ105の供給を受け、これらを時分割多重化して多重化データ106に変換して変調部16に供給する。このときの多重化データ106の形式は、例えばTS(トランスポートストリーマー)で、変調部16では、この多重化データ106に所定のエラー訂正機能を付与した上で、所定の周波数のキャリヤに乗せて変調データ45とし、アンテナ40に供給することにより、カメラ1から電波が送信されるようにする。   Therefore, the multiplexing unit 13 receives the video compression data 103 and the parallel audio data 105, time-division multiplexes them, converts them into multiplexed data 106, and supplies them to the modulation unit 16. The format of the multiplexed data 106 at this time is, for example, TS (transport streamer), and the modulation unit 16 adds a predetermined error correction function to the multiplexed data 106 and puts it on a carrier of a predetermined frequency. By supplying the modulation data 45 to the antenna 40, radio waves are transmitted from the camera 1.

このとき、カメラ1と対になっているCCU2の無線チャンネルは、アンテナの指向性などにより、予め各対毎に個々に割り当ててある。そこで、このとき送信された電波は、当該カメラ1と対になっているCCU2のアンテナ41により変調データ45として受信され、これが変調データ46となって復調部17に入力され、ここで復調された多重データ106が分離部18に出力され、多重データ106から映像圧縮データ107とパラレル音声データ111が分離され、映像圧縮データ107は伸長部19に入力され、パラレル音声データ111はP/S変換部22に入力される。   At this time, the radio channel of the CCU 2 that is paired with the camera 1 is individually assigned to each pair in advance by the directivity of the antenna. Therefore, the radio wave transmitted at this time is received as modulation data 45 by the antenna 41 of the CCU 2 paired with the camera 1, and this is converted into the modulation data 46 and input to the demodulation unit 17, where it is demodulated. The multiplexed data 106 is output to the separating unit 18, the compressed video data 107 and the parallel audio data 111 are separated from the multiplexed data 106, the compressed video data 107 is input to the decompressing unit 19, and the parallel audio data 111 is converted into a P / S converting unit. 22 is input.

個々に説明すると、まず、伸長部19では、入力された映像圧縮データ107がデータ伸長処理され、パラレル映像データ108が出力される。次に、これがブランキング情報付加部20に入力され、ここで水平ブランキング期間と垂直ブランキング期間が付加され、パラレル映像データ109として出力される。   More specifically, first, in the decompression unit 19, the input video compression data 107 is subjected to data decompression processing, and parallel video data 108 is output. Next, this is input to the blanking information adding unit 20 where a horizontal blanking period and a vertical blanking period are added and output as parallel video data 109.

そして、これがP/S変換部21に入力された結果、カメラ1のカメラヘッド9から出力された元の本線映像信号100と同じ本線映像信号、例えば本線映像信号110aがCCU2から出力され、他のCCUから供給されている本線映像信号、例えば本線信号110b〜110fと一緒に切替器3に入力され、それらの中からオンエア映像信号114が選択されることになる。   As a result of this input to the P / S converter 21, the same main line video signal as the original main line video signal 100 output from the camera head 9 of the camera 1, for example, the main line video signal 110a is output from the CCU 2, The main line video signal supplied from the CCU, for example, the main line signals 110b to 110f, is input to the switch 3, and the on-air video signal 114 is selected from them.

一方、P/S変換部22に入力されたパラレル音声データ111は、ここで元の音声信号、つまりカメラ1のマイク14で拾った音声信号104と同じ音声信号112に戻される。そして、これがCCU2からスピーカ5に出力され、音声に復元される。なお、これは、後述するマイク7とスピーカ8と共に、スタジオ副調整室4とカメラマンMの間を音声でつなぐインターカム(intercom)機能のためである。   On the other hand, the parallel audio data 111 input to the P / S converter 22 is returned to the original audio signal, that is, the same audio signal 112 as the audio signal 104 picked up by the microphone 14 of the camera 1. Then, this is output from the CCU 2 to the speaker 5 and restored to sound. This is because of an intercom function for connecting the studio sub-adjustment room 4 and the cameraman M with sound together with the microphone 7 and the speaker 8 described later.

切替器3で選択されたオンエア映像信号114は、上記したオンエア映像のカメラ側でのモニタを可能にするため、再度、CCU2に取り込まれる。そして、まずダウンコンバータ23に入力され、ここでHDTV方式の映像からSDTV方式の映像にダウンコンバートされ、解像度が落されたリターン映像信号115となって同期部24に供給される。このとき同期部24には、別に基準映像信号116が基準映像信号発生器6から入力されている。   The on-air video signal 114 selected by the switch 3 is taken into the CCU 2 again in order to enable the above-described on-air video to be monitored on the camera side. Then, it is first input to the down converter 23, where it is down-converted from HDTV video to SDTV video, and is supplied to the synchronization unit 24 as a return video signal 115 with reduced resolution. At this time, another reference video signal 116 is input from the reference video signal generator 6 to the synchronization unit 24.

そこで、この同期部24では、入力されたリターン映像信号115の同期が取られ、これにより基準映像信号116に同期したリターン映像信号117が同期調整バッファ26に供給され、ここに一旦、蓄積されるが、このとき同期調整バッファ26には、蓄積時間設定部25から蓄積時間情報251が入力されている。   Therefore, the synchronizing unit 24 synchronizes the input return video signal 115, whereby the return video signal 117 synchronized with the reference video signal 116 is supplied to the synchronization adjustment buffer 26 and temporarily stored therein. However, at this time, the accumulation time information 251 is input from the accumulation time setting unit 25 to the synchronization adjustment buffer 26.

そこで、リターン映像信号117は、この同期調整バッファ26に蓄積され、ここで遅延される時間が、予め蓄積時間情報251により設定されるようになり、この後、蓄積時間情報251により決められている時間が経過した時点からリターン映像信号118が同期調整バッファ26から出力され、S/P変換部27に入力される。   Therefore, the return video signal 117 is accumulated in the synchronization adjustment buffer 26, and the time delayed here is set in advance by the accumulation time information 251. Thereafter, the return video signal 117 is determined by the accumulation time information 251. The return video signal 118 is output from the synchronization adjustment buffer 26 and input to the S / P converter 27 from the time point.

そして、このS/P変換部27により、リターン映像信号118からパラレル変換されたパラレル映像データ119が出力され、アクティブ映像抽出部28に入力されるようになり、ここで水平ブランキング期間と垂直ブランキング期間のデータが除かれ、アクティブ映像データ120が圧縮部29に入力されることになる。そして、圧縮部29でデータ圧縮された結果、多重部31に映像圧縮データ123が入力されることになる。   Then, the parallel video data 119 converted in parallel from the return video signal 118 is output by the S / P conversion unit 27 and is input to the active video extraction unit 28, where the horizontal blanking period and the vertical blanking period are input. The data of the ranking period is removed, and the active video data 120 is input to the compression unit 29. As a result of the data compression by the compression unit 29, the compressed video data 123 is input to the multiplexing unit 31.

また、CCU2には、外部のマイク7から音声信号121が供給され、S/P変換部30に入力されている。従って、この多重部31には、このS/P変換部30によりパラレル変換されたパラレル音声データ122も、上記した映像圧縮データ123と一緒に入力されている。そこで、多重部31は、これら映像圧縮データ123とパラレル音声データ122を時分割多重化し、多重化データ124として変調部32に供給する。   In addition, the audio signal 121 is supplied to the CCU 2 from the external microphone 7 and input to the S / P converter 30. Accordingly, parallel audio data 122 converted in parallel by the S / P converter 30 is also input to the multiplexing unit 31 together with the video compression data 123 described above. Therefore, the multiplexing unit 31 time-division multiplexes the compressed video data 123 and the parallel audio data 122 and supplies the multiplexed data 124 to the modulation unit 32.

変調部32では、入力された多重化データ124に、所定のエラー訂正機能の付与に必要な符号を付加した上で所定の周波数のキャリヤに乗せて変調データ48とし、アンテナ43に供給することにより、CCU2から電波が送信されるようにする。   In the modulation unit 32, a code necessary for giving a predetermined error correction function is added to the input multiplexed data 124, and the modulated data 48 is put on a carrier of a predetermined frequency to be supplied to the antenna 43. , Radio waves are transmitted from the CCU 2.

ここでCCU2と対になっているカメラ1の無線チャンネルは、予め各対毎に個々に割り当ててあり、このとき上記したカメラ1からCCU2に向かう伝送に割り当てた無線チャンネルとは異なったチャンネルにしてある。そこで、このときCCU2から送信された電波は、当該CCU2と対になっているカメラ1のアンテナ42により受信され、変調データ48が変調データ47となってカメラ1の復調部33に入力されることになる。   Here, the wireless channel of the camera 1 paired with the CCU 2 is assigned to each pair in advance, and at this time, the wireless channel assigned to the transmission from the camera 1 to the CCU 2 is set to a different channel. is there. Therefore, the radio wave transmitted from the CCU 2 at this time is received by the antenna 42 of the camera 1 paired with the CCU 2, and the modulation data 48 becomes the modulation data 47 and is input to the demodulation unit 33 of the camera 1. become.

復調部33では、入力された変調データ47が多重データ125に復調され、分離部34に出力される。そして、この分離部34では、多重データ125から映像圧縮データ126が分離され、これが伸長部35に入力され、同じく分離されたパラレル音声データ128はP/S変換部39に入力されることになる。   In the demodulator 33, the input modulation data 47 is demodulated into multiplexed data 125 and output to the separator 34. In the separation unit 34, the compressed video data 126 is separated from the multiplexed data 125, and this is input to the decompression unit 35. Similarly, the separated parallel audio data 128 is input to the P / S conversion unit 39. .

このとき、まず伸長部35では、入力された映像圧縮データ126がデータ伸長処理されてパラレル映像データ127が出力され、これがブランキング情報付加部36に入力されて水平ブランキング期間と垂直ブランキング期間が付加され、パラレル映像データ130として出力される。そして、これがP/S変換部37に入力され、シリアル変換された結果、リターン映像信号131が出力され、カメラ1のVF38とカメラヘッド9に供給されることになる。   At this time, first, the decompression unit 35 performs the data decompression process on the input video compressed data 126 and outputs parallel video data 127, which is input to the blanking information adding unit 36, and the horizontal blanking period and the vertical blanking period. Is added and output as parallel video data 130. Then, this is input to the P / S conversion unit 37 and subjected to serial conversion. As a result, a return video signal 131 is output and supplied to the VF 38 and the camera head 9 of the camera 1.

従って、図4により説明したように、カメラマンMは、自分が撮像している画像に加えてオンエア映像信号による画像もVF38によりモニタすることができ、このことを前提としてカメラ1を操作できることになる。なお、このリターン映像信号は、例えば270Mbit/sのSD−SDI(SDTV Serial Digital Interface)形式である。   Therefore, as described with reference to FIG. 4, the cameraman M can monitor the image based on the on-air video signal by the VF 38 in addition to the image that he / she is capturing, and can operate the camera 1 on the premise of this. . The return video signal is in the SD-SDI (SDTV Serial Digital Interface) format of 270 Mbit / s, for example.

また、このときP/S変換部39では、ここに入力されたパラレル音声データ128がシリアルのデータに変換され、シリアル音声信号129がスピーカ8に供給される。従って、スピーカ8から音声が得られることになる。なお、これは、スタジオ副調整室4とカメラマンMの間をつなぐインターカム機能のためであることは、既に説明したところである。   At this time, the P / S conversion unit 39 converts the parallel audio data 128 input here into serial data, and supplies the serial audio signal 129 to the speaker 8. Therefore, sound can be obtained from the speaker 8. As described above, this is because of the intercom function that connects between the studio sub-adjustment room 4 and the cameraman M.

ここで、CCU2に蓄積時間設定部25が設けてある理由について説明すると、これは切替部3に入力される全ての本線映像信号110a〜110fを同期させ、切替部3で選択されたオンエア映像信号114が、何れの本線映像信号110a〜110fに切替えられたとしても位相が同じになるようにするためで、このため蓄積時間設定部25により位相調整バッファ26の蓄積時間を設定し、この蓄積時間だけ位相調整バッファ26によりデータの伝送を遅延させるのである。   Here, the reason why the accumulation time setting unit 25 is provided in the CCU 2 will be described. This is because all the main line video signals 110a to 110f inputted to the switching unit 3 are synchronized, and the on-air video signal selected by the switching unit 3 114 is set so that the phase is the same regardless of which main line video signal 110a to 110f is switched. Therefore, the accumulation time of the phase adjustment buffer 26 is set by the accumulation time setting unit 25, and this accumulation time is set. Only the phase adjustment buffer 26 delays data transmission.

既に説明したように、カメラヘッド9から出力される本線映像信号100は、圧縮伸長処理や変調復調処理を経ることによりCCU2から出力される本線映像信号110aに再生されるので、この間に、図6の(d)、(e)に示したように、処理遅延が生じている。ここでは、一例として、この処理遅延が9.2msの場合が示されている。また、このことは図6の(a)、(b)に示したように、オンエア映像信号114から変換されたリターン映像信号118とカメラヘッド9に戻されるリターン映像信号131についても同じで、ここでは、一例として、この処理遅延が2.5msの場合が示されている。   As described above, the main line video signal 100 output from the camera head 9 is reproduced as the main line video signal 110a output from the CCU 2 through the compression / decompression process and the modulation / demodulation process. As shown in (d) and (e), there is a processing delay. Here, as an example, a case where the processing delay is 9.2 ms is shown. This also applies to the return video signal 118 converted from the on-air video signal 114 and the return video signal 131 returned to the camera head 9, as shown in FIGS. 6 (a) and 6 (b). As an example, a case where the processing delay is 2.5 ms is shown.

ところで、このときの処理遅延は、カメラ1とCCU2の機種に固有のものであり、従って、機種が同じなら、この処理遅延の時間は、基本的には変動しない固定値である。そこで、この図5で説明したシステムでは、蓄積時間設定部25を設け、これに予めマニュアル操作による固定値の蓄積時間設定値指令250を、図示してない入力手段から手作業で入力するようになっている。   By the way, the processing delay at this time is specific to the models of the camera 1 and the CCU 2. Therefore, if the models are the same, the processing delay time is basically a fixed value that does not vary. Therefore, in the system described with reference to FIG. 5, an accumulation time setting unit 25 is provided, and a fixed value accumulation time setting value command 250 manually operated in advance is manually input from an input means (not shown). It has become.

そして、この蓄積時間設定値指令250による蓄積時間情報251を蓄積時間設定部25から同期調整バッファ26に設定することにより、本線映像信号100と本線映像信号110aの位相が同じになるようにしたもので、以下、このときの位相合わせに必要な蓄積時間情報251について、同じく図6により説明する。   Then, the storage time information 251 based on the storage time setting value command 250 is set in the synchronization adjustment buffer 26 from the storage time setting unit 25 so that the main video signal 100 and the main video signal 110a have the same phase. Hereinafter, the accumulation time information 251 necessary for phase alignment at this time will be described with reference to FIG.

まず、切替器3により、このCCU2から出力されている本線映像信号110aを選択しておく。この場合、図6の(a)、(b)に示したように、リターン映像信号131は、リターン映像信号115に対して2.5msの処理遅延を持つ。そこで、このリターン映像信号131の位相を、同図(c)に示すように、約16.7msの1フィールド期間だけ変化させ、この位相に本線映像信号100の位相を合わせてみると、同図(d)に示すようになる。   First, the main video signal 110a output from the CCU 2 is selected by the switch 3 in advance. In this case, as shown in FIGS. 6A and 6B, the return video signal 131 has a processing delay of 2.5 ms with respect to the return video signal 115. Therefore, when the phase of the return video signal 131 is changed by one field period of about 16.7 ms as shown in FIG. 5C, the phase of the main video signal 100 is matched with this phase. As shown in (d).

このとき、本線映像信号100と本線映像信号115の間の処理遅延は、上記したように9.2msであり、従って、この場合の本線映像信号115の位相は、図6の(e)に示すようになり、このときの処理遅延時間の合計は、次の式(1)、すなわち、
2.5ms+16.7ms+9.2ms=28.4ms ……(1)
で表わされ、この結果、同期調整バッファ26に設定すべき蓄積時間TDは、1フレーム期間を33.3msとして、次の式(2)、すなわち、
TD=33.0ms−28.4ms=4.9ms …… ……(2)
で与えられる。
At this time, the processing delay between the main line video signal 100 and the main line video signal 115 is 9.2 ms as described above. Therefore, the phase of the main line video signal 115 in this case is shown in FIG. The total processing delay time at this time is expressed by the following equation (1), that is,
2.5ms + 16.7ms + 9.2ms = 28.4ms (1)
As a result, the accumulation time TD to be set in the synchronization adjustment buffer 26 is set to the following equation (2), assuming that one frame period is 33.3 ms:
TD = 33.0ms-28.4ms = 4.9ms (2)
Given in.

よって、この場合、蓄積時間情報251を4.9msに設定してやれば、リターン映像信号115に同期した本線映像信号110が得られることになり、従って、この蓄積時間TDの算定に基づいて、蓄積時間設定値指令250をマニュアル操作により、例えば4.9msに設定してやれば、図4のシステムにおいて、各CCU2A〜2Fから出力される本線映像信号110a〜110fについては互いに同期が保たれていることになり、切替器3によるオンエア映像信号114の切替えに伴う画像乱れの発生を抑えることができる。
特開平9−289608号公報 特開2003−304442号公報
Therefore, in this case, if the accumulation time information 251 is set to 4.9 ms, the main line video signal 110 synchronized with the return video signal 115 can be obtained. Therefore, the accumulation time is calculated based on the calculation of the accumulation time TD. If the set value command 250 is set to 4.9 ms, for example, by manual operation, the main line video signals 110a to 110f output from the CCUs 2A to 2F are kept synchronized with each other in the system of FIG. Further, it is possible to suppress the occurrence of image disturbance due to the switching of the on-air video signal 114 by the switch 3.
JP-A-9-289608 JP 2003-304442 A

上記従来技術は、カメラシステムの互換性について配慮がされておらず、効率的な機種変更に問題があった。   The above prior art does not give consideration to the compatibility of the camera system, and has a problem in efficient model change.

既に説明したように、上記した信号遅延の大きさは、システムに使用したカメラやCCUに依存する。従って、例えば同一メーカの同一機種の場合のように、仕様性能が同じなら、個体が変わっても信号遅延の大きさはほとんど変わらない。そこで、カメラとCCUの組合わせが変わらない場合や、変わっても仕様性能が同じ場合には、上記した蓄積時間情報251に関しては、使用開始時などに1回、設定するだけで済み、従って、従来技術でも特に問題はない。   As already described, the magnitude of the signal delay described above depends on the camera and CCU used in the system. Therefore, for example, if the specification performance is the same as in the same model of the same manufacturer, the magnitude of the signal delay hardly changes even if the individual changes. Therefore, when the combination of the camera and the CCU does not change, or when the specification performance is the same even if it changes, the above-described storage time information 251 need only be set once at the start of use. There is no particular problem with the prior art.

しかし、ここで、例えば上記した従来技術のように、スタジオなどで数多くのカメラシステムが使用される場合は、プログラムの効率的な作成などの見地から、場合によってはメーカの違いなどの理由で仕様性能に違いがあるカメラとCCUが混在されてしまい、例えばメーカAのカメラとメーカBのCCUが組合わされたり、メーカCのカメラにメーカDのCCUが適用されてしまう場合が生じてしまう。   However, here, when many camera systems are used in a studio or the like as in the prior art described above, for example, because of efficient creation of a program, and in some cases, due to differences in manufacturers, etc. Cameras and CCUs having different performances are mixed, and for example, the camera of manufacturer A and the CCU of manufacturer B are combined, or the CCU of manufacturer D is applied to the camera of manufacturer C.

そうすると、この場合、上記従来技術では、新たな組合わせ毎に、その都度、上記した手作業による蓄積時間の再設定が必要になってしまい、従って、上記したように、従来技術では、効率的な機種変更に問題が生じてしまうのである。   Then, in this case, in the above-described conventional technique, it is necessary to reset the accumulation time by the above-described manual work for each new combination. Therefore, as described above, the conventional technique is efficient. This can cause problems with changing the model.

本発明の目的は、同期調整バッファに対する蓄積時間の設定が自動的に与えられるようにした同期自動調整装置を提供することにある。   SUMMARY OF THE INVENTION An object of the present invention is to provide a synchronous automatic adjustment device in which setting of an accumulation time for a synchronous adjustment buffer is automatically given.

上記目的は、カメラ本体とカメラ制御装置の対からなるカメラシステムを複数備え、各カメラ本体で取得されカメラ制御装置から出力される複数の映像信号の中の1を選択してオンエア映像信号とすると共に、当該オンエア映像信号をリターン映像信号として前記複数のカメラ本体に夫々伝送する方式の同期自動調整装置において、前記カメラシステムの各々のカメラ制御装置は、前記リターン映像信号を、設定された遅延時間だけ遅延させて出力する遅延手段と、対になっているカメラ本体で取得し当該カメラ制御装置で受信された映像信号と、前記遅延された前記リターン映像信号との位相差を検出する位相差検出手段と、該検出された位相差に応じた遅延時間を前記遅延手段に設定する設定手段と、を備え、前記遅延された前記リターン映像信号を、当該カメラ制御装置と対になっているカメラ本体に供給し、各々のカメラ制御装置から出力される映像信号の夫々が互いに同期が保たれるようにして達成される。
The object is to provide a plurality of camera systems comprising a pair of camera body and camera control device, and select one of a plurality of video signals acquired by each camera body and output from the camera control device to be an on-air video signal. In addition, in the synchronous automatic adjustment device that transmits the on-air video signal as a return video signal to each of the plurality of camera bodies, each camera control device of the camera system transmits the return video signal to a set delay time. And a delay means for delaying the output and a phase difference detection for detecting a phase difference between the delayed video signal acquired by the camera body and received by the camera control device. and means, setting means for setting said delay means a delay time corresponding to the phase difference issued該検, wherein the delayed said litter The video signal is supplied to the camera body that is to the camera control unit and the pair respectively are synchronized with each other in the video signals output from each of the camera control unit is achieved so as to be maintained.

このとき、前記カメラ制御装置の夫々から出力される複数の映像信号はHDTV方式の映像信号で、前記リターン映像信号は前記オンエア映像信号をダウンコンバ−トして得たSDTV方式の映像信号であり、前記カメラ本体は、対になっている前記カメラ制御装置から供給された前記遅延されたリターン映像信号に、固有の処理遅延で同期した前記映像信号を、該カメラ制御装置に送信し、前記位相差検出手段は、前記遅延後のリターン映像信号に含まれるフレーム同期信号によりカウントが開始され、前記受信された映像信号に含まれるフレーム同期信号によりホールドされるカウント値を、前記位相差として検出するものであり、前記設定手段は、該カウント値に準じた時間を前記遅延時間として設定するようにしても良く、同じく、このとき前記組合わせ対のカメラ本体とカメラ制御装置がワイヤレス構成されているようにしても良い。
At this time, the plurality of video signals output from each of the camera control devices are HDTV video signals, and the return video signal is an SDTV video signal obtained by down-converting the on-air video signal. The camera body transmits, to the camera control device, the video signal synchronized with the delayed return video signal supplied from the paired camera control device with a specific processing delay. The phase difference detecting means starts counting by a frame synchronization signal included in the delayed return video signal and detects a count value held by the frame synchronization signal included in the received video signal as the phase difference. is intended, the setting means may be a time according to the count value is set as the delay time, again, The combination pairs of the camera body and the camera control unit when it may be is wireless configuration.

本発明によれば、同期調整バッファに対する蓄積時間の設定が、リターン映像信号と本線映像信号の位相差に応じて自動的に与えられるので、カメラシステムの互換性について何の配慮を要すること無く、自由な機種変更による効率的なカメラ運用に容易に対応することができる。   According to the present invention, since the setting of the accumulation time for the synchronization adjustment buffer is automatically given according to the phase difference between the return video signal and the main video signal, no consideration is required for the compatibility of the camera system. Efficient camera operation can be easily handled by changing the model freely.

以下、本発明による同期自動調整装置について、図示の実施の形態により詳細に説明する。このとき図1が本発明の一実施形態で、これは、図5の従来技術において、新たに自動位相差検出部200を設け、これに伴って、蓄積時間設定部25に代えて蓄積時間演算設定部300を設け、この蓄積時間演算設定部300により、ホールド値203から蓄積時間設定値指令252が演算され、同期調整バッファ26に設定されるようにしたものであり、その他の構成には変更が無い。   Hereinafter, an automatic synchronization adjustment apparatus according to the present invention will be described in detail with reference to embodiments shown in the drawings. At this time, FIG. 1 shows an embodiment of the present invention. This is the same as the prior art shown in FIG. 5 except that an automatic phase difference detection unit 200 is newly provided. A setting unit 300 is provided, and the accumulation time calculation setting unit 300 calculates the accumulation time set value command 252 from the hold value 203 and sets it in the synchronization adjustment buffer 26. Other configurations are changed. There is no.

従って、この図1の実施形態も、この自動位相差検出部200によるホールド値203の生成動作と、蓄積時間演算設定部300による蓄積時間設定値指令252の生成動作以外は、図5で説明した従来技術と同じであり、そこで、以下、この自動位相差検出部200と蓄積時間演算設定部300の動作に重点をおいて説明する。   Therefore, the embodiment of FIG. 1 is also described in FIG. 5 except for the operation of generating the hold value 203 by the automatic phase difference detection unit 200 and the operation of generating the accumulation time set value command 252 by the accumulation time calculation setting unit 300. This is the same as the prior art, and therefore, description will be given below with an emphasis on the operations of the automatic phase difference detection unit 200 and the accumulation time calculation setting unit 300.

まず、自動位相差検出部200は、ブランキング情報付加部20から出力されるパラレル映像データ109と、S/P変換部27から出力されるパラレル映像データ119を入力し、これらデータ間の位相差を検出し、それに応じて自動的に蓄積時間設定値指令203を算出して蓄積時間演算設定部300に供給する働きをするものである。   First, the automatic phase difference detection unit 200 receives the parallel video data 109 output from the blanking information addition unit 20 and the parallel video data 119 output from the S / P conversion unit 27, and the phase difference between these data. Is detected, and an accumulation time set value command 203 is automatically calculated in response to this and supplied to the accumulation time calculation setting unit 300.

このため、自動位相差検出部200は、図2に示すように、パラレル映像データ109を入力とするF_Sync検出部700とクロック同期部701、パラレル映像データ119を入力とするF_Sync検出部702とカウンタ部703、それにホールド部704を備えている。ここで、F_Syncとはフレーム同期信号の意である。   For this reason, as shown in FIG. 2, the automatic phase difference detection unit 200 includes an F_Sync detection unit 700 and a clock synchronization unit 701 that receive parallel video data 109 as an input, an F_Sync detection unit 702 that receives parallel video data 119 as an input, and a counter. A unit 703 and a hold unit 704. Here, F_Sync is a frame synchronization signal.

そして、まず、F_Sync検出部700は、パラレル映像データ109を入力し、これからF_Sync信号600を検出する。ここで、このパラレル映像信号109は、映像データとフレーム(33ms)及びフィールド(16.6ms)などを示すヘッダ情報より構成されている。そこで、このヘッダ情報のSAV(Start Active Video)を検出し、F_Sync信号600を生成して出力する。このとき、パラレル映像データ109はHDTV規格になっているので、その基準となる周波数は74MHzになっている。   First, the F_Sync detection unit 700 receives the parallel video data 109 and detects the F_Sync signal 600 therefrom. The parallel video signal 109 is composed of video data, header information indicating a frame (33 ms), a field (16.6 ms), and the like. Therefore, SAV (Start Active Video) in the header information is detected, and an F_Sync signal 600 is generated and output. At this time, since the parallel video data 109 conforms to the HDTV standard, the reference frequency is 74 MHz.

また、F_Sync検出部702は、パラレル映像データ119を入力し、同様に、そのヘッダ情報のSAVを検出し、これから図3(b)に示すように、F_Sync信号603を抽出して出力し、これと共に、パラレル映像データ119からクロック604を検出する。このとき、パラレル映像データ119はSDTV規格になっているので、その基準となる周波数は27MHzであり、従って、HDTV規格のパラレル映像データ109とは基準周波数が異なる。   Further, the F_Sync detection unit 702 receives the parallel video data 119, similarly detects the SAV of the header information, and extracts and outputs the F_Sync signal 603 as shown in FIG. 3 (b). At the same time, the clock 604 is detected from the parallel video data 119. At this time, since the parallel video data 119 is based on the SDTV standard, the reference frequency is 27 MHz, and therefore, the reference frequency is different from the parallel video data 109 based on the HDTV standard.

そこで、クロック同期部701は、周波数27MHzのクロック604を基準にしてサンプリングを行い、図3(a)に示すように、周波数74MHzのF_Sync信号600の中からクロック604の直後に現れる信号を抽出し、これを同期F_Sync信号601として出力する。   Therefore, the clock synchronization unit 701 performs sampling with reference to the clock 604 having a frequency of 27 MHz, and extracts a signal appearing immediately after the clock 604 from the F_Sync signal 600 having a frequency of 74 MHz, as shown in FIG. This is output as a synchronous F_Sync signal 601.

次に、カウンタ部703は、F_Sync信号603をトリガとし、それが発生する都度、クロック604のカウントを開始し、図3(c)に示すように、カウント値605をインクリメントする。そしてホールド部704は、カウンタ部703のカウント値605を入力し、これを同期F_Sync信号601によりホールドし、図3(d)に示すように、ホールド値203として出力する。   Next, the counter unit 703 uses the F_Sync signal 603 as a trigger, and starts counting the clock 604 each time it occurs, and increments the count value 605 as shown in FIG. The hold unit 704 receives the count value 605 of the counter unit 703, holds it with the synchronous F_Sync signal 601, and outputs it as the hold value 203 as shown in FIG.

そこで、蓄積時間演算設定部300は、図3(e)に示すように、入力されたホールド値203から逐次、F_Sync信号603とF_Sync信号601の位相差を演算し、演算結果を蓄積時間情報301として同期調整バッファ26に出力し、そこに設定された結果、リターン映像信号117に遅延が与えられ、この後、蓄積時間情報301により決められている時間が経過した時点からリターン映像信号118が出力されるようにする。   Therefore, the accumulation time calculation setting unit 300 sequentially calculates the phase difference between the F_Sync signal 603 and the F_Sync signal 601 from the input hold value 203 as shown in FIG. As a result, the return video signal 117 is delayed, and then the return video signal 118 is output from the time point determined by the storage time information 301. To be.

次に、このときの位相差の演算について説明する。ここでいま、例えばホールド値203が“200000”であったとする。これは、F_Sync信号603とF_Sync信号601のカウント差が“200000”であることを意味する。一方、このときF_Sync信号603の基準周波数は27MHzである。そうすると、このことから、次の式(3)により、位相差に準じた時間が計算できることになる。   Next, the calculation of the phase difference at this time will be described. Here, for example, it is assumed that the hold value 203 is “200000”. This means that the count difference between the F_Sync signal 603 and the F_Sync signal 601 is “200000”. On the other hand, at this time, the reference frequency of the F_Sync signal 603 is 27 MHz. Then, from this, the time according to the phase difference can be calculated by the following equation (3).

位相差に準じた時間T(s)=ホールド値/基準周波数 …… …… (3)
=200000/27000000
=0.0074(s)
つまり、この場合、F_Sync信号603とF_Sync信号601の差、すなわち、位相差は、時間で表わすと7.4msになる。
Time T (s) according to phase difference = hold value / reference frequency …… (3)
= 200000/27000000
= 0.0074 (s)
That is, in this case, the difference between the F_Sync signal 603 and the F_Sync signal 601, that is, the phase difference is 7.4 ms in terms of time.

この場合、蓄積時間演算設定部300は、7.4msの遅延時間を演算し、蓄積時間情報301として、この遅延時間7.4msを出力する。そこで、同期調整バッファ26の蓄積時間は7.4msに設定されるので、パラレル映像信号109とパラレル映像信号119の位相が一致され、この結果、リターン映像に同期した本線映像が得られることになる。   In this case, the accumulation time calculation setting unit 300 calculates a delay time of 7.4 ms and outputs the delay time 7.4 ms as the accumulation time information 301. Therefore, since the accumulation time of the synchronization adjustment buffer 26 is set to 7.4 ms, the phases of the parallel video signal 109 and the parallel video signal 119 are matched, and as a result, a main line video synchronized with the return video is obtained. .

従って、この実施形態によれば、同期調整バッファ26に対する蓄積時間の設定が、リターン映像信号115と本線映像信号110の位相差に応じて自動的に与えられるので、カメラシステムの互換性について何の配慮を要すること無く、自由な機種変更による効率的なカメラ運用に容易に対応することができる。   Therefore, according to this embodiment, since the setting of the accumulation time for the synchronization adjustment buffer 26 is automatically given according to the phase difference between the return video signal 115 and the main video signal 110, what is the compatibility of the camera system? Efficient camera operation can be easily handled by changing the model without any consideration.

本発明による同期自動調整装置の一実施形態を示すブロック構成図である。It is a block block diagram which shows one Embodiment of the synchronous automatic adjustment apparatus by this invention. 本発明の一実施形態における自動位相差検出部のブロック構成図である。It is a block block diagram of the automatic phase difference detection part in one Embodiment of this invention. 本発明の一実施形態における自動位相差検出部の動作を説明するためのタイミング図である。It is a timing diagram for demonstrating operation | movement of the automatic phase difference detection part in one Embodiment of this invention. ワイヤレスカメラシステムの使用態様の一例を示す説明図である。It is explanatory drawing which shows an example of the usage condition of a wireless camera system. 従来技術によるワイヤレスカメラシステムの一例を示すブロック構成図である。It is a block block diagram which shows an example of the wireless camera system by a prior art. 本線映像信号とリターン映像信号の同期状況を説明するためのタイミング図である。It is a timing diagram for demonstrating the synchronous condition of a main line video signal and a return video signal.

符号の説明Explanation of symbols

1:カメラ
2:CCU
3:切替器
4:スタジオ復調製室
5:スピーカ
6:基準映像信号発生器
7:マイク
8:スピーカ
9:カメラヘッド
10:S/P変換部
11:アクティブ映像抽出部
12:圧縮部
13:多重部
14:マイク
15:S/P変換部
16:変調部
17:復調部
18:分離部
19:伸張部
20:ブランキング情報付加部
21:P/S変換部
22:P/S変換部
23:ダウンコンバータ
24:同基部
25:蓄積時間設定部
26:同期調整バッファ
27:S/P変換部
28:アクティブ映像抽出部
29:圧縮部
30:S/P変換部
31:多重部
32:変調部
33:復調部
34:分離部
35:伸張部
36:ブランキング情報付加部
37:P/S変換部
38:VF(ビデオファインダ)
39:P/S変換部
40:アンテナ
41:アンテナ
42:アンテナ
43:アンテナ
200:自動位相差検出部
300:蓄積時間演算設定部
700:F_Sync検出部
701:クロック同期部
702:F_Sync検出部
703:カウンタ部
704:ホールド部
1: Camera 2: CCU
3: Switcher 4: Studio demodulation room 5: Speaker 6: Reference video signal generator 7: Microphone 8: Speaker 9: Camera head 10: S / P conversion unit 11: Active video extraction unit 12: Compression unit 13: Multiplexing Unit 14: Microphone 15: S / P conversion unit 16: Modulation unit 17: Demodulation unit 18: Separation unit 19: Decompression unit 20: Blanking information addition unit 21: P / S conversion unit 22: P / S conversion unit 23: Down converter 24: Same base unit 25: Storage time setting unit 26: Synchronization adjustment buffer 27: S / P conversion unit 28: Active video extraction unit 29: Compression unit 30: S / P conversion unit 31: Multiplexing unit 32: Modulation unit 33 : Demodulation unit 34: separation unit 35: expansion unit 36: blanking information addition unit 37: P / S conversion unit 38: VF (video finder)
39: P / S conversion unit 40: Antenna 41: Antenna 42: Antenna 43: Antenna 200: Automatic phase difference detection unit 300: Storage time calculation setting unit 700: F_Sync detection unit 701: Clock synchronization unit 702: F_Sync detection unit 703: Counter unit 704: Hold unit

Claims (3)

カメラ本体とカメラ制御装置の対からなるカメラシステムを複数備え、各カメラ本体で取得されカメラ制御装置から出力される複数の映像信号の中の1を選択してオンエア映像信号とすると共に、当該オンエア映像信号をリターン映像信号として前記複数のカメラ本体に夫々伝送する方式の同期自動調整装置において、
前記カメラシステムの各々のカメラ制御装置は、
前記リターン映像信号を、設定された遅延時間だけ遅延させて出力する遅延手段と、
対になっているカメラ本体で取得し当該カメラ制御装置で受信された映像信号と、前記遅延された前記リターン映像信号との位相差を検出する位相差検出手段と、
該検出された位相差に応じた遅延時間を前記遅延手段に設定する設定手段と、を備え、
前記遅延された前記リターン映像信号を、当該カメラ制御装置と対になっているカメラ本体に供給し、各々のカメラ制御装置から出力される映像信号の夫々が互いに同期が保たれるようにしたことを特徴とする同期自動調整装置。
A plurality of camera systems each including a camera body and a camera control device are provided, and one of a plurality of video signals acquired by each camera body and output from the camera control device is selected as an on-air video signal. In a synchronous automatic adjustment device of a method of transmitting a video signal as a return video signal to each of the plurality of camera bodies ,
Each camera control device of the camera system includes:
Delay means for outputting the return video signal by delaying a set delay time; and
Phase difference detection means for detecting a phase difference between the video signal acquired by the paired camera body and received by the camera control device, and the delayed return video signal ;
Setting means for setting a delay time according to the detected phase difference in the delay means,
The delayed return video signal is supplied to the camera body paired with the camera control device so that the video signals output from the respective camera control devices are kept synchronized with each other. Synchronous automatic adjustment device characterized by
請求項1に記載の同期自動調整装置において、
前記カメラ制御装置の夫々から出力される複数の映像信号はHDTV方式の映像信号で、前記リターン映像信号は前記オンエア映像信号をダウンコンバ−トして得たSDTV方式の映像信号であり、
前記カメラ本体は、対になっている前記カメラ制御装置から供給された前記遅延されたリターン映像信号に、固有の処理遅延で同期した前記映像信号を、該カメラ制御装置に送信し、
前記位相差検出手段は、前記遅延後のリターン映像信号に含まれるフレーム同期信号によりカウントが開始され、前記受信された映像信号に含まれるフレーム同期信号によりホールドされるカウント値を、前記位相差として検出するものであり、
前記設定手段は、該カウント値に準じた時間を前記遅延時間として設定することを特徴とする同期自動調整装置。
In the synchronous automatic adjustment device according to claim 1,
The plurality of video signals output from each of the camera control devices are HDTV video signals, and the return video signal is an SDTV video signal obtained by down-converting the on-air video signal,
The camera body transmits the video signal synchronized with the delayed return video signal supplied from the paired camera control device with a specific processing delay to the camera control device,
The phase difference detection means starts counting by a frame synchronization signal included in the delayed return video signal, and uses a count value held by the frame synchronization signal included in the received video signal as the phase difference. Is to detect,
The synchronous automatic adjustment device , wherein the setting means sets a time according to the count value as the delay time .
請求項1記載の同期自動調整装置において、
前記組合わせ対のカメラ本体とカメラ制御装置がワイヤレス構成されていることを特徴とする同期自動調整装置。
In the synchronous automatic adjustment device according to claim 1,
A synchronous automatic adjustment device, wherein the camera body and the camera control device of the combination pair are wirelessly configured .
JP2006140624A 2006-05-19 2006-05-19 Synchronous automatic adjustment device Active JP4738251B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006140624A JP4738251B2 (en) 2006-05-19 2006-05-19 Synchronous automatic adjustment device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006140624A JP4738251B2 (en) 2006-05-19 2006-05-19 Synchronous automatic adjustment device

Publications (2)

Publication Number Publication Date
JP2007312223A JP2007312223A (en) 2007-11-29
JP4738251B2 true JP4738251B2 (en) 2011-08-03

Family

ID=38844643

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006140624A Active JP4738251B2 (en) 2006-05-19 2006-05-19 Synchronous automatic adjustment device

Country Status (1)

Country Link
JP (1) JP4738251B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5923847B2 (en) 2010-03-31 2016-05-25 ソニー株式会社 Camera system, signal delay adjustment method and program
JP2011217062A (en) * 2010-03-31 2011-10-27 Sony Corp Camera system, signal delay amount adjusting method and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08275022A (en) * 1995-03-31 1996-10-18 Sony Corp Video camera equipment
JP2003304442A (en) * 2002-04-12 2003-10-24 Sony Corp Communication system, image pickup system, image pickup device, image pickup signal processor, and method of picking-up and processing image

Also Published As

Publication number Publication date
JP2007312223A (en) 2007-11-29

Similar Documents

Publication Publication Date Title
JP5370350B2 (en) Signal receiving device
US20130021530A1 (en) Transmitting device, receiving system, communication system, transmission method, reception method, and program
JP4008688B2 (en) Signal transmitting apparatus and signal receiving apparatus
JP2010171625A (en) Imaging apparatus, sound recorder, and motion picture photographing system
EP1093302B1 (en) Multichannel display data generating apparatus, and data medium, and computer program therefor
US7983525B2 (en) Recording apparatus and method and program
US5303050A (en) Video camera apparatus
JP2008118271A (en) Remote control system of imaging apparatus
JP4738251B2 (en) Synchronous automatic adjustment device
US8913881B2 (en) Digital video recorder having appartus for receiving automatic switched image by recognizing source and method thereof
JP2006229510A (en) Digital satellite broadcasting system, transmitting station, and receiver
JP5023421B2 (en) Signal receiving device
CN101489140B (en) Video/audio reproducing apparatus
JP4836891B2 (en) Video signal multiplex transmission device and imaging apparatus using video signal multiplex transmission device
JP5833433B2 (en) Video signal transmission system
JP2004104730A (en) Delay time detecting method and av synchronization detecting method
JP2006211382A (en) Video/audio multiplexer and video/audio demultiplexer
JP5289376B2 (en) Video signal transmission device
US8723971B2 (en) Transmission system, imaging apparatus, and transmission method
JP4723715B2 (en) Multi-channel display data creation device and multi-channel display data creation method
JP4049621B2 (en) Video wireless transmission system and receiver
JP2011029773A (en) Video signal transmitting apparatus
JP5899643B2 (en) Video transmission device, video reception device, and video transmission system
JPH09214909A (en) Digital transmitter and digital camera system
JP6398694B2 (en) Portable device and recording system having wireless LAN function

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080925

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101001

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110419

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110426

R150 Certificate of patent or registration of utility model

Ref document number: 4738251

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140513

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250