JP3407850B2 - Image control system and image system using the same - Google Patents
Image control system and image system using the sameInfo
- Publication number
- JP3407850B2 JP3407850B2 JP06692797A JP6692797A JP3407850B2 JP 3407850 B2 JP3407850 B2 JP 3407850B2 JP 06692797 A JP06692797 A JP 06692797A JP 6692797 A JP6692797 A JP 6692797A JP 3407850 B2 JP3407850 B2 JP 3407850B2
- Authority
- JP
- Japan
- Prior art keywords
- video
- time
- image
- control means
- control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Controls And Circuits For Display Device (AREA)
Description
【0001】[0001]
【発明の属する技術分野】本発明は、複数の表示画面に
画像を表示させる映像制御システムに係り、詳しくは、
高解像度にて動画像や静止画像を複数の表示画面に分割
表示できるようにした映像制御システムに関する。ま
た、本発明は、そのようなシステムを用いた映像システ
ムに関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a video control system for displaying images on a plurality of display screens.
The present invention relates to a video control system capable of dividing and displaying a moving image or a still image on a plurality of display screens with high resolution. The invention also relates to a video system using such a system.
【0002】[0002]
【従来の技術】映像表示装置の画面を大型化して高精細
で迫力のある動画像や静止画像を多数の観客に対してプ
レゼンテーションするという要求が高まっている。そこ
で、複数の表示画面を用いて大型の画面(マルチスクリ
ーン)を形成し、その複数の表示画面に動画像や静止画
像を分割して表示するシステムが提案されている。2. Description of the Related Art There is an increasing demand for making a large screen of a video display device to present moving images and still images with high definition and power to a large number of spectators. Therefore, a system has been proposed in which a large screen (multi-screen) is formed by using a plurality of display screens and a moving image or a still image is divided and displayed on the plurality of display screens.
【0003】従来のシステムでは、1つの映像ソースか
らの映像情報(動画像、静止画像)を映像制御装置が分
割して複数の映像表示装置に供給している。そして、各
映像表示装置の表示画面に、分割映像情報に対応する部
分的な画像が表示される。その結果、複数の表示画面全
体に元の映像情報に対応した動画像や静止画像が大型化
されて表示される。In the conventional system, the image information (moving image, still image) from one image source is divided by the image control device and supplied to a plurality of image display devices. Then, a partial image corresponding to the divided video information is displayed on the display screen of each video display device. As a result, a moving image or a still image corresponding to the original video information is enlarged and displayed on the entire plurality of display screens.
【0004】[0004]
【発明が解決しようとする課題】ところで、表示画面に
表示される動画像、静止画像の解像度は、映像表示装置
そのものの能力以内であれば、映像ソースから供給され
る映像情報の解像度に依存する。そのため、従来のシス
テムでは、1つの映像ソースからの映像情報を分割して
複数の映像表示装置に供給していることから、各映像表
示装置の画面に部分的に表示される画像の解像度は、元
の映像情報(全体の画像)の解像度よりも低下してしま
う。By the way, the resolution of a moving image or a still image displayed on a display screen depends on the resolution of video information supplied from a video source as long as it is within the capability of the video display device itself. . Therefore, in the conventional system, since the video information from one video source is divided and supplied to the plurality of video display devices, the resolution of the image partially displayed on the screen of each video display device is The resolution will be lower than the resolution of the original video information (entire image).
【0005】また、1つの映像ソースからの映像情報に
基づいて複数の表示画面に画像を表示させていることか
ら、各表示画面に表示させる画像に対して自由な映像効
果を与えることができない。そこで、本発明の第一の課
題は、高解像度にて動画像や静止画像を複数の表示画面
に分割表示できるようにした映像制御システムを提供す
ることである。Further, since the images are displayed on a plurality of display screens based on the video information from one video source, it is impossible to give a free video effect to the images displayed on the respective display screens. Therefore, a first object of the present invention is to provide a video control system capable of displaying a moving image or a still image at a high resolution separately on a plurality of display screens.
【0006】また、第二の課題は、分割表示される各画
像に対して自由な映像効果を与えることのできる映像制
御システムを提供することである。更に、第三の課題
は、上記のような映像制御システムを用いた映像システ
ムを提供することである。A second object is to provide an image control system capable of giving a free image effect to each image which is divided and displayed. Furthermore, a third problem is to provide a video system using the video control system as described above.
【0007】[0007]
【課題を解決するための手段】上記第一及び第二の課題
を解決するため、本発明は、請求項1に記載されるよう
に、映像情報を蓄積した複数の映像ソースと、該複数の
映像ソースのそれぞれに対応して設けられ、供給される
映像情報に対応した画像を表示画面に表示させる複数の
映像表示装置とを制御する映像制御システムにおいて、
該複数の映像表示装置のそれぞれに対応して設けられ、
該映像情報に基づいた画像を該複数の映像表示装置ごと
の開始時刻に応じて該表示画面に表示させるための制御
を行なう複数の制御手段と、該複数の制御手段との間で
通信を行い、該通信結果に基づいて該複数の映像表示装
置ごとの開始時刻を同期させる補正情報を該複数の制御
手段に供給する中央制御手段とを有するように構成され
る。In order to solve the above first and second problems, the present invention provides a plurality of video sources storing video information and a plurality of the video sources as described in claim 1. In a video control system for controlling a plurality of video display devices which are provided corresponding to respective video sources and display an image corresponding to the supplied video information on a display screen,
Provided corresponding to each of the plurality of video display devices ,
Each image display device the plurality of images based on the image information
Between a plurality of control means for performing control for displaying on the display screen according to the start time of
The communication is performed, and the plurality of video display devices are based on the communication result.
The correction information for synchronizing the start time of each unit is controlled by the plurality of units.
And central control means feeding the means .
【0008】このような映像制御システムでは、複数の
映像表示装置それぞれが、対応する映像ソースからの映
像情報に対応する画像を表示画面上に同期して表示させ
る。そのため、複数の映像情報により1つの画像(静止
画像、動画像)を分割して表すことにより、複数の表示
画面上に同期して1つの画像が表示される。また、1つ
の映像ソースからの映像情報に基づいて1つの分割画像
が表示画面上に表示されるので、映像ソースからの映像
情報の解像度を表示画面上の画面の解像度として保存さ
せることができる。In such a video control system, each of the plurality of video display devices synchronously displays an image corresponding to the video information from the corresponding video source on the display screen. Therefore, one image (still image, moving image) is divided and represented by a plurality of video information, so that one image is displayed in synchronization on a plurality of display screens. Further, since one divided image is displayed on the display screen based on the video information from one video source, the resolution of the video information from the video source can be saved as the screen resolution on the display screen.
【0009】上記映像制御システムにおいて、映像表示
装置のそれぞれが対応する映像ソースからの映像情報を
入力して表示画面に該入力映像情報に基づいた画像を同
期して表示させるための制御が容易に行なえるという観
点から、本発明は、請求項2に記載されるように、上記
中央制御手段は、該複数の制御手段との間で行った通信
結果に基づき、自身の時刻と該複数の制御手段ごとの時
刻との時刻差および該時刻差を考慮した該複数の制御手
段ごとの開始時刻を算出し、該時刻差および開始時刻を
補正情報として該複数の制御手段に供給するように構成
することができる。In the above video control system, the control for inputting the video information from the corresponding video source of each video display device and displaying the image based on the input video information on the display screen in a synchronized manner is facilitated. From the standpoint of being able to carry out the invention, the present invention provides
The central control means communicates with the plurality of control means.
Based on the result, own time and time for each of the plurality of control means
Time difference from the time and the plurality of control hands in consideration of the time difference
Calculate the start time for each step and calculate the time difference and start time.
The correction information may be supplied to the plurality of control means .
【0010】このような映像制御システムによれば、制
御手段は、各映像表示装置での画像表示開始指令を与え
るタイミングを制御するだけ出よく、その処理が比較的
容易なものとなる。また更に、上記第三の課題を解決す
るため、本発明に係る映像システムは、請求項3に記載
されるように、映像情報を蓄積した複数の映像ソース
と、該複数の映像ソースのそれぞれに対応して設けら
れ、供給される映像情報に対応した画像を表示画面に表
示させる映像表示装置と、該複数の映像表示装置のそれ
ぞれに対応して設けられ、該映像情報に基づいた画像を
該複数の映像表示装置ごとの開始時刻に応じて該表示画
面に表示させるための制御を行なう複数の制御手段と、
該複数の制御手段との間で通信を行い、該通信結果に基
づいて該複数の映像表示装置ごとの開始時刻を同期させ
る補正情報を該複数の制御手段に供給する中央制御手段
とを有するように構成される。According to such a video control system, the control means can control the timing of giving an image display start command in each video display device, and the processing is relatively easy. Furthermore, in order to solve the above-mentioned third problem, the video system according to the present invention has, as described in claim 3, a plurality of video sources in which video information is stored and a plurality of video sources respectively. provided corresponding, the video display device for displaying an image corresponding to the image information supplied to the display screen, is provided corresponding to each of said plurality of image display device, an image based on the image information
The display image is displayed according to the start time of each of the plurality of video display devices.
A plurality of control means for controlling the display on the screen ,
Communication is performed with the plurality of control means, and based on the communication result,
To synchronize the start time of each of the video display devices.
Central control means for supplying correction information to the plurality of control means
And with.
【0011】[0011]
【発明の実施の形態】以下、本発明の実施の形態を図面
に基づいて説明する。本発明の実施の一形態に係る映像
システムは、例えば、図1に示すように構成される。図
1において、このシステムは、中央制御装置10が2つ
の系A及びBを制御する構成となっている。各A系、B
系は、映像制御装置20、30、映像表示装置21、3
1、ディスクユニット22、32、LDユニット23、
33及び映像スクリーン24、34を有している。映像
制御装置20、30は、通常のパーソナルコンピュータ
やワークステーション等で構成され、中央制御装置10
とLANを介して接続されている。各映像制御装置2
0、30に接続されたディスクユニット22、32に
は、静止画像の映像データが格納されている。BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings. The video system according to the embodiment of the present invention is configured, for example, as shown in FIG. In FIG. 1, this system has a configuration in which a central controller 10 controls two systems A and B. Each A system, B
The system includes video control devices 20, 30, video display devices 21, 3
1, disk units 22, 32, LD unit 23,
33 and video screens 24, 34. The image control devices 20 and 30 are composed of ordinary personal computers, workstations, etc.
And LAN via a LAN. Each video control device 2
Video data of a still image is stored in the disk units 22 and 32 connected to 0 and 30, respectively.
【0012】各映像表示装置21、31は、例えば、ハ
イビジョンのビデオプロジェクタで構成され、映像デー
タに基づいた画像(静止画像、動画像)を対応するスク
リーン24、34上に投影する。これらのスクリーン2
4、34は、例えば、100インチ(横約2m、縦約1
m)のサイズであり、2枚合わせて、横約4m、縦約1
mの大型の表示画面(横3840画素、縦1035画
素)が形成される。各映像表示装置21、31には、ビ
デオディスクがセットされるLDユニット23、33が
接続され、LDユニット23、33から動画像の映像デ
ータが対応する映像表示装置21、31に供給されるよ
うになっている。Each of the video display devices 21 and 31 is composed of, for example, a high-definition video projector, and projects an image (still image or moving image) based on the video data on the corresponding screen 24 or 34. These screens 2
4 and 34 are, for example, 100 inches (width approximately 2 m, length approximately 1
The size is m), and the total of 2 sheets is approximately 4 m wide and 1 vertical.
A large m display screen (3840 horizontal pixels, 1035 vertical pixels) is formed. LD units 23 and 33 on which video discs are set are connected to the respective video display devices 21 and 31, and the video data of the moving image is supplied from the LD units 23 and 33 to the corresponding video display devices 21 and 31. It has become.
【0013】各映像制御装置20、30は、ディスクユ
ニット22、32からの静止画の映像データを対応する
映像表示装置21、31に供給して各映像表示装置2
1、31での画像表示に係る制御を行なう。更に、各映
像制御装置20、30は、対応する映像表示装置21、
31に対して、LDユニット23、33からのビデオ情
報(動画像の映像データ)の読みだし指令を行なってそ
のビデオ情報に基づいた画像表示に係る制御も行なえる
ようになっている。Each of the video control devices 20 and 30 supplies the video data of the still image from the disk units 22 and 32 to the corresponding video display devices 21 and 31, and the video display devices 2 respectively.
The control relating to the image display at 1 and 31 is performed. Further, each video control device 20, 30 has a corresponding video display device 21,
A command for reading out the video information (video data of a moving image) from the LD units 23 and 33 is issued to the LD 31, and control relating to the image display based on the video information can be performed.
【0014】更に中央制御装置10は、上記各A系、B
系の制御のほか、音声出力の制御を行なう。この中央制
御装置10には、音響制御装置12及びディスクユニッ
ト14が接続されている。ディスクユニット14には、
上記各A系、B系で処理される映像情報に対応した音響
情報(オーディオ信号)が格納されている。音響制御装
置12は、中央制御装置10の制御のもとに、ディスク
ユニット14から読みだされた音響情報に基づいて音声
出力制御を行なう。Further, the central control unit 10 includes the above-mentioned A system and B system.
In addition to controlling the system, it also controls voice output. An acoustic control device 12 and a disk unit 14 are connected to the central control device 10. In the disk unit 14,
The acoustic information (audio signal) corresponding to the video information processed by each of the A system and the B system is stored. Under the control of the central control device 10, the sound control device 12 performs sound output control based on the sound information read from the disk unit 14.
【0015】上記のような構成の映像システムでは、例
えば、図2に示すような手順に従って、画像表示の処理
を行なう。なお、図2において、左側の列は、A系の映
像制御装置20での処理手順を、中央の列は、中央制御
装置10での処理手順を、右側の列は、B系の映像制御
装置30での処理手順を示している。図2において、処
理全体が、初期化ブロック、同期合わせブロック及び番
組実行ブロックの3ブロックに分れている。In the video system configured as described above, the image display process is performed in accordance with the procedure shown in FIG. 2, for example. 2, the left column shows the processing procedure in the A-system video control device 20, the center column shows the processing procedure in the central control device 10, and the right column shows the B-system video control device. The processing procedure in 30 is shown. In FIG. 2, the entire process is divided into an initialization block, a synchronization block, and a program execution block.
【0016】まず、初期化ブロックでは、映像の放映番
組のスケジュールに関する処理が行なわれる。即ち、ユ
ーザが中央制御装置10の図示しない入力ユニットを用
いて希望する番組の放映予定時刻とその映像データを特
定するデータ等からなる番組データを入力すると、中央
制御装置10はその番組データを取り込むと共に(S0
1)、各映像制御装置20、30に供給する。それによ
り、各映像制御装置20、30も番組データを取り込む
(S11、S21)。そして、中央制御装置10は、ユ
ーザから入力された番組データに基づいて番組スケジュ
ールデータを中央制御装置10の図示しない内部メモリ
上に展開する。First, in the initialization block, processing relating to the schedule of a video broadcast program is performed. That is, when the user uses the input unit (not shown) of the central control unit 10 to input program data including a scheduled broadcast time of a desired program and data for specifying the video data, the central control unit 10 takes in the program data. With (S0
1), supply to each video control device 20, 30. Thereby, each of the video control devices 20 and 30 also takes in the program data (S11, S21). Then, the central control device 10 develops the program schedule data on an internal memory (not shown) of the central control device 10 based on the program data input by the user.
【0017】上記のように、初期化ブロックにおいて、
番組スケジュールデータが中央制御装置10の内部メモ
リ上に展開された後に、同期合わせブロックでの処理が
実行される。この同期合わせブロックでは、中央制御装
置10が番組スケジュールデータに基づいて放映番組を
決定し、その放映番組のを特定する番組IDを各映像制
御装置20、30に送信する(S011)。そして、各
映像制御装置20、30は、その番組IDを受信して各
映像制御装置20、30の図示しない内部メモリに格納
する(S111、S211)。その後中央制御装置10
及び各映像制御装置20、30は、時刻同期処理(S0
12、S112,S212)、同期開始時刻の送受信処
理(S013、S113、S213)を実行する。As described above, in the initialization block,
After the program schedule data is loaded on the internal memory of the central control unit 10, the processing in the synchronization block is executed. In this synchronization block, the central control device 10 determines a broadcast program based on the program schedule data, and transmits a program ID specifying the broadcast program to each of the video control devices 20 and 30 (S011). Then, each video control device 20, 30 receives the program ID and stores it in the internal memory (not shown) of each video control device 20, 30 (S111, S211). After that, the central controller 10
Also, the video control devices 20 and 30 perform time synchronization processing (S0
12, S112, S212), and transmission / reception processing (S013, S113, S213) of the synchronization start time.
【0018】中央制御装置10は、図3に示す手順に従
って時刻同期処理(S012)及び同期開始時刻の送信
処理(S013)を行なう。図3において、上記時刻同
期処理(S012)は、A系の映像制御装置20との同
期合わせブロック(S0121)とB系の映像制御装置
30との同期合わせブロック(S0122)から構成さ
れる。A系の映像制御装置20との同期合わせブロック
(S0121)では、中央制御装置10の動作タイミン
グの基準となるタイマとA系の映像制御装置20の動作
タイミングの基準となるタイマとの時刻合わせが行なわ
れる。その具体的な処理は、例えば、図4に示す手順に
従って行なわれる。The central controller 10 performs the time synchronization processing (S012) and the synchronization start time transmission processing (S013) according to the procedure shown in FIG. In FIG. 3, the time synchronization processing (S012) includes a synchronization block (S0121) with the A-system video control device 20 and a synchronization block (S0122) with the B-system video control device 30. In the block for synchronization with the A-system image control device 20 (S0121), the time adjustment between the timer serving as the reference for the operation timing of the central controller 10 and the timer serving as the reference for the operation timing of the A-system image control device 20 is performed. Done. The specific processing is performed, for example, according to the procedure shown in FIG.
【0019】図4において、まず、中央制御装置10か
らA系の映像制御装置20に同期合わせの開始通知コマ
ンドが送信される(S1)。この開始通知コマンドに対
して準備完了の通知をA系の映像制御装置20から受信
すると(S2)、中央処理装置10は、次のような処理
を実行する。即ち、中央制御装置10は自己のタイマで
の時刻aを取得する(S3)。この取得した時刻aが中
央制御装置10からA系の映像制御装置20に送信され
る(S4)。ここで、A系の映像制御装置20は、中央
制御装置10からの時刻aを受信すると、その時点で自
己のタイマでの時刻wを取得し、その時刻wを中央制御
装置10に返送する(時刻同期処理S112)。中央制
御装置10がA系の映像制御装置20からの時刻wを受
信すると(S5)、その時点での、自己のタイマでの時
刻bを取得する(S6)。上記のようにして取得された
時刻データ(a、w、b)1組となってが中央処理装置
10の図示しない内部メモリに蓄積される。In FIG. 4, first, the central control unit 10 transmits a synchronization start notification command to the A-system image control unit 20 (S1). When the preparation completion notification is received from the A-system video control device 20 in response to this start notification command (S2), the central processing unit 10 executes the following processing. That is, the central controller 10 acquires the time a on its own timer (S3). The acquired time a is transmitted from the central controller 10 to the A-system image controller 20 (S4). Here, upon receiving the time a from the central control device 10, the A-system video control device 20 acquires the time w on its own timer at that time and returns the time w to the central control device 10 ( Time synchronization processing S112). When the central controller 10 receives the time w from the A-system video controller 20 (S5), it acquires the time b on its own timer at that time (S6). One set of time data (a, w, b) obtained as described above is stored in an internal memory (not shown) of the central processing unit 10.
【0020】上記のような処理(S3、S4、S5、S
6)が所定回数だけ繰り返される。その後、中央制御装
置10は、内部メモリに蓄積された時刻データから当該
中央制御装置10のタイマから取得した時刻aとbの差
(b−a)の内の最小値cを演算する(S7)。ここ
で、この最小値cが異常値であるか否かが判定され(S
8)、異常値でない場合、中央制御装置10は、この時
刻差(b−a)が最小値cとなる場合の取得時刻aを中
央制御装置10の代表時刻dとして内部メモリに格納す
る(S9)。そして、中央制御装置10は、更に、時刻
差(b−a)が最小値cになる場合における中央制御装
置10の代表時刻d(=a)に対応したA系の映像制御
装置20のタイマでの時刻x(A系の映像制御装置20
での代表時刻x)を
x=w−c/2
に従って演算する(S10)。これは、中央制御装置1
0のタイマから取得した時刻aとbのちょうど中央にA
系の映像制御装置20のタイマからの取得時刻wがある
という仮定に基づいて演算されるものである。The above processing (S3, S4, S5, S
6) is repeated a predetermined number of times. After that, the central control unit 10 calculates the minimum value c of the difference (ba) between the times a and b acquired from the timer of the central control unit 10 from the time data stored in the internal memory (S7). . Here, it is determined whether or not this minimum value c is an abnormal value (S
8) If it is not an abnormal value, the central control device 10 stores the acquisition time a when the time difference (ba) is the minimum value c in the internal memory as the representative time d of the central control device 10 (S9). ). Then, the central controller 10 further uses the timer of the A-system image controller 20 corresponding to the representative time d (= a) of the central controller 10 when the time difference (ba) becomes the minimum value c. Time x (A system video control device 20
Then, the representative time x) is calculated according to x = w−c / 2 (S10). This is the central controller 1
A at the center of time a and b acquired from the timer of 0
It is calculated based on the assumption that there is an acquisition time w from the timer of the video control device 20 of the system.
【0021】なお、上記時刻差(b−c)の最小値cが
異常値(所定の上限基準値より大きい、または所定の下
限基準値より小さい)であると判定されると(S8でY
es)、再度、中央制御装置10及びA系の映像制御装
置20での時刻a、w、bの再取得が行なわれ、その時
刻差(b−a)の最小値cの再演算が行なわれる(S3
乃至S8)。そして、この場合、再演算により得られた
データに基づいて、中央制御装置10の代表時刻d及び
A系の映像制御装置20の対応する代表時刻xが演算さ
れる(S9、S10)。When it is determined that the minimum value c of the time difference (bc) is an abnormal value (greater than a predetermined upper limit reference value or less than a predetermined lower limit reference value) (Y in S8).
es), the times a, w, and b are again acquired by the central controller 10 and the A-system image controller 20, and the minimum value c of the time difference (ba) is recalculated. (S3
Through S8). Then, in this case, the representative time d of the central controller 10 and the corresponding representative time x of the A-system image controller 20 are calculated based on the data obtained by the recalculation (S9, S10).
【0022】上記のようにして、A系の映像制御装置2
0との同期合わせブロックS0121(図3参照)での
処理が終了すると、B系の映像制御装置30との同期合
わせブロックS0122(図3参照)が、例えば、図5
に従って実行される。このB系の映像制御装置30との
同期合わせブロックでの処理では、図4に示したA系の
映像制御装置20との同期合わせブロックでの処理ステ
ップS1乃至S10と同様の処理ステップS11乃至S
20が実行される。その結果、中央制御装置10の代表
時刻e及びB系の映像制御装置30の対応する代表時刻
yが演算される。As described above, the A-system image control device 2
When the processing in the synchronization block S0121 (see FIG. 3) with 0 is completed, the synchronization block S0122 (see FIG. 3) with the video control device 30 of the B system is displayed, for example, in FIG.
Executed according to. In the processing in the synchronization block with the B system video control device 30, the same processing steps S11 to S10 as the processing steps S1 to S10 in the synchronization block with the A system video control device 20 shown in FIG.
20 is executed. As a result, the representative time e of the central controller 10 and the corresponding representative time y of the B-system image controller 30 are calculated.
【0023】上記のようにして中央制御装置10と各A
系、B系の映像制御装置20、30との間で通信を行な
いながらの時刻同期処理(図2におけるS012、S1
12、S212)が終了すると、中央制御装置10が同
期開始時刻送信処理(S013)を行うと共に、A系、
B系の映像制御装置20、30が対応して同期開始時刻
受信処理(S113、S213)を実行する。中央制御
装置10での同期開始時刻送信処理(S013)は、図
3に示す同期合わせ通知ブロック(S0131)で構成
され、この同期合わせ通知ブロックでは、例えば、図6
に示す手順に従って処理が行われる。As described above, the central controller 10 and each A
Time synchronization processing (S012 and S1 in FIG. 2) while communicating with the video control devices 20 and 30 of the B and B systems.
12, S212) is completed, the central controller 10 performs the synchronization start time transmission process (S013), and the A system,
The B-system video control devices 20 and 30 correspondingly execute the synchronization start time reception processing (S113 and S213). The synchronization start time transmission process (S013) in the central controller 10 is composed of the synchronization notification block (S0131) shown in FIG. 3, and in this synchronization notification block, for example, as shown in FIG.
The process is performed according to the procedure shown in.
【0024】図6において、中央制御装置10は、各系
が同期した動作を開始すべき時刻(同期開始時刻)qを
決定する(S21)。この同期開始時刻qは任意に定め
ることができる。その後、中央制御装置10は、この同
期開始時刻qとA系の映像制御装置20との間で決定し
た代表時刻dとの差r(=q−d)を演算する(S2
2)。また同様にして、同期開始時刻qとB系の映像制
御装置30との間で決定した代表時刻eとの差s(=q
−e)が演算される(S23)。更に、中央制御装置1
0には、当該中央処理装置10での処理時間等を考慮し
た機器固有補正値αが図示しない所定のファイルに記述
されており、中央制御装置10はその機器固有補正値α
を読みだす(S24)。In FIG. 6, the central controller 10 determines a time (synchronization start time) q at which each system should start the synchronized operation (S21). This synchronization start time q can be set arbitrarily. After that, the central control device 10 calculates a difference r (= q−d) between the synchronization start time q and the representative time d determined between the A-system image control device 20 (S2).
2). Similarly, the difference s (= q between the synchronization start time q and the representative time e determined between the B system video control devices 30.
-E) is calculated (S23). Further, the central controller 1
In 0, a device-specific correction value α in consideration of the processing time in the central processing unit 10 is described in a predetermined file (not shown), and the central control unit 10 uses the device-specific correction value α.
Is read (S24).
【0025】その後、中央制御装置10は、A系の映像
制御装置20との間で決定した当該映像制御装置20の
代表時刻xに上記時刻差rとを加算して得られるA系で
の開始時刻(x+r)及び、中央制御装置10とA系の
映像制御装置20の各代表時刻d、xの差(x−d)を
映像制御装置20に送信する(S25)。また、更に、
中央制御装置10は、B系の映像制御装置30との間で
決定した当該映像制御装置30の代表時刻yに上記時刻
差s及び上記機器固有補正値αを加算して得られるB系
での開始時刻(y+s+α)及び、中央制御装置10と
B系の映像制御装置30の各代表時刻e、yの差(y−
e)を映像制御装置30に送信する(S26)。Thereafter, the central control unit 10 adds the above-mentioned time difference r to the representative time x of the video control device 20 determined with the video control device 20 of the A system, and starts it in the A system. The time (x + r) and the difference (x−d) between the representative times d and x of the central controller 10 and the A-system image controller 20 are transmitted to the image controller 20 (S25). In addition,
The central controller 10 adds the time difference s and the device-specific correction value α to the representative time y of the video control device 30 determined with the video control device 30 of the B system. The start time (y + s + α) and the difference (y−) between the representative times e and y of the central controller 10 and the B system image controller 30.
e) is transmitted to the video control device 30 (S26).
【0026】上記のようにして、中央制御装置10は、
同期処理の開始時刻(同期開始時刻)qを決定すると共
に、A系及びB系の映像制御装置20、30に対してこ
の同期開始時刻に対応するA系及びB系の映像制御装置
20、30のタイマでの開始時刻(x+r)、(y+s
+α)を通知する(図2、S013)。またこの時、中
央制御装置10は、自分のタイマ時刻とA系及びB系の
映像制御装置20、30のタイマ時刻との差(x−
d)、(y−e)も対応する映像制御装置20、30に
通知する。As described above, the central controller 10 is
The start time (synchronization start time) q of the synchronization process is determined, and the A-system and B-system video control devices 20 and 30 corresponding to the synchronization start times are determined for the A-system and B-system video control devices 20 and 30. Start time (x + r), (y + s)
+ Α) is notified (S013 in FIG. 2). Further, at this time, the central control unit 10 sets the difference (x−x) between its own timer time and the timer times of the A and B image control devices 20 and 30.
d) and (y-e) are also notified to the corresponding video control devices 20 and 30.
【0027】そして、A系、B系の各映像制御装置2
0、30は、その開始時刻(x+r)及び(y+s+
α)を各タイマの時刻差(x−d)、(y−e)と共に
受信する(S113、S213)。これにより、A系及
びB系の各映像制御装置20、30は、同期開示時刻を
認識すると共に、自己のタイマと中央制御装置10のタ
イマとのずれを認識することができる。Each of the A-system and B-system image control devices 2
0 and 30 are the start times (x + r) and (y + s +).
(α) is received together with the time difference (x-d) and (y-e) of each timer (S113, S213). As a result, each of the A-system and B-system video control devices 20 and 30 can recognize the synchronization disclosure time and also recognize the deviation between its own timer and the timer of the central control device 10.
【0028】上述したように、時刻同期処理及び同期開
始時刻の送受信処理が終了すると、中央制御装置10
は、決定した放映番組に基づいてその番組の音響データ
に基づいた音声出力を行うために必要な音響制御コマン
ドを作成する(S014)。音響制御コマンドは、各番
組の放映スケジュールに合わせて内部メモリ上に展開さ
れる。また、A系及びB系の各映像制御装置20、30
は、受信した番組IDに基づいてその番組を放映するた
めに必要な映像制御コマンドを作成する(S114、S
214)。この映像制御コマンドもまた、各番組のスケ
ジュールに合わせて内部メモリ上に展開される。As described above, when the time synchronization processing and the transmission / reception processing of the synchronization start time are completed, the central control unit 10
Creates an audio control command necessary for performing audio output based on the audio data of the broadcast program that has been determined (S014). The sound control command is expanded in the internal memory according to the broadcasting schedule of each program. In addition, the A-type and B-type image control devices 20 and 30
Creates a video control command necessary for broadcasting the program based on the received program ID (S114, S
214). This video control command is also expanded on the internal memory according to the schedule of each program.
【0029】上記音響制御コマンド及び映像制御コマン
ドは、それぞれ時刻指定コマンドと空き時間コマンドに
分けられている。時刻指定コマンドは、番組放映スケジ
ュールに合わせて実行されるように、そのコマンド実行
時刻が指定されているものである。このコマンド実行時
刻は、上記処理で決定された開示時刻(x+r)(A
系)及び(y+s+α)を基準に表される。また、空き
時間コマンドは、時刻指定コマンドを実行するべき指定
時刻の間に、任意に行うべきコマンドである。The sound control command and the video control command are divided into a time designation command and an idle time command, respectively. The time designation command is such that the command execution time is designated so as to be executed in accordance with the program broadcasting schedule. This command execution time is the disclosure time (x + r) (A
System) and (y + s + α). The free time command is a command that should be arbitrarily executed during the designated time when the time designation command should be executed.
【0030】各コマンドの形式は、例えば、
COMMAND parameter1 parameter2 parameter3 ...
のようになっている。ここで「COMMAND 」は、実行する
処理名を表し、「paramenter n」は、その処理に必要な
パラメータを表す。例えば、「メモリ12番から表示メ
モリAに画像データを転送する」というコマンドは、
Im_Move 12 A
で表される。The format of each command is, for example, COMMAND parameter1 parameter2 parameter3 ... Here, "COMMAND" represents a process name to be executed, and "paramenter n" represents a parameter required for the process. For example, the command “transfer image data from memory number 12 to display memory A” is represented by Im_Move 12 A.
【0031】上記のようにして、中央制御装置10にお
いて、番組スケジュールに対応した音響制御コマンドが
作成され、また、A系、B系の各映像制御装置20、3
0において、番組スケジュールに対応した映像コマンド
が作成されると、番組実行ブロックの手順に従った処理
が行われる(図2参照)。この番組実行ブロックにおい
ては、中央制御装置10、及びA系、B系の各映像制御
装置20、30において、内部タイマに基づいた時間監
視処理(S021、S121、S221)、時刻指定コ
マンド実行処理(S022、S122、S222)及び
空き時間コマンド実行処理(S023、S123、S2
23)が最終のコマンドに至るまで繰り返し実行され
る。As described above, in the central control unit 10, the sound control command corresponding to the program schedule is created, and the A-system and B-system image control units 20, 3 are also provided.
At 0, when the video command corresponding to the program schedule is created, the process according to the procedure of the program execution block is performed (see FIG. 2). In this program execution block, in the central control device 10 and each of the A-system and B-system image control devices 20 and 30, a time monitoring process (S021, S121, S221) based on an internal timer, a time designation command execution process ( S022, S122, S222) and free time command execution processing (S023, S123, S2)
23) is repeatedly executed until the final command.
【0032】例えば、同期開始時刻から10秒後及び2
0秒後に静止画像を各スクリーン24、34に表示する
場合、図7及び図8に示すような順序で各コマンドが実
行される。なお、図7及び図8は、例えば、A系の映像
制御装置20での処理の流れを記述しているが、B系の
映像制御制御装置30及び中央制御装置10での処理の
流れも基本的に同じである。また、中央制御装置10
は、自己のタイマが同期開始時刻qとなったときに時刻
監視の処理を開始し、A系の映像制御装置20は、自己
のタイマが開始時刻(x+r)となったときに時刻監視
の処理を開始し、更に、B系の映像制御装置30は、自
己のタイマが開始時刻(y+s+α)となったときに時
刻監視の処理を開始する。即ち、中央制御装置10及び
A系、B系の各映像制御装置20、30は、同時に時刻
監視の処理を開始する。For example, 10 seconds after the synchronization start time and 2
When the still image is displayed on the screens 24 and 34 after 0 seconds, the commands are executed in the order shown in FIGS. 7 and 8. Although FIGS. 7 and 8 describe the flow of processing in the A-system video control device 20, for example, the flow of processing in the B-system video control control device 30 and the central control device 10 is also basic. Are the same. In addition, the central controller 10
Starts the time monitoring process when its own timer reaches the synchronization start time q, and the A-system video control device 20 performs the time monitoring process when its own timer reaches the start time (x + r). Further, the B-system video control device 30 starts the time monitoring process when its own timer reaches the start time (y + s + α). That is, the central controller 10 and each of the A-system and B-system image control devices 20 and 30 simultaneously start time monitoring processing.
【0033】例えば、図7及び図8において、空き時間
コマンド及び時刻指定コマンドが次のように実行され
る。まず、データファイルαがオープンされ(Im_Open
sample file α) 、そのファイルに記録された静止画
像データがディスクユニット22から10回に分けて読
みだされる(Read_Disk 1-10 )。その読みだされた静
止画像データが映像制御装置20の一般メモリに格納さ
れた後に、上記データファイルαがクローズされる(Im
_Close )。そして、この一般メモリから画像データ専
用メモリに10回に分けて静止画像データが転送される
(Move Mem 1 1 - 1 10 )。For example, in FIGS. 7 and 8, the idle time command and the time designation command are executed as follows. First, the data file α is opened (Im_Open
sampl e file α), the still image data recorded in the file is read out separately from the disk unit 22 to 10 times (Read_Disk 1-10). After the read still image data is stored in the general memory of the video control device 20, the data file α is closed (Im
_Close). Then, the still image data is transferred from the general memory to the image data dedicated memory 10 times (Move Mem 1 1 -1 10).
【0034】その後、データファイルβがオープンされ
(Im_Open sample file β)、そのファイルに記録さ
れた静止画像データがディスクユニット22から分割し
て読みだされる(Read Disk 1-10)。このデータファイ
ルβの読みだし処理の最中に、静止画像αを表示するた
めのスタンバイ時刻になると、データファイルβの読み
だし処理が中断され(Read_Disk 5)、開始時刻から所
定の時刻9秒20フレームに達した時点で、画像データ
専用メモリに格納されたファイルαの静止画像データが
映像表示装置21の表示用メモリ(画像メモリ)に転送
される(Im_Move 1 A)。[0034] Thereafter, the data file beta is opened (Im_Open sampl e file β), the still image data recorded in the file is read out by dividing the disk unit 22 (Read Disk 1-10). During the reading process of the data file β, when the standby time for displaying the still image α is reached, the reading process of the data file β is interrupted (Read_Disk 5) and a predetermined time 9 seconds 20 from the start time. When the frame is reached, the still image data of the file α stored in the image data dedicated memory is transferred to the display memory (image memory) of the video display device 21 (Im_Move 1 A).
【0035】そして、A系のタイマで開始時刻(x+
d)から10秒経過した時点で、映像制御装置20から
映像表示装置21に表示指令がなされる(IM_Disp
A)。その結果、映像表示装置21は、表示メモリに格
納された静止画像データに基づいて形成される画像をス
クリーン24上に投影する。この時、同時に(B系のタ
イマで開始時刻(y+s+α)から10秒経過した時
点)、B系の映像制御装置30の制御のもとに、B系の
映像表示装置31がディスクユニット32から読みださ
れた静止画像データに基づいて形成される画像をスクリ
ーン34に投影する。更に、同時に(中央制御装置10
のタイマで開始時刻qから10秒経過した時点)、中央
制御装置10の制御のもとに、ディスクユニット14に
格納された音響データが音響制御装置12に供給され
て、この音響データに基づいた音声出力がなされる。Then, the start time (x +
When 10 seconds have passed from d), a display command is issued from the video control device 20 to the video display device 21 (IM_Disp
A). As a result, the video display device 21 projects an image formed based on the still image data stored in the display memory on the screen 24. At this time, at the same time (when 10 seconds have passed from the start time (y + s + α) on the B system timer), the B system image display device 31 reads from the disk unit 32 under the control of the B system image control device 30. An image formed based on the extracted still image data is projected on the screen 34. Further, at the same time (central controller 10
The sound data stored in the disk unit 14 is supplied to the sound control device 12 under the control of the central control device 10 at the time point when 10 seconds have elapsed from the start time q by the timer of (1), and based on this sound data. Sound is output.
【0036】ここで、A系の静止画像データとB系の静
止画像データにて1つの静止画像が記述するようにして
おけば、各スクリーン24、34には1枚の大型の静止
画像(横約4m、縦約1m)が分割して投影される。こ
の場合、1つの映像ソースからの映像情報(静止画像デ
ータ)が特に分割拡大する等の処理を得ることなくその
まま1つの映像表示装置に供給され、その映像情報に基
づいた画像表示がなされる。従って、解像度の低下のな
い高精細な画像(静止画像)が2枚のスクリーン24、
34が連結した大きなスクリーンに表示される。If one still image is described by the A system still image data and the B system still image data, one large still image (horizontal image) is displayed on each screen 24, 34. About 4 m and about 1 m in the vertical direction) are projected separately. In this case, video information (still image data) from one video source is supplied to one video display device as it is without any processing such as division and enlargement, and image display based on the video information is performed. Therefore, a high-definition image (still image) without deterioration in resolution is displayed on the two screens 24,
34 is displayed on a large screen connected to each other.
【0037】また、A系、B系の各映像制御装置20、
30に接続されたディスクユニット22、32に格納さ
れた静止画像データに別々の映像効果を加えておくこと
により、各スクリーン24、34に投影される画像にそ
れぞれに異なった映像効果を与えることができる。上記
のようにして、開始時刻から10秒後でのファイルαの
画像表示指令が行われた後に、映像制御装置20は、フ
ァイルβからの静止画像データの読みだしコマンドの処
理を再開する(図8参照、Read_Disk 6-10 )。そし
て、合計10回に分けて読みだされた静止画像データが
映像制御装置20の一般メモリに格納された後に、上記
データファイルβがクローズされる(Im_Close )。そ
して、この一般メモリから画像データ専用メモリに10
回に分けて静止画像データが転送される(Move Mem2 1
- 2 10)。Further, each of the A-system and B-system image control devices 20,
By adding different video effects to the still image data stored in the disk units 22 and 32 connected to 30, it is possible to give different video effects to the images projected on the screens 24 and 34, respectively. it can. As described above, after the image display command of the file α is issued 10 seconds after the start time, the video control device 20 restarts the processing of the read command of the still image data from the file β (see FIG. 8), Read_Disk 6-10). Then, after the still image data read in 10 times in total is stored in the general memory of the video control device 20, the data file β is closed (Im_Close). Then, from this general memory to the image data dedicated memory,
Still image data is transferred in batches (Move Mem2 1
-2 10).
【0038】このように、ファイルβの静止画像が映像
制御装置20の画像データ専用メモリに読みだされた
後、特に処理すべきコマンドがない場合、映像制御装置
20は時間監視だけを行って待機状態となる。そして、
再び、静止画像βを表示するためのスタンバイ時刻にな
ると、開始時刻から所定の時刻19秒20フレームに達
した時点で、画像データ専用メモリに格納されたファイ
ルβの静止画像データが映像表示装置21の表示用メモ
リ(画像メモリ)に転送される(Im_Move2 B )。As described above, after the still image of the file β is read into the image data dedicated memory of the video control device 20, if there is no command to be processed, the video control device 20 only monitors the time and waits. It becomes a state. And
At the standby time for displaying the still image β again, the still image data of the file β stored in the image data dedicated memory is transferred to the video display device 21 when the predetermined time 19 seconds 20 frames has been reached from the start time. Is transferred to the display memory (image memory) (Im_Move2 B).
【0039】そして、A系のタイマで開始時刻(x+
d)から20秒経過した時点で、映像制御装置20から
映像表示装置21に表示指令がなされる(IM_Disp
A)。その結果、映像表示装置21は、表示メモリに格
納された静止画像データに基づいて形成される画像をス
クリーン24上に投影する。この時、B系(映像処理)
及び中央制御装置10での系(音響処理)でも上述した
のと同様の手順での処理が実行される。Then, the start time (x +
When 20 seconds have passed from d), the video control device 20 issues a display command to the video display device 21 (IM_Disp
A). As a result, the video display device 21 projects an image formed based on the still image data stored in the display memory on the screen 24. At this time, B system (video processing)
Also, in the system (acoustic processing) in the central control device 10, processing is executed in the same procedure as described above.
【0040】上記例では、静止画像を表示する場合の処
理について説明したが、動画像を表示する場合も、基本
的に同様の手順に従って処理が実行される。即ち、中央
制御装置10、A系、B系の映像制御装置20、30の
間での時刻合わせ処理を行った後に、番組スケジュール
に従って、各映像制御装置20、30が対応する映像表
示装置21、31に対してLDユニット23、33から
のビデオデータの読みだし表示指令のタイミング制御を
行う。In the above example, the processing for displaying a still image has been described, but the processing is basically executed in the same procedure also for displaying a moving image. That is, after performing the time adjustment processing between the central control device 10 and the A-system and B-system video control devices 20 and 30, the video display devices 21 to which the video control devices 20 and 30 correspond in accordance with the program schedule. The timing control of the read-out display command of the video data from the LD units 23 and 33 is performed on the 31.
【0041】なお、上記システムは、2つの映像制御シ
ステム(A系、B系)から構成されるものであったが、
本発明はこれに限られず、3以上の複数の映像制御シス
テムから構成することも可能である。また、中央制御装
置10に音響に係る系が構成されたが、例えば、1つの
映像システムが音響に係る系を兼ねるように構成するこ
とも、また、中央制御装置10と別に音響に係る系を設
けるように構成することも可能である。更に、音声出力
を必要としない番組のみを扱う映像システムでは、特に
音響に係る系を設ける必要はない。Although the above system is composed of two video control systems (A system and B system),
The present invention is not limited to this, and can be configured with a plurality of three or more video control systems. Further, although the system related to sound is configured in the central control device 10, for example, it is also possible to configure one video system so as to also serve as the system related to sound, or to configure a system related to sound separately from the central control device 10. It can be configured to be provided. Furthermore, in a video system that handles only programs that do not require audio output, it is not necessary to provide a system related to sound.
【0042】上記例において、中央制御装置10及び各
映像制御装置20、30の機能が制御手段に対応する。
また、各映像制御装置20、30における時刻指定コマ
ンド実行処理(図2、S122、S222参照)が映像
表示開始制御手段に対応し、時刻同期処理及び同期開始
時刻送信処理(同期合わせデータ通知ブロック)(図
2、S012、S013(図3、S0131)参照)が
同期制御手段に対応する。In the above example, the functions of the central controller 10 and the respective video controllers 20, 30 correspond to the control means.
Further, the time designation command execution processing (see S122 and S222 in FIG. 2) in each of the video control devices 20 and 30 corresponds to the video display start control means, and the time synchronization processing and the synchronization start time transmission processing (synchronization data notification block). (See FIG. 2, S012, S013 (FIG. 3, S0131)) corresponds to the synchronization control means.
【0043】[0043]
【発明の効果】以上、説明してきたように、請求項1乃
至2に記載された本発明によれば、1つの映像ソースか
らの映像情報に基づいて1つの分割画像が表示画面上に
表示されるので、映像ソースからの映像情報の解像度を
表示画面上の画面の解像度として保存させることができ
る。その結果、複数の表示画面に大きな画像を解像度の
低下させずに高解像度にて表示できるようになる。As described above, according to the present invention described in claims 1 and 2, one divided image is displayed on the display screen based on the video information from one video source. Therefore, the resolution of the video information from the video source can be saved as the resolution of the screen on the display screen. As a result, a large image can be displayed on a plurality of display screens with high resolution without lowering the resolution.
【0044】また、各映像ソース毎に映像効果を加えた
映像情報を格納することにより、容易に、分割表示され
る各画像に対して自由な映像効果を与えることのでき
る。更に、請求項3乃至4記載の本発明によれば、上記
効果を有する映像制御システムを用いた映像システムを
提供することができる。Further, by storing the video information to which the video effect is added for each video source, it is possible to easily give a free video effect to each image to be divided and displayed. Further, according to the present invention described in claims 3 to 4, it is possible to provide a video system using the video control system having the above effects.
【図1】本発明の実施の一形態に係る映像システムの構
成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of a video system according to an embodiment of the present invention.
【図2】中央制御装置、各映像制御装置での処理の手順
を示すフローチャートである。FIG. 2 is a flowchart showing a procedure of processing in a central control device and each video control device.
【図3】図2におけるステップS012、S013の更
に詳細な手順を示すフローチャートである。FIG. 3 is a flowchart showing a more detailed procedure of steps S012 and S013 in FIG.
【図4】図3におけるステップS0121の更に詳細な
手順を示すフローチャートである。FIG. 4 is a flowchart showing a more detailed procedure of step S0121 in FIG.
【図5】図3におけるステップS0122の更に詳細な
手順を示すフローチャートである。5 is a flowchart showing a more detailed procedure of step S0122 in FIG.
【図6】図3におけるステップS0131の更に詳細な
手順を示すフローチャートである。FIG. 6 is a flowchart showing a more detailed procedure of step S0131 in FIG.
【図7】コマンド実行処理の手順(その1)を示す図で
ある。FIG. 7 is a diagram showing a procedure (part 1) of command execution processing.
【図8】コマンド実行処理の手順(その2)を示す図で
ある。FIG. 8 is a diagram showing a procedure (part 2) of command execution processing.
【符号の説明】 10 中央制御装置 12 ディスクユニット 14 音響制御装置 20 映像制御装置 21 映像表示装置 22 ディスクユニット 23 LDユニット 24 スクリーン 30 映像制御装置 31 映像表示装置 32 ディスクユニット 33 LDユニット 34 スクリーン[Explanation of symbols] 10 Central control unit 12 disk units 14 Sound control device 20 Video control device 21 Video display device 22 Disk unit 23 LD unit 24 screen 30 Video control device 31 Video display device 32 disk units 33 LD unit 34 screen
───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G09G 5/00 - 5/42 G06F 3/14 - 3/153 ─────────────────────────────────────────────────── ─── Continuation of the front page (58) Fields surveyed (Int.Cl. 7 , DB name) G09G 5/00-5/42 G06F 3/14-3/153
Claims (4)
該複数の映像ソースのそれぞれに対応して設けられ、供
給される映像情報に対応した画像を表示画面に表示させ
る複数の映像表示装置とを制御する映像制御システムに
おいて、該複数の 映像表示装置のそれぞれに対応して設けられ、
該映像情報に基づいた画像を該複数の映像表示装置ごと
の開始時刻に応じて該表示画面に表示させるための制御
を行なう複数の制御手段と、 該複数の制御手段との間で通信を行い、該通信結果に基
づいて該複数の映像表示装置ごとの開始時刻を同期させ
る補正情報を該複数の制御手段に供給する中央制御手段
と を有する映像制御システム。1. A plurality of video sources storing video information,
It is provided corresponding to each of the plurality of video sources and provided.
Image corresponding to the video information to be displayed on the display screen.
RupluralFor video control systems that control video display devices
Be carefulThe plurality of Each of the video display deviceToCorrespondenceIs provided by
TheImages based on video informationFor each of the plurality of video display devices
According to the start time ofControl to display
DopluralControl meansWhen, Communication is performed with the plurality of control means, and based on the communication result,
To synchronize the start time of each of the video display devices.
Central control means for supplying correction information to the plurality of control means
When Video control system having a.
て、 上記中央制御手段は、該複数の制御手段との間で行った
通信結果に基づき、自身の時刻と該複数の制御手段ごと
の時刻との時刻差および該時刻差を考慮した該複数の制
御手段ごとの開始時刻を算出し、該時刻差および開始時
刻を補正情報として該複数の制御手段に供給することを
特徴とする映像制御システム。2. The video control system according to claim 1, wherein the central control means performs the control with the plurality of control means.
Based on the communication result, its own time and each of the plurality of control means
Time difference from the time and the plurality of controls considering the time difference.
Calculate the start time for each control method and calculate the time difference and start time
Is supplied to the plurality of control means as correction information.
Characteristic video control system.
給される映像情報に対応した画像を表示画面に表示させ
る映像表示装置と、該複数の 映像表示装置のそれぞれに対応して設けられ、
該映像情報に基づいた画像を該複数の映像表示装置ごと
の開始時刻に応じて該表示画面に表示させるための制御
を行なう複数の制御手段と、 該複数の制御手段との間で通信を行い、該通信結果に基
づいて該複数の映像表示装置ごとの開始時刻を同期させ
る補正情報を該複数の制御手段に供給する中央制御手段
と を有する映像システム。3. A plurality of video sources storing video information, It is provided corresponding to each of the plurality of video sources and provided.
Image corresponding to the video information to be displayed on the display screen.
Video display device,The plurality of Each of the video display deviceToCorrespondenceIs provided by
TheImages based on video informationFor each of the plurality of video display devices
According to the start time ofControl to display
DopluralControl meansWhen, Communication is performed with the plurality of control means, and based on the communication result,
To synchronize the start time of each of the video display devices.
Central control means for supplying correction information to the plurality of control means
When Video system having.
通信結果に基づき、自身の時刻と該複数の制御手段ごと
の時刻との時刻差および該時刻差を考慮した該 複数の制
御手段ごとの開始時刻を算出し、該時刻差および開始時
刻を補正情報として該複数の制御手段に供給することを
特徴とする映像システム。4. The video system according to claim 3, wherein the central control means is arranged between the plurality of control means.
Based on the communication result, its own time and each of the plurality of control means
Time difference and said plurality of control in consideration of the time difference between the time of
Calculate the start time for each control method and calculate the time difference and start time
Is supplied to the plurality of control means as correction information.
Characteristic video system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP06692797A JP3407850B2 (en) | 1997-03-19 | 1997-03-19 | Image control system and image system using the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP06692797A JP3407850B2 (en) | 1997-03-19 | 1997-03-19 | Image control system and image system using the same |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH10260665A JPH10260665A (en) | 1998-09-29 |
JP3407850B2 true JP3407850B2 (en) | 2003-05-19 |
Family
ID=13330116
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP06692797A Expired - Fee Related JP3407850B2 (en) | 1997-03-19 | 1997-03-19 | Image control system and image system using the same |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3407850B2 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3526019B2 (en) | 1999-11-30 | 2004-05-10 | インターナショナル・ビジネス・マシーンズ・コーポレーション | Image display system, image display device, and image display method |
DE10036143C2 (en) * | 2000-07-25 | 2003-12-24 | Siemens Ag | Display system for image systems for the reproduction of medical images |
JP3707433B2 (en) * | 2001-12-25 | 2005-10-19 | セイコーエプソン株式会社 | Projector control system and control method |
JP4586389B2 (en) | 2004-03-22 | 2010-11-24 | セイコーエプソン株式会社 | Multi-screen video playback device and video playback method in multi-screen video playback device |
JP4731827B2 (en) * | 2004-04-09 | 2011-07-27 | 三菱電機株式会社 | Multi-screen video display device and multi-screen video display method |
WO2006025093A1 (en) * | 2004-08-30 | 2006-03-09 | Mitsubishi Denki Kabushiki Kaisha | Screen synchronization control apparatus |
JP5224137B2 (en) | 2009-07-27 | 2013-07-03 | 株式会社メガチップス | Display system and image reproduction apparatus |
JP5615430B2 (en) * | 2011-05-11 | 2014-10-29 | 三菱電機株式会社 | Video information playback unit, video information playback device, and synchronization control method |
-
1997
- 1997-03-19 JP JP06692797A patent/JP3407850B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH10260665A (en) | 1998-09-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2000267187A (en) | Projection type display device | |
US9648272B2 (en) | News production system with display controller | |
JP3407850B2 (en) | Image control system and image system using the same | |
RU2006124844A (en) | DISPLAY DEVICE AND METHOD FOR MANAGING THEM | |
JP2001024685A5 (en) | Control system and control device | |
JP2000222163A (en) | Data display system and data display control method in data display system | |
US6914662B2 (en) | Digital projector automation | |
EP0827656B1 (en) | Data synchronizing system for multiple memory array processing field organized data | |
US20030067535A1 (en) | System and method for component TV system | |
JP2001034377A (en) | Presentation system | |
JPS61179693A (en) | Still picture transmitting device | |
JPH0981079A (en) | Projection device | |
JPH05232910A (en) | Display device | |
EP3851951B1 (en) | Display device, display device control method, and display system | |
JPH04139492A (en) | Multi image display device | |
JP2001086457A (en) | Monitoring and video recording device and method for setting video recording parameter for the same | |
US20140152893A1 (en) | Creating presentations by capturing the content of a computer generated virtual secondary display | |
JPS62109485A (en) | Human image centering system for television conference system | |
JPH05189944A (en) | Electronic equipment control method | |
CN113590251A (en) | Single-screen multi-window digital interactive display system and method | |
JPH05165868A (en) | Paging control system | |
JPH07271345A (en) | Image display device | |
JPH0662270A (en) | Multiscreen display synchronizing controller | |
JP2002251132A (en) | Automatic planetarium representation apparatus and program therefor | |
JPH10153988A (en) | Display device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20030225 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080314 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090314 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |