JP2017003925A - Video display system, projection type video display device and projection type video display device control method - Google Patents

Video display system, projection type video display device and projection type video display device control method Download PDF

Info

Publication number
JP2017003925A
JP2017003925A JP2015120603A JP2015120603A JP2017003925A JP 2017003925 A JP2017003925 A JP 2017003925A JP 2015120603 A JP2015120603 A JP 2015120603A JP 2015120603 A JP2015120603 A JP 2015120603A JP 2017003925 A JP2017003925 A JP 2017003925A
Authority
JP
Japan
Prior art keywords
video
projection
video signal
signal
delay time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015120603A
Other languages
Japanese (ja)
Other versions
JP2017003925A5 (en
JP6251871B2 (en
Inventor
城杉 孝敏
Takatoshi Shirosugi
孝敏 城杉
甲 展明
Nobuaki Kabuto
展明 甲
浦田 浩之
Hiroyuki Urata
浩之 浦田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Ltd
Original Assignee
Hitachi Maxell Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Maxell Ltd filed Critical Hitachi Maxell Ltd
Priority to JP2015120603A priority Critical patent/JP6251871B2/en
Priority to PCT/JP2016/062962 priority patent/WO2016203848A1/en
Publication of JP2017003925A publication Critical patent/JP2017003925A/en
Publication of JP2017003925A5 publication Critical patent/JP2017003925A5/en
Application granted granted Critical
Publication of JP6251871B2 publication Critical patent/JP6251871B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/12Synchronisation between the display unit and other units, e.g. other display units, video-disc players
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve the problem in which when transmitting video signals from a portable terminal 201 to a plurality of projectors 101A to C via a radio wave, buffering processing at radio wave units 115 of respective projectors are different to thereby cause a delay, and further variation occurs in video outputs from respective projectors, thus, the video becomes defective.SOLUTION: A video signal 302 to be transmitted from a portable terminal 201 has video time information 301 to output a video signal added. A maximum video signal delay time T shared by each projector 101 is added to the video time, and on the basis of time information shared by each projector, the video signal is delayed to be output, which in turn a synchronous video is output to be displayed from a plurality of projectors.SELECTED DRAWING: Figure 1

Description

本発明は、複数の投写型映像表示装置で構成された映像表示システム、および投写型映像表示装置の制御方法に関する。   The present invention relates to a video display system including a plurality of projection video display devices and a control method for the projection video display device.

特許文献1は、複数台のプロジェクタを用いて画像表示を行う場合において、各プロジェクタの運転モードの統一制御を容易とし、使い勝手を良好にすることが可能なプロジェクタを提供することを課題とし、投射した画面に情報を埋め込んで、これを他のプロジェクタが情報をカメラで認識することで情報伝送することを特徴としている。   Patent Document 1 has an object to provide a projector capable of facilitating unified control of the operation mode of each projector and improving usability when performing image display using a plurality of projectors. It is characterized in that information is embedded in the screen, and information is transmitted by other projectors recognizing the information with a camera.

特開2011−70086号公報JP 2011-70086 A

携帯端末から映像信号を複数のプロジェクタに無線を介して送る場合、それぞれのプロジェクタの無線受信部で受信し映像信号を出力するときに、それぞれのプロジェクタの無線受信部でのバッファリング処理が異なるため、それぞれの無線受信部からの映像信号出力に遅延が生じる。この遅延は接続のたびに異なる値となり、さらに、何らかの理由により無線接続が切断された場合も、再接続ごとに異なる値となる。この遅延により、それぞれのプロジェクタからの映像出力時間にバラツキが生じ、大画面化、高輝度/高精細化、3D化の場合に映像が破綻するという課題があった。なお、無線ではなくネットワークを介した接続でも同様である。   When a video signal is sent from a portable terminal to a plurality of projectors via radio, when the video signal is received by each projector's wireless receiver and output, the buffering process at each projector's wireless receiver is different. A delay occurs in the video signal output from each wireless receiver. This delay varies with each connection, and also varies with each reconnection when the wireless connection is disconnected for some reason. Due to this delay, there is a variation in the video output time from each projector, and there is a problem that the video breaks down in the case of a large screen, high brightness / high definition, and 3D. The same applies to connection via a network instead of wireless communication.

前記特許文献1では、各プロジェクタから出力される映像の出力時間のバラツキを抑えるため、どのように制御するかについては記載されていない。   In Patent Document 1, it is not described how to control in order to suppress variations in the output time of the video output from each projector.

本発明の目的は、携帯端末から映像信号を複数のプロジェクタに無線で送って、大画面化、高輝度/高精細化、3D化を実施する場合に、複数のプロジェクタ間でバラツキのない映像出力とすることである。   An object of the present invention is to send video signals from a portable terminal to a plurality of projectors wirelessly, and to perform video output without variation among a plurality of projectors when a large screen, high brightness / high definition, and 3D are implemented. It is to do.

上記目的を達成するために、例えば、特許請求の範囲に記載の構成を採用する。   In order to achieve the above object, for example, the configuration described in the claims is adopted.

本発明によれば、携帯端末から映像信号を複数のプロジェクタに無線で送り、それぞれのプロジェクタの無線受信部で受信し映像信号を出力するときに、それぞれの無線受信部からの映像信号出力に生じる遅延を、共有された基準時刻と、映像信号に付加された時刻情報から求めた最大映像信号遅延時間を複数のプロジェクタで共有することで、複数のプロジェクタの映像出力を同期させることができる効果がある。   According to the present invention, when a video signal is wirelessly transmitted from a portable terminal to a plurality of projectors, and received by a wireless reception unit of each projector and output as a video signal, the video signal is output from each wireless reception unit. By sharing the delay with the shared reference time and the maximum video signal delay time obtained from the time information added to the video signal among the plurality of projectors, it is possible to synchronize the video output of the plurality of projectors. is there.

実施例1にかかる映像表示システムの構成を示す図である。1 is a diagram illustrating a configuration of a video display system according to Embodiment 1. FIG. 伝送信号202を生成する携帯端末201の構成を示す図である。It is a figure which shows the structure of the portable terminal 201 which produces | generates the transmission signal 202. FIG. 伝送信号202に含まれる映像伝送信号の構成を示す図である。FIG. 3 is a diagram illustrating a configuration of a video transmission signal included in a transmission signal 202. 各プロジェクタの映像信号の出力遅延調整動作を説明する図である。It is a figure explaining the output delay adjustment operation | movement of the video signal of each projector. 複数のプロジェクタの投写使用例(表示モード)を説明する図である。It is a figure explaining the projection usage example (display mode) of a some projector. 制御部113による映像遅延処理の制御を示すフローチャートである。5 is a flowchart illustrating control of video delay processing by a control unit 113. 実施例2にかかる映像表示システムの構成を示す図である。It is a figure which shows the structure of the video display system concerning Example 2. FIG. 実施例2における映像遅延処理の制御を示すフローチャートである。10 is a flowchart illustrating video delay processing control according to the second exemplary embodiment. 図8のステップS801(配置認識)の詳細を示す図である。It is a figure which shows the detail of step S801 (arrangement recognition) of FIG. 図8のステップS802(表示モード判定)の詳細を示す図である。It is a figure which shows the detail of step S802 (display mode determination) of FIG. 実施例3にかかる映像表示システムの構成を示す図である。FIG. 10 is a diagram illustrating a configuration of a video display system according to a third embodiment.

以下、本発明を実施するための形態について図面を参照して詳述する。なお、図面において、同一符号は、同一または相当部分を示す。また、本発明は、実施例に限定されるものではない。   Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings. In the drawings, the same reference numerals indicate the same or corresponding parts. The present invention is not limited to the examples.

図1は、実施例1にかかる映像表示システムの構成を示す図である。1台の携帯端末(映像送信装置)から映像信号を3台のプロジェクタ(投写型映像表示装置)101A、101B、101Cに無線で送信して、それぞれのプロジェクタから映像の投写114A、114B、114Cを行う例を示している。プロジェクタ101A、101B、101Cの構造は全く同じであり、それぞれの構成ブロックはA、B、Cの添え字をつけて表す。   FIG. 1 is a diagram illustrating the configuration of the video display system according to the first embodiment. Video signals are transmitted from one portable terminal (video transmission device) to three projectors (projection-type video display devices) 101A, 101B, and 101C wirelessly, and video projections 114A, 114B, and 114C are transmitted from the respective projectors. An example is shown. The structures of the projectors 101A, 101B, and 101C are exactly the same, and each component block is represented with the subscripts A, B, and C.

ここでまず、図5を用いて複数のプロジェクタの投写使用例(表示モード)を、説明する。図5(a)は複数のプロジェクタの投写を連結して大画面にする使用例(大画面モード)である。図5(a)では3台のプロジェクタPJ1、PJ2、PJ3を水平に連結しているが、垂直に連結したり、もっと多くのプロジェクタを用いて水平と垂直の両方に連結させることも可能である。図5(b)は複数のプロジェクタの投写を1つに集め、高輝度化または高精細化を行ったものである(高輝度・高精細モード)。この場合、投写している映像は全て同じ内容である。図5(c)は3D映像のために左目用、右目用の投写を1つに集めたものである(3Dモード)。図5(d)は複数のプロジェクタを独立に使用した例(独立モード)であり、同じ映像を投写したり異なる映像を投写することもある。   First, a projection usage example (display mode) of a plurality of projectors will be described with reference to FIG. FIG. 5A shows a usage example (large screen mode) in which projections of a plurality of projectors are connected to form a large screen. In FIG. 5A, three projectors PJ1, PJ2, and PJ3 are connected horizontally, but it is also possible to connect them vertically or connect both horizontally and vertically using more projectors. . FIG. 5B shows a case where projections from a plurality of projectors are collected into one to achieve high brightness or high definition (high brightness / high definition mode). In this case, all the projected images have the same content. FIG. 5C shows the projections for the left eye and the right eye collected for 3D video in one (3D mode). FIG. 5D shows an example in which a plurality of projectors are used independently (independent mode), and the same image may be projected or different images may be projected.

図5(a)、(b)、(c)の表示モード(同期モード)においては、それぞれのプロジェクタの映像出力の時間同期が取れていないと表示する映像が破綻してしまう。ここでは、図1の3台のプロジェクタ101A、101B、101Cからの映像投写114A、114B、114Cを、図5(a)のような大画面モードに対応させたときの動作説明を行う。   In the display modes (synchronous mode) shown in FIGS. 5A, 5B, and 5C, the video to be displayed is broken if the video output of each projector is not synchronized in time. Here, an operation will be described when the image projections 114A, 114B, and 114C from the three projectors 101A, 101B, and 101C in FIG. 1 are made to correspond to the large screen mode as shown in FIG.

携帯端末201からプロジェクタ101A、101B、101Cへ、伝送信号202が無線で送信される。伝送経路として例えば無線LANを用いる。   A transmission signal 202 is wirelessly transmitted from the portable terminal 201 to the projectors 101A, 101B, and 101C. For example, a wireless LAN is used as the transmission path.

図2は、伝送信号202を生成する携帯端末201の構成を示す図である。信号源211に映像信号が記憶されている。この映像信号は画像圧縮された信号でもよい。端末制御部213は、信号源211からの映像信号にそれぞれの映像信号を携帯端末201から出力する時間である動画時刻情報を端末時計214から入手し、多重処理部212で映像信号を時間圧縮してその時間圧縮した隙間の時間に動画時刻情報を多重し、映像伝送信号とする。映像伝送信号を端末無線部215で無線化し、アンテナ216から伝送信号202を送信する。   FIG. 2 is a diagram illustrating a configuration of the mobile terminal 201 that generates the transmission signal 202. A video signal is stored in the signal source 211. This video signal may be an image-compressed signal. The terminal control unit 213 obtains video time information, which is the time for outputting each video signal from the portable terminal 201, from the terminal clock 214 to the video signal from the signal source 211, and the multiprocessing unit 212 time-compresses the video signal. Then, the video time information is multiplexed into the time of the gap compressed by the time to obtain a video transmission signal. The video transmission signal is wirelessly transmitted by the terminal wireless unit 215, and the transmission signal 202 is transmitted from the antenna 216.

図3は、伝送信号202に含まれる映像伝送信号の構成を示す図である。図3(a)の映像伝送信号300は動画の場合を示し、302[1]、302[2]、302[3]、302[4]は映像信号であり、301[1]、301[2]、301[3]、301[4]はそれぞれ[ ]内の数字の同じ映像信号の動画時刻情報である。動画時刻情報とはそれぞれの映像信号を携帯端末201から出力した時刻であり、それぞれの映像信号を動画時刻情報に示された時刻に従って出力することで、映像を正常なタイミングで再生することができる。動画時刻情報の間隔は、最大で1画面単位の1フレームであるが、1画面中の1ライン単位、1画面中の1画素単位でもよく、それぞれのプロジェクタからの投写のずれが視覚的に認識されない時間単位とする。また、映像信号302は画像圧縮された信号であってもよく、このときは映像信号中に映像再生用の時刻情報を別に持っている。図3(b)は映像信号304が静止画の例であり、静止画の場合は静止画を切り替えた時間を静止画切替時刻情報303として多重する。もちろん、静止画であっても図3(a)のように動画として扱ってもよい。   FIG. 3 is a diagram illustrating a configuration of a video transmission signal included in the transmission signal 202. The video transmission signal 300 in FIG. 3A shows the case of a moving image, and 302 [1], 302 [2], 302 [3], and 302 [4] are video signals, and 301 [1], 301 [2] ], 301 [3] and 301 [4] are moving picture time information of video signals having the same numbers in []. The video time information is the time at which each video signal is output from the portable terminal 201. By outputting each video signal according to the time indicated in the video time information, the video can be reproduced at a normal timing. . The interval of the moving picture time information is one frame of one screen unit at the maximum, but it may be one line unit in one screen and one pixel unit in one screen, and the projection deviation from each projector is visually recognized. The time unit is not used. The video signal 302 may be an image-compressed signal. At this time, the video signal has time information for video playback separately. FIG. 3B shows an example in which the video signal 304 is a still image. In the case of a still image, the time when the still image is switched is multiplexed as still image switching time information 303. Of course, even a still image may be handled as a moving image as shown in FIG.

伝送信号202はプロジェクタ101Aのアンテナ102A、プロジェクタ101Bのアンテナ102B、プロジェクタ101Cのアンテナ102Cで受信される。以下、3台のプロジェクタの動作で同様の動作のところはA、B、Cの添え字をとって説明し、動作の異なる場合だけA、B、Cの添え字をつけて説明する。   Transmission signal 202 is received by antenna 102A of projector 101A, antenna 102B of projector 101B, and antenna 102C of projector 101C. In the following description, the same operations in the operations of the three projectors will be described using the subscripts A, B, and C, and the subscripts A, B, and C will be described only when the operations are different.

アンテナ102で受信された伝送信号202は無線部115に出力される。無線部115はフロントエンド(以下、F/Eと略す)103、信号処理部104、メモリ105で構成される。伝送信号202はF/E103で復調されデジタル信号となり、信号処理104とメモリ105により再生され、信号処理部104から図3(c)に示す映像伝送信号305が出力される。   A transmission signal 202 received by the antenna 102 is output to the radio unit 115. The wireless unit 115 includes a front end (hereinafter abbreviated as F / E) 103, a signal processing unit 104, and a memory 105. The transmission signal 202 is demodulated by the F / E 103 to become a digital signal, reproduced by the signal processing 104 and the memory 105, and the video transmission signal 305 shown in FIG.

ここで、それぞれのプロジェクタ101A、101B、101Cでは、信号処理部104A、104B、104Cから同様に映像伝送信号305が出力されるが、それぞれのバッファリング処理の差やジッタによりそれぞれ異なる遅延が生じ、映像伝送信号が出力される時間が異なっている。これを図3(c)により説明する。305Aは信号処理部104Aから出力される映像伝送信号であり、305Bは信号処理部104Bから出力される映像伝送信号であり、305Cは信号処理部104Cから出力される映像伝送信号である。   Here, in each of the projectors 101A, 101B, and 101C, the video transmission signal 305 is similarly output from the signal processing units 104A, 104B, and 104C, but different delays occur due to differences in buffering processing and jitter, The time for outputting the video transmission signal is different. This will be described with reference to FIG. 305A is a video transmission signal output from the signal processing unit 104A, 305B is a video transmission signal output from the signal processing unit 104B, and 305C is a video transmission signal output from the signal processing unit 104C.

時刻情報抽出部109は、信号処理部104から出力された映像伝送信号305から動画時刻情報301を抽出し、制御部113に送る。制御部113は時計112より現在の時刻情報を入手し、動画時刻情報301と比較することで映像信号遅延時間を求める。この映像信号遅延時間はプロジェクタ101A、101B、101Cで異なっており、ここではそれぞれTa、Tb、Tcとおき、図3(c)に示す。なお、各プロジェクタにおける時計112A、112B、112Cの時刻は、送受信部111A、111B、111Cを用い、制御部113A、113B、113Cで制御され、通信131、132により同一時刻に校正されている。   The time information extraction unit 109 extracts the moving image time information 301 from the video transmission signal 305 output from the signal processing unit 104 and sends it to the control unit 113. The control unit 113 obtains the current time information from the clock 112 and compares it with the moving image time information 301 to obtain the video signal delay time. This video signal delay time differs among projectors 101A, 101B, and 101C. Here, Ta, Tb, and Tc are respectively shown in FIG. 3C. Note that the times of the clocks 112A, 112B, and 112C in each projector are controlled by the control units 113A, 113B, and 113C using the transmission / reception units 111A, 111B, and 111C, and are calibrated at the same time by the communications 131 and 132.

マスタとなるプロジェクタ(例えばプロジェクタ101B)の制御部113Bは、映像信号遅延時間Ta、Tb、Tcのうち最も長い映像信号遅延時間(最大映像信号遅延時間T)を判定する。図3(c)の例ではT=Tcとなる。制御部113Bは他のプロジェクタ101A、101Cに対し、送受信部111A、111B、111Cを介して、通信131、132により最大映像信号遅延時間Tの値を送信し、各プロジェクタで共有する。送受信部111A、111B、111Cは無線を用いれば設置が簡単であり、例えばBluetooth(登録商標)を用いることができる。   Control unit 113B of the master projector (for example, projector 101B) determines the longest video signal delay time (maximum video signal delay time T) among video signal delay times Ta, Tb, and Tc. In the example of FIG. 3C, T = Tc. The control unit 113B transmits the value of the maximum video signal delay time T to the other projectors 101A and 101C via the transmission / reception units 111A, 111B, and 111C through the communication 131 and 132 and is shared by each projector. The transmission / reception units 111A, 111B, and 111C can be easily installed if wireless is used. For example, Bluetooth (registered trademark) can be used.

一方、映像信号処理部106により、信号処理部104から出力された映像伝送信号305から映像信号302が抽出され、映像信号の時間伸長処理を行う。このとき、映像信号そのものが画像圧縮されていた場合にはその画像伸長処理も行う。更に、映像信号のうち、それぞれのプロジェクタ101A、101B、101Cの受け持つ投写114A、114B、114Cで構成される大画面の一部である場所を抽出し、それぞれの光学系108A、108B、108Cにより映像の投写114A、114B、114Cを出力し、一枚の大画面の映像信号を再生する。   On the other hand, the video signal processing unit 106 extracts the video signal 302 from the video transmission signal 305 output from the signal processing unit 104, and performs time expansion processing of the video signal. At this time, if the video signal itself is image-compressed, the image expansion processing is also performed. Further, a part of the large screen composed of the projections 114A, 114B, and 114C handled by the projectors 101A, 101B, and 101C is extracted from the video signal, and the images are captured by the optical systems 108A, 108B, and 108C. The projections 114A, 114B, and 114C are output to reproduce a single large-screen video signal.

このとき映像信号処理部106は、最大映像信号遅延時間Tを動画時刻情報301に加算して、時計112の時刻情報を基準に映像信号302を光学系108に出力する。これにより、図3(d)に示すように、それぞれのプロジェクタ101A、101B、101Cで時間ずれのない映像の投写114A、114B、114Cが実現できる。詳細には、映像信号処理部106A、106B、106Cでは、それぞれT−Ta、T−Tb、T−Tcだけ遅延調整用メモリ107A,107B,107Cにより映像信号302を遅延させ、時計112の時刻情報を基準に映像信号302を出力する。   At this time, the video signal processing unit 106 adds the maximum video signal delay time T to the moving image time information 301 and outputs the video signal 302 to the optical system 108 based on the time information of the clock 112. As a result, as shown in FIG. 3 (d), it is possible to realize projections 114A, 114B, and 114C of images with no time shift by the respective projectors 101A, 101B, and 101C. Specifically, in the video signal processing units 106A, 106B, and 106C, the video signal 302 is delayed by the delay adjustment memories 107A, 107B, and 107C by T-Ta, T-Tb, and T-Tc, respectively. The video signal 302 is output with reference to.

ここでは映像信号遅延時間Ta、Tb、Tcのうち最も長い映像信号遅延時間を最大映像信号遅延時間Tとしたが、これに他の処理時間(調整時間)が必要な場合は、これを加算して最大映像信号遅延時間Tを決定すればよい。   Here, the longest video signal delay time among the video signal delay times Ta, Tb, and Tc is set as the maximum video signal delay time T. If another processing time (adjustment time) is necessary, add this. Thus, the maximum video signal delay time T may be determined.

また、動画時刻情報301に基づく映像出力の遅延調整は、動画時刻情報301を受信する毎に行ってもよいが、所定時間間隔で、あるいは投写映像に時間バラツキが検知されたときに実施してもよい。   Also, the video output delay adjustment based on the moving image time information 301 may be performed every time the moving image time information 301 is received, but is performed at a predetermined time interval or when a time variation is detected in the projected image. Also good.

図4は、各プロジェクタの映像信号の出力遅延調整動作を説明する図である。
[S400]動作開始。[S401]マスタを例えばPJ2とし、PJ2のナンバ(以下、No.と示す)を0に設定、[S402]プロジェクタの台数を3台に設定する。[S403]PJ2(マスタ)は自装置以外の残りのプロジェクタ(スレーブ)を検索してNo.を設定し(No.1,No.2)、[S404]PJ2の時刻を基準時刻情報Rとして転送する。[S405]基準時刻情報転送を確認後、[S406]各プロジェクタでは各々の映像信号遅延時間を算出し、[S407]PJ2は各々の映像信号遅延時間を要求する。
FIG. 4 is a diagram for explaining the output delay adjustment operation of the video signal of each projector.
[S400] Operation starts. [S401] The master is, for example, PJ2, the number of PJ2 (hereinafter referred to as No.) is set to 0, and [S402] the number of projectors is set to 3. [S403] PJ2 (master) searches for the remaining projectors (slave) other than its own device, and No. Is set (No. 1, No. 2), and the time of [S404] PJ2 is transferred as reference time information R. [S405] After confirming the transfer of the reference time information, [S406] Each projector calculates the video signal delay time, and [S407] PJ2 requests each video signal delay time.

[S408]PJ2は各プロジェクタから映像信号遅延時間を受信後、[S409]遅延時間の最大値をもとに最大映像信号遅延時間Tを設定する。そして、[S410]最大映像信号遅延時間Tを各プロジェクタに転送して情報共有し、[S411]各プロジェクタでは各々の遅延調整量の設定を行う。最大映像信号遅延時間Tを動画時刻情報301に加算することで、[S412]映像信号を各プロジェクタで同期して出力することが可能となる。なお、マスタはPJ1でもPJ3でもよい。また、[S403]の検索処理は無線部115または送受信部111のどちらで行っても構わない。   [S408] After receiving the video signal delay time from each projector, PJ2 sets the maximum video signal delay time T based on the maximum delay time [S409]. [S410] The maximum video signal delay time T is transferred to each projector to share information. [S411] Each projector sets a delay adjustment amount. By adding the maximum video signal delay time T to the moving image time information 301 [S412], it becomes possible to output the video signal in synchronization with each projector. The master may be PJ1 or PJ3. The search processing in [S403] may be performed by either the wireless unit 115 or the transmission / reception unit 111.

以上、図1の3台のプロジェクタ101A、101B、101Cの投写114A、114B、114Cを、図5(a)の大画面モードに対応させたときの動作説明を行ったが、図5(b)の高輝度・高精細化モードの場合、および、図5(c)の3Dモードの場合も図4と同様である。異なるのは、図5(a)の大画面モードの場合には、映像信号処理部106は映像信号のうち、それぞれのプロジェクタ101A、101B、101Cの受け持つ投写114A、114B、114Cで構成される大画面の一部である場所を抽出したが、この動作がないことである。一方、図5(d)の独立モードでは一般的に映像信号の遅延処理を行う必要は無い。   The operation when the projections 114A, 114B, and 114C of the three projectors 101A, 101B, and 101C of FIG. 1 are made to correspond to the large screen mode of FIG. 5A has been described above, but FIG. The high brightness / high definition mode and the 3D mode of FIG. 5C are the same as those of FIG. The difference is that, in the case of the large screen mode of FIG. 5A, the video signal processing unit 106 is composed of the projections 114A, 114B, and 114C of the projectors 101A, 101B, and 101C of the video signal. A location that is part of the screen has been extracted, but this is not the case. On the other hand, in the independent mode shown in FIG. 5D, it is generally not necessary to perform a delay process on the video signal.

図6は、制御部113による映像遅延処理の制御を示すフローチャートである。設定情報部110A、110B、110Cには、図5(a)(b)(c)(d)のどの表示モードを行うかが入力され記憶されている。例えば、ステップS601では、マスタであるPJ2の入力端子116Bから設定情報部110Bにモード入力し、送受信部111A、111B、111Cを用い、制御部113A、113B、113Cで制御され、通信131、132によりそのモードを設定情報部110A、110Cに転送し共有する。ステップS602で表示モードを確認し、図5(a)(b)(c)の同期モードであれば遅延調整処理が必要と判断し、ステップS603で図4で説明した映像信号の遅延調整処理を行う。一方、図5(d)の独立モードであれば、遅延処理が不要と判断し、遅延処理なしに映像を出力する。   FIG. 6 is a flowchart showing video delay processing control by the control unit 113. In the setting information sections 110A, 110B, and 110C, which display mode to perform in FIGS. 5A, 5B, 5C, and 5D is input and stored. For example, in step S601, a mode is input from the input terminal 116B of the master PJ2 to the setting information unit 110B, the transmission / reception units 111A, 111B, and 111C are used, and the control units 113A, 113B, and 113C are controlled. The mode is transferred to the setting information units 110A and 110C and shared. In step S602, the display mode is confirmed, and if it is the synchronous mode shown in FIGS. 5A, 5B, and 5C, it is determined that the delay adjustment processing is necessary. In step S603, the video signal delay adjustment processing described in FIG. Do. On the other hand, in the independent mode of FIG. 5D, it is determined that the delay process is unnecessary, and the video is output without the delay process.

図6の制御によれば、それぞれのプロジェクタから出力される映像信号が時間ずれしてはならない図5(a)(b)(c)の表示モードの場合は遅延処理を行い、映像信号ずれが許容される図5(d)の表示モードの場合は遅延処理を行わないため、図5(d)の場合に不要な遅延を生じさせない効果がある。また、送受信部111に無線を用いているので、複数プロジェクタを配置する場合に、簡単に配置できる効果がある。   According to the control of FIG. 6, in the display modes of FIGS. 5A, 5B and 5C where the video signals output from the respective projectors should not be shifted in time, a delay process is performed, and the video signal shifts. In the case of the allowable display mode of FIG. 5D, since the delay process is not performed, there is an effect that an unnecessary delay is not generated in the case of FIG. In addition, since wireless is used for the transmission / reception unit 111, there is an effect that it can be easily arranged when a plurality of projectors are arranged.

実施例1によれば、携帯端末から映像信号を複数のプロジェクタに無線で送り、それぞれのプロジェクタの無線受信部で受信し映像信号を出力するときに、それぞれの無線受信部からの映像信号出力に生じる遅延を、共有された基準時刻と、映像信号に付加された時刻情報から求めた最大映像信号遅延時間を複数のプロジェクタで共有することで、複数のプロジェクタの映像出力を同期することができる効果がある。   According to the first embodiment, when a video signal is wirelessly transmitted from a mobile terminal to a plurality of projectors and received by a wireless reception unit of each projector and output as a video signal, the video signal is output from each wireless reception unit. The effect of being able to synchronize the video output of multiple projectors by sharing the delay that occurs with the shared reference time and the maximum video signal delay time obtained from the time information added to the video signal among multiple projectors There is.

実施例2では、各プロジェクタの映像表示モードを自動認識して、表示モードに応じて映像信号の遅延調整を行うようにした。   In the second embodiment, the video display mode of each projector is automatically recognized, and the delay of the video signal is adjusted according to the display mode.

図7は、実施例2にかかる映像表示システムの構成を示す図である。図1と同一符号は同一機能を表す。マスタとなるプロジェクタ101Bはカメラ(撮影部)701と映像解析部702を用いて、各プロジェクタの配置認識や図5の映像表示モードの自動認識を行う。なお、図7ではカメラ701はプロジェクタ101Bの外部にあるが内蔵でもよく、また、映像解析部702はプロジェクタ101Bの外部でもよい。   FIG. 7 is a diagram illustrating the configuration of the video display system according to the second embodiment. The same reference numerals as those in FIG. 1 represent the same functions. The projector 101B as a master uses the camera (photographing unit) 701 and the video analysis unit 702 to recognize the arrangement of each projector and automatically recognize the video display mode in FIG. In FIG. 7, the camera 701 is outside the projector 101B, but may be built-in, and the video analysis unit 702 may be outside the projector 101B.

図8は、実施例2における映像遅延処理の制御を示すフローチャートである。図8の処理は主に制御部113により制御される。図6と同一符号は同一機能である。   FIG. 8 is a flowchart illustrating control of video delay processing in the second embodiment. The processing in FIG. 8 is mainly controlled by the control unit 113. The same reference numerals as those in FIG. 6 denote the same functions.

ステップS801で、各プロジェクタがどのように配置されたかを自動認識する。そのため、各プロジェクタからテストパターン映像を投写し、これをカメラ701で撮影することで各プロジェクタの配置を認識する。詳細は図9で説明する。   In step S801, how the projectors are arranged is automatically recognized. Therefore, a test pattern image is projected from each projector, and this is photographed by the camera 701 to recognize the arrangement of each projector. Details will be described with reference to FIG.

そして、ステップS802で、映像解析部702により各プロジェクタのテストパターン映像の重なり度合いを求め、図5(a)(b)(c)(d)のいずれの映像表示モードで使用しているかを判定する。詳細は図10で説明する。   In step S802, the video analysis unit 702 obtains the degree of overlap of the test pattern video of each projector, and determines which video display mode is used in FIGS. 5A, 5B, 5C, and 5D. To do. Details will be described with reference to FIG.

ステップS803で、図5(a)(b)(c)(d)それぞれに応じた位置合わせなどの映像投写の調整や設定を行う。例えば、図5(a)では輝度・色・幾何合わせやエッジブレンディングを行う。   In step S803, image projection adjustment and settings such as alignment according to FIGS. 5A, 5B, 5C, and 5D are performed. For example, in FIG. 5A, brightness / color / geometric alignment and edge blending are performed.

ステップS804、S805は図6のステップS602、S603と同様で、表示モードを確認し、図5(a)(b)(c)の同期モードであれば映像信号の遅延調整処理を行う。図5(d)の独立モードであれば、遅延処理を行わない。   Steps S804 and S805 are the same as steps S602 and S603 in FIG. 6, and the display mode is confirmed. If the synchronization mode is in FIGS. 5A, 5B, and 5C, video signal delay adjustment processing is performed. In the independent mode of FIG. 5D, no delay process is performed.

その後ステップS806で、プロジェクタの配置や図5の表示モード、および、ステップS803の調整に変化がないか、カメラ701、映像解析部702により常時監視を行い、変化があった場合には再設定を行う。   Thereafter, in step S806, the camera 701 and the video analysis unit 702 are always monitored for changes in the projector arrangement, the display mode in FIG. 5 and the adjustment in step S803. If there is a change, resetting is performed. Do.

図9は、図8のステップS801(配置認識)の詳細を示す図である。
ステップS901で、カメラ701を例えばプロジェクタPJ2に接続する。これは、PJ1、PJ3でも構わない。カメラを接続したPJ2をマスタとし、PJ2のナンバ(以下、No.と示す)を0に設定する。ステップS902で使用するプロジェクタの台数をマスタのPJ2に設定する。ここでは3台に設定する。ステップS903で残りのプロジェクタ(スレーブ)を検索してNo.を割り振る。この検索処理は無線部115または送受信部111のどちらで行っても構わない。
FIG. 9 is a diagram showing details of step S801 (placement recognition) in FIG.
In step S901, the camera 701 is connected to, for example, the projector PJ2. This may be PJ1 or PJ3. The PJ2 to which the camera is connected is set as a master, and the PJ2 number (hereinafter referred to as No.) is set to 0. In step S902, the number of projectors used is set as the master PJ2. Here, it is set to three. In step S903, the remaining projectors (slaves) are searched and No. Is allocated. This search process may be performed by either the wireless unit 115 or the transmission / reception unit 111.

ステップS904で設定したプロジェクタのNo.に対し、例えば昇順にテストパターン映像を投写表示する。ステップS905でテストパターンの表示映像をカメラ701で撮影し、映像解析部702で表示位置を解析して保持する。ステップS906で全てのプロジェクタの配置(表示位置)が確認されるまでステップS904、S905を繰り返す。   No. of the projector set in step S904. In contrast, for example, test pattern images are projected and displayed in ascending order. In step S905, the display image of the test pattern is taken by the camera 701, and the display position is analyzed and held by the video analysis unit 702. Steps S904 and S905 are repeated until the arrangement (display position) of all projectors is confirmed in step S906.

図5(a)の例で言えば、まずマスタであるPJ2プロジェクタ(101B)の投写114Bの位置が映像解析部702により確認される。その後、例えばPJ1プロジェクタ(101A)がNo.1、PJ3プロジェクタ(101C)がNo.2に割り振られたとすると、映像解析部702により、No.1であるPJ1の投写114Aの位置が投写114Bの位置と比較してわかり、また、No.2であるPJ3の投写114Cの位置が投写114B、114Aの位置と比較してわかる。こうして、投写114A、114B、114CがどのNo.のプロジェクタから投写されたものかが認識される。なお、テストパターンの表示は一つのプロジェクタだけでなく、例えば、マスタであるNo.0のプロジェクタを常に表示させておくまたは点滅させるなど、認識を容易にするために複数点灯または点滅させてもいい。全てのプロジェクタの投写配置の確認を完了したら、この工程を終了する。   In the example of FIG. 5A, first, the position of the projection 114B of the master PJ2 projector (101B) is confirmed by the video analysis unit 702. Thereafter, for example, the PJ1 projector (101A) is No. 1, PJ3 projector (101C) is no. 2 is assigned by the video analysis unit 702. The position of the projection 114A of PJ1, which is 1, is known in comparison with the position of the projection 114B. The position of the projection 114C of PJ3, which is 2, can be seen in comparison with the positions of the projections 114B and 114A. In this way, the projection 114A, 114B, 114C is assigned to which No. It is recognized whether the image is projected from the projector. Note that the test pattern is displayed not only by one projector, but also by the master No., for example. A plurality of projectors may be lit or blinked for easy recognition, such as always displaying or blinking the zero projector. When the confirmation of the projection arrangement of all the projectors is completed, this process ends.

図10は、図8のステップS802(表示モード判定)の詳細を示す図である。
前記ステップS801で全てのプロジェクタの投写配置がわかったので、ステップS1001では映像解析部702によりプロジェクタ間の投写映像の重なり度合いを解析する。ステップS1002で、重なり度合いを重なり面積比率で評価し、所定の比率、例えば比率1/2と比較する。
FIG. 10 is a diagram showing details of step S802 (display mode determination) in FIG.
Since the projection arrangement of all the projectors is known in step S801, the image analysis unit 702 analyzes the degree of overlap of the projection images between the projectors in step S1001. In step S1002, the degree of overlap is evaluated by the overlap area ratio, and compared with a predetermined ratio, for example, a ratio 1/2.

重なり比率が映像面積の1/2未満の場合はステップS1003に進み、図5(a)の大画面の表示モードと判定する。重なりが無い場合にはステップS1004に進み、図5(d)の複数プロジェクタの独立表示モードと判定する。重なり比率が映像面積の1/2以上の場合はステップS1005に進む。   If the overlap ratio is less than ½ of the video area, the process proceeds to step S1003, and the display mode is determined to be the large screen display mode in FIG. If there is no overlap, the process advances to step S1004 to determine the independent display mode of the plurality of projectors in FIG. If the overlap ratio is 1/2 or more of the video area, the process proceeds to step S1005.

重なり比率が映像面積の1/2以上の場合は、図5(b)の高輝度・高精細モード、または(c)の3Dモードのいずれかであるが、どちらも投写位置が完全に重なるため、重なり度合いだけではいずれであるかを判別できない。そこでステップS1005では、携帯端末201から表示する映像信号の伝送信号を送ってもらい、3D用映像信号(左目用と右目用の映像信号で構成)であるか否かを識別する。3D用映像信号でない場合はステップS1006に進み図5(b)の高輝度・高精細モードと判定し、3D用映像信号の場合はステップS1007に進み図5(c)の3Dモードと判定する。   When the overlap ratio is ½ or more of the image area, either the high brightness / high definition mode in FIG. 5B or the 3D mode in FIG. 5C is used, but the projection positions completely overlap in both cases. Therefore, it cannot be determined only by the degree of overlap. Therefore, in step S1005, a transmission signal of a video signal to be displayed is sent from the portable terminal 201, and it is identified whether or not it is a 3D video signal (consisting of a left-eye video signal and a right-eye video signal). If it is not a 3D video signal, the process proceeds to step S1006 to determine the high luminance / high definition mode in FIG. 5B. If it is a 3D video signal, the process proceeds to step S1007 to determine the 3D mode in FIG.

以上により、ステップS1008で複数プロジェクタの表示モードの判定が完了する。ステップS1009でこの判定した表示モードを設定情報として、送受信部111A、111B、111Cを介し、通信131、132により各プロジェクタに転送し、設定情報部110に記憶する。   Thus, the determination of the display mode of the plurality of projectors is completed in step S1008. In step S1009, the determined display mode is transferred as setting information to each projector by communication 131, 132 via transmission / reception units 111A, 111B, 111C and stored in setting information unit 110.

なお、重なり度合いの比較では、面積比率1/2未満のところを、例えば1/4未満や大画面のエッジの重なりの面積値未満とし、1/2以上のところを、例えば3/4以上や同一画面を構成する面積値以上としてもよい。このとき、重なり度合いの面積比率で判定条件に合わないときは、条件に合うように調整するよう、注意表示を出力する。   In the comparison of the degree of overlap, the area ratio less than 1/2 is set to, for example, less than 1/4 or less than the overlap area value of the edges of the large screen, and the area of 1/2 or more is set to, for example, 3/4 or more. It is good also as more than the area value which comprises the same screen. At this time, if the area ratio of the degree of overlap does not meet the determination condition, a caution display is output so as to adjust the condition.

実施例2によれば、プロジェクタを置いて投写するだけでプロジェクタの配置を自動認識し、また、投写映像の重なり度合いでプロジェクタの表示モードを設定できるので、非常に使い勝手に優れたものとなる。すなわち、各プロジェクタを持ち運びして、設置場所をいろいろと変える場合に特に好適となる。また、随時カメラによる監視モードを持っているため、投写中にプロジェクタの場所を動かしたり、投写中に非投写物を移動させたりしても、自動的に追随することができる効果がある。   According to the second embodiment, the projector arrangement can be automatically recognized by simply placing the projector and projecting, and the display mode of the projector can be set according to the degree of overlap of the projected images, so that it is very easy to use. That is, it is particularly suitable when each projector is carried and the installation location is variously changed. In addition, since the camera has a monitoring mode at any time, there is an effect that even if the location of the projector is moved during projection or a non-projection object is moved during projection, it can be automatically followed.

実施例3では、携帯端末201に内蔵されているカメラを使用してプロジェクタの配置と、映像表示モードを自動認識するようにした。   In the third embodiment, the camera built in the portable terminal 201 is used to automatically recognize the projector arrangement and the video display mode.

図11は、実施例3にかかる映像表示システムの構成を示す図である。図1、図7と同一符号は同一機能を表す。この例では、携帯端末201に内蔵されているカメラ1101と、マスタであるPJ2プロジェクタ(101B)の映像解析部702を使用して、映像表示モードを自動認識する。   FIG. 11 is a diagram illustrating the configuration of the video display system according to the third embodiment. 1 and 7 indicate the same function. In this example, the video display mode is automatically recognized by using the camera 1101 built in the portable terminal 201 and the video analysis unit 702 of the master PJ2 projector (101B).

実施例3における映像表示モードの自動判定と映像遅延処理の制御は、基本的には、図8、図9、図10と同一動作である。変更する点は、図9のステップS901では、マスタとするPJ2プロジェクタ(101B)に対して携帯端末201と無線部115Bの接続を行い、カメラ1101で撮影した映像1102が無線部115Bに伝送されるようにする。そして、ステップS905で、カメラ1101を投写されたテストパターンに向けテストパターン映像を撮影し、映像解析部702は、信号処理部104Bの出力信号からカメラ1101で撮影された映像であるテストパターンを抽出し映像解析を行う。なお、カメラ1101を投写されたテストパターンに向けるときに、最初に全てのプロジェクタから投写を行うことで、カメラ1101での撮影範囲を決定しやすくする。映像解析部702では、携帯端末201の内蔵カメラ1101による撮影のため生じる手振れによる影響も除去する。   The automatic determination of the video display mode and the control of the video delay process in the third embodiment are basically the same operations as those in FIGS. The change is that in step S901 in FIG. 9, the portable terminal 201 and the wireless unit 115B are connected to the master PJ2 projector (101B), and the video 1102 captured by the camera 1101 is transmitted to the wireless unit 115B. Like that. In step S905, the test pattern image is photographed toward the test pattern projected by the camera 1101, and the image analysis unit 702 extracts the test pattern that is the image photographed by the camera 1101 from the output signal of the signal processing unit 104B. Video analysis. Note that when the camera 1101 is directed toward the projected test pattern, the projection range from the camera 1101 is easily determined by performing projection from all projectors first. The video analysis unit 702 also removes the influence of camera shake that occurs due to shooting by the built-in camera 1101 of the mobile terminal 201.

実施例3によれば、プロジェクタ側でカメラを追加することなく携帯端末内蔵のカメラを使用することができるので、低コストな映像表示システムを構築できる効果がある。   According to the third embodiment, since a camera with a built-in mobile terminal can be used without adding a camera on the projector side, there is an effect that a low-cost video display system can be constructed.

なお、実施例1〜3とも3台のプロジェクタを用いているが、2台でも3台より多くても適用可能であることは言うまでもない。マスタのプロジェクタは任意のプロジェクタとすることができる。送受信部111は無線を用いれば設置が簡単であり、例えばBluetooth(登録商標)を用いることができる。無線部115は例えば無線LANを用いる事ができる。なお、無線ではなくネットワークを介した接続でも同様である。   Although three projectors are used in the first to third embodiments, it goes without saying that two or more projectors are applicable. The master projector can be any projector. The transmission / reception unit 111 is easy to install if wireless is used. For example, Bluetooth (registered trademark) can be used. The wireless unit 115 can use, for example, a wireless LAN. The same applies to connection via a network instead of wireless communication.

101…プロジェクタ(投写型映像表示装置)、102…アンテナ、103…F/E、104…信号処理部、105…メモリ、106…映像信号処理部、107…遅延調整用メモリ、108…光学系、109…時刻情報抽出部、110…設定情報部、111…送受信部、112…時計、113…制御部、114…投写、115…無線部、116…入力端子、131,132…通信、201…携帯端末(映像送信装置)、202…伝送信号、211…信号源、212…多重処理部、213…端末制御部、214…端末時計、215…端末無線部、300,305…映像伝送信号、301…動画時刻情報、302…映像信号、701,1101…カメラ(撮影部)、702…映像解析部。   DESCRIPTION OF SYMBOLS 101 ... Projector (projection type image display apparatus), 102 ... Antenna, 103 ... F / E, 104 ... Signal processing part, 105 ... Memory, 106 ... Video signal processing part, 107 ... Memory for delay adjustment, 108 ... Optical system, DESCRIPTION OF SYMBOLS 109 ... Time information extraction part, 110 ... Setting information part, 111 ... Transmission / reception part, 112 ... Clock, 113 ... Control part, 114 ... Projection, 115 ... Radio | wireless part, 116 ... Input terminal, 131, 132 ... Communication, 201 ... Mobile Terminal (video transmission device), 202 ... transmission signal, 211 ... signal source, 212 ... multiplex processing unit, 213 ... terminal control unit, 214 ... terminal clock, 215 ... terminal radio unit, 300, 305 ... video transmission signal, 301 ... Movie time information, 302... Video signal, 701 and 1101... Camera (imaging unit), 702.

Claims (6)

映像送信装置から映像信号を受信し複数の投写型映像表示装置により映像を投写表示する映像表示システムであって、
前記映像送信装置は、前記映像信号に、該映像信号を出力すべき時刻情報を付加した映像伝送信号が含まれた伝送信号を無線送信し、
前記複数の投写型映像表示装置は、マスタとなる投写型映像表示装置と他の投写型映像表示装置で構成され、
前記映像送信装置からの前記伝送信号を無線受信し、前記映像伝送信号を復調する無線部と、
前記無線部からの復調された前記映像伝送信号から前記時刻情報を抽出する時刻情報抽出部と、
基準時刻を与える時計と、
前記時計の前記基準時刻と、前記時刻情報抽出部で抽出された前記時刻情報を比較することで映像信号遅延時間を求める制御部と、
前記無線部からの復調された前記映像伝送信号から前記映像信号を抽出し、前記マスタとなる投写型映像表示装置が設定する最大映像信号遅延時間にしたがって前記映像信号を遅延させて投写光学系へ出力する映像信号処理部と、
前記複数の投写型映像表示装置の間で情報の通信を行う送受信部と、を備え、
前記マスタとなる投写型映像表示装置の制御部は、前記送受信部により、前記基準時刻を前記他の投写型映像表示装置に送信して共有し、前記基準時刻を共有したあと、前記他の投写型映像表示装置から前記他の投写型映像表示装置の前記映像信号遅延時間を受信し、前記他の投写型映像表示装置の映像信号遅延時間と比較して最大の遅延時間である前記最大映像信号遅延時間を設定し、前記設定した最大映像信号遅延時間を前記他の投写型映像表示装置へ送信して共有することを特徴とする映像表示システム。
A video display system that receives a video signal from a video transmission device and projects and displays a video by a plurality of projection video display devices,
The video transmission device wirelessly transmits a transmission signal including a video transmission signal in which time information to output the video signal is added to the video signal,
The plurality of projection display apparatuses are composed of a master projection display apparatus and another projection display apparatus,
A wireless unit that wirelessly receives the transmission signal from the video transmission device and demodulates the video transmission signal;
A time information extraction unit for extracting the time information from the demodulated video transmission signal from the radio unit;
A clock that gives a reference time,
A control unit for obtaining a video signal delay time by comparing the reference time of the clock and the time information extracted by the time information extraction unit;
The video signal is extracted from the demodulated video transmission signal from the wireless unit, and the video signal is delayed according to the maximum video signal delay time set by the projection-type video display device serving as the master to the projection optical system. An output video signal processing unit;
A transmission / reception unit that communicates information between the plurality of projection display apparatuses,
The control unit of the master projection display apparatus transmits and shares the reference time to the other projection display apparatus by the transmission / reception unit, and after sharing the reference time, the other projection The video signal delay time of the other projection video display device is received from the video image display device, and the maximum video signal having a maximum delay time compared with the video signal delay time of the other projection video display device A video display system, wherein a delay time is set, and the set maximum video signal delay time is transmitted to the other projection type video display device and shared.
映像送信装置から映像信号を受信して他の投写型映像表示装置とともに映像を投写表示する投写型映像表示装置であって、
前記映像送信装置から、映像信号に、該映像信号を出力すべき時刻情報を付加した映像伝送信号が含まれた伝送信号を無線受信し、前記映像伝送信号を復調する無線部と、
前記無線部からの復調された前記映像伝送信号から前記時刻情報を抽出する時刻情報抽出部と、
基準時刻を与える時計と、
前記時計の前記基準時刻と、前記時刻情報抽出部で抽出された前記時刻情報を比較することで映像信号遅延時間を求め、前記他の投写型映像表示装置の映像信号遅延時間と比較して最大の遅延時間である最大映像信号遅延時間を設定する制御部と、
前記無線部からの復調された前記映像伝送信号から前記映像信号を抽出し、前記制御部が設定した前記最大映像信号遅延時間にしたがって前記映像信号を遅延させて投写光学系へ出力する映像信号処理部と、
前記他の投写型映像表示装置との間で情報の通信を行う送受信部と、を備え、
前記制御部は前記送受信部により、前記基準時刻を前記他の投写型映像表示装置に送信して共有し、前記基準時刻を共有したあと、前記他の投写型映像表示装置から前記他の投写型映像表示装置の前記映像信号遅延時間を受信し、前記設定した最大映像信号遅延時間を前記他の投写型映像表示装置へ送信して共有することを特徴とする投写型映像表示装置。
A projection video display device that receives a video signal from a video transmission device and projects and displays a video together with another projection video display device,
A radio unit that wirelessly receives a transmission signal including a video transmission signal in which time information to be output from the video signal is added to the video signal from the video transmission device; and a radio unit that demodulates the video transmission signal;
A time information extraction unit for extracting the time information from the demodulated video transmission signal from the radio unit;
A clock that gives a reference time,
The video signal delay time is obtained by comparing the reference time of the timepiece with the time information extracted by the time information extraction unit, and the maximum is compared with the video signal delay time of the other projection display device. A control unit for setting a maximum video signal delay time which is a delay time of
Video signal processing for extracting the video signal from the demodulated video transmission signal from the wireless unit, delaying the video signal according to the maximum video signal delay time set by the control unit, and outputting the delayed video signal to a projection optical system And
A transmission / reception unit for communicating information with the other projection display apparatus,
The control unit transmits and shares the reference time to the other projection display device by the transmission / reception unit, and after sharing the reference time, the control unit transmits the reference time to the other projection display device. A projection-type image display device that receives the image signal delay time of the image display device and transmits the set maximum image signal delay time to the other projection-type image display device for sharing.
請求項2記載の投写型映像表示装置であって、
前記投写型映像表示装置と前記他の投写型映像表示装置の映像表示モードを設定して記憶する設定情報部を設け、
前記設定情報部のモード情報が、複数の投写型映像表示装置から独立に表示する場合には、前記映像信号処理部での前記映像信号を遅延させる処理を行わないことを特徴とする投写型映像表示装置。
The projection display apparatus according to claim 2,
A setting information section for setting and storing video display modes of the projection display apparatus and the other projection display apparatus;
When the mode information of the setting information section is displayed independently from a plurality of projection type video display devices, the video signal processing section does not perform the process of delaying the video signal. Display device.
請求項2記載の投写型映像表示装置であって、
前記投写型映像表示装置と前記他の投写型映像表示装置からそれぞれ投写されたテスト映像を撮影する撮影部と接続し、
前記撮影部の撮影映像から、前記各投写型映像表示装置の投写映像の位置と、前記各投写型映像表示装置の投写映像の重なり度合いを解析し、前記各投写型映像表示装置の映像表示モードを判定する映像解析部、を備え、
前記制御部は前記送受信部により、前記映像解析部で判定した前記映像表示モードを前記他の投写型映像表示装置に送信して共有することを特徴とする投写型映像表示装置。
The projection display apparatus according to claim 2,
Connected to a photographing unit for photographing a test image projected from each of the projection display apparatus and the other projection display apparatus;
Analyzing the position of the projection video of each projection video display device and the degree of overlap of the projection video of each projection video display device from the video shot of the imaging unit, and the video display mode of each projection video display device A video analysis unit for determining
The control unit causes the transmission / reception unit to transmit and share the video display mode determined by the video analysis unit to the other projection type video display device.
請求項4記載の投写型映像表示装置であって、
前記撮影部は前記映像送信装置に設けられ、
前記撮影部により撮影されたテスト映像の信号を、前記無線部を介して前記映像解析部に入力することを特徴とする投写型映像表示装置。
The projection display apparatus according to claim 4, wherein
The imaging unit is provided in the video transmission device,
A projection-type image display apparatus, wherein a test image signal imaged by the imaging unit is input to the image analysis unit via the wireless unit.
映像送信装置から映像信号を受信して他の投写型映像表示装置とともに映像を投写表示する投写型映像表示装置の制御方法であって、
前記映像送信装置から、映像信号に、該映像信号を出力すべき時刻情報を付加した映像伝送信号が含まれた伝送信号を無線受信し、前記映像伝送信号を復調する復調ステップと、
前記復調ステップで復調された前記映像伝送信号から前記時刻情報を抽出する時刻情報抽出ステップと、
時計から与えられた基準時刻を前記他の投写型映像表示装置に送信して共有する基準時刻通信ステップと、
前記基準時刻と、前記時刻情報抽出ステップで抽出された前記時刻情報を比較することで映像信号遅延時間を求める遅延時間計算ステップと、
前記基準時刻を共有したあと、前記他の投写型映像表示装置から前記他の投写型映像表示装置の前記映像信号遅延時間を受信する遅延時間通信ステップと、
前記他の投写型映像表示装置の前記映像信号遅延時間と比較して最大の遅延時間である最大映像信号遅延時間を設定する最大遅延時間設定ステップと、
前記設定した最大映像信号遅延時間を前記他の投写型映像表示装置へ送信して共有する最大遅延時間通信ステップと、
前記復調ステップで復調された前記映像伝送信号から前記映像信号を抽出し、前記設定した最大映像信号遅延時間にしたがって前記映像信号を遅延させて投写光学系へ出力する映像信号処理ステップと、
を有することを特徴とする投写型映像表示装置の制御方法。
A control method for a projection display apparatus that receives a video signal from a video transmission apparatus and projects and displays an image together with another projection display apparatus,
A demodulation step of wirelessly receiving a transmission signal including a video transmission signal including time information to which the video signal should be output from the video transmission device, and demodulating the video transmission signal;
A time information extraction step of extracting the time information from the video transmission signal demodulated in the demodulation step;
A reference time communication step of transmitting and sharing a reference time given from a clock to the other projection display apparatus;
A delay time calculating step for obtaining a video signal delay time by comparing the reference time and the time information extracted in the time information extracting step;
A delay time communication step of receiving the video signal delay time of the other projection type video display device from the other projection type video display device after sharing the reference time;
A maximum delay time setting step for setting a maximum video signal delay time which is a maximum delay time compared to the video signal delay time of the other projection display apparatus;
A maximum delay time communication step of transmitting and sharing the set maximum video signal delay time to the other projection display apparatus;
A video signal processing step of extracting the video signal from the video transmission signal demodulated in the demodulation step, delaying the video signal according to the set maximum video signal delay time, and outputting the delayed video signal to a projection optical system;
A control method for a projection display apparatus, comprising:
JP2015120603A 2015-06-15 2015-06-15 Projection display device Expired - Fee Related JP6251871B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015120603A JP6251871B2 (en) 2015-06-15 2015-06-15 Projection display device
PCT/JP2016/062962 WO2016203848A1 (en) 2015-06-15 2016-04-26 Image display system, projection type image display device, and control method for projection type image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015120603A JP6251871B2 (en) 2015-06-15 2015-06-15 Projection display device

Publications (3)

Publication Number Publication Date
JP2017003925A true JP2017003925A (en) 2017-01-05
JP2017003925A5 JP2017003925A5 (en) 2017-02-09
JP6251871B2 JP6251871B2 (en) 2017-12-27

Family

ID=57545160

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015120603A Expired - Fee Related JP6251871B2 (en) 2015-06-15 2015-06-15 Projection display device

Country Status (2)

Country Link
JP (1) JP6251871B2 (en)
WO (1) WO2016203848A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018216198A1 (en) * 2017-05-26 2018-11-29 Necディスプレイソリューションズ株式会社 Multi-screen display system, image display device, image display method, and image display program
JP2021157056A (en) * 2020-03-27 2021-10-07 セイコーエプソン株式会社 Image projection system, image projection system control method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006215426A (en) * 2005-02-07 2006-08-17 Seiko Epson Corp Image projection system, image projection method, image projection program, memory medium storing the program, and controller unit for projector
JP2008009299A (en) * 2006-06-30 2008-01-17 Olympus Corp Image processing device and multi-projection system
JP2008197383A (en) * 2007-02-13 2008-08-28 Seiko Epson Corp Multi-display system, image display device, image display method, and image display program
JP2014026171A (en) * 2012-07-27 2014-02-06 Ricoh Co Ltd System and device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006215426A (en) * 2005-02-07 2006-08-17 Seiko Epson Corp Image projection system, image projection method, image projection program, memory medium storing the program, and controller unit for projector
JP2008009299A (en) * 2006-06-30 2008-01-17 Olympus Corp Image processing device and multi-projection system
JP2008197383A (en) * 2007-02-13 2008-08-28 Seiko Epson Corp Multi-display system, image display device, image display method, and image display program
JP2014026171A (en) * 2012-07-27 2014-02-06 Ricoh Co Ltd System and device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018216198A1 (en) * 2017-05-26 2018-11-29 Necディスプレイソリューションズ株式会社 Multi-screen display system, image display device, image display method, and image display program
JP2021157056A (en) * 2020-03-27 2021-10-07 セイコーエプソン株式会社 Image projection system, image projection system control method
JP7484309B2 (en) 2020-03-27 2024-05-16 セイコーエプソン株式会社 Image projection system and method for controlling image projection system

Also Published As

Publication number Publication date
WO2016203848A1 (en) 2016-12-22
JP6251871B2 (en) 2017-12-27

Similar Documents

Publication Publication Date Title
US9179136B2 (en) Method and system for synchronizing 3D shutter glasses to a television refresh rate
US20110134231A1 (en) Method And System For Synchronizing Shutter Glasses To A Display Device Refresh Rate
KR101630020B1 (en) Method and apparatus for synchronizing of 3-d display devices
US20130169765A1 (en) Display apparatus, image processing system, display method and imaging processing thereof
JP5413184B2 (en) Camera system and camera control method
US20170223252A1 (en) Synchronous photographing system that controls synchronous photographing by plurality of image capture apparatus
US20110229106A1 (en) System for playback of ultra high resolution video using multiple displays
US10951804B2 (en) Photographing synchronization method and apparatus
US10098080B2 (en) Device, method and computer readable medium
KR101446995B1 (en) Helmet for imaging multi angle video and method thereof
JP2007028043A (en) Digital camera
CN107592452B (en) Panoramic audio and video acquisition device and method
JP6667981B2 (en) Imbalance setting method and corresponding device
JP5515729B2 (en) Camera adapter device and camera control method
RU2542343C2 (en) Camera system, method of adjusting signal delay value and programme
US9001193B2 (en) Apparatus, method and system for synchronization and 3D display apparatus using the same
JP6251871B2 (en) Projection display device
WO2013069296A1 (en) Imaging device, imaging system and program
JP5554157B2 (en) Video synchronous photographing system and video synchronous photographing method
JP2011135252A (en) Stereoscopic video photographing camera adjustment assisting device
KR20080087256A (en) Method and system for acquiring multiview video image using multiple mobile communication terminal
KR20080091952A (en) Method and system for filming flow motion
JP6719994B2 (en) Communication system, communication device, and communication method
JP2024098412A (en) Control device, imaging system and method for controlling the same, program, and storage medium
KR101794521B1 (en) Tree-dimention video display system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161107

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170919

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20171019

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171115

R150 Certificate of patent or registration of utility model

Ref document number: 6251871

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees