WO2016203848A1 - 映像表示システム、投写型映像表示装置、および投写型映像表示装置の制御方法 - Google Patents

映像表示システム、投写型映像表示装置、および投写型映像表示装置の制御方法 Download PDF

Info

Publication number
WO2016203848A1
WO2016203848A1 PCT/JP2016/062962 JP2016062962W WO2016203848A1 WO 2016203848 A1 WO2016203848 A1 WO 2016203848A1 JP 2016062962 W JP2016062962 W JP 2016062962W WO 2016203848 A1 WO2016203848 A1 WO 2016203848A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
projection
video signal
signal
delay time
Prior art date
Application number
PCT/JP2016/062962
Other languages
English (en)
French (fr)
Inventor
城杉 孝敏
甲 展明
浦田 浩之
Original Assignee
日立マクセル株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立マクセル株式会社 filed Critical 日立マクセル株式会社
Publication of WO2016203848A1 publication Critical patent/WO2016203848A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/12Synchronisation between the display unit and other units, e.g. other display units, video-disc players
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor

Definitions

  • Patent Document 1 has an object to provide a projector capable of facilitating unified control of the operation mode of each projector and improving usability when performing image display using a plurality of projectors. It is characterized in that information is embedded in the screen, and information is transmitted by other projectors recognizing the information with a camera.
  • the Patent Document 1 does not describe how to control in order to suppress variations in the output time of video output from each projector.
  • An object of the present invention is to send video signals from a portable terminal to a plurality of projectors wirelessly, and to perform video output without variation among a plurality of projectors when a large screen, high brightness / high definition, and 3D are implemented. It is to do.
  • the video signal when a video signal is wirelessly transmitted from a portable terminal to a plurality of projectors, and received by a wireless reception unit of each projector and output as a video signal, the video signal is output from each wireless reception unit.
  • the delay By sharing the delay with the shared reference time and the maximum video signal delay time obtained from the time information added to the video signal among the plurality of projectors, it is possible to synchronize the video output of the plurality of projectors. is there.
  • FIG. 1 is a diagram illustrating a configuration of a video display system according to Embodiment 1.
  • FIG. It is a figure which shows the structure of the portable terminal 201 which produces
  • FIG. FIG. 3 is a diagram illustrating a configuration of a video transmission signal included in a transmission signal 202. It is a figure explaining the output delay adjustment operation
  • 5 is a flowchart illustrating control of video delay processing by a control unit 113. It is a figure which shows the structure of the video display system concerning Example 2.
  • FIG. 10 is a flowchart illustrating video delay processing control according to the second exemplary embodiment.
  • FIG. 10 is a diagram illustrating a configuration of a video display system according to a third embodiment.
  • FIG. 1 is a diagram illustrating a configuration of a video display system according to the first embodiment.
  • Video signals are transmitted from one portable terminal (video transmission device) to three projectors (projection-type video display devices) 101A, 101B, and 101C wirelessly, and video projections 114A, 114B, and 114C are transmitted from the respective projectors.
  • An example is shown.
  • the structures of the projectors 101A, 101B, and 101C are exactly the same, and each component block is represented with the subscripts A, B, and C.
  • FIG. 5A shows a usage example (large screen mode) in which projections of a plurality of projectors are connected to form a large screen.
  • FIG. 5A three projectors PJ1, PJ2, and PJ3 are connected horizontally, but it is also possible to connect them vertically or connect both horizontally and vertically using more projectors.
  • FIG. 5B shows a case where projections from a plurality of projectors are collected into one to achieve high brightness or high definition (high brightness / high definition mode). In this case, all the projected images have the same content.
  • FIG. 5C shows the projections for the left eye and the right eye collected for 3D video in one (3D mode).
  • FIG. 5D shows an example in which a plurality of projectors are used independently (independent mode), and the same image may be projected or different images may be projected.
  • the video to be displayed is broken if the video output of each projector is not synchronized in time.
  • an operation will be described when the image projections 114A, 114B, and 114C from the three projectors 101A, 101B, and 101C in FIG. 1 are made to correspond to the large screen mode as shown in FIG.
  • the transmission signal 202 is wirelessly transmitted from the portable terminal 201 to the projectors 101A, 101B, and 101C.
  • a wireless LAN is used as the transmission path.
  • FIG. 2 is a diagram illustrating a configuration of the mobile terminal 201 that generates the transmission signal 202.
  • a video signal is stored in the signal source 211. This video signal may be an image-compressed signal.
  • the terminal control unit 213 obtains video time information, which is the time for outputting each video signal from the portable terminal 201, from the terminal clock 214 to the video signal from the signal source 211, and the multiprocessing unit 212 time-compresses the video signal. Then, the video time information is multiplexed into the time of the gap compressed by the time to obtain a video transmission signal.
  • the video transmission signal is wirelessly transmitted by the terminal wireless unit 215, and the transmission signal 202 is transmitted from the antenna 216.
  • FIG. 3 is a diagram illustrating a configuration of a video transmission signal included in the transmission signal 202.
  • the video transmission signal 300 in FIG. 3A shows the case of a moving image
  • 302 [1], 302 [2], 302 [3], and 302 [4] are video signals
  • 301 [3] and 301 [4] are moving picture time information of video signals having the same numbers in [].
  • the video time information is the time at which each video signal is output from the portable terminal 201. By outputting each video signal according to the time indicated in the video time information, the video can be reproduced at a normal timing. .
  • the interval of the moving picture time information is one frame of one screen unit at the maximum, but it may be one line unit in one screen and one pixel unit in one screen, and the projection deviation from each projector is visually recognized.
  • the time unit is not used.
  • the video signal 302 may be an image-compressed signal. At this time, the video signal has time information for video playback separately.
  • FIG. 3B shows an example in which the video signal 304 is a still image. In the case of a still image, the time when the still image is switched is multiplexed as still image switching time information 303. Of course, even a still image may be handled as a moving image as shown in FIG.
  • the transmission signal 202 is received by the antenna 102A of the projector 101A, the antenna 102B of the projector 101B, and the antenna 102C of the projector 101C.
  • the same operations in the operations of the three projectors will be described using the subscripts A, B, and C, and the subscripts A, B, and C will be described only when the operations are different.
  • the transmission signal 202 received by the antenna 102 is output to the wireless unit 115.
  • the wireless unit 115 includes a front end (hereinafter abbreviated as F / E) 103, a signal processing unit 104, and a memory 105.
  • the transmission signal 202 is demodulated by the F / E 103 to become a digital signal, reproduced by the signal processing 104 and the memory 105, and the video transmission signal 305 shown in FIG.
  • the video transmission signal 305 is similarly output from the signal processing units 104A, 104B, and 104C, but different delays occur due to differences in buffering processing and jitter, The time for outputting the video transmission signal is different.
  • FIG. 305A is a video transmission signal output from the signal processing unit 104A
  • 305B is a video transmission signal output from the signal processing unit 104B
  • 305C is a video transmission signal output from the signal processing unit 104C.
  • the time information extraction unit 109 extracts the moving image time information 301 from the video transmission signal 305 output from the signal processing unit 104 and sends it to the control unit 113.
  • the control unit 113 obtains the current time information from the clock 112 and compares it with the moving image time information 301 to obtain the video signal delay time.
  • This video signal delay time differs among projectors 101A, 101B, and 101C.
  • Ta, Tb, and Tc are respectively shown in FIG. 3C.
  • the times of the clocks 112A, 112B, and 112C in each projector are controlled by the control units 113A, 113B, and 113C using the transmission / reception units 111A, 111B, and 111C, and are calibrated at the same time by the communications 131 and 132.
  • the control unit 113B transmits the value of the maximum video signal delay time T to the other projectors 101A and 101C via the transmission / reception units 111A, 111B, and 111C through the communication 131 and 132 and is shared by each projector.
  • the transmission / reception units 111A, 111B, and 111C can be easily installed if wireless is used. For example, Bluetooth (registered trademark) can be used.
  • the video signal 302 is extracted from the video transmission signal 305 output from the signal processing unit 104 by the video signal processing unit 106, and the time extension process of the video signal is performed. At this time, if the video signal itself is image-compressed, the image expansion processing is also performed. Further, a part of the large screen composed of the projections 114A, 114B, and 114C handled by the projectors 101A, 101B, and 101C is extracted from the video signal, and the images are captured by the optical systems 108A, 108B, and 108C. The projections 114A, 114B, and 114C are output to reproduce a single large-screen video signal.
  • the video signal processing unit 106 adds the maximum video signal delay time T to the moving image time information 301 and outputs the video signal 302 to the optical system 108 based on the time information of the clock 112.
  • the video signal processing units 106A, 106B, and 106C the video signal 302 is delayed by the delay adjustment memories 107A, 107B, and 107C by T-Ta, T-Tb, and T-Tc, respectively.
  • the video signal 302 is output with reference to.
  • the longest video signal delay time among the video signal delay times Ta, Tb, and Tc is set as the maximum video signal delay time T. If another processing time (adjustment time) is necessary, add this. Thus, the maximum video signal delay time T may be determined.
  • the video output delay adjustment based on the moving image time information 301 may be performed every time the moving image time information 301 is received, but is performed at a predetermined time interval or when a time variation is detected in the projected image. Also good.
  • FIG. 4 is a diagram for explaining the output delay adjustment operation of the video signal of each projector.
  • the master is, for example, PJ2, the number of PJ2 (hereinafter referred to as No.) is set to 0, and [S402] the number of projectors is set to 3.
  • [S403] PJ2 (master) searches for the remaining projectors (slave) other than its own device, and No. Is set (No. 1, No. 2), and the time of [S404] PJ2 is transferred as reference time information R.
  • R Reference time information
  • Each projector calculates the video signal delay time, and [S407] PJ2 requests each video signal delay time.
  • PJ2 receives the video signal delay time from each projector, and [S409] sets the maximum video signal delay time T based on the maximum delay time. [S410] The maximum video signal delay time T is transferred to each projector to share information. [S411] Each projector sets a delay adjustment amount. By adding the maximum video signal delay time T to the moving image time information 301 [S412], it becomes possible to output the video signal in synchronization with each projector.
  • the master may be PJ1 or PJ3.
  • the search processing in [S403] may be performed by either the wireless unit 115 or the transmission / reception unit 111.
  • FIG. 5A The operation when the projections 114A, 114B, and 114C of the three projectors 101A, 101B, and 101C of FIG. 1 are made to correspond to the large screen mode of FIG. 5A has been described above, but FIG. The high brightness / high definition mode and the 3D mode of FIG. 5C are the same as those of FIG. The difference is that, in the case of the large screen mode of FIG. 5A, the video signal processing unit 106 is composed of the projections 114A, 114B, and 114C of the projectors 101A, 101B, and 101C of the video signal. A location that is part of the screen has been extracted, but this is not the case. On the other hand, in the independent mode shown in FIG.
  • FIG. 6 is a flowchart showing video delay processing control by the control unit 113.
  • the setting information sections 110A, 110B, and 110C which display mode to perform in FIGS. 5A, 5B, 5C, and 5D is input and stored.
  • step S601 a mode is input from the input terminal 116B of the master PJ2 to the setting information unit 110B, the transmission / reception units 111A, 111B, and 111C are used, and the control units 113A, 113B, and 113C are controlled.
  • the mode is transferred to the setting information units 110A and 110C and shared.
  • the display mode is confirmed, and if it is the synchronous mode shown in FIGS.
  • the video signal when a video signal is wirelessly transmitted from a mobile terminal to a plurality of projectors and received by a wireless reception unit of each projector and output as a video signal, the video signal is output from each wireless reception unit.
  • Example 2 the video display mode of each projector is automatically recognized, and the delay of the video signal is adjusted according to the display mode.
  • FIG. 7 is a diagram illustrating the configuration of the video display system according to the second embodiment.
  • the same reference numerals as those in FIG. 1 represent the same functions.
  • the projector 101B as a master uses the camera (photographing unit) 701 and the video analysis unit 702 to recognize the arrangement of each projector and automatically recognize the video display mode in FIG.
  • the camera 701 is outside the projector 101B, but may be built-in, and the video analysis unit 702 may be outside the projector 101B.
  • step S801 how the projectors are arranged is automatically recognized. Therefore, a test pattern image is projected from each projector, and this is photographed by the camera 701 to recognize the arrangement of each projector. Details will be described with reference to FIG.
  • step S802 the video analysis unit 702 obtains the degree of overlap of the test pattern video of each projector, and determines which video display mode is used in FIGS. 5A, 5B, 5C, and 5D. To do. Details will be described with reference to FIG.
  • step S803 image projection adjustments and settings such as alignment according to FIGS. 5A, 5B, 5C, and 5D are performed.
  • image projection adjustments and settings such as alignment according to FIGS. 5A, 5B, 5C, and 5D are performed.
  • FIG. 5A brightness / color / geometric alignment and edge blending are performed.
  • Steps S804 and S805 are the same as steps S602 and S603 in FIG. 6, and the display mode is confirmed. If the synchronization mode is in FIGS. 5A, 5B, and 5C, the video signal delay adjustment processing is performed. In the independent mode of FIG. 5D, no delay process is performed.
  • step S806 the camera 701 and the video analysis unit 702 are always monitored for changes in the projector arrangement, the display mode in FIG. 5 and the adjustment in step S803. If there is a change, resetting is performed. Do.
  • step S904 In contrast, for example, test pattern images are projected and displayed in ascending order.
  • step S905 the display image of the test pattern is taken by the camera 701, and the display position is analyzed and held by the video analysis unit 702. Steps S904 and S905 are repeated until the arrangement (display position) of all projectors is confirmed in step S906.
  • step S1008 the determination of the display mode of the plurality of projectors is completed in step S1008.
  • step S1009 the determined display mode is transferred as setting information to each projector by communication 131, 132 via transmission / reception units 111A, 111B, 111C and stored in setting information unit 110.
  • the area ratio less than 1/2 is set to, for example, less than 1/4 or less than the overlap area value of the edges of the large screen, and the area of 1/2 or more is set to, for example, 3/4 or more. It is good also as more than the area value which comprises the same screen. At this time, if the area ratio of the degree of overlap does not meet the determination condition, a caution display is output so as to adjust the condition.
  • the projector arrangement can be automatically recognized simply by placing the projector and projecting, and the projector display mode can be set according to the overlapping degree of the projected images, so that it is very easy to use. That is, it is particularly suitable when each projector is carried and the installation location is variously changed.
  • the camera since the camera has a monitoring mode at any time, there is an effect that even if the location of the projector is moved during projection or a non-projection object is moved during projection, it can be automatically followed.
  • FIG. 11 is a diagram illustrating a configuration of a video display system according to the third embodiment. 1 and 7 indicate the same function.
  • the video display mode is automatically recognized by using the camera 1101 built in the portable terminal 201 and the video analysis unit 702 of the master PJ2 projector (101B).
  • the automatic determination of the video display mode and the control of the video delay process in the third embodiment are basically the same operations as those in FIGS.
  • the change is that in step S901 in FIG. 9, the portable terminal 201 and the wireless unit 115B are connected to the master PJ2 projector (101B), and the video 1102 captured by the camera 1101 is transmitted to the wireless unit 115B.
  • the test pattern image is photographed toward the test pattern projected by the camera 1101, and the image analysis unit 702 extracts the test pattern that is the image photographed by the camera 1101 from the output signal of the signal processing unit 104B.
  • Video analysis Note that when the camera 1101 is directed toward the projected test pattern, the projection range from the camera 1101 is easily determined by performing projection from all projectors first.
  • the video analysis unit 702 also removes the influence of camera shake that occurs due to shooting by the built-in camera 1101 of the mobile terminal 201.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)

Abstract

従来技術では、携帯端末(201)から映像信号を複数のプロジェクタ(101A~C)に無線を介して送る場合、それぞれのプロジェクタの無線部(115)でのバッファリング処理が異なるため遅延が生じ、それぞれのプロジェクタからの映像出力にバラツキが生じ映像が破綻するという課題があった。本発明では、携帯端末(201)から送信する映像信号(302)にはその映像信号を出力すべき動画時刻情報(301)が付加されており、その時刻に各プロジェクタ(101)にて共有された最大映像信号遅延時間Tを加算して、各プロジェクタが共有している時刻情報を基にして映像信号を遅延させて出力することで、複数のプロジェクタから同期した映像が出力表示される。

Description

映像表示システム、投写型映像表示装置、および投写型映像表示装置の制御方法
 本発明は、複数の投写型映像表示装置で構成された映像表示システム、および投写型映像表示装置の制御方法に関する。
 特許文献1は、複数台のプロジェクタを用いて画像表示を行う場合において、各プロジェクタの運転モードの統一制御を容易とし、使い勝手を良好にすることが可能なプロジェクタを提供することを課題とし、投射した画面に情報を埋め込んで、これを他のプロジェクタが情報をカメラで認識することで情報伝送することを特徴としている。
特開2011-70086号公報
 携帯端末から映像信号を複数のプロジェクタに無線を介して送る場合、それぞれのプロジェクタの無線受信部で受信し映像信号を出力するときに、それぞれのプロジェクタの無線受信部でのバッファリング処理が異なるため、それぞれの無線受信部からの映像信号出力に遅延が生じる。この遅延は接続のたびに異なる値となり、さらに、何らかの理由により無線接続が切断された場合も、再接続ごとに異なる値となる。この遅延により、それぞれのプロジェクタからの映像出力時間にバラツキが生じ、大画面化、高輝度/高精細化、3D化の場合に映像が破綻するという課題があった。なお、無線ではなくネットワークを介した接続でも同様である。
 前記特許文献1では、各プロジェクタから出力される映像の出力時間のバラツキを抑えるため、どのように制御するかについては記載されていない。
 本発明の目的は、携帯端末から映像信号を複数のプロジェクタに無線で送って、大画面化、高輝度/高精細化、3D化を実施する場合に、複数のプロジェクタ間でバラツキのない映像出力とすることである。
 上記目的を達成するために、例えば、特許請求の範囲に記載の構成を採用する。
 本発明によれば、携帯端末から映像信号を複数のプロジェクタに無線で送り、それぞれのプロジェクタの無線受信部で受信し映像信号を出力するときに、それぞれの無線受信部からの映像信号出力に生じる遅延を、共有された基準時刻と、映像信号に付加された時刻情報から求めた最大映像信号遅延時間を複数のプロジェクタで共有することで、複数のプロジェクタの映像出力を同期させることができる効果がある。
実施例1にかかる映像表示システムの構成を示す図である。 伝送信号202を生成する携帯端末201の構成を示す図である。 伝送信号202に含まれる映像伝送信号の構成を示す図である。 各プロジェクタの映像信号の出力遅延調整動作を説明する図である。 複数のプロジェクタの投写使用例(表示モード)を説明する図である。 制御部113による映像遅延処理の制御を示すフローチャートである。 実施例2にかかる映像表示システムの構成を示す図である。 実施例2における映像遅延処理の制御を示すフローチャートである。 図8のステップS801(配置認識)の詳細を示す図である。 図8のステップS802(表示モード判定)の詳細を示す図である。 実施例3にかかる映像表示システムの構成を示す図である。
 以下、本発明を実施するための形態について図面を参照して詳述する。なお、図面において、同一符号は、同一または相当部分を示す。また、本発明は、実施例に限定されるものではない。
 図1は、実施例1にかかる映像表示システムの構成を示す図である。1台の携帯端末(映像送信装置)から映像信号を3台のプロジェクタ(投写型映像表示装置)101A、101B、101Cに無線で送信して、それぞれのプロジェクタから映像の投写114A、114B、114Cを行う例を示している。プロジェクタ101A、101B、101Cの構造は全く同じであり、それぞれの構成ブロックはA、B、Cの添え字をつけて表す。
 ここでまず、図5を用いて複数のプロジェクタの投写使用例(表示モード)を、説明する。図5(a)は複数のプロジェクタの投写を連結して大画面にする使用例(大画面モード)である。図5(a)では3台のプロジェクタPJ1、PJ2、PJ3を水平に連結しているが、垂直に連結したり、もっと多くのプロジェクタを用いて水平と垂直の両方に連結させることも可能である。図5(b)は複数のプロジェクタの投写を1つに集め、高輝度化または高精細化を行ったものである(高輝度・高精細モード)。この場合、投写している映像は全て同じ内容である。図5(c)は3D映像のために左目用、右目用の投写を1つに集めたものである(3Dモード)。図5(d)は複数のプロジェクタを独立に使用した例(独立モード)であり、同じ映像を投写したり異なる映像を投写することもある。
 図5(a)、(b)、(c)の表示モード(同期モード)においては、それぞれのプロジェクタの映像出力の時間同期が取れていないと表示する映像が破綻してしまう。ここでは、図1の3台のプロジェクタ101A、101B、101Cからの映像投写114A、114B、114Cを、図5(a)のような大画面モードに対応させたときの動作説明を行う。
 携帯端末201からプロジェクタ101A、101B、101Cへ、伝送信号202が無線で送信される。伝送経路として例えば無線LANを用いる。
 図2は、伝送信号202を生成する携帯端末201の構成を示す図である。信号源211に映像信号が記憶されている。この映像信号は画像圧縮された信号でもよい。端末制御部213は、信号源211からの映像信号にそれぞれの映像信号を携帯端末201から出力する時間である動画時刻情報を端末時計214から入手し、多重処理部212で映像信号を時間圧縮してその時間圧縮した隙間の時間に動画時刻情報を多重し、映像伝送信号とする。映像伝送信号を端末無線部215で無線化し、アンテナ216から伝送信号202を送信する。
 図3は、伝送信号202に含まれる映像伝送信号の構成を示す図である。図3(a)の映像伝送信号300は動画の場合を示し、302[1]、302[2]、302[3]、302[4]は映像信号であり、301[1]、301[2]、301[3]、301[4]はそれぞれ[ ]内の数字の同じ映像信号の動画時刻情報である。動画時刻情報とはそれぞれの映像信号を携帯端末201から出力した時刻であり、それぞれの映像信号を動画時刻情報に示された時刻に従って出力することで、映像を正常なタイミングで再生することができる。動画時刻情報の間隔は、最大で1画面単位の1フレームであるが、1画面中の1ライン単位、1画面中の1画素単位でもよく、それぞれのプロジェクタからの投写のずれが視覚的に認識されない時間単位とする。また、映像信号302は画像圧縮された信号であってもよく、このときは映像信号中に映像再生用の時刻情報を別に持っている。図3(b)は映像信号304が静止画の例であり、静止画の場合は静止画を切り替えた時間を静止画切替時刻情報303として多重する。もちろん、静止画であっても図3(a)のように動画として扱ってもよい。
 伝送信号202はプロジェクタ101Aのアンテナ102A、プロジェクタ101Bのアンテナ102B、プロジェクタ101Cのアンテナ102Cで受信される。以下、3台のプロジェクタの動作で同様の動作のところはA、B、Cの添え字をとって説明し、動作の異なる場合だけA、B、Cの添え字をつけて説明する。
 アンテナ102で受信された伝送信号202は無線部115に出力される。無線部115はフロントエンド(以下、F/Eと略す)103、信号処理部104、メモリ105で構成される。伝送信号202はF/E103で復調されデジタル信号となり、信号処理104とメモリ105により再生され、信号処理部104から図3(c)に示す映像伝送信号305が出力される。
 ここで、それぞれのプロジェクタ101A、101B、101Cでは、信号処理部104A、104B、104Cから同様に映像伝送信号305が出力されるが、それぞれのバッファリング処理の差やジッタによりそれぞれ異なる遅延が生じ、映像伝送信号が出力される時間が異なっている。これを図3(c)により説明する。305Aは信号処理部104Aから出力される映像伝送信号であり、305Bは信号処理部104Bから出力される映像伝送信号であり、305Cは信号処理部104Cから出力される映像伝送信号である。
 時刻情報抽出部109は、信号処理部104から出力された映像伝送信号305から動画時刻情報301を抽出し、制御部113に送る。制御部113は時計112より現在の時刻情報を入手し、動画時刻情報301と比較することで映像信号遅延時間を求める。この映像信号遅延時間はプロジェクタ101A、101B、101Cで異なっており、ここではそれぞれTa、Tb、Tcとおき、図3(c)に示す。なお、各プロジェクタにおける時計112A、112B、112Cの時刻は、送受信部111A、111B、111Cを用い、制御部113A、113B、113Cで制御され、通信131、132により同一時刻に校正されている。
 マスタとなるプロジェクタ(例えばプロジェクタ101B)の制御部113Bは、映像信号遅延時間Ta、Tb、Tcのうち最も長い映像信号遅延時間(最大映像信号遅延時間T)を判定する。図3(c)の例ではT=Tcとなる。制御部113Bは他のプロジェクタ101A、101Cに対し、送受信部111A、111B、111Cを介して、通信131、132により最大映像信号遅延時間Tの値を送信し、各プロジェクタで共有する。送受信部111A、111B、111Cは無線を用いれば設置が簡単であり、例えばBluetooth(登録商標)を用いることができる。
 一方、映像信号処理部106により、信号処理部104から出力された映像伝送信号305から映像信号302が抽出され、映像信号の時間伸長処理を行う。このとき、映像信号そのものが画像圧縮されていた場合にはその画像伸長処理も行う。更に、映像信号のうち、それぞれのプロジェクタ101A、101B、101Cの受け持つ投写114A、114B、114Cで構成される大画面の一部である場所を抽出し、それぞれの光学系108A、108B、108Cにより映像の投写114A、114B、114Cを出力し、一枚の大画面の映像信号を再生する。
 このとき映像信号処理部106は、最大映像信号遅延時間Tを動画時刻情報301に加算して、時計112の時刻情報を基準に映像信号302を光学系108に出力する。これにより、図3(d)に示すように、それぞれのプロジェクタ101A、101B、101Cで時間ずれのない映像の投写114A、114B、114Cが実現できる。詳細には、映像信号処理部106A、106B、106Cでは、それぞれT-Ta、T-Tb、T-Tcだけ遅延調整用メモリ107A,107B,107Cにより映像信号302を遅延させ、時計112の時刻情報を基準に映像信号302を出力する。
 ここでは映像信号遅延時間Ta、Tb、Tcのうち最も長い映像信号遅延時間を最大映像信号遅延時間Tとしたが、これに他の処理時間(調整時間)が必要な場合は、これを加算して最大映像信号遅延時間Tを決定すればよい。
 また、動画時刻情報301に基づく映像出力の遅延調整は、動画時刻情報301を受信する毎に行ってもよいが、所定時間間隔で、あるいは投写映像に時間バラツキが検知されたときに実施してもよい。
 図4は、各プロジェクタの映像信号の出力遅延調整動作を説明する図である。
  [S400]動作開始。[S401]マスタを例えばPJ2とし、PJ2のナンバ(以下、No.と示す)を0に設定、[S402]プロジェクタの台数を3台に設定する。[S403]PJ2(マスタ)は自装置以外の残りのプロジェクタ(スレーブ)を検索してNo.を設定し(No.1,No.2)、[S404]PJ2の時刻を基準時刻情報Rとして転送する。[S405]基準時刻情報転送を確認後、[S406]各プロジェクタでは各々の映像信号遅延時間を算出し、[S407]PJ2は各々の映像信号遅延時間を要求する。
 [S408]PJ2は各プロジェクタから映像信号遅延時間を受信後、[S409]遅延時間の最大値をもとに最大映像信号遅延時間Tを設定する。そして、[S410]最大映像信号遅延時間Tを各プロジェクタに転送して情報共有し、[S411]各プロジェクタでは各々の遅延調整量の設定を行う。最大映像信号遅延時間Tを動画時刻情報301に加算することで、[S412]映像信号を各プロジェクタで同期して出力することが可能となる。なお、マスタはPJ1でもPJ3でもよい。また、[S403]の検索処理は無線部115または送受信部111のどちらで行っても構わない。
 以上、図1の3台のプロジェクタ101A、101B、101Cの投写114A、114B、114Cを、図5(a)の大画面モードに対応させたときの動作説明を行ったが、図5(b)の高輝度・高精細化モードの場合、および、図5(c)の3Dモードの場合も図4と同様である。異なるのは、図5(a)の大画面モードの場合には、映像信号処理部106は映像信号のうち、それぞれのプロジェクタ101A、101B、101Cの受け持つ投写114A、114B、114Cで構成される大画面の一部である場所を抽出したが、この動作がないことである。一方、図5(d)の独立モードでは一般的に映像信号の遅延処理を行う必要は無い。
 図6は、制御部113による映像遅延処理の制御を示すフローチャートである。設定情報部110A、110B、110Cには、図5(a)(b)(c)(d)のどの表示モードを行うかが入力され記憶されている。例えば、ステップS601では、マスタであるPJ2の入力端子116Bから設定情報部110Bにモード入力し、送受信部111A、111B、111Cを用い、制御部113A、113B、113Cで制御され、通信131、132によりそのモードを設定情報部110A、110Cに転送し共有する。ステップS602で表示モードを確認し、図5(a)(b)(c)の同期モードであれば遅延調整処理が必要と判断し、ステップS603で図4で説明した映像信号の遅延調整処理を行う。一方、図5(d)の独立モードであれば、遅延処理が不要と判断し、遅延処理なしに映像を出力する。
 図6の制御によれば、それぞれのプロジェクタから出力される映像信号が時間ずれしてはならない図5(a)(b)(c)の表示モードの場合は遅延処理を行い、映像信号ずれが許容される図5(d)の表示モードの場合は遅延処理を行わないため、図5(d)の場合に不要な遅延を生じさせない効果がある。また、送受信部111に無線を用いているので、複数プロジェクタを配置する場合に、簡単に配置できる効果がある。
 実施例1によれば、携帯端末から映像信号を複数のプロジェクタに無線で送り、それぞれのプロジェクタの無線受信部で受信し映像信号を出力するときに、それぞれの無線受信部からの映像信号出力に生じる遅延を、共有された基準時刻と、映像信号に付加された時刻情報から求めた最大映像信号遅延時間を複数のプロジェクタで共有することで、複数のプロジェクタの映像出力を同期することができる効果がある。
 実施例2では、各プロジェクタの映像表示モードを自動認識して、表示モードに応じて映像信号の遅延調整を行うようにした。
 図7は、実施例2にかかる映像表示システムの構成を示す図である。図1と同一符号は同一機能を表す。マスタとなるプロジェクタ101Bはカメラ(撮影部)701と映像解析部702を用いて、各プロジェクタの配置認識や図5の映像表示モードの自動認識を行う。なお、図7ではカメラ701はプロジェクタ101Bの外部にあるが内蔵でもよく、また、映像解析部702はプロジェクタ101Bの外部でもよい。
 図8は、実施例2における映像遅延処理の制御を示すフローチャートである。図8の処理は主に制御部113により制御される。図6と同一符号は同一機能である。
 ステップS801で、各プロジェクタがどのように配置されたかを自動認識する。そのため、各プロジェクタからテストパターン映像を投写し、これをカメラ701で撮影することで各プロジェクタの配置を認識する。詳細は図9で説明する。
 そして、ステップS802で、映像解析部702により各プロジェクタのテストパターン映像の重なり度合いを求め、図5(a)(b)(c)(d)のいずれの映像表示モードで使用しているかを判定する。詳細は図10で説明する。
 ステップS803で、図5(a)(b)(c)(d)それぞれに応じた位置合わせなどの映像投写の調整や設定を行う。例えば、図5(a)では輝度・色・幾何合わせやエッジブレンディングを行う。
 ステップS804、S805は図6のステップS602、S603と同様で、表示モードを確認し、図5(a)(b)(c)の同期モードであれば映像信号の遅延調整処理を行う。図5(d)の独立モードであれば、遅延処理を行わない。
 その後ステップS806で、プロジェクタの配置や図5の表示モード、および、ステップS803の調整に変化がないか、カメラ701、映像解析部702により常時監視を行い、変化があった場合には再設定を行う。
 図9は、図8のステップS801(配置認識)の詳細を示す図である。
  ステップS901で、カメラ701を例えばプロジェクタPJ2に接続する。これは、PJ1、PJ3でも構わない。カメラを接続したPJ2をマスタとし、PJ2のナンバ(以下、No.と示す)を0に設定する。ステップS902で使用するプロジェクタの台数をマスタのPJ2に設定する。ここでは3台に設定する。ステップS903で残りのプロジェクタ(スレーブ)を検索してNo.を割り振る。この検索処理は無線部115または送受信部111のどちらで行っても構わない。
 ステップS904で設定したプロジェクタのNo.に対し、例えば昇順にテストパターン映像を投写表示する。ステップS905でテストパターンの表示映像をカメラ701で撮影し、映像解析部702で表示位置を解析して保持する。ステップS906で全てのプロジェクタの配置(表示位置)が確認されるまでステップS904、S905を繰り返す。
 図5(a)の例で言えば、まずマスタであるPJ2プロジェクタ(101B)の投写114Bの位置が映像解析部702により確認される。その後、例えばPJ1プロジェクタ(101A)がNo.1、PJ3プロジェクタ(101C)がNo.2に割り振られたとすると、映像解析部702により、No.1であるPJ1の投写114Aの位置が投写114Bの位置と比較してわかり、また、No.2であるPJ3の投写114Cの位置が投写114B、114Aの位置と比較してわかる。こうして、投写114A、114B、114CがどのNo.のプロジェクタから投写されたものかが認識される。なお、テストパターンの表示は一つのプロジェクタだけでなく、例えば、マスタであるNo.0のプロジェクタを常に表示させておくまたは点滅させるなど、認識を容易にするために複数点灯または点滅させてもいい。全てのプロジェクタの投写配置の確認を完了したら、この工程を終了する。
 図10は、図8のステップS802(表示モード判定)の詳細を示す図である。
  前記ステップS801で全てのプロジェクタの投写配置がわかったので、ステップS1001では映像解析部702によりプロジェクタ間の投写映像の重なり度合いを解析する。ステップS1002で、重なり度合いを重なり面積比率で評価し、所定の比率、例えば比率1/2と比較する。
 重なり比率が映像面積の1/2未満の場合はステップS1003に進み、図5(a)の大画面の表示モードと判定する。重なりが無い場合にはステップS1004に進み、図5(d)の複数プロジェクタの独立表示モードと判定する。重なり比率が映像面積の1/2以上の場合はステップS1005に進む。
 重なり比率が映像面積の1/2以上の場合は、図5(b)の高輝度・高精細モード、または(c)の3Dモードのいずれかであるが、どちらも投写位置が完全に重なるため、重なり度合いだけではいずれであるかを判別できない。そこでステップS1005では、携帯端末201から表示する映像信号の伝送信号を送ってもらい、3D用映像信号(左目用と右目用の映像信号で構成)であるか否かを識別する。3D用映像信号でない場合はステップS1006に進み図5(b)の高輝度・高精細モードと判定し、3D用映像信号の場合はステップS1007に進み図5(c)の3Dモードと判定する。
 以上により、ステップS1008で複数プロジェクタの表示モードの判定が完了する。ステップS1009でこの判定した表示モードを設定情報として、送受信部111A、111B、111Cを介し、通信131、132により各プロジェクタに転送し、設定情報部110に記憶する。
 なお、重なり度合いの比較では、面積比率1/2未満のところを、例えば1/4未満や大画面のエッジの重なりの面積値未満とし、1/2以上のところを、例えば3/4以上や同一画面を構成する面積値以上としてもよい。このとき、重なり度合いの面積比率で判定条件に合わないときは、条件に合うように調整するよう、注意表示を出力する。
 実施例2によれば、プロジェクタを置いて投写するだけでプロジェクタの配置を自動認識し、また、投写映像の重なり度合いでプロジェクタの表示モードを設定できるので、非常に使い勝手に優れたものとなる。すなわち、各プロジェクタを持ち運びして、設置場所をいろいろと変える場合に特に好適となる。また、随時カメラによる監視モードを持っているため、投写中にプロジェクタの場所を動かしたり、投写中に非投写物を移動させたりしても、自動的に追随することができる効果がある。
 実施例3では、携帯端末201に内蔵されているカメラを使用してプロジェクタの配置と、映像表示モードを自動認識するようにした。
 図11は、実施例3にかかる映像表示システムの構成を示す図である。図1、図7と同一符号は同一機能を表す。この例では、携帯端末201に内蔵されているカメラ1101と、マスタであるPJ2プロジェクタ(101B)の映像解析部702を使用して、映像表示モードを自動認識する。
 実施例3における映像表示モードの自動判定と映像遅延処理の制御は、基本的には、図8、図9、図10と同一動作である。変更する点は、図9のステップS901では、マスタとするPJ2プロジェクタ(101B)に対して携帯端末201と無線部115Bの接続を行い、カメラ1101で撮影した映像1102が無線部115Bに伝送されるようにする。そして、ステップS905で、カメラ1101を投写されたテストパターンに向けテストパターン映像を撮影し、映像解析部702は、信号処理部104Bの出力信号からカメラ1101で撮影された映像であるテストパターンを抽出し映像解析を行う。なお、カメラ1101を投写されたテストパターンに向けるときに、最初に全てのプロジェクタから投写を行うことで、カメラ1101での撮影範囲を決定しやすくする。映像解析部702では、携帯端末201の内蔵カメラ1101による撮影のため生じる手振れによる影響も除去する。
 実施例3によれば、プロジェクタ側でカメラを追加することなく携帯端末内蔵のカメラを使用することができるので、低コストな映像表示システムを構築できる効果がある。
 なお、実施例1~3とも3台のプロジェクタを用いているが、2台でも3台より多くても適用可能であることは言うまでもない。マスタのプロジェクタは任意のプロジェクタとすることができる。送受信部111は無線を用いれば設置が簡単であり、例えばBluetooth(登録商標)を用いることができる。無線部115は例えば無線LANを用いる事ができる。なお、無線ではなくネットワークを介した接続でも同様である。
 101…プロジェクタ(投写型映像表示装置)、102…アンテナ、103…F/E、104…信号処理部、105…メモリ、106…映像信号処理部、107…遅延調整用メモリ、108…光学系、109…時刻情報抽出部、110…設定情報部、111…送受信部、112…時計、113…制御部、114…投写、115…無線部、116…入力端子、131,132…通信、201…携帯端末(映像送信装置)、202…伝送信号、211…信号源、212…多重処理部、213…端末制御部、214…端末時計、215…端末無線部、300,305…映像伝送信号、301…動画時刻情報、302…映像信号、701,1101…カメラ(撮影部)、702…映像解析部。

Claims (6)

  1.  映像送信装置から映像信号を受信し複数の投写型映像表示装置により映像を投写表示する映像表示システムであって、
     前記映像送信装置は、前記映像信号に、該映像信号を出力すべき時刻情報を付加した映像伝送信号が含まれた伝送信号を無線送信し、
     前記複数の投写型映像表示装置は、マスタとなる投写型映像表示装置と他の投写型映像表示装置で構成され、
     前記映像送信装置からの前記伝送信号を無線受信し、前記映像伝送信号を復調する無線部と、
     前記無線部からの復調された前記映像伝送信号から前記時刻情報を抽出する時刻情報抽出部と、
     基準時刻を与える時計と、
     前記時計の前記基準時刻と、前記時刻情報抽出部で抽出された前記時刻情報を比較することで映像信号遅延時間を求める制御部と、
     前記無線部からの復調された前記映像伝送信号から前記映像信号を抽出し、前記マスタとなる投写型映像表示装置が設定する最大映像信号遅延時間にしたがって前記映像信号を遅延させて投写光学系へ出力する映像信号処理部と、
     前記複数の投写型映像表示装置の間で情報の通信を行う送受信部と、を備え、
     前記マスタとなる投写型映像表示装置の制御部は、前記送受信部により、前記基準時刻を前記他の投写型映像表示装置に送信して共有し、前記基準時刻を共有したあと、前記他の投写型映像表示装置から前記他の投写型映像表示装置の前記映像信号遅延時間を受信し、前記他の投写型映像表示装置の映像信号遅延時間と比較して最大の遅延時間である前記最大映像信号遅延時間を設定し、前記設定した最大映像信号遅延時間を前記他の投写型映像表示装置へ送信して共有することを特徴とする映像表示システム。
  2.  映像送信装置から映像信号を受信して他の投写型映像表示装置とともに映像を投写表示する投写型映像表示装置であって、
     前記映像送信装置から、映像信号に、該映像信号を出力すべき時刻情報を付加した映像伝送信号が含まれた伝送信号を無線受信し、前記映像伝送信号を復調する無線部と、
     前記無線部からの復調された前記映像伝送信号から前記時刻情報を抽出する時刻情報抽出部と、
     基準時刻を与える時計と、
     前記時計の前記基準時刻と、前記時刻情報抽出部で抽出された前記時刻情報を比較することで映像信号遅延時間を求め、前記他の投写型映像表示装置の映像信号遅延時間と比較して最大の遅延時間である最大映像信号遅延時間を設定する制御部と、
     前記無線部からの復調された前記映像伝送信号から前記映像信号を抽出し、前記制御部が設定した前記最大映像信号遅延時間にしたがって前記映像信号を遅延させて投写光学系へ出力する映像信号処理部と、
     前記他の投写型映像表示装置との間で情報の通信を行う送受信部と、を備え、
     前記制御部は前記送受信部により、前記基準時刻を前記他の投写型映像表示装置に送信して共有し、前記基準時刻を共有したあと、前記他の投写型映像表示装置から前記他の投写型映像表示装置の前記映像信号遅延時間を受信し、前記設定した最大映像信号遅延時間を前記他の投写型映像表示装置へ送信して共有することを特徴とする投写型映像表示装置。
  3.  請求項2記載の投写型映像表示装置であって、
     前記投写型映像表示装置と前記他の投写型映像表示装置の映像表示モードを設定して記憶する設定情報部を設け、
     前記設定情報部のモード情報が、複数の投写型映像表示装置から独立に表示する場合には、前記映像信号処理部での前記映像信号を遅延させる処理を行わないことを特徴とする投写型映像表示装置。
  4.  請求項2記載の投写型映像表示装置であって、
     前記投写型映像表示装置と前記他の投写型映像表示装置からそれぞれ投写されたテスト映像を撮影する撮影部と接続し、
     前記撮影部の撮影映像から、前記各投写型映像表示装置の投写映像の位置と、前記各投写型映像表示装置の投写映像の重なり度合いを解析し、前記各投写型映像表示装置の映像表示モードを判定する映像解析部、を備え、
     前記制御部は前記送受信部により、前記映像解析部で判定した前記映像表示モードを前記他の投写型映像表示装置に送信して共有することを特徴とする投写型映像表示装置。
  5.  請求項4記載の投写型映像表示装置であって、
     前記撮影部は前記映像送信装置に設けられ、
     前記撮影部により撮影されたテスト映像の信号を、前記無線部を介して前記映像解析部に入力することを特徴とする投写型映像表示装置。
  6.  映像送信装置から映像信号を受信して他の投写型映像表示装置とともに映像を投写表示する投写型映像表示装置の制御方法であって、
     前記映像送信装置から、映像信号に、該映像信号を出力すべき時刻情報を付加した映像伝送信号が含まれた伝送信号を無線受信し、前記映像伝送信号を復調する復調ステップと、
     前記復調ステップで復調された前記映像伝送信号から前記時刻情報を抽出する時刻情報抽出ステップと、
     時計から与えられた基準時刻を前記他の投写型映像表示装置に送信して共有する基準時刻通信ステップと、
     前記基準時刻と、前記時刻情報抽出ステップで抽出された前記時刻情報を比較することで映像信号遅延時間を求める遅延時間計算ステップと、
     前記基準時刻を共有したあと、前記他の投写型映像表示装置から前記他の投写型映像表示装置の前記映像信号遅延時間を受信する遅延時間通信ステップと、
     前記他の投写型映像表示装置の前記映像信号遅延時間と比較して最大の遅延時間である最大映像信号遅延時間を設定する最大遅延時間設定ステップと、
     前記設定した最大映像信号遅延時間を前記他の投写型映像表示装置へ送信して共有する最大遅延時間通信ステップと、
     前記復調ステップで復調された前記映像伝送信号から前記映像信号を抽出し、前記設定した最大映像信号遅延時間にしたがって前記映像信号を遅延させて投写光学系へ出力する映像信号処理ステップと、
    を有することを特徴とする投写型映像表示装置の制御方法。
PCT/JP2016/062962 2015-06-15 2016-04-26 映像表示システム、投写型映像表示装置、および投写型映像表示装置の制御方法 WO2016203848A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015120603A JP6251871B2 (ja) 2015-06-15 2015-06-15 投写型映像表示装置
JP2015-120603 2015-06-15

Publications (1)

Publication Number Publication Date
WO2016203848A1 true WO2016203848A1 (ja) 2016-12-22

Family

ID=57545160

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/062962 WO2016203848A1 (ja) 2015-06-15 2016-04-26 映像表示システム、投写型映像表示装置、および投写型映像表示装置の制御方法

Country Status (2)

Country Link
JP (1) JP6251871B2 (ja)
WO (1) WO2016203848A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200089461A1 (en) * 2017-05-26 2020-03-19 Nec Display Solutions, Ltd. Multi-screen display system, image display device, image display method, and image display program
JP7484309B2 (ja) 2020-03-27 2024-05-16 セイコーエプソン株式会社 画像投射システム、画像投射システムの制御方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008009299A (ja) * 2006-06-30 2008-01-17 Olympus Corp 画像処理装置及びマルチプロジェクションシステム
JP2008197383A (ja) * 2007-02-13 2008-08-28 Seiko Epson Corp マルチディスプレイシステム、画像表示装置、画像表示方法及び画像表示プログラム
JP2014026171A (ja) * 2012-07-27 2014-02-06 Ricoh Co Ltd システム及び方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4882237B2 (ja) * 2005-02-07 2012-02-22 セイコーエプソン株式会社 画像プロジェクションシステム、画像プロジェクション方法、画像プロジェクションプログラム、そのプログラムを記憶した記憶媒体、およびプロジェクタの制御装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008009299A (ja) * 2006-06-30 2008-01-17 Olympus Corp 画像処理装置及びマルチプロジェクションシステム
JP2008197383A (ja) * 2007-02-13 2008-08-28 Seiko Epson Corp マルチディスプレイシステム、画像表示装置、画像表示方法及び画像表示プログラム
JP2014026171A (ja) * 2012-07-27 2014-02-06 Ricoh Co Ltd システム及び方法

Also Published As

Publication number Publication date
JP6251871B2 (ja) 2017-12-27
JP2017003925A (ja) 2017-01-05

Similar Documents

Publication Publication Date Title
US9179136B2 (en) Method and system for synchronizing 3D shutter glasses to a television refresh rate
EP2611152A2 (en) Display apparatus, image processing system, display method and imaging processing thereof
US20110134231A1 (en) Method And System For Synchronizing Shutter Glasses To A Display Device Refresh Rate
US20210092350A1 (en) Camera system and camera control method
US9942541B2 (en) Method and apparatus for synchronizing of 3-D display devices
US20110229106A1 (en) System for playback of ultra high resolution video using multiple displays
US10951804B2 (en) Photographing synchronization method and apparatus
JP4731229B2 (ja) デジタルカメラ
KR101446995B1 (ko) 멀티앵글영상촬영헬멧 및 촬영방법
CN107592452B (zh) 一种全景音视频采集设备及方法
JP5515729B2 (ja) カメラアダプタ装置及びカメラ制御方法
JP6251871B2 (ja) 投写型映像表示装置
US9001193B2 (en) Apparatus, method and system for synchronization and 3D display apparatus using the same
WO2013069296A1 (ja) 撮像装置、撮像システムおよびプログラム
JP5554157B2 (ja) 映像同期撮影システム、及び映像同期撮影方法
JP2011135252A (ja) 立体映像撮影用カメラ調整補助装置
KR20080087256A (ko) 복수개의 이동통신단말기를 이용한 다시점 영상 획득 방법및 시스템
KR20130088663A (ko) 디스플레이 장치, 안경 장치 및 그 제어 방법
JP6719994B2 (ja) 通信システム、通信機器および通信方法
KR101794521B1 (ko) 3차원 영상 출력 시스템
JP2017085208A (ja) 映像伝送システムにおける映像遅延量検出方法
JP2005223821A (ja) マルチストリーム再生システム
KR20170082070A (ko) 그룹 촬영 방법 및 이를 위한 장치
TW201525853A (zh) 分割顯示畫面並傳至不同顯示裝置顯示之顯示裝置及方法
KR20160116108A (ko) 프로젝터용 영상 동기화 시스템 및 그 동작 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16811323

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16811323

Country of ref document: EP

Kind code of ref document: A1