WO2020179618A1 - 映像表示システム、映像変換装置及び映像表示方法 - Google Patents

映像表示システム、映像変換装置及び映像表示方法 Download PDF

Info

Publication number
WO2020179618A1
WO2020179618A1 PCT/JP2020/008046 JP2020008046W WO2020179618A1 WO 2020179618 A1 WO2020179618 A1 WO 2020179618A1 JP 2020008046 W JP2020008046 W JP 2020008046W WO 2020179618 A1 WO2020179618 A1 WO 2020179618A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
display
video signal
integrated
display devices
Prior art date
Application number
PCT/JP2020/008046
Other languages
English (en)
French (fr)
Inventor
岡崎 芳紀
田中 義人
高士 山田
大三郎 松木
宜史 河口
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to CN202080017946.2A priority Critical patent/CN113508578A/zh
Priority to JP2021504023A priority patent/JPWO2020179618A1/ja
Publication of WO2020179618A1 publication Critical patent/WO2020179618A1/ja
Priority to US17/466,563 priority patent/US20210400230A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • H04N7/012Conversion between an interlaced and a progressive signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/12Synchronisation between the display unit and other units, e.g. other display units, video-disc players
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43076Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of the same content streams on multiple devices, e.g. when family members are watching the same movie on different devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440245Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display the reformatting operation being performed only on part of the stream, e.g. a region of the image or a time segment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440263Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA
    • H04N21/440272Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA for performing aspect ratio conversion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0127Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter
    • H04N7/013Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter the incoming video signal comprising different parts having originally different frame rate, e.g. video and graphics

Definitions

  • the present disclosure relates to a video display system including a plurality of video display devices having different delay times in video display, a video conversion device and a video display method included in the video display system.
  • Patent Document 1 discloses an interactive indoor show and game system configured to provide an attractive and immersive multimedia show or presentation indoors.
  • the system of U.S. Pat. No. 6,096,837 includes a controller for selectively operating display devices, video projectors, audio systems (such as speakers), and other show components (light sources, fans, mechanical devices, etc.).
  • the system of Patent Document 1 includes a display and a projector. However, the delay times in displaying these images are different from each other. Therefore, in such a system, a difference in display timing may occur between the two display images displayed by the display and the projector, giving a sense of discomfort and impairing the immersive feeling in the show or game.
  • the system of Patent Document 1 converts the video signal output to each video display device based on the positions of the display and the projector. Therefore, a high-performance computer or the like is used to process images on a plurality of display devices in real time, resulting in high cost.
  • the present disclosure discloses a low-cost video display system, a video conversion device, and a video conversion device that substantially eliminates the time difference between display images displayed by each display device in a video display system including a plurality of display devices having different display delay times. Provide a video display method.
  • the video display system includes a plurality of display devices having different display delay times, and a video conversion device that divides the input integrated video signal into a plurality of video signals and outputs them to the plurality of display devices. At least one of the plurality of video signals is delayed so that the difference in display timing of the plurality of images displayed on the plurality of display devices is substantially zero based on the display delay time. It is output in the state.
  • the video conversion device inputs an integrated video signal and divides the integrated video signal into a plurality of video signals corresponding to a plurality of display devices having different display delay times, and information on the display delay time. Is provided, and a delay correction calculation unit is provided for adjusting the output timings of a plurality of video signals so that the difference in display timings in the plurality of display devices becomes substantially 0 based on the display delay time.
  • the video display method is a video display method for displaying a plurality of videos on a plurality of display devices having different display delay times, based on an information input step for inputting information on the display delay time and a display delay time. And a video output step of outputting a plurality of video signals respectively corresponding to the plurality of videos so that a difference in display timing between the plurality of videos becomes substantially zero.
  • the time difference between the displayed images by a plurality of video display devices having different display delay times can be made substantially zero.
  • FIG. 5 is a block diagram showing a detailed configuration example of the video conversion device 20A of the video display system 1A of FIG.
  • Block diagram showing a configuration example of a video display system 1B according to the third embodiment A block diagram showing a detailed configuration example of the video conversion device 20B of the video display system 1B of FIG.
  • FIG. 10 is a block diagram showing a detailed configuration example of a video conversion device 20D of the video display system 1D of FIG.
  • Block diagram showing a configuration example of the video display system 1E according to the sixth embodiment Schematic diagram showing a configuration example of the integrated video content 100 in the video display system 1E of FIG.
  • FIG. 13 is a block diagram showing a detailed configuration example of a video conversion device 20E in the video display system 1E of FIG. Schematic diagram showing the relationship between pixel brightness and temperature in the integrated video content 100 of FIG.
  • FIG. 14 is a schematic diagram showing the relationship between the pixel brightness and the wind speed in the integrated video content 100 of FIG.
  • FIG. 1 is a block diagram showing an example of the connection relationship of the video display system 1 of FIG.
  • the video display system 1 includes a video output device 10, a video conversion device 20, a first display device 31 that is a projector, and a second display device 32 that is a display.
  • the video output device 10 is connected to the video conversion device 20 so that a video signal can be transmitted.
  • the video conversion device 20, the first display device 31, and the second display device 32 are connected to each other so that various signals can be transmitted and received. Further, the video output device 10 can obtain the video data for the video signal to be transmitted to the video conversion device 20 from the media server 60 via the network.
  • FIG. 2 is a block diagram showing a configuration example of the video display system 1 of FIG.
  • the video output device 10 outputs an integrated video signal including the integrated video content 100 to the video conversion device 20.
  • the video conversion device 20 converts the integrated video content 100 included in the input integrated video signal into the first and second video signals, outputs the first video signal to the first display device, and outputs the first video signal to the second display device. Output the second video signal.
  • the first and second display devices display images based on the input first and second image signals, respectively.
  • the first display device 31 transmits and receives a delay detection signal to and from the second display device 32, thereby indicating how much the video display timing is delayed as compared with the second display device 32. Is detected, and a signal indicating the first delay amount is output to the video converter 20. Similarly, the second display device 32 also outputs a signal indicating the second delay amount to the video conversion device 20.
  • the video conversion device 20 adjusts the output timing of the first and second video signals based on the input first and second delay amounts.
  • the signals indicating the first and second delay amounts are an example of information regarding the display delay time.
  • FIG. 3 is a schematic diagram showing a configuration example of the integrated video content 100 in the video display system 1 of FIG.
  • the integrated video content 100 is assigned to an area to which the partial video content C1 to be displayed on the first display device is assigned, an area to which the partial video content C2 to be displayed on the second display device is assigned, and which display device. Also includes an unused area to which the partial video content C0 that is not displayed is allocated.
  • the pixels of the partial video content C0 may be all black.
  • FIG. 4 is a block diagram showing a detailed configuration example of the video conversion device 20 of the video display system 1 of FIG.
  • the video conversion device 20 includes a video input unit 210, a video input buffer 220, an information input unit 230, a delay correction calculation unit 240, a video conversion processing unit 250, and first and second video output buffers. It includes 261,262 and first and second video output units 271,272.
  • the video input buffer 220 inputs the integrated video signal via the video input unit 210 and temporarily stores it.
  • the delay correction calculation unit 240 outputs the first correction value signal Sf1 to the first video output buffer based on the first and second delay amounts input via the information input unit 230, and the second correction value signal Sf2. Is output to the second video output buffer.
  • the first correction value signal Sf1 is a signal indicating a first correction value that is a delay amount that delays the timing of outputting the first video signal to the first display device 31.
  • the second correction value signal Sf2 is a signal indicating a second correction value, which is a delay amount that delays the timing of outputting the second video signal to the second display device 32.
  • the video conversion processing unit 250 cuts out the area allocated to the partial video content C1 from the integrated video content 100 included in the input integrated video signal, and outputs the first video signal Sc1 to the first video output buffer 261.
  • the video conversion processing unit 250 similarly outputs the second video signal Sc2 indicating the partial video content C2 to the second video output buffer 262.
  • the first video output buffer 261 delays the input first video signal Sc1 by the correction value indicated by the first correction value signal Sf1 and outputs the delayed first video signal Sc1 to the first display device 31 via the first video output unit 271. ..
  • the second video output buffer 262 delays the input second video signal Sc2 by the correction value indicated by the second correction value signal Sf2, and outputs the delayed second video signal Sc2 to the second display device 32 via the second video output unit 272. Output.
  • the video output device 10 outputs an integrated video signal including the integrated video content 100 to the video conversion device 20.
  • the video conversion processing unit 250 of the video conversion device receives the integrated video signal via the video input unit 210 and the video input buffer 220.
  • the video conversion processing unit 250 cuts out regions corresponding to the first and second display devices from the integrated video content 100 included in the input integrated video signal, and outputs the first and second video signals Sc1 and Sc2 to the first video signal Sc1 and Sc2, respectively. Output to the 1st and 2nd video output buffers 261,262, respectively.
  • the delay correction calculation unit 240 inputs the first and second delay amounts from the first and second display devices via the information input unit 230.
  • the delay correction calculator 240 delays the output of the first and second video signals Sc1 and Sc2 in the first and second video output buffers based on the input first and second delay amounts.
  • First and second correction value signals Sf1 and Sf2 indicating the correction values are generated. Details of the calculation of the correction value will be described below.
  • the second correction value Sf2 is set to a value larger than the first correction value Sf1 by the difference between the first and second delay amounts.
  • the display timing of the image on the second display device is delayed by the difference between the delay amounts.
  • the first correction value Sf1 is set to a value larger than the second correction value Sf2 by the difference between the first and second delay amounts.
  • the video display system of FIG. 1 detects the delay amount of each display device by transmitting and receiving delay detection signals between the first and second display devices 31 and 32. After that, the video conversion device 20 delays and outputs a video signal to be output to a display device having a delay amount smaller than that of other display devices by a difference of the delay amount based on the detected delay amount. Accordingly, the time difference between the images displayed by the display devices can be substantially zero. Further, since the target to be processed by the video conversion device 20 is only the integrated video content 100 and each video displayed on a plurality of display devices is not processed at the same time, it is not necessary to use a high-performance computer as in the prior art, and the cost is low. It can be realized at cost.
  • the video output device 10 may include a memory for storing the integrated video content 100 and read the integrated video content 100 from the memory.
  • the first and second delay amounts are detected by transmitting and receiving a delay detection signal between the first and second display devices.
  • the delay amount of the display device may be a predetermined value measured in advance for each display device.
  • the predetermined first and second delay amounts may be stored in the storage units of the first and second display devices and output to the video conversion device 20, or may be output to the video conversion device 20 or the delay correction calculation unit 240 of the video conversion device 20. It may be stored in the storage unit or the like.
  • the predetermined first and second delay amounts may be stored in the form of a database of the delay correction calculator 240. In that case, the video conversion device 20 may acquire identification information such as a model name from the first and second display devices 31 and 32, and search the database for the first and second delay amounts based on the identification information.
  • FIG. 5 is a block diagram showing a configuration example of the video display system 1A according to the second embodiment.
  • the video display system 1A differs from the video display system 1 of FIG. 1 in the following points.
  • the image capturing device 40 is further provided.
  • a video conversion device 20A is provided instead of the video conversion device 20.
  • the photographing device 40 photographs the first image by the first display device 31A and the second image by the second display device 32A, and transmits the photographed image signal including the photographed image to the image conversion device 20A.
  • the video conversion device 20A calculates the first and second delay amounts based on the captured video included in the captured video signal.
  • the video conversion device 20A adjusts the output timing of the first and second video signals based on the first and second delay amounts, as in the first embodiment.
  • the captured video signal including the captured video is an example of information regarding the display delay time.
  • FIG. 6 is a block diagram showing a detailed configuration example of the video conversion device 20A of the video display system 1A of FIG. 6, the video conversion device 20A is different from the video conversion device 20 of FIG. 4 in that it includes an information input unit 230A and a delay correction calculation unit 240A.
  • the delay correction calculation unit 240A inputs the photographed video signal from the photographing device 40 via the information input unit 230A.
  • the delay correction calculation unit 240A calculates how much the display timings of the first and second images differ from the captured video included in the input captured video signal. Further, the delay correction calculation unit 240A outputs the video signal to be output to the display device whose display timing is earlier than that of the other display devices, with a delay of the difference in the display timing, as in the first embodiment. As a result, the difference in display timing between the images displayed by the first and second display devices becomes substantially zero.
  • FIG. 7 is a block diagram showing a configuration example of the video display system 1B according to the third embodiment.
  • the video display system 1B differs from the video display system 1 of FIG. 1 in the following points.
  • the integrated video content generation means 50B is further provided.
  • the first and second display devices 31B and 32B output signals indicating the first and second delay amounts to the integrated video content generation means 50B instead of the video conversion device 20.
  • the first and second display devices output the first and second delay amounts to the integrated video content generation means 50B.
  • the integrated video content generation means 50B generates the integrated video content 100 including the partial video contents C1 and C2 acquired via the network (not shown) based on the first and second delay amounts.
  • the integrated video content generating means 50B sets the partial video content C1 for a time equal to the difference between the first and second delay amounts when the second delay amount is larger than the input first delay amount. Delay.
  • the integrated video content generation means 50B integrates the two partial video contents C1 and C2 corrected in this way to create the integrated video content 100, and outputs the integrated video signal to the video output device 10.
  • the video output device 10 transmits the integrated video signal to the video conversion device 20B.
  • the video conversion device 20B cuts out regions corresponding to the partial video contents C1 and C2 from the integrated video content 100 included in the integrated video signal, and outputs first and second video signals including the partial video contents C1 and C2, respectively.
  • the second display device respectively.
  • the first and second display devices 31B and 32B display an image based on the transmitted first and second image signals. Further, the first and second display devices 31B and 32B output signals indicating the first and second delay amounts, respectively, to the integrated video content generation means 50B.
  • FIG. 8 is a block diagram showing a detailed configuration example of the video conversion device 20B of FIG.
  • the video conversion device 20B does not include the information input unit 230 and the delay correction calculation unit 240 as compared with the video conversion device 20, and does not perform delay correction in the first and second video output buffers 261B and 262B. ..
  • the video display system 1B of FIG. 7 produces the integrated video content 100 generated by the integrated video content generation means 50B based on the difference between the first and second delay amounts between the first and second display devices.
  • the integrated video content generation means 50B acquires the first and second delay amounts from the first and second display devices 31B and 32B, but the first and second delay amounts are obtained in advance.
  • the value stored in the integrated video content generation means 50B may be used.
  • FIG. 9 is a block diagram showing a configuration example of a video display system 1C according to the fourth embodiment.
  • the video display system 1C is an integrated video content in which the first display device 31C and the second display device 32C have the first frame rate information and the second frame rate information, respectively, as compared with the video display system 1B of FIG. The difference is that it is output to the generation means 50C.
  • the first display device 31C transmits the display frame rate of the first display device 31C, for example, 30 frames per second, as the first frame rate information to the integrated video content generation means 50C.
  • the second display device 32C transmits the display frame rate of the second display device 32C, for example, 60 frames per second, as the second frame rate information to the integrated video content generation means 50C.
  • the integrated video content generation means 50C generates integrated video content 100 such that the display frame rates match, based on the first and second frame rate information from the first and second display devices 31C and 32C.
  • the integrated video content generation means 50C converts the partial video content C2 into the partial video content C2 such that the even-numbered frame displays the same video as the immediately preceding frame.
  • the video displayed by the second display device 32C becomes a video that is updated with a new image every two frames, and thus the frame rate is substantially 30 frames per second. Therefore, the frame rates of the display images are matched between the first and second display devices, and the discomfort between the display images is reduced.
  • the integrated video content generation means 50C acquires the first and second frame rate information from the first and second display devices 31C and 32C, but the first and second frame rate information is obtained.
  • the value stored in advance in the integrated video content generation means 50C may be used.
  • FIG. 10 is a block diagram showing a configuration example of a video display system 1D according to the fifth embodiment.
  • the video display system 1D differs from the video display system 1B of FIG. 7 in the following points.
  • the first and second display devices 31D and 32D output the first and second resolution information to the integrated video content generation means 50D, respectively.
  • the integrated video content generation means 50D further transmits the video format information to the video conversion device 20D via the video output device 10D.
  • the first display device 31D transmits the first resolution information indicating the resolution of the display image of the first display device 31D to the integrated video content generation means 50D.
  • the second display device 32D transmits the second resolution information.
  • the integrated video content generation means 50D is a first and second display device in which the resolution ratios of the first and second partial video contents C1 and C2 are the partial video contents C1 and C2 based on the first and second resolution information.
  • the integrated video content 100 is converted so as to have the same display resolution ratio of 31D and 32D.
  • the integrated video content generation means 50D further transmits video format information indicating which region in the integrated video content 100 corresponds to which partial video content to the video conversion device 20D via the video output device 10D.
  • the video conversion device 20D clips the partial video contents C1 and C2 from the integrated video content 100 based on the video format information, and outputs the first and second video signals including the partial video contents C1 and C2, respectively, to the first and second display devices. It transmits to 31D and 32D, respectively.
  • FIG. 11 is a schematic diagram showing a configuration example of the integrated video content 100 in the video display system 1D of FIG.
  • the integrated video content 100 of FIG. 11 shows an example in which the resolution of the first display device 31D is 4K and the resolution of the second display device 32D is 2K.
  • the first display device 31D transmits the first resolution information indicating that the resolution is 4K to the integrated video content generation unit 50D.
  • the second display device 32D transmits the second resolution information indicating that the resolution is 2K to the integrated video content generation unit 50D.
  • the integrated video content generation means 50D converts the partial video contents C1 and C2 so that the width ratio of the partial video contents C1 and C2 is 2: 1 in the integrated video content 100 based on the first and second resolution information, and the integrated video content 100 To generate.
  • FIG. 12 is a block diagram showing a detailed configuration example of the video conversion device 20D of the video display system 1D of FIG.
  • the video conversion device 20D differs from the video conversion device 20B of FIG. 8 in that the video conversion processing unit 250D further inputs video format information via the information input unit 230D. Based on the input video format information, the video conversion processing unit 250D cuts out partial video content to be displayed on the first and second display devices from the integrated video content 100 included in the input integrated video signal, and the first The first and second video signals Sc1 and Sc2 are output.
  • the video display system 1D of FIG. 10 has the resolutions of the partial video contents C1 and C2 in the integrated video content 100 based on the resolution information indicating the resolutions of the display videos of the first and second display devices 31D and 32D.
  • the partial video contents C1 and C2 are scaled and converted to generate the integrated video content 100 so that the ratio is equal to the ratio of the resolutions of the display images of the first and second display devices 31D and 32D. Accordingly, when the first and second images are displayed by the first and second display devices, the resolutions of the two images are the same, and the sense of discomfort between the displayed images is reduced.
  • the integrated video content 100 may be generated so that the details of the display video match based on the ratio of the display pixel sizes of the first and second display devices.
  • the protruding portion is displayed on another display device or the protruding portion is included in the integrated video content 100.
  • the integrated video content 100 may be generated so as not to run.
  • the integrated video content generation means 50D acquires the first and second resolution information from the first and second display devices 31D and 32D, but the first and second resolution information is obtained in advance. The value stored in the integrated video content generation means 50D may be used.
  • FIG. 13 is a block diagram showing a configuration example of the video display system 1E according to the sixth embodiment. 13, the video display system 1E further includes an output device 33E as compared with the video display system 1 of FIG.
  • the output device 33E is, for example, a temperature control device capable of adjusting the temperature of each point in the rectangular region, or an output device such as a blower device capable of sending wind at an arbitrary wind speed from each of the rectangular points.
  • FIG. 14 is a schematic diagram showing a configuration example of the integrated video content 100 in the video display system 1E of FIG.
  • the integrated video content 100 includes partial video content C3 corresponding to the output device 33E in addition to the partial video content C1 and C2 corresponding to the first and second display devices 31E and 32E.
  • the partial video content C3 includes a video signal for controlling the output device 33E instead of showing a video to be displayed on any display device.
  • FIG. 15 is a block diagram showing a detailed configuration example of the video conversion device 20E of FIG. 15, the video conversion device 20E further includes a device control signal buffer 263 and a device control signal output unit 273, as compared with the video conversion device 20B of FIG.
  • the video conversion processing unit 250E cuts out partial video contents C1, C2, and C3 corresponding to the first display device 31E, the second display device 32E, and the output device 33E, respectively, from the integrated video content 100. Then, the first video signal Sc1 including the partial video content C1 is output to the first display device 31E via the first video output buffer 261B and the first video output unit 271, and the second video signal Sc2 including the partial video content C2 is output.
  • the device control signal Sc3 including the partial video content C3 is output to the device control signal buffer 263 and the device control signal output unit 273. It outputs to the output device 33E via.
  • the relationship between the partial video content C3 and the operation of the output device 33E will be described below.
  • FIG. 16A is a schematic diagram showing an example of a correspondence relationship between the brightness and temperature of a pixel in the partial video content C3 of FIG.
  • FIG. 16A is a diagram having a gradation of brightness such that the left end is white and the right end is black.
  • the white pixels show a temperature 5 degrees higher than a predetermined reference value, and the temperature shown decreases as the temperature approaches black.
  • Black pixels indicate a temperature 5 degrees lower than the predetermined reference value.
  • FIG. 16B is a schematic diagram showing an example of the correspondence relationship between the pixel brightness and the wind speed in the partial video content C3 of FIG.
  • the partial video content C3 of FIG. 16B has a gradation similar to that of FIG. 16A, where white indicates that it produces wind at 2 meters per second and black indicates that it does not generate wind.
  • FIG. 17A is a schematic diagram showing an example of the partial video content C3 of FIG.
  • FIG. 17A is a diagram having a gradation of brightness such that the center is black and the four corners are white.
  • the brightness of each pixel corresponds to the temperature in the correspondence relationship of FIG. 16A
  • the output device 33E which is the temperature adjusting device raises the temperature at the four corners by 5 degrees by the device control signal including the partial video content C3, and moves to the center from there.
  • the temperature is controlled so that the temperature becomes lower as it gets closer and the temperature becomes lower by 5 degrees at the center.
  • FIG. 17B is a schematic diagram showing another example of the partial video content C3 of FIG.
  • FIG. 17B is a diagram having a brightness gradation in which the upper right end is black and the lower left end is white.
  • the brightness of each pixel corresponds to the wind speed in the correspondence relationship of FIG. 16B
  • the output device 33E which is a blower, has a wind speed of 2 meters per second sent from the lower left end by the device control signal including the partial video content C3. , It is controlled to adjust the strength of the blast so that the wind becomes weaker as it moves away from it, and there is no wind at the upper right end.
  • the video display system 1E includes the output device 33E.
  • the video conversion device 20E cuts out partial video contents C1, C2, and C3 from the integrated video content 100, and outputs the video signal and the device control signal to the corresponding display device and output device, respectively.
  • the display device displays an image based on the transmitted image signal, and the output device is controlled by the transmitted device control signal. This allows the integrated video content 100 to simultaneously control various devices other than the display device.
  • the output device controlled by the device control signal may be a speaker that outputs sound, a lighting device that can adjust brightness and color, or a device that can output odor.
  • the partial video content Ci (i is an integer of 1 or more) of the integrated video content 100 indicates the partial video content to be displayed on the i-th display device of the integrated video content 100.
  • the partial video content C0 indicates an unused area to which no video content is assigned, and the frame Ci(j) indicates the j-th frame of the partial video content Ci.
  • the reference numeral of the integrated video content 100 is omitted for the sake of simplicity.
  • one or more of the plurality of display devices may be the output device described in the sixth embodiment.
  • the integrated video content 100 includes partial video contents C1 to C4. By using such integrated video content 100, it is possible to simultaneously control three or more display devices or output devices.
  • the integrated video content 100 includes partial video contents C1 and C2 and partial video contents C3 to C6 smaller than them.
  • the integrated video content 100 it is possible to simultaneously control a plurality of video display devices having different shapes and resolutions of displayed video.
  • the integrated video content 100 includes the partial video content C0.
  • the partial video content C0 allocated to the unused area is all black pixels. As a result, the size of the data of the integrated video content 100 can be suppressed.
  • the integrated video content 100 includes partial video contents C1 and C2 that are rotated 90 degrees from the actual display video. As described above, by using the entire area of the integrated video content 100, it is possible to suppress the transmission of unnecessary data including the unused area and increase the data that can be transmitted.
  • FIG. 18E shows the first frame of the integrated video content 100.
  • the integrated video content 100 of FIG. 18E shows the first and second frames (C1(1), C1(2)) of the partial video content C1 and the partial video content C2.
  • the first to second frames (C2(1), C2(2)) of the above are included. In this way, by including a plurality of frames of the display device in the integrated video content 100, it is possible to display a video having a higher frame rate than the integrated video content 100.
  • the ratio of the partial video contents C1 and C2 is set equal to the display resolution ratio, as described in the fifth embodiment.
  • the display resolutions of the display images match and the discomfort between the two display images is reduced.
  • the integrated video content 100 includes partial video contents C1 to C4.
  • the partial video content C1 occupies the entire width of the integrated video content 100 and is arranged so as to have the highest resolution. As a result, the resolution of the image displayed on the first display device is increased.
  • the partial video content in the integrated video content 100 can be freely arranged such that the high resolution partial video content is transmitted to the display device that requires the high resolution display video.
  • the integrated video content 100 includes a rectangular partial video content C1 and a partial video content C2 arranged in a concave shape at the outer edge thereof.
  • This is an integrated video content 100 of an example in which an image is simultaneously displayed on a first display device which is a panel display and a second display device behind the first display device, which is larger than the first display device.
  • the partial video content is not limited to the rectangular shape, and can have any shape depending on the combination of the display devices.
  • the horizontal axis indicates time
  • the leftmost frame indicates the first frame of the integrated video content 100
  • the integrated video content 100 is shown one frame at a time.
  • the first and second partial video contents are distributed in the time direction so as to appear alternately.
  • the frame rate of the display image of each display device becomes half of that of the integrated video content 100, but the partial video content with high resolution can be included in the integrated video content 100.
  • FIG. 18J three partial video contents C2 to C4 are included in an even frame among the alternating frames in FIG. 18I.
  • the area division as in the example of FIG. 18B and the distribution in the time direction as in the example of FIG. 18I can be combined.
  • the integrated video content 100 is a file compressed by the MPEG method, and instead of two partial video contents alternately appearing for each frame as in FIG. 18I, GOP (Group of Pictures, MPEG compression method) is used. It appears alternately for each unit of the frame in. As a result, the compression rate and image quality of the integrated video content 100 are improved.
  • GOP Group of Pictures, MPEG compression method
  • the present disclosure can be applied to a video display system including a plurality of video display devices having different display delay times.
  • Video display system 10 10D Video output device 100 Integrated video content 20, 20A, 20B, 20D, 20E Video conversion device 210 Video input unit 220 Video input buffer 230, 230A, 230D Information Input unit 240, 240A Delay correction calculation unit 250, 250D, 250E Video conversion processing unit 261,261B 1st video output buffer 262,262B 2nd video output buffer 263 Equipment control signal buffer 271 1st video output unit 272 2nd video output Unit 273 Device control signal output section 31, 31A, 31B, 31C, 31D, 31E First display device 32, 32A, 32B, 32C, 32D, 32E Second display device 33E Output device 40 Imaging device 50B, 50C, 50D Integrated video Content generation means 60 Media server

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

映像表示システムは、互いに異なる表示遅延時間を有する複数の表示装置と、入力された統合映像信号を複数の映像信号に分割して、複数の表示装置にそれぞれ出力する映像変換装置と、を備える。複数の映像信号のうちの少なくとも1つの映像信号は、表示遅延時間に基づいて、複数の表示装置にそれぞれ表示される複数の映像の表示タイミングの差が実質的に0となるように、遅延した状態で出力される。

Description

映像表示システム、映像変換装置及び映像表示方法
 本開示は、映像表示における遅延時間が異なる複数の映像表示装置を含む映像表示システム、その映像表示システムが備える映像変換装置及び映像表示方法に関する。
 特許文献1は、室内において、魅力的かつ没入感のあるマルチメディアのショー又はプレゼンテーションを提供するように構成された、インタラクティブな室内ショー及びゲームシステムを開示する。特許文献1のシステムは、ディスプレイデバイス、ビデオプロジェクタ、(スピーカ等の)オーディオシステム、及び他のショーコンポーネント(光源、ファン、機械デバイス等)を、選択的に操作するためのコントローラを含む。
米国特許第10004984号明細書
 特許文献1のシステムは、ディスプレイ及びプロジェクタを含む。しかしながら、これらの映像表示における遅延時間は互いに異なる。従って、このようなシステムはディスプレイ及びプロジェクタにより表示される2つの表示映像の間で表示タイミングに差が生じて違和感を与え、ショー又はゲームへの没入感を損なってしまうことがある。
 また、特許文献1のシステムは、ディスプレイ及びプロジェクタの位置に基づいて各映像表示装置に出力する映像信号を変換する。従って、複数の表示装置に対する映像をリアルタイムで処理するために高性能なコンピュータ等を用いるため、コストが高くなる。
 本開示は、異なる表示遅延時間を有する複数の表示装置を含む映像表示システムにおいて、各表示装置による表示映像の間の時間差を実質的に0にする、低コストの映像表示システム、映像変換装置及び映像表示方法を提供する。
 映像表示システムは、互いに異なる表示遅延時間を有する複数の表示装置と、入力された統合映像信号を複数の映像信号に分割して、複数の表示装置にそれぞれ出力する映像変換装置と、を備える。複数の映像信号のうちの少なくとも1つの映像信号は、表示遅延時間に基づいて、複数の表示装置にそれぞれ表示される複数の映像の表示タイミングの差が実質的に0となるように、遅延した状態で出力される。
 映像変換装置は、統合映像信号を入力し、統合映像信号を、互いに異なる表示遅延時間を有する複数の表示装置にそれぞれ対応する複数の映像信号に分割する映像変換処理部と、表示遅延時間に関する情報を入力し、表示遅延時間に基づいて、複数の表示装置における表示タイミングの差が実質的に0となるように、複数の映像信号の出力タイミングを調整する遅延補正演算部と、を備える。
 映像表示方法は、互いに異なる表示遅延時間を有する複数の表示装置に複数の映像をそれぞれ表示させる映像表示方法であって、表示遅延時間に関する情報を入力する情報入力ステップと、表示遅延時間に基づいて、複数の映像における表示タイミングの差が実質的に0となるように、複数の映像にそれぞれ対応する複数の映像信号を出力する映像出力ステップと、を備える。
 従って、本開示における映像表示システム、映像変換装置及び映像表示方法によれば、異なる表示遅延時間を有する複数の映像表示装置による表示映像の間の時間差を実質的に0にすることができる。
実施の形態1に係る映像表示システム1の接続関係の例を示すブロック図 図1の映像表示システム1の構成例を示すブロック図 図1の映像表示システム1における統合映像コンテンツ100の構成例を示す模式図 図1の映像表示システム1の映像変換装置20の詳細構成例を示すブロック図 実施の形態2に係る映像表示システム1Aの構成例を示すブロック図 図5の映像表示システム1Aの映像変換装置20Aの詳細構成例を示すブロック図 実施の形態3に係る映像表示システム1Bの構成例を示すブロック図 図7の映像表示システム1Bの映像変換装置20Bの詳細構成例を示すブロック図 実施の形態4に係る映像表示システム1Cの構成例を示すブロック図 実施の形態5に係る映像表示システム1Dの構成例を示すブロック図 図10の映像表示システム1Dにおける統合映像コンテンツ100の構成例を示す模式図 図10の映像表示システム1Dの映像変換装置20Dの詳細構成例を示すブロック図 実施の形態6に係る映像表示システム1Eの構成例を示すブロック図 図13の映像表示システム1Eにおける統合映像コンテンツ100の構成例を示す模式図 図13の映像表示システム1Eにおける映像変換装置20Eの詳細構成例を示すブロック図 図14の統合映像コンテンツ100における画素の輝度と温度の間の関係を示す模式図 図14の統合映像コンテンツ100における画素の輝度と風速の間の関係を示す模式図 図14の統合映像コンテンツ100のうち、機器制御のための部分映像コンテンツC3の例を示す模式図 図14の統合映像コンテンツ100のうち、機器制御のための部分映像コンテンツC3の別の例を示す模式図 変形例1に係る統合映像コンテンツ100の構成例を示す模式図 変形例2に係る統合映像コンテンツ100の構成例を示す模式図 変形例3に係る統合映像コンテンツ100の構成例を示す模式図 変形例4に係る統合映像コンテンツ100の構成例を示す模式図 変形例5に係る統合映像コンテンツ100の構成例を示す模式図 変形例6に係る統合映像コンテンツ100の構成例を示す模式図 変形例7に係る統合映像コンテンツ100の構成例を示す模式図 変形例8に係る統合映像コンテンツ100の構成例を示す模式図 変形例9に係る統合映像コンテンツ100の構成例を示す模式図 変形例10に係る統合映像コンテンツ100の構成例を示す模式図 変形例11に係る統合映像コンテンツ100の構成例を示す模式図
 以下、適宜図面を参照しながら、実施の形態を詳細に説明する。ただし、例えば既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明など、必要以上に詳細な説明は省略する場合がある。これは、以下の説明が必要以上に冗長になるのを避け、当業者の理解を容易にするためである。
 なお、発明者は、当業者による本開示の十分な理解を助けるために添付図面および以下の説明を提供するのであって、これらによって請求の範囲に記載の主題を限定することを意図するものではない。
 (実施の形態1)
 以下、図1~図4を参照して、実施の形態1を説明する。
 図1は、図1の映像表示システム1の接続関係の例を示すブロック図である。図1において、映像表示システム1は、映像出力装置10と、映像変換装置20と、プロジェクタである第1表示装置31と、ディスプレイである第2表示装置32とを備える。映像出力装置10は映像変換装置20に、映像信号を送信できるように接続される。映像変換装置20と、第1表示装置31と、第2表示装置32とは、互いに種々の信号を送受信できるように接続される。また、映像出力装置10は、映像変換装置20に送信する映像信号のための映像データを、ネットワークを経由してメディアサーバ60から入手することができる。
 図2は、図1の映像表示システム1の構成例を示すブロック図である。図2において、映像出力装置10は、統合映像コンテンツ100を含む統合映像信号を映像変換装置20に出力する。映像変換装置20は、入力された統合映像信号に含まれる統合映像コンテンツ100を第1及び第2映像信号に変換して、第1表示装置に第1映像信号を出力し、第2表示装置に第2映像信号を出力する。第1及び第2表示装置は、それぞれ入力された第1及び第2映像信号に基づいて映像を表示する。
 また、第1表示装置31は、第2表示装置32と互いに遅延検出信号を送受信することで、第2表示装置32と比較して映像表示のタイミングがどれだけ遅れているかを示す第1遅延量を検出し、第1遅延量を示す信号を映像変換装置20に出力する。第2表示装置32も同様に、第2遅延量を示す信号を映像変換装置20に出力する。映像変換装置20は、入力された第1及び第2遅延量に基づいて、第1及び第2映像信号の出力タイミングを調整する。ここで、第1及び第2遅延量を示す信号は表示遅延時間に関する情報の一例である。
 図3は、図1の映像表示システム1における統合映像コンテンツ100の構成例を示す模式図である。図3において、統合映像コンテンツ100は、第1表示装置に表示させる部分映像コンテンツC1を割り当てられた領域と、第2表示装置に表示させる部分映像コンテンツC2を割り当てられた領域と、どの表示装置にも表示されない部分映像コンテンツC0を割り当てられた未使用領域とを含む。部分映像コンテンツC0の画素はすべて黒色であってよい。
 図4は、図1の映像表示システム1の映像変換装置20の詳細構成例を示すブロック図である。図4において、映像変換装置20は、映像入力部210と、映像入力バッファ220と、情報入力部230と、遅延補正演算部240と、映像変換処理部250と、第1及び第2映像出力バッファ261,262と、第1及び第2映像出力部271,272とを備える。
 図4において、映像入力バッファ220は、映像入力部210を介して統合映像信号を入力し、一時的に格納する。遅延補正演算部240は、情報入力部230を介して入力された第1及び第2遅延量に基づいて、第1補正値信号Sf1を第1映像出力バッファに出力し、第2補正値信号Sf2を第2映像出力バッファに出力する。第1補正値信号Sf1は、第1表示装置31に第1映像信号を出力するタイミングを遅延させる遅延量である第1補正値を示す信号である。同様に、第2補正値信号Sf2は、第2表示装置32に第2映像信号を出力するタイミングを遅延させる遅延量である第2補正値を示す信号である。
 映像変換処理部250は、入力された統合映像信号に含まれる統合映像コンテンツ100から、部分映像コンテンツC1に割り当てられた領域を切り出し、第1映像信号Sc1を第1映像出力バッファ261に出力する。映像変換処理部250は同様に、部分映像コンテンツC2を示す第2映像信号Sc2を第2映像出力バッファ262に出力する。第1映像出力バッファ261は、入力された第1映像信号Sc1を第1補正値信号Sf1に示される補正値だけ遅延させて、第1映像出力部271を介して第1表示装置31に出力する。同様に第2映像出力バッファ262は、入力された第2映像信号Sc2を第2補正値信号Sf2に示される補正値だけ遅延させて、第2映像出力部272を介して第2表示装置32に出力する。
 以上のように構成された映像表示システム1について、その詳細な動作を以下説明する。
 映像出力装置10は、統合映像コンテンツ100を含む統合映像信号を映像変換装置20に出力する。映像変換装置の映像変換処理部250は、映像入力部210及び映像入力バッファ220を介して当該統合映像信号を受信する。映像変換処理部250は、入力された統合映像信号に含まれる統合映像コンテンツ100から、第1及び第2表示装置のそれぞれに対応する領域を切り出し、第1及び第2映像信号Sc1,Sc2を第1及び第2映像出力バッファ261,262にそれぞれ出力する。
 遅延補正演算部240は、情報入力部230を介して、第1及び第2表示装置からの第1及び第2遅延量を入力する。遅延補正演算部240は、入力された第1及び第2遅延量に基づいて、第1及び第2映像出力バッファにおける第1及び第2映像信号Sc1,Sc2の出力を遅延させる第1及び第2補正値をそれぞれ示す第1及び第2補正値信号Sf1,Sf2を生成する。当該補正値の演算の詳細について、以下説明する。
 遅延補正演算部240において、入力された第1遅延量が第2遅延量よりも大きい場合、第1表示装置による映像の表示タイミングは、第2表示装置による映像の表示タイミングよりも、第1及び第2遅延量の間の差だけ遅れている。従って、第2補正値Sf2を第1補正値Sf1よりも、第1及び第2遅延量の間の差だけ大きい値とする。これにより、第2表示装置による映像の表示タイミングは、当該遅延量の間の差だけ遅延される。逆に、第2遅延量が第1遅延量よりも大きい場合、第1補正値Sf1を第2補正値Sf2よりも、第1及び第2遅延量の間の差だけ大きい値とする。これにより、表示映像の表示タイミングが他方の表示映像の表示タイミングよりも早い一方の表示装置は、他方の表示装置よりも遅いタイミングで映像信号を入力される。従って、第1及び第2表示装置から、表示タイミングの差が実質的に0となった各映像が出力される。
 以上のように、図1の映像表示システムは、第1及び第2表示装置31,32の間で遅延検出信号を送受信することで、各表示装置の遅延量を検出する。その後、映像変換装置20は、検出された遅延量に基づいて、他の表示装置よりも遅延量が小さい表示装置に出力する映像信号を、その遅延量の差分だけ遅延させて出力する。これにより、各表示装置による表示映像の間の時間差を実質的に0とすることができる。また、映像変換装置20で処理する対象は統合映像コンテンツ100のみであり、複数の表示装置に表示させる各映像を同時に処理しないため、従来技術のように高性能なコンピュータを用いなくともよく、低コストでの実現が可能である。
 なお、映像出力装置10は、統合映像コンテンツ100をネットワークから取得するかわりに、統合映像コンテンツ100を格納するメモリを備えて、メモリから統合映像コンテンツ100を読み出すようにしてもよい。
 また、第1及び第2遅延量は、第1及び第2表示装置の間で遅延検出信号を送受信することで検出した。しかしながら、表示装置の遅延量は、各表示装置に対して予め計測された所定の値であってもよい。所定の第1及び第2遅延量は、第1及び第2表示装置の記憶部等に記憶されて、映像変換装置20に出力されてもよいし、映像変換装置20の遅延補正演算部240の記憶部等に記憶されていてもよい。所定の第1及び第2遅延量は遅延補正演算部240のデータベースの形で記憶されてもよい。その場合、映像変換装置20は第1及び第2表示装置31,32から機種名等の識別情報を取得し、識別情報に基づいて第1及び第2遅延量をデータベースから検索してもよい。
 (実施の形態2)
 図5は、実施の形態2に係る映像表示システム1Aの構成例を示すブロック図である。図5において、映像表示システム1Aは、図1の映像表示システム1に比較して、以下の点で異なる。
(1)撮影装置40をさらに備える。
(2)映像変換装置20に代えて、映像変換装置20Aを備える。
 図5において、撮影装置40は、第1表示装置31Aによる第1映像及び第2表示装置32Aによる第2映像を撮影し、撮影映像を含む撮影映像信号を映像変換装置20Aに送信する。映像変換装置20Aは、撮影映像信号に含まれる撮影映像に基づいて、第1及び第2遅延量を計算する。映像変換装置20Aは、実施の形態1と同様に、第1及び第2遅延量に基づいて、第1及び第2映像信号の出力タイミングを調整する。ここで、撮影映像を含む撮影映像信号は表示遅延時間に関する情報の一例である。
 図6は、図5の映像表示システム1Aの映像変換装置20Aの詳細構成例を示すブロック図である。図6において、映像変換装置20Aは図4の映像変換装置20に比較して、情報入力部230A及び遅延補正演算部240Aを備える点で異なる。
 図6において、遅延補正演算部240Aは、情報入力部230Aを介して、撮影装置40からの撮影映像信号を入力する。遅延補正演算部240Aは、入力した撮影映像信号に含まれる撮影映像から、第1及び第2映像の表示タイミングにどれだけの差が生じているかを計算する。また、遅延補正演算部240Aは、実施の形態1と同様に、他の表示装置よりも表示タイミングが早い表示装置に出力する映像信号を、その表示タイミングの差だけ遅延させて出力する。これにより、第1及び第2表示装置による各表示映像の間で、表示タイミングの差が実質的に0となる。
 (実施の形態3)
 図7は、実施の形態3に係る映像表示システム1Bの構成例を示すブロック図である。図7において、映像表示システム1Bは図1の映像表示システム1と比較して、以下の点で異なる。
(1)統合映像コンテンツ生成手段50Bをさらに備える。
(2)第1及び第2表示装置31B,32Bは、第1及び第2遅延量を示す信号を、映像変換装置20に代えて統合映像コンテンツ生成手段50Bに出力する。
 図7において、第1及び第2表示装置は、第1及び第2遅延量を、統合映像コンテンツ生成手段50Bに出力する。統合映像コンテンツ生成手段50Bは、第1及び第2遅延量に基づいて、ネットワーク(図示なし)を介して取得した部分映像コンテンツC1,C2を含む統合映像コンテンツ100を生成する。ここで、統合映像コンテンツ生成手段50Bは、入力された第1遅延量より第2遅延量のほうが大きい場合に、部分映像コンテンツC1を、第1及び第2遅延量の間の差分に等しい時間だけ遅延させる。逆に、入力された第2遅延量より第1遅延量のほうが大きい場合には、部分映像コンテンツC2を同じ時間だけ遅延させる。また、統合映像コンテンツ生成手段50Bは、このように補正された2つの部分映像コンテンツC1,C2を統合して統合映像コンテンツ100を作成し、統合映像信号を映像出力装置10に出力する。
 映像出力装置10は、統合映像信号を映像変換装置20Bに送信する。映像変換装置20Bは、統合映像信号に含まれる統合映像コンテンツ100から、部分映像コンテンツC1,C2に対応する領域を切り出し、部分映像コンテンツC1,C2をそれぞれ含む第1及び第2映像信号を第1及び第2表示装置にそれぞれ送信する。第1及び第2表示装置31B,32Bは、送信された第1及び第2映像信号に基づいて、映像を表示する。また、第1及び第2表示装置31B,32Bは、それぞれ第1及び第2遅延量を示す信号を統合映像コンテンツ生成手段50Bに出力する。
 図8は、図7の映像変換装置20Bの詳細構成例を示すブロック図である。図8において、映像変換装置20Bは、映像変換装置20に比較して、情報入力部230及び遅延補正演算部240を備えず、第1及び第2映像出力バッファ261B,262Bにおける遅延補正を行わない。
 このように、図7の映像表示システム1Bは、統合映像コンテンツ生成手段50Bにおいて生成する統合映像コンテンツ100を、第1及び第2表示装置の間における第1及び第2遅延量の差に基づいて補正して、第1及び第2表示装置による表示映像における表示タイミングの差を実質的に0にする。なお、本実施の形態では、統合映像コンテンツ生成手段50Bは第1及び第2遅延量を第1及び第2表示装置31B,32Bから取得しているが、第1及び第2遅延量は、予め統合映像コンテンツ生成手段50Bに記憶された値を用いてもよい。
 (実施の形態4)
 図9は、実施の形態4に係る映像表示システム1Cの構成例を示すブロック図である。図9において映像表示システム1Cは、図7の映像表示システム1Bと比較して、第1表示装置31Cが第1フレームレート情報を、及び第2表示装置32Cが第2フレームレート情報を統合映像コンテンツ生成手段50Cに出力する点で異なる。
 図9において、第1表示装置31Cは、例えば毎秒30フレーム等の、第1表示装置31Cの表示フレームレートを第1フレームレート情報として、統合映像コンテンツ生成手段50Cに送信する。同様に第2表示装置32Cは、例えば毎秒60フレーム等の、第2表示装置32Cの表示フレームレートを第2フレームレート情報として、統合映像コンテンツ生成手段50Cに送信する。統合映像コンテンツ生成手段50Cは、第1及び第2表示装置31C,32Cからの第1及び第2フレームレート情報に基づいて、表示フレームレートが一致するような統合映像コンテンツ100を生成する。
 例えば、第1表示装置31Cの表示フレームレートが毎秒30フレームであり、第2表示装置32Cの表示フレームレートが毎秒60フレームである場合を考える。この場合、統合映像コンテンツ生成手段50Cは、部分映像コンテンツC2を、偶数番目のフレームには直前のフレームと同じ映像を表示させるような部分映像コンテンツC2に変換する。これにより第2表示装置32Cにより表示される映像は、2フレーム毎に新たな画像に更新されるような映像となるため、そのフレームレートは実質的に毎秒30フレームとなる。従って、第1及び第2表示装置の間で表示映像のフレームレートが一致し、各表示映像の間の違和感が軽減される。なお、本実施の形態では、統合映像コンテンツ生成手段50Cは第1及び第2フレームレート情報を第1及び第2表示装置31C,32Cから取得しているが、第1及び第2フレームレート情報は、予め統合映像コンテンツ生成手段50Cに記憶された値を用いてもよい。
 (実施の形態5)
 図10は、実施の形態5に係る映像表示システム1Dの構成例を示すブロック図である。図10において、映像表示システム1Dは、図7の映像表示システム1Bと比較して以下の点で異なる。
(1)第1及び第2表示装置31D,32Dは、それぞれ第1及び第2解像度情報を統合映像コンテンツ生成手段50Dに出力する。
(2)統合映像コンテンツ生成手段50Dはさらに、映像フォーマット情報を、映像出力装置10Dを介して映像変換装置20Dに送信する。
 図10において第1表示装置31Dは、第1表示装置31Dの表示映像が有する解像度を示す第1解像度情報を、統合映像コンテンツ生成手段50Dに送信する。同様に第2表示装置32Dは第2解像度情報を送信する。統合映像コンテンツ生成手段50Dは、第1及び第2解像度情報に基づいて、部分映像コンテンツC1,C2を、第1及び第2部分映像コンテンツC1,C2の解像度の比率が第1及び第2表示装置31D,32Dの表示解像度の比率と等しくなるように、統合映像コンテンツ100に変換する。統合映像コンテンツ生成手段50Dはさらに、統合映像コンテンツ100中のどの領域がどの部分映像コンテンツに対応しているかを示す映像フォーマット情報を、映像出力装置10Dを介して映像変換装置20Dに送信する。映像変換装置20Dは、映像フォーマット情報に基づいて統合映像コンテンツ100から部分映像コンテンツC1,C2を切り出し、部分映像コンテンツC1,C2をそれぞれ含む第1及び第2映像信号を第1及び第2表示装置31D,32Dにそれぞれ送信する。
 図11は、図10の映像表示システム1Dにおける統合映像コンテンツ100の構成例を示す模式図である。図11の統合映像コンテンツ100は、第1表示装置31Dの解像度が4Kであり、第2表示装置32Dの解像度が2Kである場合の例を示す。この場合、第1表示装置31Dは、解像度が4Kであることを示す第1解像度情報を統合映像コンテンツ生成手段50Dに送信する。同様に第2表示装置32Dは、解像度が2Kであることを示す第2解像度情報を統合映像コンテンツ生成手段50Dに送信する。統合映像コンテンツ生成手段50Dは、第1及び第2解像度情報に基づいて、統合映像コンテンツ100において部分映像コンテンツC1,C2の横幅の比率が2対1となるように変換して、統合映像コンテンツ100を生成する。
 図12は、図10の映像表示システム1Dの映像変換装置20Dの詳細構成例を示すブロック図である。図12において、映像変換装置20Dは図8の映像変換装置20Bと比較して、映像変換処理部250Dが情報入力部230Dを介して映像フォーマット情報をさらに入力する点で異なる。映像変換処理部250Dは、入力された映像フォーマット情報に基づいて、入力された統合映像信号に含まれる統合映像コンテンツ100から、第1及び第2表示装置に表示させる部分映像コンテンツをそれぞれ切り出し、第1及び第2映像信号Sc1,Sc2を出力する。
 このように、図10の映像表示システム1Dは、第1及び第2表示装置31D,32Dの表示映像の解像度を示す解像度情報に基づいて、統合映像コンテンツ100において部分映像コンテンツC1,C2の解像度の比率が、第1及び第2表示装置31D,32Dの表示映像の解像度の比率と等しくなるように、部分映像コンテンツC1,C2を拡縮変換して統合映像コンテンツ100を生成する。これにより、第1及び第2表示装置により第1及び第2映像が表示された時に、2つの映像の間で解像度が一致し、各表示映像の間の違和感が軽減される。なお、統合映像コンテンツ100は、第1及び第2表示装置の表示ピクセルサイズの比率に基づいて、表示映像の細かさが一致するように生成してもよい。また、映像の一部が表示装置の表示可能領域からはみ出して表示されないオーバースキャンの情報に基づいて、はみ出した部分が他の表示装置により表示されるか、又ははみ出す部分が統合映像コンテンツ100に含まれないように、統合映像コンテンツ100を生成してもよい。なお、本実施の形態では、統合映像コンテンツ生成手段50Dは第1及び第2解像度情報を第1及び第2表示装置31D,32Dから取得しているが、第1及び第2解像度情報は、予め統合映像コンテンツ生成手段50Dに記憶された値を用いてもよい。
 (実施の形態6)
 図13は、実施の形態6に係る映像表示システム1Eの構成例を示すブロック図である。図13において、映像表示システム1Eは、図2の映像表示システム1に比較して、出力機器33Eをさらに備える。出力機器33Eは例えば、長方形領域の各点の温度を調整可能な温度調節装置、又は長方形の各点から任意の風速の風を送ることが可能な送風装置等の出力機器である。
 図14は、図13の映像表示システム1Eにおける統合映像コンテンツ100の構成例を示す模式図である。統合映像コンテンツ100は、第1及び第2表示装置31E,32Eに対応する部分映像コンテンツC1,C2に加え、出力機器33Eに対応する部分映像コンテンツC3を含む。図14において、部分映像コンテンツC3は、何らかの表示装置に表示させる映像を示すかわりに、出力機器33Eを制御するための映像信号を含む。
 図15は、図13の映像変換装置20Eの詳細構成例を示すブロック図である。図15において、映像変換装置20Eは、図8の映像変換装置20Bと比較して、さらに機器制御信号バッファ263及び機器制御信号出力部273を備える。映像変換処理部250Eは、統合映像コンテンツ100から第1表示装置31E、第2表示装置32E及び出力機器33Eにそれぞれ対応する部分映像コンテンツC1,C2,C3を切り出す。そして、部分映像コンテンツC1を含む第1映像信号Sc1を第1映像出力バッファ261B及び第1映像出力部271を介して第1表示装置31Eに出力し、部分映像コンテンツC2を含む第2映像信号Sc2を第2映像出力バッファ262B及び第2映像出力部272を介して第2表示装置32Eに出力し、部分映像コンテンツC3を含む機器制御信号Sc3を機器制御信号バッファ263及び機器制御信号出力部273を介して出力機器33Eに出力する。部分映像コンテンツC3と出力機器33Eの動作との関係について以下説明する。
 図16Aは、図14の部分映像コンテンツC3における画素の輝度と温度の間の対応関係の例を示す模式図である。図16Aは、左端が白色、右端が黒色となるような輝度のグラデーションを有する図であり、白色の画素は所定の基準値よりも5度高い温度を示し、黒色に近づくにつれて示す温度は低くなり、黒色の画素は当該所定の基準値よりも5度低い温度を示す。
 図16Bは、図14の部分映像コンテンツC3における画素の輝度と風速の間の対応関係の例を示す模式図である。図16Bの部分映像コンテンツC3は、図16Aと同様のグラデーションを有し、白色は2メートル毎秒の風を発生させることを示し、黒色は風を発生させないことを示す。
 図17Aは、図14の部分映像コンテンツC3の例を示す模式図である。図17Aは、中央が黒色、四隅の端が白色となるような輝度のグラデーションを有する図である。各画素の輝度は図16Aの対応関係で温度と対応し、温度調節装置である出力機器33Eは部分映像コンテンツC3を含む機器制御信号により、四隅の端の温度が5度高く、そこから中央に近づくほど低温となって、中央では5度低くなるように温度調節を行うよう制御される。
 図17Bは、図14の部分映像コンテンツC3の別の例を示す模式図である。図17Bは、右上の端が黒色、左下の端が白色となるような輝度のグラデーションを有する図である。各画素の輝度は図16Bの対応関係で風速と対応し、送風装置である出力機器33Eは部分映像コンテンツC3を含む機器制御信号により、左下の端から送る風が2メートル毎秒の風速を有し、そこから離れるほど弱い風となって、右上の端では無風となるように送風の強さを調節するよう制御される。
 以上のように、映像表示システム1Eは、出力機器33Eを含む。映像変換装置20Eは統合映像コンテンツ100から部分映像コンテンツC1,C2,C3を切り出し、映像信号及び機器制御信号をそれぞれ対応する表示装置及び出力機器に出力する。表示装置は送信された映像信号に基づいて映像を表示し、出力機器は送信された機器制御信号により制御される。これにより、統合映像コンテンツ100によって表示装置以外の様々な機器を同時に制御することが可能となる。なお、機器制御信号により制御される出力機器は、音声を出力するスピーカ、明るさ及び色を調整可能な照明装置、又は匂いを出力可能な装置などであってもよい。
 (他の実施の形態)
 以上のように、本開示において開示する技術の例示として、実施の形態1~6を説明した。しかしながら、本開示における技術はこれに限定されず、適宜変更、置換、付加、省略などを行った実施の形態にも適用可能である。また、上記実施の形態で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。そこで、以下では他の実施の形態を例示する。
 図18A~図18Kは、それぞれ変形例1~11に係る統合映像コンテンツ100の例を示す模式図である。以下では、図18A~図18Kの統合映像コンテンツ100を用いた場合の効果を簡単に説明する。図18A~図18Kに共通して、統合映像コンテンツ100の部分映像コンテンツCi(iは1以上の整数)は、統合映像コンテンツ100のうち、第i表示装置に表示させる部分映像コンテンツを示す。また、部分映像コンテンツC0は、映像コンテンツが割り当てられていない未使用領域を示し、フレームCi(j)は、部分映像コンテンツCiのj番目のフレームを示す。ただし、図面では簡単のため統合映像コンテンツ100の符号を省略している。また、複数の表示装置のうち1つ以上は、実施の形態6で説明した出力機器であってもよい。
 図18Aにおいて、統合映像コンテンツ100は、部分映像コンテンツC1~C4を含む。このような統合映像コンテンツ100を用いれば、3つ以上の表示装置又は出力機器を同時に制御することができる。
 図18Bにおいて、統合映像コンテンツ100は、部分映像コンテンツC1,C2と、それらよりも小さい部分映像コンテンツC3~C6を含む。このような統合映像コンテンツ100を用いれば、表示される映像の形状や解像度が異なる複数の映像表示装置を同時に制御することができる。
 図18Cにおいて、統合映像コンテンツ100は、部分映像コンテンツC0を含む。未使用領域に割り当てられる部分映像コンテンツC0は、すべて黒色の画素とする。これにより、統合映像コンテンツ100のデータのサイズを抑えることができる。
 図18Dにおいて、統合映像コンテンツ100は、実際の表示映像から90度回転した部分映像コンテンツC1,C2を含む。このように、統合映像コンテンツ100の全体の領域を使用することで、未使用領域を含む不要なデータの送信を抑え、送信可能なデータを増やすことができる。
 図18Eは統合映像コンテンツ100の1フレーム目を示し、図18Eの統合映像コンテンツ100は、部分映像コンテンツC1の1~2フレーム目(C1(1)、C1(2))と、部分映像コンテンツC2の1~2フレーム目(C2(1)、C2(2))を含む。このように、表示装置の複数のフレームを統合映像コンテンツ100に含めることで、統合映像コンテンツ100よりもフレームレートの高い映像を表示させることができる。
 図18Fにおいて統合映像コンテンツ100は、実施の形態5で説明したように、部分映像コンテンツC1,C2の比率を表示解像度の比率と等しくしている。これにより表示映像間の表示解像度が一致し、2つの表示映像の間の違和感が軽減される。
 図18Gにおいて統合映像コンテンツ100は、部分映像コンテンツC1~C4を含む。部分映像コンテンツC1は統合映像コンテンツ100の横幅をすべて占め、最も解像度が高くなるように配置されている。これにより、第1表示装置に表示させる映像の解像度が高くなる。このように、統合映像コンテンツ100における部分映像コンテンツの配置は、高い解像度の表示映像が求められる表示装置には高い解像度の部分映像コンテンツを送信する、といった自由な配置が可能である。
 図18Hにおいて統合映像コンテンツ100は、長方形の部分映像コンテンツC1と、その外縁で凹の字状に配置された部分映像コンテンツC2を含む。これは、パネルディスプレイである第1表示装置と、第1表示装置の背後の、第1表示装置よりも大型の第2表示装置に同時に映像を表示させる例の統合映像コンテンツ100である。このように、部分映像コンテンツは長方形に限られず、表示装置の組み合わせに応じて自由な形状をとることができる。
 図18Iにおいて、横軸は時間を示し、左端のフレームが統合映像コンテンツ100の1フレーム目を示し、順番に統合映像コンテンツ100を1フレームずつ示す。このように、統合映像コンテンツ100において、第1及び第2部分映像コンテンツを交互に現れるよう時間方向に分配する。これにより、各表示装置の表示映像のフレームレートは統合映像コンテンツ100の半分となってしまうが、高い解像度の部分映像コンテンツを、統合映像コンテンツ100に含めることができる。
 図18Jでは、図18Iの交互に現れるフレームのうち偶数フレームに、3つの部分映像コンテンツC2~C4を含めている。このように、図18Bの例のような領域分割と、図18Iの例のような時間方向の分配とを組み合わせることもできる。
 図18Kでは、統合映像コンテンツ100がMPEG方式で圧縮されたファイルであり、2つの部分映像コンテンツが、図18Iのように1フレーム毎に交互に現れるかわりに、GOP(Group of Pictures、MPEG圧縮方式におけるフレームのまとまりの単位)毎に交互に現れる。これにより、統合映像コンテンツ100の圧縮率及び画質が向上する。
 以上のように、本開示における技術の例示として、実施の形態を説明した。またそのために、添付図面及び詳細な説明を提供した。
 従って、添付図面及び詳細な説明に記載された構成要素の中には、課題解決のために必須となる構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることを理由に、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
 また、上述の実施の形態は、本開示における技術を例示するためのものであるから、請求の範囲又はその均等の範囲において種々の変更、置換、付加、省略等を行うことができる。
 本開示は、表示遅延時間が異なる複数の映像表示装置を含む映像表示システムに適用可能である。
1,1A,1B,1C,1D,1E 映像表示システム
10,10D 映像出力装置
100 統合映像コンテンツ
20,20A,20B,20D,20E 映像変換装置
210 映像入力部
220 映像入力バッファ
230,230A,230D 情報入力部
240,240A 遅延補正演算部
250,250D,250E 映像変換処理部
261,261B 第1映像出力バッファ
262,262B 第2映像出力バッファ
263 機器制御信号バッファ
271 第1映像出力部
272 第2映像出力部
273 機器制御信号出力部
31,31A,31B,31C,31D,31E 第1表示装置
32,32A,32B,32C,32D,32E 第2表示装置
33E 出力機器
40 撮影装置
50B,50C,50D 統合映像コンテンツ生成手段
60 メディアサーバ

Claims (20)

  1.  互いに異なる表示遅延時間を有する複数の表示装置と、
     入力された統合映像信号を複数の映像信号に分割し、前記複数の表示装置にそれぞれ出力する映像変換装置と、を備え、
     前記複数の映像信号のうちの少なくとも1つの映像信号は、前記表示遅延時間に基づいて、前記複数の表示装置にそれぞれ表示される複数の映像の表示タイミングの差が実質的に0となるように、遅延した状態で出力される、
    映像表示システム。
  2.  前記表示遅延時間は、前記複数の表示装置にそれぞれ対応する所定の値である、
    請求項1に記載の映像表示システム。
  3.  前記複数の表示装置にそれぞれ表示された前記複数の映像を撮影する撮影装置をさらに備え、
     前記映像変換装置は、前記撮影された複数の映像に基づいて前記表示遅延時間を計算する、
    請求項1に記載の映像表示システム。
  4.  前記複数の表示装置は、第1及び第2表示装置を含み、
     複数の映像信号は、前記第1表示装置に第1映像を表示させる第1映像信号、及び前記第2表示装置に第2映像を表示させる第2映像信号を含み、
     前記第1表示装置の表示遅延時間は、前記第2表示装置の表示遅延時間よりも長く、
     前記第1映像信号に対し前記第2映像信号が遅延することにより、前記第1映像と前記第2映像との表示タイミングの差が実質的に0となる、
    請求項1~3のいずれか1つに記載の映像表示システム。
  5.  前記映像変換装置は、前記第2映像信号を出力するタイミングを遅延させる、
    請求項4に記載の映像表示システム。
  6.  前記第1映像信号と前記第2映像信号を統合して前記統合映像信号を生成し、前記映像変換装置に出力する統合映像コンテンツ生成手段をさらに備え、
     前記統合映像コンテンツ生成手段は、前記第1映像信号に対し前記第2映像信号を遅延させて統合する、
    請求項4に記載の映像表示システム。
  7.  前記複数の表示装置は、第3映像信号によって制御可能な出力機器を含み、
     前記統合映像信号は、前記出力機器を制御するための前記第3映像信号を含む、
    請求項1~6のいずれか1つに記載の映像表示システム。
  8.  前記統合映像信号は、前記複数の表示装置の各フレームレート情報に基づいて生成される、
    請求項1~7のいずれか1つに記載の映像表示システム。
  9.  前記統合映像信号は、前記複数の表示装置の各解像度情報に基づいて生成される、
    請求項1~8のいずれか1つに記載の映像表示システム。
  10.  前記統合映像信号は、前記複数の表示装置の少なくとも1つの表示装置からなるグループに対応する、前記複数の映像信号のうち少なくとも1つの映像信号が、少なくとも1つのフレーム毎に順次選択的に切り替わって現れるように生成される、
    請求項1~9のいずれか1つに記載の映像表示システム。
  11.  統合映像信号を入力し、前記統合映像信号を、互いに異なる表示遅延時間を有する複数の表示装置にそれぞれ対応する複数の映像信号に分割する映像変換処理部と、
     前記表示遅延時間に関する情報を入力し、前記表示遅延時間に基づいて、前記複数の表示装置における表示タイミングの差が実質的に0となるように、前記複数の映像信号の出力タイミングを調整する遅延補正演算部と、を備える、
    映像変換装置。
  12.  前記表示遅延時間に関する情報は、前記複数の表示装置にそれぞれ対応する所定の値である、
    請求項11に記載の映像変換装置。
  13.  前記表示遅延時間に関する情報は、前記複数の表示装置にそれぞれ表示され、撮影装置により撮影された複数の映像であり、
     前記遅延補正演算部は、前記撮影された複数の映像に基づいて前記表示遅延時間を計算する、
    請求項11に記載の映像変換装置。
  14.  前記複数の表示装置は、第1及び第2表示装置を含み、
     前記複数の映像信号は、前記第1表示装置に第1映像を表示させる第1映像信号、及び前記第2表示装置に第2映像を表示させる第2映像信号を含み、
     前記第1表示装置の表示遅延時間は、前記第2表示装置の表示遅延時間よりも長く、
     前記遅延補正演算部は、前記第1映像信号に対し前記第2映像信号が遅延するように前記出力タイミングを調整する、
    請求項11~13のいずれか1つに記載の映像変換装置。
  15.  前記統合映像信号は、前記複数の表示装置の各フレームレート情報に基づいて生成される、
    請求項11~14のいずれか1つに記載の映像変換装置。
  16.  前記統合映像信号は、前記複数の表示装置の各解像度情報に基づいて生成される、
    請求項11~14のいずれか1つに記載の映像変換装置。
  17.  前記統合映像信号は、前記複数の表示装置の少なくとも1つの表示装置からなるグループに対応する前記複数の映像信号のうち少なくとも1つの映像信号が、フレーム毎に順次選択的に切り替わって現れるように生成される、
    請求項11~14のいずれか1つに記載の映像変換装置。
  18.  互いに異なる表示遅延時間を有する複数の表示装置に複数の映像をそれぞれ表示させる映像表示方法であって、
     前記表示遅延時間に関する情報を入力する情報入力ステップと、
     前記表示遅延時間に基づいて、前記複数の映像における表示タイミングの差が実質的に0となるように、前記複数の映像にそれぞれ対応する複数の映像信号を出力する映像出力ステップと、を備える、
    映像表示方法。
  19.  前記映像出力ステップにおいて、前記複数の映像信号のうち少なくとも1つの映像信号を遅延して出力する、
    請求項18に記載の映像表示方法。
  20.  前記複数の映像信号を統合する映像統合ステップを、さらに備え、
     前記映像統合ステップにおいて、前記複数の映像信号のうち少なくとも1つの映像信号を遅延させて統合する、
    請求項18に記載の映像表示方法。
PCT/JP2020/008046 2019-03-04 2020-02-27 映像表示システム、映像変換装置及び映像表示方法 WO2020179618A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202080017946.2A CN113508578A (zh) 2019-03-04 2020-02-27 影像显示系统、影像变换装置以及影像显示方法
JP2021504023A JPWO2020179618A1 (ja) 2019-03-04 2020-02-27
US17/466,563 US20210400230A1 (en) 2019-03-04 2021-09-03 Video display system, video conversion device, and video display method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-038341 2019-03-04
JP2019038341 2019-03-04

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/466,563 Continuation US20210400230A1 (en) 2019-03-04 2021-09-03 Video display system, video conversion device, and video display method

Publications (1)

Publication Number Publication Date
WO2020179618A1 true WO2020179618A1 (ja) 2020-09-10

Family

ID=72338635

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/008046 WO2020179618A1 (ja) 2019-03-04 2020-02-27 映像表示システム、映像変換装置及び映像表示方法

Country Status (4)

Country Link
US (1) US20210400230A1 (ja)
JP (1) JPWO2020179618A1 (ja)
CN (1) CN113508578A (ja)
WO (1) WO2020179618A1 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03208095A (ja) * 1990-01-10 1991-09-11 Mitsubishi Electric Corp 表示装置
JP2001350759A (ja) * 2000-06-09 2001-12-21 Nippon Telegr & Teleph Corp <Ntt> 外部データベース参照型画像/映像関連装置
JP2006003609A (ja) * 2004-06-17 2006-01-05 Funai Electric Co Ltd マルチディスプレイ制御装置およびマルチディスプレイ制御方法
JP2007180783A (ja) * 2005-12-27 2007-07-12 Matsushita Electric Ind Co Ltd 画像処理システム
WO2007100044A1 (ja) * 2006-03-01 2007-09-07 L.A.B Inc. 映像連動型制御対象外部機器制御装置及びそれに使用する映像記録媒体
JP2008090080A (ja) * 2006-10-03 2008-04-17 Canon Inc 表示制御装置、表示システム、及び表示制御方法
JP2016116107A (ja) * 2014-12-16 2016-06-23 株式会社日立国際電気 遅延時間測定システム及びカメラ
JP2017212613A (ja) * 2016-05-26 2017-11-30 キヤノン株式会社 電子機器、表示装置及び表示制御方法
JP2018041331A (ja) * 2016-09-08 2018-03-15 株式会社ソニー・インタラクティブエンタテインメント 画像処理システム、画像処理方法およびコンピュータプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10232647A (ja) * 1997-02-20 1998-09-02 Matsushita Electric Ind Co Ltd プラズマディスプレイ表示装置
JP4241194B2 (ja) * 2003-06-02 2009-03-18 三洋電機株式会社 投射型映像表示装置
JP4251979B2 (ja) * 2003-12-24 2009-04-08 日本電信電話株式会社 映像遅延時間測定方法及びそのシステムと装置
JP5191741B2 (ja) * 2006-09-13 2013-05-08 パナソニック株式会社 投写型画像表示装置
US8872799B2 (en) * 2011-06-20 2014-10-28 The Regents Of The University Of California Scalable distributed/cooperative/collaborative paradigm for multi-user interaction with projection-based display walls
TWI523516B (zh) * 2013-04-11 2016-02-21 威盛電子股份有限公司 電視牆
EP3063616A1 (de) * 2013-10-30 2016-09-07 Barco Control Rooms GmbH Synchronisieren von videos in einer displaywand
WO2016013074A1 (ja) * 2014-07-23 2016-01-28 日立マクセル株式会社 映像表示システム、映像表示装置、および映像供給装置
KR20160076227A (ko) * 2014-12-22 2016-06-30 삼성전자주식회사 디스플레이 장치, 이를 포함하는 디스플레이 시스템 및 디스플레이 방법
US10129500B2 (en) * 2015-11-06 2018-11-13 Panasonic Intellectual Property Management Co., Ltd. Multi-display apparatus
CN106454010A (zh) * 2016-10-21 2017-02-22 青岛海信电器股份有限公司 多屏拼接显示系统同步显示校准方法、显示器及系统
CN106982383A (zh) * 2017-04-26 2017-07-25 威盛电子股份有限公司 分布式视频显示系统、控制装置及控制方法
US10996912B2 (en) * 2018-08-03 2021-05-04 Innolux Corporation Tiled display system and tiled display device
TW202019149A (zh) * 2018-11-01 2020-05-16 宏正自動科技股份有限公司 影像控制裝置以及使用該裝置之電視牆系統與輸出影像至電視牆的控制方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03208095A (ja) * 1990-01-10 1991-09-11 Mitsubishi Electric Corp 表示装置
JP2001350759A (ja) * 2000-06-09 2001-12-21 Nippon Telegr & Teleph Corp <Ntt> 外部データベース参照型画像/映像関連装置
JP2006003609A (ja) * 2004-06-17 2006-01-05 Funai Electric Co Ltd マルチディスプレイ制御装置およびマルチディスプレイ制御方法
JP2007180783A (ja) * 2005-12-27 2007-07-12 Matsushita Electric Ind Co Ltd 画像処理システム
WO2007100044A1 (ja) * 2006-03-01 2007-09-07 L.A.B Inc. 映像連動型制御対象外部機器制御装置及びそれに使用する映像記録媒体
JP2008090080A (ja) * 2006-10-03 2008-04-17 Canon Inc 表示制御装置、表示システム、及び表示制御方法
JP2016116107A (ja) * 2014-12-16 2016-06-23 株式会社日立国際電気 遅延時間測定システム及びカメラ
JP2017212613A (ja) * 2016-05-26 2017-11-30 キヤノン株式会社 電子機器、表示装置及び表示制御方法
JP2018041331A (ja) * 2016-09-08 2018-03-15 株式会社ソニー・インタラクティブエンタテインメント 画像処理システム、画像処理方法およびコンピュータプログラム

Also Published As

Publication number Publication date
CN113508578A (zh) 2021-10-15
JPWO2020179618A1 (ja) 2020-09-10
US20210400230A1 (en) 2021-12-23

Similar Documents

Publication Publication Date Title
US8264421B2 (en) Multi-screen video playback system
US7777692B2 (en) Multi-screen video reproducing system
US8063894B2 (en) Image display system, image display device, and image data output device
JP4375313B2 (ja) 画像音声出力システム、画像音声データ出力装置、音声処理プログラム、及び記録媒体
US20110050714A1 (en) Image processing device and imaging apparatus
US7423693B2 (en) Video delay stabilization system and method
JP2004159191A (ja) 画像データに応じたフレームレートの変換
CN111479154B (zh) 音画同步的实现设备、方法及计算机可读存储介质
TWI764898B (zh) 資訊處理裝置、資訊處理方法及程式
WO2020179618A1 (ja) 映像表示システム、映像変換装置及び映像表示方法
CN113691862B (zh) 视频处理方法、用于视频播放的电子设备和视频播放系统
US9842572B2 (en) Methods and apparatus for displaying video including variable frame rates
KR100651543B1 (ko) 동영상 화면의 왜곡을 감소시키는 휴대 단말기
CN110996092A (zh) 一种dlp拼接屏的3d效果显示系统与方法
CN112887653B (zh) 一种信息处理方法和信息处理装置
US20220318962A1 (en) Video systems with real-time dynamic range enhancement
WO2022254798A1 (ja) 信号処理システムおよび信号処理方法
JP4489760B2 (ja) 3dビデオ信号を生成する装置
CN114785999B (zh) 一种实时虚拟拍摄同步控制方法及系统
US20070245390A1 (en) Multisync image output system
JP3928485B2 (ja) 映像信号表示装置
WO2022137325A1 (ja) 映像信号を合成する装置、方法及びプログラム
KR20080002275A (ko) Fpga를 이용한 영상합성 제어장치
JP2019009731A (ja) 画像処理装置及び方法、撮像装置、及び、撮像システム
KR20040064061A (ko) 영상 왜곡 보정 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20766994

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021504023

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20766994

Country of ref document: EP

Kind code of ref document: A1