WO2021045054A1 - 表示システム、及び表示方法 - Google Patents

表示システム、及び表示方法 Download PDF

Info

Publication number
WO2021045054A1
WO2021045054A1 PCT/JP2020/033108 JP2020033108W WO2021045054A1 WO 2021045054 A1 WO2021045054 A1 WO 2021045054A1 JP 2020033108 W JP2020033108 W JP 2020033108W WO 2021045054 A1 WO2021045054 A1 WO 2021045054A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
pixel shift
frame
projection type
display device
Prior art date
Application number
PCT/JP2020/033108
Other languages
English (en)
French (fr)
Inventor
亮佑 中越
Original Assignee
株式会社Jvcケンウッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Jvcケンウッド filed Critical 株式会社Jvcケンウッド
Priority to CN202080056599.4A priority Critical patent/CN114208157B/zh
Publication of WO2021045054A1 publication Critical patent/WO2021045054A1/ja
Priority to US17/686,551 priority patent/US20220191444A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3188Scale or resolution adjustment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/48Increasing resolution by shifting the sensor relative to the scene
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/44Colour synchronisation
    • H04N9/47Colour synchronisation for sequential signals

Definitions

  • the present invention relates to a display system using an image pickup device and a projection type image display device, and a display method.
  • the orthogonal conversion process is a kind of filter process, block noise and deterioration of MTF (Modulation Transfer Function) characteristics occur. Therefore, the image compressed by the orthogonal conversion process becomes a deteriorated image as compared with the uncompressed image.
  • MTF Modulation Transfer Function
  • a pixel shifter is arranged in front of the video camera, and the pixel shifter sends the image of the subject to the video camera as it is during the first frame period, and vertically sends the image of the subject during the second frame period.
  • the CRT (Cathode Ray Tube) monitor displays the images obtained in the first and second frame periods in a state where the pitch is shifted by 1/2 pixel.
  • the video is transmitted by the interlace method, the odd field of frame 2 is scanned between the odd field of frame 1 and the even field of frame 1, and the odd field of frame 1 and the odd field of frame 1 are scanned.
  • the even field of frame 2 is scanned. Therefore, the resolution is doubled but the frame frequency is halved. Further, it is difficult to apply it to a display device other than a display device whose scanning position can be freely changed, such as a CRT monitor.
  • the present embodiment has been made in view of such a situation, and an object thereof is to realize a highly versatile high-resolution function by using the pixel shift function of the image pickup device and the projection type image display device. ..
  • the display system of a certain aspect of the present embodiment physically moves a solid-state image sensor or an optical member to shift pixels in frame units, and images the image by the image pickup device and the image pickup device. It is provided with a projection type image display device that acquires the acquired image, optically executes the pixel shift corresponding to the pixel shift executed at the time of imaging in the image pickup device, and projects the acquired image.
  • Another aspect of this embodiment is a display method.
  • This method corresponds to a step of physically moving a solid-state image sensor or an optical member to shift pixels in frame units to image an image, and a pixel shift executed during the step of acquiring an image taken and taking the image. It has a step of optically performing a pixel shift and projecting the acquired image onto a projection surface.
  • FIG. 7 (a) and 7 (b) are diagrams for explaining an example of a method of transmitting an image captured by the image pickup apparatus shown in FIG. It is a figure for demonstrating another example of a pixel shift function in an image pickup apparatus. It is a figure which shows the whole structure of the display system which concerns on Embodiment 2 of this invention.
  • 10 (a) and 10 (b) are views showing an example of a RAW image of a Bayer array and an image after demosaic processing.
  • FIG. 1 is a diagram showing an overall configuration of a display system 1 according to a first embodiment of the present invention.
  • the display system 1 includes an image pickup device 10 and a projection type image display device 20.
  • the image pickup device 10 and the projection type image display device 20 are connected via the network 2.
  • Network 2 is a general term for communication paths such as the Internet and leased lines, regardless of the communication medium or protocol.
  • the communication medium for example, a wired LAN, a wireless LAN, a mobile phone network (cellular network), an optical fiber network, an ADSL network, a CATV network, or the like can be used.
  • the communication protocol for example, TCP (Transmission Control Protocol) / IP (Internet Protocol), UDP (User Datagram Protocol) / IP, SRT (Secure Reliable Transport) and the like can be used.
  • the display system 1 can display a high-resolution image while compressing data by capturing and displaying the image by dividing the resolution in the time direction.
  • the image pickup apparatus 10 uses the pixel shift function to shift pixels in frame units for imaging, and transmits the captured image data to the projection type image display device 20.
  • the projection type image display device 20 uses the pixel shift function to execute a pixel shift synchronized with the pixel shift at the time of imaging to project the image acquired from the image pickup device 10 on the projection surface. As a result, it is possible to display a high-resolution video while compressing the transmission data.
  • a specific description will be given.
  • FIG. 2 is a diagram showing a configuration example of the image pickup apparatus 10 of FIG.
  • the image pickup apparatus 10 includes a lens 11, a lens drive unit 12, an image pickup unit 13, a piezo drive unit 17, and a processing unit 18.
  • the image pickup unit 13 includes a solid-state image pickup element 14, a piezo stage 15, and a signal processing circuit 16.
  • CMOS Complementary Metal Oxide Semiconductor
  • CCD Charge Coupled Devices
  • the solid-state image sensor 14 converts the light transmitted through the lens 11 and incident on it into an electric signal and outputs it to the signal processing circuit 16.
  • the signal processing circuit 16 performs signal processing such as A / D conversion and noise removal on the image signal input from the solid-state image sensor 14, and outputs the signal to the processing unit 18.
  • the solid-state image sensor 14 is fixed to the piezo stage 15.
  • the piezo stage 15 is a fine movement stage capable of moving the solid-state image sensor 14 in the X direction and the Y direction by an arbitrary shift amount when the optical axis direction is the Z direction.
  • the piezo drive unit 17 moves the solid-state image sensor 14 in the X-direction and the Y-direction by designated amounts in response to the piezo drive signal supplied from the processing unit 18, and displaces the solid-state image sensor 14. This enables pixel shift at a 1 / n pixel pitch.
  • the processing unit 18 generates a piezo drive signal based on the pixel shift setting information described later.
  • the lens 11 is a focusing lens that can move in the optical axis direction.
  • the lens driving unit 12 moves the lens 11 in the optical axis direction in response to the lens driving signal supplied from the processing unit 18, and adjusts the position of the lens 11.
  • the processing unit 18 calculates the position of the lens 11 in the optical axis direction based on, for example, a focus adjustment signal from an input means (not shown), and generates a lens drive signal.
  • the pixel shift function is realized by physically moving the solid-state image sensor 14 using the piezo stage 15, but an optical member such as a lens (other than the focus lens) is used by a piezo actuator or the like. It may be realized by physically moving in the X direction and the Y direction.
  • the processing unit 18 can be realized by the collaboration of hardware resources and software resources, or only by hardware resources.
  • hardware resources CPU, ROM, RAM, ISP (Image Signal Processor), GPU (Graphics Processing Unit), DSP (Digital Signal Processor), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), etc.
  • LSI can be used.
  • Programs such as firmware can be used as software resources.
  • FIG. 3 is a diagram showing a configuration example of the projection type image display device 20 of FIG.
  • the projection type image display device 20 shown in FIG. 2 is a liquid crystal projector.
  • the projection type image display device 20 includes a light source 21, dichroic mirrors 22a, 22b, reflection mirrors 23a, 23b, 23c, a red liquid crystal panel 24R, a green liquid crystal panel 24G, a blue liquid crystal panel 24B, a synthetic prism 25, and a pixel shift device. 26, a projection lens 27, a drive unit 28, and a processing unit 29 are included.
  • a halogen lamp, a xenon lamp, a metal halide lamp, an ultrahigh pressure mercury lamp, a laser diode, or the like can be used as the light source 21.
  • the first dichroic mirror 22a separates the white light from the light source 21 into red light and cyan light.
  • the second dichroic mirror 22b separates cyan light into green light and red light.
  • the red light separated by the first dichroic mirror 22a is reflected by the reflection mirror 23a and incident on the red liquid crystal panel 24R.
  • the green light separated by the second dichroic mirror 22b is incident on the green liquid crystal panel 24G.
  • the blue light separated by the second dichroic mirror 22b is reflected by the reflection mirrors 23b and 23c and incident on the blue liquid crystal panel 24B.
  • the red liquid crystal panel 24R, the green liquid crystal panel 24G, and the blue liquid crystal panel 24B are transmissive liquid crystal panels, and include incident red light, green light, blue light, and a video signal set from the processing unit 29. A red image, a green image, and a blue image are generated respectively.
  • the synthetic prism 25 synthesizes a red image, a green image, and a blue image to generate a color image.
  • the pixel shift device 26 is, for example, a glass plate provided with an actuator that can be tilted in any direction.
  • the actuator for example, a piezoelectric element that expands when a predetermined voltage is applied can be used.
  • the drive unit 28 drives the actuator in response to the pixel shift drive signal supplied from the processing unit 29 to control the tilt angle of the glass plate.
  • the pixel shift device 26 shifts the optical path of the incident light from the composite prism 25.
  • the processing unit 29 generates a pixel shift drive signal based on the pixel shift setting information described later.
  • the projection lens 27 magnifies the light incident from the pixel shift device 26 and outputs it to a projection surface such as a screen.
  • the configuration of the pixel shift device 26 is an example, and instead of tilting the glass plate by the actuator, a polarizing device may be used to optically shift the optical path. Further, instead of optically shifting the optical path, the optical device may be physically moved to shift the projected image.
  • the processing unit 29 can be realized by the collaboration of hardware resources and software resources, or only by hardware resources.
  • hardware resources CPU, ROM, RAM, ISP, GPU, DSP, ASIC, FPGA, and other LSIs can be used.
  • Programs such as firmware can be used as software resources.
  • FIG. 4 is a diagram for explaining an example in which the resolution of the captured frame image is apparently doubled by using the pixel shift function.
  • the resolution is the total resolution which is the product of the horizontal resolution and the vertical resolution.
  • the pixel shift function shown in FIG. 4 the horizontal resolution is apparently ⁇ 2 times, and the vertical resolution is apparently ⁇ 2 times. Therefore, the total resolution is apparently doubled.
  • the solid-state image sensor 14 is imaged for each frame while shifting by 1/2 pixel (pixel shift) in the oblique direction. Specifically, the image pickup apparatus 10 alternately takes images at the position of the 0th frame F0 and the position of the 1st frame F1 shifted by 1/2 pixel in the oblique direction.
  • the pixel shift device 26 projects an image for each frame while shifting the image by 1/2 pixel in the diagonal direction (pixel shift).
  • the physical projection position of the projection type image display device 20 is alternately switched between the position of the 0th frame F0 and the position of the 1st frame F1 shifted by 1/2 pixel in the oblique direction.
  • the pixel shift setting information of the example shown in FIG. 4 is that the pixel shift direction is 45 degrees diagonally downward to the left, the amount of pixel shift is 1/2 pixel pitch, there are two pixel shift positions, and the initial position is an even frame position.
  • the position of the odd frame is the position diagonally lower to the right from the initial position, and the frame rate is 120 Hz.
  • the setting information of these pixel shifts is set in advance in the ROM in the image pickup device 10 and the projection type image display device 20.
  • the user inputs pixel shift setting information to the image pickup device 10 and the projection type image display device 20, respectively.
  • the pixel shift setting information is transmitted from the image pickup device 10 to the projection type image display device 20 via the network 2.
  • the pixel shift setting information may be embedded as metadata in the image data.
  • the pixel shift setting information may be added to the user area of the header of the IP packet.
  • the processing unit 18 of the imaging device 10 transmits pixel shift setting information to the processing unit 29 after establishing a communication channel with the processing unit 29 of the projection type image display device 20.
  • the processing unit 29 of the projection type image display device 20 instructs the tilt angle and the change timing of the pixel shift position for each pixel shift position of the pixel shift device 26 based on the setting information received from the processing unit 18 of the image pickup device 10. Generates a pixel shift drive signal.
  • the imaging device 10 When embedding the setting information of the pixel shift as metadata in the image data, the imaging device 10 can transmit the setting information to the projection type image display device 20 for each image (frame). As a result, the image pickup apparatus 10 and the projection type image display apparatus 20 can reliably synchronize the pixel shift setting information on a frame-by-frame basis.
  • the processing unit 18 of the image pickup apparatus 10 has an image captured at the position of the 0th frame F0 and an image captured at the position of the first frame F1 in a cycle of 120 Hz from the image pickup unit 13. Are obtained alternately.
  • the processing unit 18 includes an image F01 captured at the position of the 0th frame F0, an image F11 captured at the position of the first frame F1, an image F02 captured at the position of the 0th frame F0, and a first frame F1.
  • the images F12 captured at the position are acquired in this order.
  • the processing unit 18 of the image pickup apparatus 10 sequentially transmits frame images by, for example, a frame packing method, which is one of the 3D formats. As shown in FIG. 5B, the processing unit 18 has two frames, an image captured at the position of the 0th frame F0 and an image captured at the position of the 1st frame F1 during one vertical synchronization period. Pack the image. For example, the processing unit 18 packs the image F01 captured at the position of the 0th frame F0 and the image F11 captured at the position of the first frame F1, and the image F02 and the image F02 captured at the position of the 0th frame F0. The image F12 captured at the position of one frame F1 is packed. Specifically, the processing unit 18 changes the period of the vertical synchronization signal Vsync from 120 Hz to 60 Hz. The processing unit 18 transmits the video data including the frame image stored in the frame packing method to the projection type video display device 20 via the network 2.
  • the processing unit 29 of the projection type image display device 20 receives the image data transmitted from the image pickup device 10.
  • the processing unit 29 extracts a frame image from the received video data based on the pixel shift setting information designated by the image pickup apparatus 10. Specifically, since the processing unit 29 has two pixel shift positions in the setting information, the processing unit 29 changes the period of the vertical synchronization signal Vsync from 60 Hz to 120 Hz.
  • the processing unit 29 generates a pixel shift drive signal instructing the tilt angle for each pixel shift position of the pixel shift device 26 and the change timing of the pixel shift position.
  • the image captured at the position of the 0th frame F0 and the image captured at the position of the 1st frame F1 may be transmitted by the side-by-side method or the top-and-bottom method.
  • the image captured at the position of the 0th frame F0 and the image captured at the position of the 1st frame F1 are arranged in the left-right direction to form one frame image.
  • the image captured at the position of the 0th frame F0 and the image captured at the position of the 1st frame F1 are arranged vertically to form one frame image.
  • the image pickup device 10 and the projection type image display device 20 need a frame buffer for temporarily storing the frame image captured at the position of the 0th frame F0.
  • the frame images are sequentially transmitted and projected as they are by the projection type image display device 20, so that it is not necessary to provide the frame buffer in the image pickup device 10 and the projection type image display device 20.
  • the image captured by the image pickup device 10 is live-transmitted to the projection type image display device 20.
  • the image pickup apparatus 10 basically transmits uncompressed video data. If the processing unit 18 of the imaging device 10 and the processing unit 29 of the projection type image display device 20 have sufficient processing capacity, the processing unit 18 of the imaging device 10 compresses and encodes the video data in a predetermined format and transmits the video data. The processing unit 29 of the projection type image display device 20 may decompress and decode the received image data for use.
  • FIG. 6 is a diagram for explaining an example in which the resolution of the captured frame image is apparently quadrupled by using the pixel shift function.
  • the resolution is the total resolution which is the product of the horizontal resolution and the vertical resolution. Due to the pixel shift function shown in FIG. 6, the horizontal resolution is apparently doubled, and the vertical resolution is apparently doubled. Therefore, the total resolution is apparently four times.
  • an image captured at a resolution of 4K (3840 x 2160) can be apparently displayed at a resolution of 8K (7680 x 4320).
  • the solid-state image sensor 14 is imaged for each frame while shifting 1/2 pixel (pixel shift) in the vertical direction, the horizontal direction, and the diagonal direction.
  • the image pickup apparatus 10 has a position of the initial 0th frame F0, a position of the first frame F1 shifted upward by 1/2 pixel from the initial position, and a shift of 1/2 pixel upward diagonally to the right from the initial position. Images are taken in order at four positions: the position of the second frame F2 and the position of the third frame F3, which is shifted to the right by 1/2 pixel from the initial position.
  • the pixel shift device 26 is used to position the initial 0th frame F0, the position of the 1st frame F1 shifted upward by 1/2 pixel from the initial position, and to the right of the initial position.
  • the projection position of the frame image is sequentially set at four positions: the position of the second frame F2 shifted diagonally upward by 1/2 pixel and the position of the third frame F3 shifted 1/2 pixel to the right from the initial position. Switch.
  • frame images are projected in order from the projection lens 27 at four projection positions.
  • the switching order of the four positions for imaging or projection is an example.
  • the image pickup device 10 and the projection type image display device 20 may switch the four positions in a counterclockwise or zigzag order.
  • the pixel shift setting information in the example shown in FIG. 6 shows that the pixel shift direction is upward, 45 degrees diagonally upward to the right, and right.
  • the amount of pixel shift is 1/2 pixel pitch.
  • the initial position is the position of the (4n-4) th frame when n is a natural number
  • the position of the (4n-3) th frame is the position upward from the initial position
  • the (4n-2) th frame The position of is 45 degrees diagonally upward to the left from the initial position
  • the position of the (4n-1) th frame is the position to the right from the initial position.
  • the frame rate is 240 Hz.
  • FIG. 7 (a) and 7 (b) are diagrams for explaining an example of a method of transmitting an image captured by the imaging device 10 shown in FIG.
  • the processing unit 18 of the image pickup apparatus 10 has an image captured at the position of the 0th frame F0 and an image captured at the position of the first frame F1 in a cycle of 240 Hz from the image pickup unit 13.
  • the image captured at the position of the second frame F2 and the image captured at the position of the third frame F3 are acquired in order.
  • the processing unit 18 includes an image F01 captured at the position of the 0th frame F0, an image F11 captured at the position of the first frame F1, an image F21 captured at the position of the second frame F2, and a third frame F3.
  • the images F32 captured at the position of F3 are acquired in this order.
  • the processing unit 18 of the image pickup apparatus 10 sequentially transmits frame images by, for example, a frame packing method.
  • the processing unit 18 includes an image captured at the position of the 0th frame F0, an image captured at the position of the first frame F1, and a second frame F2 during one vertical synchronization period.
  • Four frame images of the image captured at the position and the image captured at the position of the third frame F3 are packed.
  • the processing unit 18 includes an image F01 captured at the position of the 0th frame F0, an image F11 captured at the position of the first frame F1, an image F21 captured at the position of the second frame F2, and a third.
  • the image F31 captured at the position of the frame F3 is packed, and the image F02 captured at the position of the 0th frame F0, the image F12 captured at the position of the first frame F1, and the position of the second frame F2.
  • the captured image F22 and the image F32 captured at the position of the third frame F3 are packed.
  • the processing unit 18 changes the period of the vertical synchronization signal Vsync from 240 Hz to 60 Hz.
  • the processing unit 18 transmits the video data including the frame image stored in the frame packing method to the projection type video display device 20 via the network 2.
  • the processing unit 29 of the projection type image display device 20 receives the image data transmitted from the image pickup device 10.
  • the processing unit 29 extracts a frame image from the received video data based on the pixel shift setting information designated by the image pickup apparatus 10. Specifically, since the processing unit 29 has four pixel shift positions in the setting information, the processing unit 29 changes the period of the vertical synchronization signal Vsync from 60 Hz to 240 Hz.
  • the processing unit 29 generates a pixel shift drive signal instructing the tilt angle for each pixel shift position of the pixel shift device 26 and the change timing of the pixel shift position.
  • FIG. 8 is a diagram for explaining another example of the pixel shift function in the image pickup apparatus 10.
  • the solid-state image sensor 14 includes a color filter having a Bayer array.
  • the image pickup device 10 takes an image of the solid-state image sensor 14 frame by frame while shifting one pixel in the vertical direction, the horizontal direction, and the oblique direction.
  • the image pickup apparatus 10 includes an initial position of the 0th frame F0, a position of the first frame F1 shifted upward by 1 pixel from the initial position, and a second frame shifted diagonally upward to the right by 1 pixel from the initial position. Images are taken in order at four positions, the position of F2 and the position of the third frame F3, which is shifted to the right by one pixel from the initial position.
  • the pixel shift setting information in the example shown in FIG. 8 shows that the pixel shift direction is upward, 45 degrees diagonally upward to the right, and right.
  • the amount of pixel shift is one pixel pitch.
  • the initial position is the position of the (4n-4) th frame when n is a natural number
  • the position of the (4n-3) th frame is the position upward from the initial position
  • the (4n-2) th frame The position of is 45 degrees diagonally upward to the right from the initial position
  • the position of the (4n-1) th frame is the position to the right from the initial position.
  • the frame rate is 240 Hz.
  • the image pickup device 10 when the image pickup device 10 sets the amount of pixel shift at a pixel pitch, the image pickup device 10 has pixels for the purpose of collecting all the R information, the G information, and the B information for each pixel of the solid-state image sensor 14. Use the shift function.
  • the processing unit 18 of the image pickup apparatus 10 generates one image using four frames from the 0th frame F0 to the 3rd frame F3. According to this method, since the processing unit 18 does not perform interpolation processing by demosaic processing described later, the image quality is improved, but the number of pixels does not apparently increase. However, in the present embodiment, since the number of pixels is apparently increased, the processing unit 18 generates each frame as one image even when the amount of pixel shift is set at one pixel pitch, and the projection type image. It is transmitted to the display device 20.
  • the processing unit 18 of the image pickup apparatus 10 sequentially transmits frame images by, for example, a frame packing method.
  • the processing unit 18 has an image captured at the position of the 0th frame F0, an image captured at the position of the first frame F1, an image captured at the position of the second frame F2, and a third frame during one vertical synchronization period. Four frame images of the image captured at the position of F3 are packed.
  • the processing unit 18 changes the period of the vertical synchronization signal Vsync from 240 Hz to 60 Hz.
  • the processing unit 18 transmits the video data including the frame image stored in the frame packing method to the projection type video display device 20 via the network 2.
  • the shift amount of the setting information transmitted from the processing unit 18 of the imaging device 10 to the processing unit 29 of the projection type image display device 20 is one pixel pitch.
  • the processing unit 29 of the projection type image display device 20 changes the setting information so that the shift amount is 1/2 pixel each in the vertical direction, the horizontal direction, and the diagonal direction, and tilts each pixel shift position of the pixel shift device 26.
  • a pixel shift drive signal may be generated to indicate the timing of changing the angle and the pixel shift position. That is, the processing unit 29 of the projection type image display device 20 may correct the shift amount of the setting information.
  • a high-resolution image is compressed while transmitting data without using orthogonal conversion, which is lossy compression. Can be displayed.
  • orthogonal conversion process is not used, the load of signal processing is reduced and the delay is low. Moreover, since the high frequency component is not deleted, deterioration of image quality is suppressed.
  • the orthogonal conversion process is used, further data compression becomes possible, and it is also possible to transmit a video having a resolution of 8K or more by using a general network 2.
  • the pixel shift between the image pickup device 10 and the projection type image display device 20 can be easily and accurately synchronized.
  • the image captured by the image pickup device 10 can be live-projected by the projection type image display device 20 with low delay and high resolution without dropping frames.
  • the piezo stage 15 and the pixel shift device 26 can perform pixel shift at a pitch finer than 1/2 pixel. For example, it is possible to shift pixels to nine positions with a 1/3 pixel pitch. In this case, by setting the frame rate to 9 times, the resolution of the captured image can be apparently increased to 9 times for display. As described above, in the first embodiment, a high resolution function having high flexibility and versatility can be realized.
  • FIG. 9 is a diagram showing the overall configuration of the display system 1 according to the second embodiment of the present invention.
  • the display system 1 includes an image pickup device 10, an information processing device 30, and a projection type image display device 20.
  • the image pickup device 10 and the information processing device 30 are connected via the network 2a, and the information processing device 30 and the projection type image display device 20 are connected via the network 2b.
  • the information processing device 30 is composed of, for example, a cloud server.
  • the information processing device 30 includes a processing unit and a storage unit.
  • the processing unit of the information processing apparatus 30 can be realized by the collaboration of hardware resources and software resources, or only by hardware resources.
  • hardware resources CPU, ROM, RAM, GPU, DSP, ASIC, FPGA, and other LSIs can be used.
  • Programs such as operating systems and applications can be used as software resources.
  • the storage unit of the information processing device 30 has a non-volatile large-capacity recording medium such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive).
  • the processing unit 18 of the imaging device 10 transmits the video data to the information processing device 30.
  • the information processing device 30 receives the video data transmitted from the image pickup device 10 and transmits the received video data to the projection type video display device 20.
  • the information processing device 30 functions as a relay server for video data.
  • the information processing device 30 can transfer the video data received from the image pickup device 10 to the projection type video display device 20 and store the video data in the storage unit.
  • the imaging device 10 can simultaneously transmit the video data to the projection type video display device 20 and store the video data in the information processing device 30.
  • the solid-state image sensor 14 of the image pickup device 10 When the solid-state image sensor 14 of the image pickup device 10 is a single-plate color solid-state image sensor, the image output from the solid-state image sensor 14 becomes a RAW image, and it is necessary for the processing unit 18 of the image pickup device 10 to perform demosaic processing.
  • the processing unit 18 of the image pickup device 10 needs to perform demosaic processing.
  • the processing unit 18 of the imaging device 10 processes the image data acquired from the imaging unit 13 by frame-packing the RAW image as it is without performing demosaic processing, and processes the video data including the RAW image. It is transmitted to the device 30.
  • the processing unit of the information processing device 30 demomosagraphs the RAW image included in the video data received from the image pickup device 10 to generate development data.
  • the processing unit of the information processing device 30 transmits video data including development data to the projection type video display device 20.
  • 10 (a) and 10 (b) are diagrams showing an example of a RAW image of a Bayer array and an image after demosaic processing.
  • the data of each pixel of the RAW image captured by each pixel of RGB is defined by 8 bits.
  • the data (8 bits) of each pixel is converted into the color (RGB) data defined by 24 bits.
  • the number of bits of data in each pixel of the RAW image is not limited to 8 bits, and may be, for example, 12 bits or 14 bits.
  • the processing unit of the information processing device 30 may perform white balance adjustment after demosaic processing of the RAW image included in the video data received from the image pickup device 10.
  • the processing unit 18 of the image pickup apparatus 10 may transmit the set values such as the color temperature required for the white balance adjustment to the processing unit of the information processing apparatus 30.
  • the processing unit of the information processing device 30 may execute the white balance adjustment based on the set value such as the color temperature received from the image pickup device 10.
  • the video data transmitted from the image pickup device 10 to the information processing device 30 is color (RGB) data defined by 24 bits for each pixel. Therefore, the data can be 8 bits for each pixel. That is, the amount of video data transmitted from the image pickup apparatus 10 to the information processing apparatus 30 can be compressed to 1/3.
  • RGB color
  • the Internet a wider band is allocated to the downlink than the uplink, and the communication speed of the downlink is faster than that of the uplink.
  • the amount of video transmission data using the uplink can be compressed by transmitting the video data including the RAW image from the image pickup apparatus 10 to the information processing apparatus 30. .. Therefore, the transmission delay from the image pickup apparatus 10 to the information processing apparatus 30 can be suppressed. Further, since the processing unit 18 of the image pickup apparatus 10 does not perform demosaic processing, the processing load of the processing unit 18 can be reduced, and the substrate mounting of the processing unit 18 can be simplified. As a result, the size of the image pickup device 10 can be suppressed, and the image pickup device 10 can be easily mounted on a smartphone or a drone.
  • a 3LCD (Liquid Crystal Display) type projector as the projection type image display device 20 has been described.
  • a DLP Digital Light Processing
  • LCoS Liquid Crystal on Silicon
  • a projector may be used.
  • setting information including the direction and amount of pixel shift executed by the projection type image display device 20 may be transmitted from the projection type image display device 20 to the image pickup device 10.
  • the processing unit 18 of the imaging device 10 transmits a piezo drive signal including the movement amount and movement timing of the piezo stage 15 in the X and Y directions based on the setting information received from the processing unit 29 of the projection type image display device 20. It is generated and supplied to the piezo drive unit 17.
  • the processing unit 18 of the image pickup apparatus 10 sets the movement amount and movement timing in the diagonal direction when the piezo stage 15 uses a piezoelectric element that can move in the diagonal direction.
  • the processing unit of the information processing apparatus 30 may transfer the video data including the RAW image received from the image pickup device 10 to the projection type video display device 20 as it is.
  • the processing unit 29 of the projection type image display device 20 demomosaizes the RAW image included in the image data received from the information processing device 30 to generate development data.
  • the image data including the RAW image data is transmitted from the image pickup device 10 to the projection type image display device 20, and the processing unit 29 of the projection type image display device 20 demosaiculates the RAW image to develop the data. May be generated.
  • the present invention can be used in a display system using an image pickup device and a projection type image display device.
  • 1 display system 2 network, 10 image pickup device, 11 lens, 12 lens drive unit, 13 image pickup unit, 14 solid-state image sensor, 15 piezo stage, 16 signal processing circuit, 17 piezo drive unit, 18 processing unit, 20 projection type image Display device, 21 light source, 22 dichroic mirror, 23 reflective mirror, 24R red liquid crystal panel, 24G green liquid crystal panel, 24B blue liquid crystal panel, 25 synthetic prism, 26 pixel shift device, 27 projection lens, 28 drive unit, 29 Processing unit, 30 information processing equipment.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

表示システム1において、撮像装置10は、固体撮像素子14または光学部材を物理的に動かしてフレーム単位でピクセルシフトさせて、撮像する。投写型映像表示装置20は、撮像装置10により撮像された映像を取得し、撮像装置10において撮像時に実行されたピクセルシフトに対応したピクセルシフトを光学的に実行して、取得した映像を投写する。

Description

表示システム、及び表示方法
 本発明は、撮像装置と投写型映像表示装置を用いた表示システム、及び表示方法に関する。
 近年、4K/8Kの高解像度な映像データが増えてきている。高解像度の映像データはデータ量が多いため、高解像度の映像データを伝送する際は、離散コサイン変換(DCT)や離散ウェーブレット変換(DWT)などの直交変換処理を行って、データ量を圧縮させてから伝送することが多い。
 直交変換処理は、ある種のフィルタ処理となるため、ブロックノイズやMTF(Modulation Transfer Function)特性の劣化が発生する。従って、直交変換処理により圧縮された映像は、非圧縮の映像と比較して劣化した映像になる。
 そこで、時間方向に解像度を分割して撮像し、表示時に人間の視覚で映像を時間積分して、解像度が分割された映像を結合することで、撮像された映像を高解像度化することが考えられる。
 例えば特許文献1では、ビデオカメラの前に画素ずらし器を配置し、画素ずらし器は、第1フレーム期間にビデオカメラに被写体の画像をそのまま送り、第2フレーム期間に被写体の画像を垂直方向に1/2画素ピッチずらして送る。CRT(Cathode Ray Tube)モニタは、第1及び第2フレーム期間に得た画像を1/2画素ピッチずれた状態で表示する。
特開平07-274070号公報
 上記の手法では、インターレース方式で映像を伝送し、フレーム1の奇数フィールドとフレーム1の偶数フィールドの間に、フレーム2の奇数フィールドを走査し、フレーム1の偶数フィールドとフレーム1の奇数フィールドの間に、フレーム2の偶数フィールドを走査している。従って、解像度は2倍になるがフレーム周波数は半分になる。また、CRTモニタのように、走査位置を自由に変えられる表示装置以外への適用が難しい。
 本実施形態はこうした状況に鑑みてなされたものであり、その目的は、撮像装置と投写型映像表示装置のピクセルシフト機能を使用して、汎用性の高い高解像度化機能を実現することにある。
 上記課題を解決するために、本実施形態のある態様の表示システムは、固体撮像素子または光学部材を物理的に動かしてフレーム単位でピクセルシフトさせて、撮像する撮像装置と、前記撮像装置により撮像された映像を取得し、前記撮像装置において撮像時に実行されたピクセルシフトに対応したピクセルシフトを光学的に実行して、取得した映像を投写する投写型映像表示装置と、を備える。
 本実施形態の別の態様は、表示方法である。この方法は、固体撮像素子または光学部材を物理的に動かしてフレーム単位でピクセルシフトさせて、撮像するステップと、撮像された映像を取得し、前記撮像するステップ時に実行されたピクセルシフトに対応したピクセルシフトを光学的に実行して、取得した映像を投影面に投写するステップと、を有する。
 なお、以上の構成要素の任意の組合せ、本実施形態の表現を方法、装置、システムなどの間で変換したものもまた、本実施形態の態様として有効である。
 本実施形態によれば、撮像装置と投写型映像表示装置のピクセルシフト機能を使用して、汎用性の高い高解像度化機能を実現することができる。
本発明の実施の形態1に係る表示システムの全体構成を示す図である。 図1の撮像装置の構成例を示す図である。 図1の投写型映像表示装置の構成例を示す図である。 ピクセルシフト機能を利用して、撮像されたフレーム画像の解像度を見かけ上、2倍にして表示する例を説明するための図である。 図5(a)、(b)は、図4に示した撮像装置で撮像した映像の伝送方法の一例を説明するための図である。 ピクセルシフト機能を利用して、撮像されたフレーム画像の解像度を見かけ上、4倍にして表示する例を説明するための図である。 図7(a)、(b)は、図6に示した撮像装置で撮像した映像の伝送方法の一例を説明するための図である。 撮像装置におけるピクセルシフト機能の別の例を説明するための図である。 本発明の実施の形態2に係る表示システムの全体構成を示す図である。 図10(a)、(b)は、ベイヤ配列のRAW画像と、デモザイク処理後の画像の一例を示す図である。
(実施の形態1)
 図1は、本発明の実施の形態1に係る表示システム1の全体構成を示す図である。実施の形態1では表示システム1は、撮像装置10及び投写型映像表示装置20を備える。撮像装置10と投写型映像表示装置20はネットワーク2を介して接続される。
 ネットワーク2は、インターネットや専用線などの通信路の総称であり、その通信媒体やプロトコルは問わない。通信媒体として例えば、有線LAN、無線LAN、携帯電話網(セルラー網)、光ファイバ網、ADSL網、CATV網などを使用することができる。通信プロトコルとして例えば、TCP(Transmission Control Protocol)/IP(Internet Protocol)、UDP(User Datagram Protocol)/IP、SRT(Secure Reliable Transport)などを使用することができる。
 本実施の形態に係る表示システム1は、解像度を時間方向に分割して撮像および表示することで、データを圧縮しつつ高解像度な映像を表示可能とするものである。撮像装置10はピクセルシフト機能を使用して、フレーム単位でピクセルシフトさせて撮像し、撮像した映像データを投写型映像表示装置20に伝送する。投写型映像表示装置20はピクセルシフト機能を使用して、撮像装置10から取得した映像を、撮像時のピクセルシフトに同期したピクセルシフトを実行して、投影面に投写する。これにより、伝送データを圧縮しつつ高解像度な映像を表示することができる。以下、具体的に説明する。
 図2は、図1の撮像装置10の構成例を示す図である。撮像装置10は、レンズ11、レンズ駆動部12、撮像部13、ピエゾ駆動部17及び処理部18を備える。撮像部13は、固体撮像素子14、ピエゾステージ15及び信号処理回路16を含む。
 固体撮像素子14には例えば、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ又はCCD(Charge Coupled Devices)イメージセンサを使用することができる。固体撮像素子14は、レンズ11を透過して入射された光を電気信号に変換して信号処理回路16に出力する。信号処理回路16は、固体撮像素子14から入力される画像信号に対して、A/D変換、ノイズ除去などの信号処理を施し、処理部18に出力する。
 固体撮像素子14はピエゾステージ15に固定されている。ピエゾステージ15は、光軸方向をZ方向とした場合に、X方向とY方向に固体撮像素子14を任意のシフト量で移動させることができる微動ステージである。ピエゾ駆動部17は、処理部18から供給されるピエゾ駆動信号に応じて、固体撮像素子14をX方向およびY方向にそれぞれ指定された量、移動させ、固体撮像素子14を変位させる。これにより、1/n画素ピッチでのピクセルシフトが可能となる。処理部18は、後述するピクセルシフトの設定情報に基づいてピエゾ駆動信号を生成する。
 レンズ11は、光軸方向に移動可能なフォーカス用のレンズである。レンズ駆動部12は、処理部18から供給されるレンズ駆動信号に応じて、レンズ11を光軸方向に移動させ、レンズ11の位置を調整する。処理部18は、例えば図示しない入力手段からのフォーカス調整信号等に基づいてレンズ11の光軸方向の位置を算出し、レンズ駆動信号を生成する。
 なお図2に示す例ではピクセルシフト機能を、ピエゾステージ15を使用して固体撮像素子14を物理的に動かして実現しているが、レンズ(フォーカスレンズ以外)などの光学部材をピエゾアクチュエータ等でX方向とY方向に物理的に動かして実現してもよい。
 処理部18はハードウェア資源とソフトウェア資源の協働、又はハードウェア資源のみにより実現できる。ハードウェア資源として、CPU、ROM、RAM、ISP(Image Signal Processor)、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、その他のLSIを利用できる。ソフトウェア資源としてファームウェア等のプログラムを利用できる。
 図3は、図1の投写型映像表示装置20の構成例を示す図である。図2に示す投写型映像表示装置20は液晶プロジェクタである。投写型映像表示装置20は、光源21、ダイクロイックミラー22a、22b、反射ミラー23a、23b、23c、赤用液晶パネル24R、緑用液晶パネル24G、青用液晶パネル24B、合成プリズム25、ピクセルシフトデバイス26、投写レンズ27、駆動部28及び処理部29を含む。
 光源21には、ハロゲンランプ、キセノンランプ、メタルハライドランプ、超高圧水銀ランプ、レーザーダイオード等を使用することができる。
 第1ダイクロイックミラー22aは、光源21からの白色光を、赤色光とシアン色光に分離する。第2ダイクロイックミラー22bは、シアン色光を、緑色光と赤色光に分離する。第1ダイクロイックミラー22aにより分離された赤色光は、反射ミラー23aで反射されて赤用液晶パネル24Rに入射する。第2ダイクロイックミラー22bにより分離された緑色光は、緑用液晶パネル24Gに入射する。第2ダイクロイックミラー22bにより分離された青色光は、反射ミラー23b、23cで反射されて青用液晶パネル24Bに入射する。
 赤用液晶パネル24R、緑用液晶パネル24G、青用液晶パネル24Bは透過型の液晶パネルであり、入射された赤色光、緑色光、青色光と、処理部29から設定された映像信号をもとに赤色映像、緑色映像、青色映像をそれぞれ生成する。合成プリズム25は、赤色映像、緑色映像、青色映像を合成してカラー映像を生成する。
 ピクセルシフトデバイス26は、例えば任意の方向に傾斜できるようなアクチュエータを備えたガラス板である。アクチュエータとして例えば所定の電圧を加えられると伸長する圧電素子を用いることができる。駆動部28は、処理部29から供給されるピクセルシフト駆動信号に応じてアクチュエータを駆動させガラス板の傾斜角度を制御する。これによりピクセルシフトデバイス26は、合成プリズム25からの入射光の光路をずらす。処理部29は、後述するピクセルシフトの設定情報に基づいてピクセルシフト駆動信号を生成する。ピクセルシフトデバイス26を挿入することにより、1/n画素ピッチでのピクセルシフトが可能となる。投写レンズ27は、ピクセルシフトデバイス26から入射される光を拡大して、スクリーン等の投影面に出力する。
 なおピクセルシフトデバイス26の構成は一例であり、アクチュエータによりガラス板を傾斜させる代わりに偏光デバイスを利用して光学的に光路をずらしてもよい。また光学的に光路をずらすのではなく、光学デバイスを物理的に動かして、投影される映像をシフトさせてもよい。
 処理部29はハードウェア資源とソフトウェア資源の協働、又はハードウェア資源のみにより実現できる。ハードウェア資源として、CPU、ROM、RAM、ISP、GPU、DSP、ASIC、FPGA、その他のLSIを利用できる。ソフトウェア資源としてファームウェア等のプログラムを利用できる。
 図4は、ピクセルシフト機能を利用して、撮像されたフレーム画像の解像度を見かけ上、2倍にして表示する例を説明するための図である。ここで解像度とは水平解像度と垂直解像度とを掛け合わせた数である総解像度のことである。図4に示すピクセルシフト機能により、水平解像度は見かけ上√2倍となり、垂直解像度は見かけ上√2倍となる。よって総解像度は見かけ上2倍となる。撮像装置10側では、固体撮像素子14をフレームごとに、斜め方向に1/2画素シフト(ピクセルシフト)しながら撮像する。具体的には撮像装置10は、斜め方向に1/2画素ずれた第0フレームF0の位置と第1フレームF1の位置で交互に撮像する。
 投写型映像表示装置20側では、ピクセルシフトデバイス26でフレームごとに、斜め方向に1/2画素シフト(ピクセルシフト)しながら映像を投影する。これにより、投写型映像表示装置20の物理的な投影位置が、斜め方向に1/2画素ずれた第0フレームF0の位置と第1フレームF1の位置との間で交互に切り替わる。
 撮像装置10と投写型映像表示装置20間で、ピクセルシフトの方向と量、ピクセルシフトの位置数、各フレームの位置、フレームレートが同期している必要がある。つまり、撮像装置10と投写型映像表示装置20間で、ピクセルシフトの設定情報が対応している必要がある。図4に示す例のピクセルシフトの設定情報は、ピクセルシフトの方向が左斜め下45度、ピクセルシフトの量が1/2画素ピッチ、ピクセルシフトの位置が2通り、初期位置が偶数フレームの位置であり奇数フレームの位置が初期位置から右斜め下の位置、フレームレートが120Hzである。
 撮像装置10と投写型映像表示装置20が連携機能を有する製品である場合、これらのピクセルシフトの設定情報は、撮像装置10と投写型映像表示装置20内のROMに予め設定される。撮像装置10と投写型映像表示装置20が連携機能を持たない製品である場合、ユーザが撮像装置10と投写型映像表示装置20にそれぞれピクセルシフトの設定情報を入力する。または、撮像装置10からネットワーク2を介して投写型映像表示装置20にピクセルシフトの設定情報を送信する。例えば、ピクセルシフトの設定情報を、画像データ内にメタデータとして埋め込んでもよい。また映像データをIP伝送する場合、ピクセルシフトの設定情報を、IPパケットのヘッダのユーザ領域に付加してもよい。
 撮像装置10の処理部18は、投写型映像表示装置20の処理部29と通信チャネルの確立後、処理部29に、ピクセルシフトの設定情報を送信する。投写型映像表示装置20の処理部29は、撮像装置10の処理部18から受信した設定情報をもとに、ピクセルシフトデバイス26のピクセルシフト位置毎の傾斜角度とピクセルシフト位置の変更タイミングを指示するピクセルシフト駆動信号を生成する。
 ピクセルシフトの設定情報を画像データ内にメタデータとして設定情報を埋め込む場合、撮像装置10は画像(フレーム)毎に投写型映像表示装置20に設定情報を送信することができる。これにより、撮像装置10と投写型映像表示装置20においてフレーム単位で確実にピクセルシフトの設定情報を同期することができる。
 図5(a)、(b)は、図4に示した撮像装置10で撮像した映像の伝送方法の一例を説明するための図である。図5(a)に示すように撮像装置10の処理部18は、撮像部13から120Hz周期で、第0フレームF0の位置で撮像された画像と、第1フレームF1の位置で撮像された画像を交互に取得する。例えば処理部18は、第0フレームF0の位置で撮像された画像F01、第1フレームF1の位置で撮像された画像F11、第0フレームF0の位置で撮像された画像F02、第1フレームF1の位置で撮像された画像F12の順番に取得する。
 撮像装置10の処理部18は例えば、3Dフォーマットの一つであるフレームパッキング方式でシーケンシャルにフレーム画像を伝送する。処理部18は図5(b)に示すように、1つの垂直同期期間に、第0フレームF0の位置で撮像された画像と、第1フレームF1の位置で撮像された画像の2枚のフレーム画像をパッキングする。例えば処理部18は、第0フレームF0の位置で撮像された画像F01と第1フレームF1の位置で撮像された画像F11とをパッキングし、第0フレームF0の位置で撮像された画像F02と第1フレームF1の位置で撮像された画像F12とをパッキングする。具体的には処理部18は、垂直同期信号Vsyncの周期を120Hzから60Hzに変更する。処理部18は、フレームパッキング方式で格納したフレーム画像を含む映像データを、ネットワーク2を介して投写型映像表示装置20に送信する。
 投写型映像表示装置20の処理部29は、撮像装置10から送信された映像データを受信する。処理部29は、撮像装置10から指定されたピクセルシフトの設定情報をもとに、受信した映像データからフレーム画像を取り出す。具体的には処理部29は、設定情報においてピクセルシフトの位置が2通りであるので、垂直同期信号Vsyncの周期を60Hzから120Hzに変更する。処理部29は、ピクセルシフトデバイス26のピクセルシフト位置毎の傾斜角度とピクセルシフト位置の変更タイミングを指示するピクセルシフト駆動信号を生成する。
 なお上記のフレームパッキング方式は一例であり、他のフォーマットを使用してもよい。例えば、サイドバイサイド方式やトップアンドボトム方式で、第0フレームF0の位置で撮像された画像と、第1フレームF1の位置で撮像された画像を伝送してもよい。サイドバイサイド方式の場合、第0フレームF0の位置で撮像された画像と、第1フレームF1の位置で撮像された画像とを左右方向に並べて1つのフレーム画像とする。トップアンドボトム方式の場合、第0フレームF0の位置で撮像された画像と、第1フレームF1の位置で撮像された画像とを上下方向に並べて1つのフレーム画像とする。ただし、この場合、撮像装置10と投写型映像表示装置20に、第0フレームF0の位置で撮像されたフレーム画像を一時記憶するためのフレームバッファが必要となる。この点、フレームパッキング方式ではフレーム画像がシーケンシャルに伝送され、投写型映像表示装置20でそのまま投影されるため、撮像装置10と投写型映像表示装置20に上記フレームバッファを設ける必要がない。
 本実施の形態では、撮像装置10で撮像された映像を投写型映像表示装置20にライブ伝送する用途を主に想定している。その場合、撮像装置10は基本的に、非圧縮の映像データを送信する。なお、撮像装置10の処理部18と投写型映像表示装置20の処理部29の処理能力に余裕があれば、撮像装置10の処理部18が映像データを所定のフォーマットで圧縮符号化して送信し、投写型映像表示装置20の処理部29が、受信した映像データを伸張復号して使用してもよい。
 図6は、ピクセルシフト機能を利用して、撮像されたフレーム画像の解像度を見かけ上、4倍にして表示する例を説明するための図である。ここで解像度とは水平解像度と垂直解像度とを掛け合わせた数である総解像度のことである。図6に示すピクセルシフト機能により、水平解像度は見かけ上2倍となり、垂直解像度は見かけ上2倍となる。よって総解像度は見かけ上4倍となる。この例では、4Kの解像度(3840×2160)で撮像した画像を、8Kの解像度(7680×4320)で見かけ上、表示することができる。
 撮像装置10側では、固体撮像素子14をフレームごとに、上下方向、左右方向、斜め方向に1/2画素シフト(ピクセルシフト)しながら撮像する。具体的には撮像装置10は、初期の第0フレームF0の位置、初期位置から上方向に1/2画素ずれた第1フレームF1の位置、初期位置から右斜め上方向に1/2画素ずれた第2フレームF2の位置、初期位置から右方向に1/2画素ずれた第3フレームF3の位置の4通りの位置で順番に撮像する。
 投写型映像表示装置20側では、ピクセルシフトデバイス26を使用して、初期の第0フレームF0の位置、初期位置から上方向に1/2画素ずれた第1フレームF1の位置、初期位置から右斜め上方向に1/2画素ずれた第2フレームF2の位置、初期位置から右方向に1/2画素ずれた第3フレームF3の位置の4通りの位置で順番に、フレーム画像の投影位置を切り替える。これにより、4通りの投影位置に投写レンズ27から順番にフレーム画像が投写される。なお、上記の撮像または投影する4通りの位置の切り替え順番は一例である。例えば撮像装置10及または投写型映像表示装置20は、4通りの位置を反時計回りまたはジグザグの順番に切り替えてもよい。
 図6に示す例のピクセルシフトの設定情報は、ピクセルシフトの方向が上方向、及び右斜め上45度、及び右方向である。ピクセルシフトの量は1/2画素ピッチである。ピクセルシフトの位置は4通りである。初期位置はnを自然数とした場合に(4n-4)番目のフレームの位置であり、(4n-3)番目のフレームの位置は初期位置から上方向の位置、(4n-2)番目のフレームの位置は初期位置から左斜め上45度の位置、(4n-1)番目のフレームの位置は初期位置から右方向の位置、である。フレームレートは240Hzである。
 図7(a)、(b)は、図6に示した撮像装置10で撮像した映像の伝送方法の一例を説明するための図である。図7(a)に示すように撮像装置10の処理部18は、撮像部13から240Hz周期で、第0フレームF0の位置で撮像された画像、第1フレームF1の位置で撮像された画像、第2フレームF2の位置で撮像された画像、第3フレームF3の位置で撮像された画像を順番に取得する。例えば処理部18は、第0フレームF0の位置で撮像された画像F01、第1フレームF1の位置で撮像された画像F11、第2フレームF2の位置で撮像された画像F21、第3フレームF3の位置で撮像された画像F31、第0フレームF0の位置で撮像された画像F02、第1フレームF1の位置で撮像された画像F12、第2フレームF2の位置で撮像された画像F22、第3フレームF3の位置で撮像された画像F32の順番に取得する。
 撮像装置10の処理部18は例えば、フレームパッキング方式でシーケンシャルにフレーム画像を伝送する。処理部18は図7(b)に示すように、1つの垂直同期期間に、第0フレームF0の位置で撮像された画像、第1フレームF1の位置で撮像された画像、第2フレームF2の位置で撮像された画像、第3フレームF3の位置で撮像された画像の4枚のフレーム画像をパッキングする。例えば処理部18は、第0フレームF0の位置で撮像された画像F01と、第1フレームF1の位置で撮像された画像F11と、第2フレームF2の位置で撮像された画像F21と、第3フレームF3の位置で撮像された画像F31とをパッキングし、第0フレームF0の位置で撮像された画像F02と、第1フレームF1の位置で撮像された画像F12と、第2フレームF2の位置で撮像された画像F22と、第3フレームF3の位置で撮像された画像F32とをパッキングする。具体的には処理部18は、垂直同期信号Vsyncの周期を240Hzから60Hzに変更する。処理部18は、フレームパッキング方式で格納したフレーム画像を含む映像データを、ネットワーク2を介して投写型映像表示装置20に送信する。
 投写型映像表示装置20の処理部29は、撮像装置10から送信された映像データを受信する。処理部29は、撮像装置10から指定されたピクセルシフトの設定情報をもとに、受信した映像データからフレーム画像を取り出す。具体的には処理部29は、設定情報においてピクセルシフトの位置が4通りであるので、垂直同期信号Vsyncの周期を60Hzから240Hzに変更する。処理部29は、ピクセルシフトデバイス26のピクセルシフト位置毎の傾斜角度とピクセルシフト位置の変更タイミングを指示するピクセルシフト駆動信号を生成する。
 図8は、撮像装置10におけるピクセルシフト機能の別の例を説明するための図である。ここでは固体撮像素子14は、ベイヤ配列のカラーフィルタを備えるものとする。撮像装置10は、固体撮像素子14をフレームごとに、上下方向、左右方向、斜め方向に1画素シフト(ピクセルシフト)しながら撮像する。具体的には撮像装置10は、初期の第0フレームF0の位置、初期位置から上方向に1画素ずれた第1フレームF1の位置、初期位置から右斜め上方向に1画素ずれた第2フレームF2の位置、初期位置から右方向に1画素ずれた第3フレームF3の位置の4通りの位置で順番に撮像する。
 図8に示す例のピクセルシフトの設定情報は、ピクセルシフトの方向が上方向、及び右斜め上45度、及び右方向である。ピクセルシフトの量は1画素ピッチである。ピクセルシフトの位置は4通りである。初期位置はnを自然数とした場合に(4n-4)番目のフレームの位置であり、(4n-3)番目のフレームの位置は初期位置から上方向の位置、(4n-2)番目のフレームの位置は初期位置から右斜め上45度の位置、(4n-1)番目のフレームの位置は初期位置から右方向の位置である。フレームレートは240Hzである。
 通常、撮像装置10がピクセルシフトの量を1画素ピッチで設定する場合、撮像装置10は固体撮像素子14の各画素についてRの情報、及びGの情報、及びBの情報をすべて揃える目的でピクセルシフト機能を使用する。例えば撮像装置10の処理部18は、第0フレームF0から第3フレームF3までの4枚のフレームを用いて1枚の画像を生成する。この方式によれば処理部18が後述するデモザイク処理による補間処理を行わないため画質は良化するが、画素数は見かけ上増加しない。しかし本実施の形態では画素数を見かけ上増加させるため、処理部18は、ピクセルシフトの量を1画素ピッチで設定する場合においても、各フレームをそれぞれ1枚の画像として生成し、投写型映像表示装置20に送信する。
 撮像装置10の処理部18は例えば、フレームパッキング方式でシーケンシャルにフレーム画像を伝送する。処理部18は1つの垂直同期期間に、第0フレームF0の位置で撮像された画像、第1フレームF1の位置で撮像された画像、第2フレームF2の位置で撮像された画像、第3フレームF3の位置で撮像された画像の4枚のフレーム画像をパッキングする。具体的には処理部18は、垂直同期信号Vsyncの周期を240Hzから60Hzに変更する。処理部18は、フレームパッキング方式で格納したフレーム画像を含む映像データを、ネットワーク2を介して投写型映像表示装置20に送信する。
 前述のとおり撮像装置10の処理部18から投写型映像表示装置20の処理部29に送信される設定情報のシフト量は1画素ピッチである。しかし、投写型映像表示装置20は、上下方向、左右方向、斜め方向に1画素シフトさせて表示しても、各シフト位置において画素の位相差(ずれ量)がなしとなるため解像度を見かけ上高めることができない。そこで投写型映像表示装置20の処理部29はシフト量を上下方向、左右方向、斜め方向に1/2画素ずつとなるように設定情報を変更し、ピクセルシフトデバイス26のピクセルシフト位置毎の傾斜角度とピクセルシフト位置の変更タイミングを指示するピクセルシフト駆動信号を生成してもよい。つまり、投写型映像表示装置20の処理部29は、設定情報のシフト量を補正してもよい。
 以上説明したように実施の形態1によれば、解像度を時間方向に分割して撮像および表示することで、不可逆圧縮となる直交変換を使用せずとも、伝送データを圧縮しつつ高解像度な映像を表示させることができる。直交変換処理を使用しない場合、信号処理の負荷が軽減され低遅延になる。また高域成分が削除されないため、画質劣化も抑制される。なお、直交変換処理を使用する場合、更なるデータ圧縮が可能となり、一般的なネットワーク2を使用して、8K以上の解像度の映像を伝送することも可能となる。
 またフレームパッキング方式を利用して映像データを伝送することにより、撮像装置10の処理部18と投写型映像表示装置20の処理部29における処理を単純化することができる。これにより、撮像装置10の処理部18と投写型映像表示装置20の処理部29の処理負荷を軽減することができる。
 また撮像装置10から投写型映像表示装置20に、ピクセルシフトの設定情報を送信することにより、撮像装置10と投写型映像表示装置20間のピクセルシフトの同期を簡単かつ正確に取ることができる。投写型映像表示装置20が設定情報のうちピクセルシフトの量を補正することにより、撮像装置10のピクセルシフトの方式に拠らず高解像度な映像を表示することができる。
 以上から、撮像装置10で撮像している映像を、低遅延でコマ落ちせずに高解像度で、投写型映像表示装置20でライブ投影することができる。
 上記の例では、撮像された画像の解像度を見かけ上、2倍または4倍にして表示する例を示した。この点、ピエゾステージ15及びピクセルシフトデバイス26は、1/2画素より細かいピッチでピクセルシフトすることも可能である。例えば、1/3画素ピッチで9通りの位置にピクセルシフトすることも可能である。この場合、フレームレートを9倍に設定することにより、撮像された画像の解像度を見かけ上、9倍にして表示することができる。このように実施の形態1では、柔軟性・汎用性が高い高解像度機能を実現することができる。
(実施の形態2)
 図9は、本発明の実施の形態2に係る表示システム1の全体構成を示す図である。実施の形態2では、表示システム1は撮像装置10、情報処理装置30及び投写型映像表示装置20を備える。撮像装置10と情報処理装置30がネットワーク2aを介して接続され、情報処理装置30と投写型映像表示装置20がネットワーク2bを介して接続される。
 情報処理装置30は例えば、クラウドサーバで構成される。情報処理装置30は処理部と記憶部を備える。情報処理装置30の処理部は、ハードウェア資源とソフトウェア資源の協働、又はハードウェア資源のみにより実現できる。ハードウェア資源として、CPU、ROM、RAM、GPU、DSP、ASIC、FPGA、その他のLSIを利用できる。ソフトウェア資源としてオペレーティングシステム、アプリケーション等のプログラムを利用できる。情報処理装置30の記憶部は、HDD(Hard Disk Drive)やSSD(Solid State Drive)等の不揮発性の大容量記録媒体を有する。
 実施の形態2では、撮像装置10の処理部18は、映像データを情報処理装置30に送信する。情報処理装置30は、撮像装置10から送信される映像データを受信し、受信した映像データを投写型映像表示装置20に送信する。この場合、情報処理装置30は映像データの中継サーバとして機能する。また情報処理装置30は、撮像装置10から受信した映像データを投写型映像表示装置20に転送するとともに、記憶部に保存することもできる。この場合、撮像装置10は投写型映像表示装置20への映像データの送信と、情報処理装置30への映像データの保存を同時に行うことができる。
 撮像装置10の固体撮像素子14が単板カラーの固体撮像素子である場合、固体撮像素子14から出力される画像はRAW画像になり、撮像装置10の処理部18でデモザイク処理する必要がある。例えば、固体撮像素子14がベイヤ配列のカラーフィルタを備える固体撮像素子である場合、撮像装置10の処理部18は、デモザイク処理する必要がある。
 実施の形態2では、撮像装置10の処理部18は、撮像部13から取得した画像データに対してデモザイク処理せずに、RAW画像のままフレームパッキングして、RAW画像を含む映像データを情報処理装置30に送信する。情報処理装置30の処理部は、撮像装置10から受信した映像データに含まれるRAW画像をデモザイク処理して現像データを生成する。情報処理装置30の処理部は、現像データを含む映像データを投写型映像表示装置20に送信する。
 図10(a)、(b)は、ベイヤ配列のRAW画像と、デモザイク処理後の画像の一例を示す図である。一般的にRGBの各画素で撮像されるRAW画像の各画素のデータは8ビットで規定される。デモザイク処理のアルゴリズムには様々なものがあるが、各画素において欠落する色データを、隣接する複数の画素に基づく補間処理により生成するものが一般的である。例えばデモザイク処理は、緑色画素の場合、隣接する複数の赤色画素に基づく補間処理により赤色データ(8ビット)を生成し、隣接する複数の青色画素に基づく補間処理により青色データ(8ビット)を生成する。このデモザイク処理により、各画素のデータ(8ビット)は、24ビットで規定されるカラー(RGB)データに変換される。RAW画像の各画素のデータのビット数は8ビットに限定されるものではなく、例えば12ビットまたは14ビットでもよい。
 情報処理装置30の処理部は、撮像装置10から受信した映像データに含まれるRAW画像をデモザイク処理した後に、ホワイトバランス調整を実行してもよい。この場合、撮像装置10の処理部18は、ホワイトバランス調整に必要な色温度等の設定値を情報処理装置30の処理部へ送信してもよい。情報処理装置30の処理部は、撮像装置10から受信した色温度等の設定値に基づいてホワイトバランス調整を実行してもよい。
 実施の形態2では、このデモザイク処理を情報処理装置30の処理部で行うことにより、撮像装置10から情報処理装置30に伝送される映像データが各画素24ビットで規定されるカラー(RGB)データから、各画素8ビットのデータとすることができる。つまり、撮像装置10から情報処理装置30に伝送される映像データの量を1/3に圧縮することができる。一般的にインターネットでは、上り回線より、下り回線に広い帯域が割り当てられており、下りの方が上りより通信速度が速くなる。
 以上説明したように実施の形態2によれば、撮像装置10から情報処理装置30へRAW画像を含む映像データで送信することにより、上り回線を使用した映像伝送のデータ量を圧縮することができる。従って、撮像装置10から情報処理装置30への伝送遅延を抑制することができる。また、撮像装置10の処理部18でデモザイク処理を行わないため、処理部18の処理負荷を軽減することができ、処理部18の基板実装を簡略化することができる。これにより、撮像装置10の大型化を抑制でき、撮像装置10をスマートフォンやドローンに搭載しやすくすることができる。
 以上、本発明を実施の形態をもとに説明した。上記実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
 実施の形態1、2では、投写型映像表示装置20として、3LCD(Liquid Crystal Display)方式のプロジェクタを使用する例を説明した。この点、1/n画素ピッチで光学的にピクセルシフトする機能を搭載したプロジェクタであれば、DLP(Digital Light Processing)方式のプロジェクタを使用してもよいし、LCoS(Liquid Crystal on Silicon)方式のプロジェクタを使用してもよい。
 実施の形態1、2では、ピクセルシフトの設定情報を、撮像装置10から投写型映像表示装置20に送信して、ピクセルシフトの方向と量を撮像装置10側から指定する例を説明した。この点、投写型映像表示装置20が実行するピクセルシフトの方向と量を含む設定情報(位相情報)を、投写型映像表示装置20から撮像装置10に送信する形態でもよい。撮像装置10の処理部18は、投写型映像表示装置20の処理部29から受信した設定情報をもとに、ピエゾステージ15のX方向とY方向の移動量と移動タイミングを含むピエゾ駆動信号を生成し、ピエゾ駆動部17に供給する。なお撮像装置10の処理部18は、ピエゾステージ15が斜め方向に移動可能な圧電素子を使用している場合は斜め方向の移動量と移動タイミングを設定する。
 実施の形態2では、情報処理装置30の処理部がデモザイク処理する例を説明した。この点、情報処理装置30の処理部は、撮像装置10から受信したRAW画像を含む映像データをそのまま投写型映像表示装置20に転送してもよい。投写型映像表示装置20の処理部29は、情報処理装置30から受信した映像データに含まれるRAW画像をデモザイク処理して現像データを生成する。また実施の形態1においても、撮像装置10から投写型映像表示装置20へRAW画像データを含む映像データを送信し、投写型映像表示装置20の処理部29がRAW画像をデモザイク処理して現像データを生成してもよい。
 本発明は、撮像装置と投写型映像表示装置を用いた表示システムに利用可能である。
 1 表示システム、 2 ネットワーク、 10 撮像装置、 11 レンズ、 12 レンズ駆動部、 13 撮像部、 14 固体撮像素子、 15 ピエゾステージ、 16 信号処理回路、 17 ピエゾ駆動部、 18 処理部、 20 投写型映像表示装置、 21 光源、 22 ダイクロイックミラー、 23 反射ミラー、 24R 赤用液晶パネル、 24G 緑用液晶パネル、 24B 青用液晶パネル、 25 合成プリズム、 26 ピクセルシフトデバイス、 27 投写レンズ、 28 駆動部、 29 処理部、 30 情報処理装置。

Claims (8)

  1.  固体撮像素子または光学部材を物理的に動かしてフレーム単位でピクセルシフトさせて、撮像する撮像装置と、
     前記撮像装置により撮像された映像を取得し、前記撮像装置において撮像時に実行されたピクセルシフトに対応したピクセルシフトを光学的に実行して、取得した映像を投写する投写型映像表示装置と、
     を備えることを特徴とする表示システム。
  2.  前記撮像装置におけるピクセルシフトの実行中、前記固体撮像素子または前記光学部材は、n(nは2以上の整数)通りの位置を順番に変位し、
     前記投写型映像表示装置におけるピクセルシフトの実行中、前記投写型映像表示装置は前記n通りの投影位置を順番に切り替え、
     前記撮像装置は、1つの垂直同期期間に、前記n通りの位置で撮像されたフレーム画像を含む映像データを生成し、
     前記投写型映像表示装置は、前記1つの垂直同期期間に含まれる前記n枚のフレーム画像を、前記n通りの投影位置に順番に投写することを特徴とする請求項1に記載の表示システム。
  3.  前記撮像装置は、前記投写型映像表示装置において実行されるピクセルシフトの方向と量を指定した設定情報を、前記投写型映像表示装置に送信し、
     前記投写型映像表示装置は、受信した設定情報をもとにピクセルシフトを実行することを特徴とする請求項1または2に記載の表示システム。
  4.  前記投写型映像表示装置は、前記設定情報のうちピクセルシフトの量を補正することを特徴とする請求項3に記載の表示システム。
  5.  前記投写型映像表示装置は、前記撮像装置において実行されるピクセルシフトの方向と量を指定した設定情報を、前記撮像装置に送信し、
     前記撮像装置は、受信した設定情報をもとにピクセルシフトを実行することを特徴とする請求項1または2に記載の表示システム。
  6.  前記撮像装置から送信される映像データを受信し、受信した映像データを前記投写型映像表示装置に送信する情報処理装置をさらに備えることを特徴とする請求項1から5のいずれか1項に記載の表示システム。
  7.  前記固体撮像素子は、単板カラーの固体撮像素子であり、
     前記撮像装置は、RAW画像を含む映像データを前記情報処理装置に送信し、
     前記情報処理装置は、受信した映像データに含まれるRAW画像をデモザイク処理して得られる現像データを含む映像データを前記投写型映像表示装置に送信することを特徴とする請求項6に記載の表示システム。
  8.  固体撮像素子または光学部材を物理的に動かしてフレーム単位でピクセルシフトさせて、撮像するステップと、
     撮像された映像を取得し、前記撮像するステップ時に実行されたピクセルシフトに対応したピクセルシフトを光学的に実行して、取得した映像を投影面に投写するステップと、
     を有することを特徴とする表示方法。
PCT/JP2020/033108 2019-09-04 2020-09-01 表示システム、及び表示方法 WO2021045054A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202080056599.4A CN114208157B (zh) 2019-09-04 2020-09-01 显示系统以及显示方法
US17/686,551 US20220191444A1 (en) 2019-09-04 2022-03-04 Display system and display method using imaging apparatus and projection video display apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-161110 2019-09-04
JP2019161110A JP7379961B2 (ja) 2019-09-04 2019-09-04 表示システム、及び表示方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/686,551 Continuation US20220191444A1 (en) 2019-09-04 2022-03-04 Display system and display method using imaging apparatus and projection video display apparatus

Publications (1)

Publication Number Publication Date
WO2021045054A1 true WO2021045054A1 (ja) 2021-03-11

Family

ID=74849228

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/033108 WO2021045054A1 (ja) 2019-09-04 2020-09-01 表示システム、及び表示方法

Country Status (4)

Country Link
US (1) US20220191444A1 (ja)
JP (1) JP7379961B2 (ja)
CN (1) CN114208157B (ja)
WO (1) WO2021045054A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2596111B (en) * 2020-06-18 2023-03-22 Dualitas Ltd Frame rate synchronization

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61251819A (ja) * 1985-04-30 1986-11-08 Olympus Optical Co Ltd 像形成光学系
JPH07274070A (ja) * 1994-03-29 1995-10-20 Sony Tektronix Corp 高解像度表示装置
JP2003502687A (ja) * 1999-06-10 2003-01-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 色シーケンシャル液晶ディスプレイの色純度の増加
JP2003179940A (ja) * 2001-12-13 2003-06-27 Nippon Hoso Kyokai <Nhk> 撮像装置及びこれを用いた表示システム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1868217A (zh) * 2003-10-16 2006-11-22 汤姆森许可公司 像素偏移彩色投影系统
JP2006058588A (ja) * 2004-08-20 2006-03-02 Ricoh Co Ltd 光学デバイス、光学装置、表示装置及び立体画像表示装置
JP4418827B2 (ja) * 2007-05-16 2010-02-24 三菱電機株式会社 画像表示装置及び方法、並びに画像発生装置及び方法
JP5000395B2 (ja) * 2007-06-26 2012-08-15 オリンパス株式会社 撮像表示方法および撮像表示装置
JP5251201B2 (ja) * 2008-03-27 2013-07-31 セイコーエプソン株式会社 画像処理装置、画像表示装置及び画像処理方法
JP5185202B2 (ja) * 2009-06-03 2013-04-17 キヤノン株式会社 画像処理装置及び画像処理装置の制御方法
JP5950554B2 (ja) * 2011-12-02 2016-07-13 キヤノン株式会社 表示装置、情報処理装置、及びそれらの制御方法、投影システム、プログラム、並びに記憶媒体
JP6002443B2 (ja) * 2012-05-24 2016-10-05 日本放送協会 信号発生装置、この信号発生装置を備えた投射型表示システム、および画素ずらし量判別方法
JP6070127B2 (ja) * 2012-12-04 2017-02-01 セイコーエプソン株式会社 画像表示装置および画像表示システム
CN114998557A (zh) * 2015-08-18 2022-09-02 奇跃公司 虚拟和增强现实系统和方法
JP2017223718A (ja) * 2016-06-13 2017-12-21 パナソニックIpマネジメント株式会社 投写型映像表示装置、スタック投写表示システム、ブレンディング投写表示システム
JP6747369B2 (ja) * 2016-09-26 2020-08-26 株式会社Jvcケンウッド 表示制御装置、表示制御方法及びプログラム
CN106507075A (zh) * 2016-11-18 2017-03-15 海信集团有限公司 一种投影图像处理方法、装置及投影显示系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61251819A (ja) * 1985-04-30 1986-11-08 Olympus Optical Co Ltd 像形成光学系
JPH07274070A (ja) * 1994-03-29 1995-10-20 Sony Tektronix Corp 高解像度表示装置
JP2003502687A (ja) * 1999-06-10 2003-01-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 色シーケンシャル液晶ディスプレイの色純度の増加
JP2003179940A (ja) * 2001-12-13 2003-06-27 Nippon Hoso Kyokai <Nhk> 撮像装置及びこれを用いた表示システム

Also Published As

Publication number Publication date
JP7379961B2 (ja) 2023-11-15
JP2021040261A (ja) 2021-03-11
CN114208157A (zh) 2022-03-18
US20220191444A1 (en) 2022-06-16
CN114208157B (zh) 2024-02-09

Similar Documents

Publication Publication Date Title
JP4337505B2 (ja) 撮像装置および撮像方法、画像処理装置および画像処理方法、画像表示システム、記録媒体、並びにプログラム
US20080036854A1 (en) Method and system of communicating and rendering stereoscopic and dual-view images
JP5413184B2 (ja) カメラシステム及びカメラ制御方法
JP2009010821A (ja) 撮像装置および撮像方法、記録媒体、並びに、プログラム
JP3791904B2 (ja) マルチディスプレイ装置
WO2012169140A1 (ja) 画像処理装置及び画像処理方法並びにデジタルカメラ
WO2013159587A1 (zh) 视频信号处理方法和摄像设备
JP2013165485A (ja) 画像処理装置、撮像装置およびコンピュータブログラム
JPWO2011121837A1 (ja) 立体撮像装置、画像再生装置及び編集ソフトウエア
JP5515729B2 (ja) カメラアダプタ装置及びカメラ制御方法
JP3873168B2 (ja) デジタルカメラ及び画像処理方法
JP2011024003A (ja) 立体動画記録方法および装置、動画ファイル変換方法および装置
WO2021045054A1 (ja) 表示システム、及び表示方法
JP5122432B2 (ja) 光学システム及び投射型表示装置
CN113227896A (zh) 投影系统
JP2012204859A (ja) 画像処理装置及びカメラモジュール
US10348957B2 (en) Image capturing apparatus, method of controlling the same, and storage medium for shooting a still image without interrupting shooting of moving images
JP4276452B2 (ja) ネットワークカメラ
JP2005123841A (ja) リアプロジェクション型画像ディスプレイシステム
JP4985672B2 (ja) 画像表示システム
JP5354035B2 (ja) ズーム機構付き撮像装置。
WO2004071101A1 (ja) 立体映像記録再生装置
JP5494520B2 (ja) 撮像装置および撮像方法
JP4984601B2 (ja) ズーム機構付き投射装置
JP2018121194A (ja) 画像処理装置、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20861315

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20861315

Country of ref document: EP

Kind code of ref document: A1