WO2019054179A1 - 画像処理装置および方法 - Google Patents

画像処理装置および方法 Download PDF

Info

Publication number
WO2019054179A1
WO2019054179A1 PCT/JP2018/031872 JP2018031872W WO2019054179A1 WO 2019054179 A1 WO2019054179 A1 WO 2019054179A1 JP 2018031872 W JP2018031872 W JP 2018031872W WO 2019054179 A1 WO2019054179 A1 WO 2019054179A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
frame
projection
image processing
frame image
Prior art date
Application number
PCT/JP2018/031872
Other languages
English (en)
French (fr)
Inventor
紀晃 高橋
隆浩 永野
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US16/644,821 priority Critical patent/US11397376B2/en
Publication of WO2019054179A1 publication Critical patent/WO2019054179A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/12Projectors or projection-type viewers; Accessories therefor adapted for projection of either still pictures or motion pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • H04N13/125Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues for crosstalk reduction
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2007Display of intermediate tones
    • G09G3/2018Display of intermediate tones by time modulation using two or more time intervals
    • G09G3/2022Display of intermediate tones by time modulation using two or more time intervals using sub-frames
    • G09G3/2025Display of intermediate tones by time modulation using two or more time intervals using sub-frames the sub-frames having all the same time duration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/341Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/66Transforming electric information into light information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2310/00Command of the display device
    • G09G2310/02Addressing, scanning or driving the display screen or processing steps related thereto
    • G09G2310/0235Field-sequential colour display
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory

Definitions

  • the present disclosure relates to an image processing apparatus and method, and more particularly to an image processing apparatus and method capable of suppressing a reduction in subjective image quality.
  • This indication is made in view of such a situation, and enables it to control reduction of a subjective image quality.
  • the image processing device is an image processing device including a control unit that controls a time during which a user can view a projected image of each frame image of the moving image based on each frame image of the moving image. .
  • An image processing method is an image processing method for controlling a time during which a user can view a projected image of each frame image of the moving image based on each frame image of the moving image.
  • the time during which the user can view the projection image of each frame image of the moving image is controlled based on each frame image of the moving image.
  • an image can be processed.
  • reduction in subjective image quality can be suppressed.
  • FIG. 5 is a flowchart illustrating an example of the flow of image processing. It is a flowchart explaining the example of the flow of output time calculation processing. It is a flowchart explaining the example of the flow of output time calculation processing. It is a block diagram which shows the main structural examples of an image processing part. It is a figure for demonstrating the example of the mode of an image projection.
  • FIG. 6 is a diagram showing an example of a coefficient B. It is a figure which shows the example of the coefficient Dk .
  • the image projection system 10 shown in FIG. 1 is a system for projecting a moving image by four projectors 12 (projectors 12-1 to 12-4).
  • the frame rate of a moving image (also referred to as an input image) input to the image projection system 10 is 120 frames per second.
  • each of the projectors 12-1 to 12-4 projects an image at 30 frames per second. Therefore, as shown in FIG. 2, the distribution device 11 cyclically distributes each frame image of the input image to the projection devices 12-1 to 12-4.
  • the projectors 12-1 to 12-4 sequentially project the frame images assigned to them. Since the frame rate of the projection device 12 is 30 frames per second, each projection device 12 is supplied with the next frame image from the distribution device 11 at the timing when the projection of the previous frame image is completed. Thus, each projection device 12 projects the next frame image. As described above, the projectors 12 project frame images at timings shifted by 1/120 second from each other.
  • the projection device 12-1 projects the frame images of the frame numbers 1, 5, 9,..., And the projection device 12-2 delays the frame number 2 at a timing delayed by 1/120 second.
  • the frame image of 6, 10, ... is projected, and the projection device 12-3 projects the frame image of frame numbers 3, 7, 11, ... at a timing delayed by 1/120 second.
  • the projection device 12-4 projects a frame image of frame numbers 4, 8, 12,... At a timing delayed by 1/120 second.
  • the projection image projected on the screen 13 is an image on which the images projected from the respective projection devices 12 are superimposed.
  • the projection image of frame number 4 is the frame image of frame number 1 projected by the projection device 12-1 and the frame image of frame number 2 projected by the projection device 12-2
  • the frame image of frame number 3 projected by the projection device 12-3 and the frame image of frame number 4 projected by the projection device 12-4 are superimposed on each other.
  • the frame image superimposed in this way changes every 1/120 second. That is, since the projected image changes every 1/120 second, the frame rate of the projected image is 120 frames per second.
  • the input image is a moving image in which the car 31 moves from right to left as shown in A of FIG. 3, since the position of the car 31 is different in each frame image, when those frame images are superimposed, FIG. As in the example shown in (B), the positions of the automobile 31 are superimposed on each other while being shifted from each other, and so-called superimposed blurring that looks like an afterimage occurs. Therefore, there was a possibility that subjective image quality might be reduced.
  • each projector 12 projects each frame image for only 1/120 sec.
  • the images projected from the respective projection devices 12 do not overlap each other in the projection image, it is possible to suppress the occurrence of superimposed blurring.
  • the brightness is reduced to one fourth as compared with the example of FIG. 2, there is a possibility that the subjective image quality may be reduced.
  • the image processing apparatus is provided with a control unit that controls the time during which the user can view the projected image of each frame image of the moving image based on each frame image of the moving image.
  • FIG. 5 is a block diagram illustrating an exemplary main configuration of an embodiment of an image projection system to which the present technology is applied.
  • the image projection system 100 projects a frame image of an input moving image (also referred to as an input image) cyclically using a plurality of projectors, thereby achieving a frame higher than the frame rate of the projectors. It is a system capable of projecting a rate moving image.
  • the image projection system 100 includes a central processing unit 111, and projectors 112-1 to 112-4.
  • the central processing unit 111 is an embodiment of an image processing apparatus to which the present technology is applied, and performs processing on each frame image of a moving image (input image) to be projected.
  • the central processing unit 111 includes, for example, an image processing unit 121 and a distribution unit 122.
  • the image processing unit 121 is an embodiment of an image processing unit to which the present technology is applied, and performs processing regarding image processing on each frame image of a moving image (input image) which is a projection target.
  • the distribution unit 122 performs processing regarding distribution of each frame image of a moving image (input image) which is a projection target.
  • the projection devices 112-1 to 112-4 are devices provided with a function of projecting an image, and perform processing related to the projection of the image. Note that when there is no need to distinguish between the projection devices 112-1 to 112-4 and describe them, they are referred to as a projection device 112.
  • the projection device 112 projects an image at a frame rate of, for example, 30 frames per second.
  • the input image input to the image projection system 100 is a moving image with a frame rate of 120 frames per second.
  • the input image is input to (the image processing unit 121 of) the central processing unit 111.
  • the image processing unit 121 performs image processing to control the time during which the user can view the projected image on which the frame image of the input image is projected on the screen 113 based on each frame image of the input image. Details of this image processing will be described later.
  • the image processing unit 121 supplies each frame image to the distribution unit 122 at a frame rate of 120 frames per second.
  • the distributing unit 122 cyclically distributes the supplied frame images to the projectors 112-1 to 112-4 in order. For example, the distributing unit 122 distributes the frame images of the frame numbers 1, 5, 9,... To the projection device 112-1, and the frame numbers 2, 6, 10,. The frame images of the frame numbers 3, 7, 11,... Are distributed to the projection device 112-3, and the frame numbers 4, 8, 12 to the projection device 112-4. ⁇ ⁇ ⁇ Distribute the frame image.
  • Each of the projectors 112 sequentially outputs the frame image distributed to itself as an output image, and projects it on the same position of the screen 113.
  • one frame is distributed to each of the projectors 112 every four frames of a moving image having a frame rate of 120 frames per second. That is, each projection device 112 is supplied with frame images at a frame rate of 30 frames per second.
  • each projection device 112 capable of projecting an image at a frame rate of 30 frames per second can project the provided frame image sequentially. That is, the image projection system 100 can project the input image at the frame rate of the input image using the projection device 112 which projects the image at a rate lower than the frame rate of the input image. In other words, the image projection system 100 can project an input image at a rate higher than the frame rate of the image projection of the projection device 112 at the frame rate of the input image.
  • the distributing unit 122 sequentially distributes each frame image of the moving image of 120 frames per second, the timing at which the frame image is distributed to each of the projection devices 112 deviates by 1/120 second. Therefore, the timing of projecting the output image of each projection device 112 is also shifted by 1/120 second.
  • the image projection system 100 can project an image at a frame rate of 120 frames per second, as in the case of the image projection system 10 of FIG.
  • FIG. 6 is a block diagram showing a main configuration example of the image processing unit 121.
  • the image processing unit 121 includes a storage unit 131 and an output time calculation unit 132.
  • the storage unit 131 stores an input image.
  • the storage unit 131 supplies the stored input image to the output time calculation unit 132 at a predetermined timing or based on an external request of the output time calculation unit 132 or the like.
  • the output time calculation unit 132 acquires each frame image of the input image from the storage unit 131, and controls the time (also referred to as output time) in which each frame image is output from the projection device 112 based on each frame image.
  • the shorter the output time of the frame image the darker the projected image (the luminance decreases). That is, the difference in luminance between the input image and the projection image is increased by shortening the time during which the user can view the projection image. Therefore, as the output time decreases, as in the straight line 151 of the graph of FIG. 7, the error of the projected image relative to the input image (in this case, the luminance difference between the projected image and the input image) increases.
  • the longer the frame image output time the longer the time in which the projected image of the frame image of interest overlaps (projects with) the projected image of another frame image (in some cases, The number also increases).
  • so-called superimposed blurring occurs as described with reference to B of FIG. That is, the difference between the projected image and the input image, which is caused by the superposition of the projected images of a plurality of frame images, increases as the time during which the user can view the projected image increases. Therefore, as shown by the curve 152 in the graph of FIG. 7, when the output time of each frame image is long enough that the projected images of a plurality of frame images overlap, the error with respect to the input image of the projected image In this case, the superimposed blurring increases.
  • the error is, for example, in the form of a curve such as a curve 153 due to the increase and decrease of the straight line 151 and the curve 152.
  • the output time calculation unit 132 controls the output time of each frame image to obtain this overall error (the difference between the input image and the projected image due to the decrease in luminance, and the user visually recognizes the projected image). It is possible to control the magnitude of the difference between the input image and the projection image, which increases as the possible time increases.
  • the input image is 120 frames per second (120 Hz) and the projectors 112-1 to 112-4 output the output image at 30 frames per second (30 Hz).
  • the maximum value of the output time of each frame image is set to the time corresponding to one frame of the frame rate (in this case 1/30 seconds (about 33.3 ms)), and the parameter ⁇ is a ratio (% It is assumed that the parameter is represented by).
  • each rectangle shown in FIG. 8 indicates a period during which each projector 112 is outputting an output image, and a numeral indicates a frame number of the output image. In this case, each frame image overlaps (superimposes) the previous and subsequent frame images by 1/120 seconds (approximately 8.3 ms).
  • the output time calculation unit 132 controls the output time of each frame image by obtaining the parameter ⁇ representing the output time of the frame image and supplying it to each projection device 112. be able to. As the output time of each frame image changes, the time during which the user can view the projected image of each frame image changes. That is, the output time calculation unit 132 (image processing unit 121) can control the time during which the user can view the projected image of each frame image based on each frame image of the input image.
  • the output time calculation unit 132 can suppress the reduction of the subjective image quality of the projection image by such control.
  • the output time calculation unit 132 may use a projection image in a state in which an error (a difference between a projected image and an input image due to a decrease in luminance) and an error (a plurality of frame images (projected images))
  • the parameter ⁇ may be determined to suppress the overall error with the input image (that is, to reduce the magnitude of the overall error).
  • the output time calculation unit 132 can suppress the reduction in the subjective image quality of the projection image.
  • the output time calculation unit 132 may obtain the parameter ⁇ so as to minimize the overall error between the error due to the decrease in luminance and the error due to the superimposed blur. For example, the output time calculation unit 132 determines an optimum output time (dotted line 154) which is an output time at which the minimum value of the curve 153 can be obtained in the graph of FIG. It may be supplied to the By doing this, the output time calculation unit 132 can further suppress the reduction of the subjective image quality of the projection image.
  • the output time calculation unit 132 may obtain this parameter ⁇ for each frame image. For example, as in the example shown in FIG. 9, the output times of all frame images may not be uniform. That is, the output time calculation unit 132 may control, for each frame image of the input image, a time during which the user can view the projection image.
  • the error due to the above-mentioned decrease in luminance and the error due to superimposed blurring change depending on the content of the image. Therefore, the overall error can be further suppressed by causing the output time calculation unit 132 to obtain the parameter ⁇ for each frame image according to the contents of each frame image. That is, the output time calculation unit 132 can further suppress the reduction of the subjective image quality of the projection image.
  • this parameter ⁇ represents the output time of the frame image as a ratio (%) to the maximum value of the output time (for example, the time for one frame of the frame rate).
  • the pixel value (output pixel value) Y i, ⁇ of the output image output from the projection device 112 by the filter operation (coefficient D i, ⁇ ) is calculated using the pixel value (input pixel value) X i of the input image as follows. Equation (1) of can be estimated.
  • k is a parameter indicating the peripheral tap loop of the filter.
  • the input pixel value X i is also referred to as input luminance values X i.
  • the output pixel value Y i, ⁇ is also referred to as an output luminance value Y i, ⁇ .
  • the output pixel value Y i, ⁇ can also be estimated as in the following equation (2).
  • the pixel value (projected pixel value) Z i, ⁇ of the projection image projected on the screen 113 can be estimated as in the following equation (4) using the blur coefficient B j, ⁇ due to the overlap.
  • Equation (4) j is a parameter for identifying the projection device 112.
  • the projection pixel value Z i, ⁇ is also referred to as a projection luminance value Z i, ⁇ .
  • the projection apparatus 112 of the image projection system 100 has is four, the projection pixel value Z i, the ideal value of ⁇ is, the luminance value of each frame image is assumed to be identical to each other, four times the input pixel value X i (Ie, 4X i ). Therefore, the error for each pixel (the difference between the input image for each pixel and the projected image) e i, ⁇ can be obtained as in the following equation (5).
  • the error E i, ⁇ of the entire frame image (also referred to as the in-plane total E i, ⁇ ) is obtained as the sum of squared errors, but the error E i, ⁇ of the entire frame image is calculated
  • the sum of the first error may be the error E i, ⁇ of the entire frame image, or the maximum error value may be selected to be the error E i, ⁇ of the entire frame image.
  • the output time calculation unit 132 can set the error E i, ⁇ of the entire frame image by setting the output time, that is, the parameter ⁇ . That is, by setting the parameter ⁇ , the output time calculation unit 132 can perform control so as to suppress the reduction in the subjective image quality of the projection image.
  • the output time calculation unit 132 suppresses the reduction of the subjective image quality of the projected image by setting the output time (parameter ⁇ ) so as to suppress an increase in the error E i, ⁇ of the entire frame image. can do. Also, for example, the output time calculation unit 132 sets the output time (parameter ⁇ ) so as to minimize the error E i, ⁇ of the entire frame image (that is, obtain the optimum output time). The reduction of subjective image quality can be further suppressed.
  • the image projection system 100 performs an image display process when projecting a high frame rate moving image as described above.
  • An example of the flow of the image display process will be described with reference to the flowchart of FIG.
  • step S101 the image processing unit 121 performs an image process of controlling an output time based on an input image having a frame rate of 120 frames per second.
  • step S102 the distribution unit 122 distributes each frame image of the input image to each projection device 112. Further, the distribution unit 122 distributes the parameter ⁇ calculated in step S101 to each of the projection devices 112.
  • each projector 112 outputs (projects) each frame image assigned to itself at an output time corresponding to the parameter ⁇ assigned to itself.
  • each frame image is projected sequentially.
  • the image display processing ends.
  • the storage unit 131 of the image processing unit 121 stores all frame images of the input image in step S111.
  • step S112 the output time calculation unit 132 obtains the output time of each frame image based on each frame image of the input image stored in the storage unit 131. For example, the output time calculation unit 132 obtains a parameter ⁇ representing the output time.
  • step S121 the output time calculation unit 132 sets the horizontal coordinate of interest, which is the processing target, from among the unprocessed horizontal coordinates of the frame image of the input image. .
  • step S122 the output time calculation unit 132 sets the vertical coordinate of interest, which is the vertical coordinate to be processed, from among the unprocessed vertical coordinates of the frame image of the input image.
  • step S 124 the output time calculation unit 132 reads the input pixel value Xi + k from the storage unit 131.
  • step S125 the output time calculation unit 132 calculates the output pixel value Y i, ⁇ by the prediction operation represented by the above equation (1) (or equation (2)).
  • step S126 the output time calculation unit 132 reflects the restriction of the maximum luminance by the output time control on the output pixel value Y i, ⁇ according to the above-mentioned equation (3).
  • step S127 the output time calculation unit 132 calculates the projection pixel value Z i, ⁇ after the luminance value restriction by the above equation (4).
  • step S128 the output time calculation unit 132 calculates an error e i, ⁇ between the input pixel value X i and the projection pixel value Z i, ⁇ .
  • step S129 the output time calculation unit 132 determines whether the process has been performed for all the peripheral tap loops k. If it is determined that there is an unprocessed peripheral tap loop k, the process returns to step S123, and the subsequent processes are repeated. That is, each process of step S123 to step S129 is repeated for each peripheral tap loop k. When it is determined in step S129 that the process has been performed for all the peripheral tap loops k, the process proceeds to step S130.
  • step S130 the output time calculation unit 132 determines whether or not the process has been performed for all vertical coordinates. If it is determined that there is an unprocessed vertical coordinate, the process returns to step S122, and the subsequent processes are repeated. That is, each process of step S122 to step S130 is repeated for each vertical coordinate. If it is determined in step S130 that the process has been performed for all vertical coordinates, the process proceeds to step S131.
  • step S131 the output time calculation unit 132 determines whether processing has been performed for all horizontal coordinates. If it is determined that there is an unprocessed horizontal coordinate, the process returns to step S121, and the subsequent processes are repeated. That is, each process of step S121 to step S131 is repeated for each horizontal coordinate. When it is determined in step S131 that the process has been performed for all horizontal coordinates, the process proceeds to step S132.
  • step S132 the output time calculation unit 132 calculates the in-plane total sum E i, ⁇ of the error e i, ⁇ for each pixel calculated in step S128.
  • step S133 the output time calculation unit 132 obtains an optimal output time (the parameter ⁇ thereof) that minimizes the in-plane total sum E i, ⁇ calculated in step S132.
  • step S133 When the process of step S133 ends, the output time calculation process ends, and the process returns to FIG.
  • the output time calculation unit 132 (image processing unit 121) can control the output time of each frame image so as to minimize the error between the input image and the projection image. . Therefore, the image projection system 100 can suppress the reduction in subjective image quality due to the occurrence of superimposed blurring in the projected image and the reduction in luminance.
  • the image projection system 100 can project a high frame rate image using the low frame rate projection device 112 by performing the image projection as described above. Therefore, high frame rate projection can be realized more inexpensively. Further, as described above, the image projection system 100 can suppress the reduction in subjective image quality only by the conversion of the video signal by the image processing unit 121 without requiring a special viewing device such as glasses. That is, the image projection system 100 can suppress the reduction of the subjective image quality more easily and inexpensively. Furthermore, the image projection system 100 can realize an even higher frame rate image projection by increasing the number of projectors 112.
  • the difference (error) between the input image and the projected image is determined for all the pixels of the frame image
  • the present invention is not limited to this, and the error is calculated for some pixels.
  • the in-plane sum of the errors may be determined using the errors of the pixels of the part.
  • this parameter ⁇ represents the output time of the frame image as a ratio (%) to the maximum value of the output time (for example, the time for one frame of the frame rate).
  • the error e clip.i. ⁇ (first difference) due to the decrease in luminance is estimated as in the following equation (7) by restricting the input pixel value Xi in accordance with the decrease in output time (parameter ⁇ ).
  • this first difference can be estimated based on the length of time during which the user can view the projection image.
  • this first difference can be estimated based on the ratio of the time in which the user can view the projection image to the maximum value (the ratio of the time in which the user can view the projection image to the maximum).
  • the error e deblur, i, ⁇ (second difference) due to the blur due to superposition is determined by using the sum of difference values with neighboring adjacent pixels as the feature amount. Equation (8) of can be estimated. That is, the second difference can be estimated based on the difference between the pixel of interest and the peripheral pixels.
  • the output time calculation unit 132 can set the error E i, ⁇ of the entire frame image by setting the output time, that is, the parameter ⁇ . That is, by setting the parameter ⁇ , the output time calculation unit 132 can perform control so as to suppress the reduction in the subjective image quality of the projection image.
  • the output time calculation unit 132 suppresses the reduction of the subjective image quality of the projected image by setting the output time (parameter ⁇ ) so as to suppress an increase in the error E i, ⁇ of the entire frame image. can do. Also, for example, the output time calculation unit 132 sets the output time (parameter ⁇ ) so as to minimize the error E i, ⁇ of the entire frame image (that is, obtain the optimum output time). The reduction of subjective image quality can be further suppressed.
  • step S141 the output time calculation unit 132 compares the horizontal coordinate of interest, which is the processing target, with the unprocessed horizontal coordinates of the frame image of the input image. Set from inside.
  • step S142 the output time calculation unit 132 sets the vertical coordinate of interest, which is the vertical coordinate to be processed, from among the unprocessed vertical coordinates of the frame image of the input image.
  • step S 144 the output time calculation unit 132 reads the input pixel value Xi + k from the storage unit 131.
  • step S145 the output time calculation unit 132 calculates the errors e clip, i, ⁇ due to the luminance decrease, as shown in the above-mentioned equation (7).
  • step S146 the output time calculation unit 132 calculates the errors e deblur, i, ⁇ due to the superimposed blur, as shown in the above equation (8).
  • step S147 the output time calculation unit 132 determines whether the process has been performed for all the peripheral tap loops k. If it is determined that there is an unprocessed peripheral tap loop k, the process returns to step S143, and the subsequent processes are repeated. That is, each process of step S143 to step S147 is repeated for each peripheral tap loop k. When it is determined in step S147 that the process has been performed for all the peripheral tap loops k, the process proceeds to step S148.
  • step S148 the output time calculation unit 132 determines whether processing has been performed for all vertical coordinates. If it is determined that there is an unprocessed vertical coordinate, the process returns to step S142, and the subsequent processes are repeated. That is, the processes in steps S142 to S148 are repeated for each vertical coordinate. When it is determined in step S148 that the process has been performed for all vertical coordinates, the process proceeds to step S149.
  • step S149 the output time calculation unit 132 determines whether or not the process has been performed for all horizontal coordinates. If it is determined that there is an unprocessed horizontal coordinate, the process returns to step S141, and the subsequent processes are repeated. That is, each process of step S141 to step S149 is repeated for each horizontal coordinate. When it is determined in step S149 that the process has been performed for all horizontal coordinates, the process proceeds to step S150.
  • step S150 the output time calculation unit 132 calculates the error e clip, i, ⁇ due to the decrease in luminance for each pixel calculated in step S145 and the error e deblur, i, ⁇ due to the superimposed blur calculated in step S146.
  • the in-plane total sum E i, ⁇ is calculated as shown in the above-mentioned equation (9).
  • step S151 the output time calculation unit 132 obtains an optimal output time (the parameter ⁇ thereof) that minimizes the in-plane total sum E i, ⁇ calculated in step S150.
  • step S151 When the process of step S151 ends, the output time calculation process ends, and the process returns to FIG.
  • the output time calculation unit 132 (image processing unit 121) also controls the output time of each frame image so that the error between the input image and the projected image is minimized in this case as well. can do. Therefore, the image projection system 100 can suppress the reduction in subjective image quality due to the occurrence of superimposed blurring in the projected image and the reduction in luminance.
  • the image projection system 100 can project a high frame rate image using the low frame rate projection device 112 by performing the image projection as described above. Therefore, high frame rate projection can be realized more inexpensively. Further, as described above, the image projection system 100 can suppress the reduction in subjective image quality only by the conversion of the video signal by the image processing unit 121 without requiring a special viewing device such as glasses. That is, the image projection system 100 can suppress the reduction of the subjective image quality more easily and inexpensively. Furthermore, the image projection system 100 can realize an even higher frame rate image projection by increasing the number of projectors 112.
  • the difference (error) between the input image and the projected image is determined for all the pixels of the frame image
  • the present invention is not limited to this, and the error is calculated for some pixels.
  • the in-plane sum of the errors may be determined using the errors of the pixels of the part.
  • the filter operation is used when estimating the output pixel value Y i, ⁇ and the projection pixel value Z i, ⁇ .
  • the estimation method is arbitrary and is not limited to the filter operation.
  • other methods such as optimization by linear programming may be used.
  • Second embodiment> ⁇ Image projection system>
  • the output time of the frame image is described to be controlled.
  • the present invention is not limited to this example.
  • the image processing unit 121 further includes a plurality of projected images of each frame image of the input image. Image processing for suppressing the influence of the superimposition of the frame images may be performed on each frame image before projection.
  • the image processing unit 121 may correct the pixel value so as to minimize the error between the input image and the projection image.
  • the image projection system 100 controls the output time of each frame image (controls the time during which the user can view the projected image of each frame image of the input image)
  • the image projection system 100 can suppress the reduction of the subjective image quality of the projection image.
  • the image projection system 100 basically has the same configuration as that of the first embodiment (FIG. 5).
  • the image processing unit 121 includes a storage unit 131 and an output calculation unit 201, as shown in FIG.
  • the output calculation unit 201 obtains information (for example, parameter ⁇ ) on the output time of each frame image and the output pixel value Y i, ⁇ based on each frame image of the input image, and supplies them to each projection device 112 By doing this, the output time of each frame image and the output luminance value of each pixel are controlled.
  • the output calculation unit 201 includes a learning unit 211 and a prediction unit 212.
  • the storage unit 131 stores all frame images of the input moving image. In addition, the storage unit 131 supplies the stored input image to the learning unit 211 and the prediction unit 212 at a predetermined timing or based on an external request such as the learning unit 211 or the prediction unit 212.
  • the learning unit 211 performs processing related to learning processing for optimizing the filter. For example, the learning unit 211 sets the output time (parameter ⁇ ) as described in the first embodiment.
  • the learning unit 211 forms a filter in the spatial direction and the temporal direction using a predetermined moving image prepared in advance as a learning sample, and filters the learning sample using the filter. . Then, the learning unit 211 performs learning processing so that the filter processing result matches the projection image, and calculates filter coefficients D k, ⁇ corresponding to the parameter ⁇ .
  • the output pixel value Z i, ⁇ can be estimated as Expression (4).
  • FIG. 16 shows an example of the blur coefficient B j, ⁇ .
  • the output pixel value Y i, ⁇ can be estimated as in Expression (1) by linear combination of the input pixel value X i .
  • the pixel value Z i, ⁇ can be expressed as the following equation (10) using the pixel value X i .
  • the pixel value Z i, ⁇ can be expressed as the following equation (11) using the error e i, ⁇ .
  • the learning unit 211 takes a moving image prepared in advance as a learning sample, sets a known value as B j, ⁇ , sets a variable as D i, ⁇ , sets a learning sample as X i, s , and
  • the coefficient D k, ⁇ is calculated by the least square method as Equation (13) of
  • the learning unit 211 supplies the parameter ⁇ and the coefficients D k, ⁇ obtained as a result of learning as described above to the prediction unit 212.
  • Prediction unit 212 performs processing relating to prediction calculation to predict the output image (output pixel value Y i, alpha) from the input image (input pixel value X i). For example, the prediction unit 212 predicts the output pixel value Y i, ⁇ from the input pixel value X i using the parameter ⁇ and the coefficients D k, ⁇ supplied from the learning unit 211 and the equation (12). The prediction unit 212 similarly performs a prediction operation for each of the coordinates of interest , and calculates an output pixel value Y i, ⁇ . By doing this, it is possible to obtain an output pixel value Y i, ⁇ such that the error (difference value) between the projected image and the input image is minimized. The prediction unit 212 supplies the output pixel value Y i, ⁇ and the parameter ⁇ to the distribution unit 122 at a frame rate of 120 frames per second.
  • the distribution unit 122 sequentially distributes the frame images (pixel values have been corrected) thus image-processed by the image processing unit 121 to the respective projection devices 112. Further, the distribution unit 122 sequentially distributes the parameters ⁇ supplied from the image processing unit 121 to the respective projection devices 112.
  • Each projection device 112 outputs the frame image distributed to itself at an output time corresponding to the parameter ⁇ allocated to itself (projects on the screen 113).
  • the projection image projected on the screen 113 is in a state in which the pixel value (brightness value) and the output time are adjusted such that the error with the input image is minimized. Therefore, reduction in subjective image quality can be suppressed.
  • step S201 the storage unit 131 of the image processing unit 121 stores an entire frame image of the moving image.
  • step S202 the learning unit 211 performs a learning process to obtain a parameter ⁇ indicating the output time and a filter coefficient D k, ⁇ .
  • step S203 the prediction unit 212 performs a prediction process of predicting the output pixel value Y i, ⁇ using the parameter ⁇ and the filter coefficient D k, ⁇ obtained in step S202.
  • the output pixel value Y i, ⁇ is obtained, the image processing ends, and the processing returns to FIG.
  • the learning unit 211 executes the processes of steps S211 to S223 in the same manner as the processes of steps S121 to S133 of the output time calculation process of FIG.
  • step S224 the learning unit 211 uses the parameter ⁇ to calculate the filter coefficient D k, ⁇ by the least square method, using the minimization function as the above-described equation (13).
  • the filter coefficient D k, ⁇ is calculated, the learning process ends, and the process returns to FIG.
  • step S231 the prediction unit 212 sets the horizontal coordinate of interest, which is the processing target, from among unprocessed horizontal coordinates of the frame image of the input image.
  • step S232 the prediction unit 212 sets the vertical coordinate of interest, which is the vertical coordinate to be processed, from among the unprocessed vertical coordinates of the frame image of the input image.
  • step S234 the prediction unit 212 reads the input pixel value Xi + k .
  • step S235 the prediction unit 212 calculates output Y pixel values i, ⁇ by prediction calculation. That is, the prediction unit 212 substitutes the filter coefficient D k, ⁇ obtained by the learning process of FIG. 19 into the equation (1), and obtains the output pixel value Y i, ⁇ using the equation (1).
  • step S236 the prediction unit 212 determines whether the process has been performed for all the peripheral tap loops k. If it is determined that there is an unprocessed peripheral tap loop k, the process returns to step S233, and the subsequent processes are repeated. That is, each process of step S233 to step S236 is repeated for each peripheral tap loop k. When it is determined in step S236 that the process has been performed for all the peripheral tap loops k, the process proceeds to step S237.
  • step S237 the prediction unit 212 determines whether or not processing has been performed for all vertical coordinates. If it is determined that there is an unprocessed vertical coordinate, the process returns to step S232, and the subsequent processes are repeated. That is, each process of step S232 to step S237 is repeated for each vertical coordinate. When it is determined in step S237 that the process has been performed for all vertical coordinates, the process proceeds to step S238.
  • step S2308 the prediction unit 212 determines whether or not processing has been performed for all horizontal coordinates. If it is determined that there is an unprocessed horizontal coordinate, the processing returns to step S231, and the subsequent processing is repeated. That is, each process of step S231 to step S238 is repeated for each horizontal coordinate. Then, if it is determined in step S238 that the process has been performed for all horizontal coordinates, the prediction process ends, and the process returns to FIG.
  • the image processing unit 121 can not only control the output time but also correct the pixel value so as to minimize the error between the input image and the projection image. it can. Therefore, the image projection system 100 can suppress the occurrence of superimposed blurring in the projection image, and can also suppress the reduction in the brightness of the projection image. That is, the image projection system 100 can suppress the reduction in subjective image quality.
  • the image projection system 100 can project a high frame rate image using the low frame rate projection device 112 by performing the image projection as described above. Therefore, high frame rate projection can be realized more inexpensively. Further, as described above, the image projection system 100 can suppress the reduction in subjective image quality only by the conversion of the video signal by the image processing unit 121 without requiring a special viewing device such as glasses. That is, the image projection system 100 can suppress the reduction of the subjective image quality more easily and inexpensively. Furthermore, the image projection system 100 can realize an even higher frame rate image projection by increasing the number of projectors 112.
  • the present invention is not limited to this, and the above-described learning and prediction may be performed on some pixels.
  • the frame image may be divided into a plurality of times to perform learning and prediction, or pixels to be interpolated may be provided by using a predetermined function or the like without performing learning and prediction.
  • the method of determining the parameter ⁇ indicating the output time is arbitrary, and is not limited to the above-described example.
  • the error e clip.i. ⁇ (first difference) due to the decrease in luminance and the correction error e deblur of the afterimage deterioration may be set using the error E i, ⁇ of the entire frame image which is the sum of the entire image of i, ⁇ (second difference).
  • the learning unit 211 can suppress the reduction of the subjective image quality of the projected image by setting the output time (parameter ⁇ ) so as to suppress the increase of the error E i, ⁇ of the entire frame image. . Also, for example, the learning unit 211 sets the output time (parameter ⁇ ) so as to minimize the error E i, ⁇ of the entire frame image (that is, to obtain the optimum output time), to thereby obtain the subjective image quality of the projected image. Can be further suppressed.
  • step S251 the learning unit 211 sets the horizontal coordinate of interest, which is the horizontal coordinate to be processed, from among the unprocessed horizontal coordinates of the frame image of the input image. .
  • step S252 the learning unit 211 sets the vertical coordinate of interest, which is the vertical coordinate to be processed, from among the unprocessed vertical coordinates of the frame image of the input image.
  • step S254 the learning unit 211 reads the input pixel value Xi + k from the storage unit 131.
  • step S255 the learning unit 211 calculates the error e clip, i, ⁇ due to the decrease in luminance, as shown in the above-mentioned equation (7).
  • step S256 the learning unit 211 calculates the correction error e deblur, i, ⁇ of the afterimage deterioration as shown in the above-mentioned equation (8).
  • step S257 the learning unit 211 determines whether the process has been performed for all the peripheral tap loops k. If it is determined that there is an unprocessed peripheral tap loop k, the process returns to step S253, and the subsequent processes are repeated. That is, each process of step S253 to step S257 is repeated for each peripheral tap loop k. When it is determined in step S257 that the process has been performed for all the peripheral tap loops k, the process proceeds to step S258.
  • step S258 the learning unit 211 determines whether processing has been performed for all vertical coordinates. If it is determined that there is an unprocessed vertical coordinate, the process returns to step S252, and the subsequent processes are repeated. That is, each process of step S252 to step S258 is repeated for each vertical coordinate. When it is determined in step S258 that the process has been performed for all vertical coordinates, the process proceeds to step S259.
  • step S259 the learning unit 211 determines whether processing has been performed for all horizontal coordinates. If it is determined that there is an unprocessed horizontal coordinate, the process returns to step S251, and the subsequent processes are repeated. That is, each process of step S251 to step S259 is repeated for each horizontal coordinate. When it is determined in step S259 that the process has been performed for all horizontal coordinates, the process proceeds to step S260.
  • step S260 the learning unit 211 uses the error e clip, i, ⁇ due to the decrease in luminance for each pixel calculated in step S255 and the supplemental error e deblur, i, ⁇ for the afterimage deterioration for each pixel calculated in step S256.
  • the in-plane total sum E i, ⁇ is calculated as shown in the above-mentioned equation (9).
  • step S261 the learning unit 211 obtains an optimal output time (the parameter ⁇ thereof) that minimizes the in-plane total sum E i, ⁇ calculated in step S260.
  • step S261 When the process of step S261 ends, the output time calculation process ends, and the process returns to FIG.
  • the learning unit 211 image processing unit 121 also controls the output time of each frame image so as to minimize the error between the input image and the projection image in this case as well. Can. Therefore, the image projection system 100 can suppress the reduction in subjective image quality due to the occurrence of superimposed blurring in the projected image and the reduction in luminance.
  • the image projection system 100 can project a high frame rate image using the low frame rate projection device 112 by performing the image projection as described above. Therefore, high frame rate projection can be realized more inexpensively. Further, as described above, the image projection system 100 can suppress the reduction in subjective image quality only by the conversion of the video signal by the image processing unit 121 without requiring a special viewing device such as glasses. That is, the image projection system 100 can suppress the reduction of the subjective image quality more easily and inexpensively. Furthermore, the image projection system 100 can realize an even higher frame rate image projection by increasing the number of projectors 112.
  • the difference (error) between the input image and the projected image is determined for all the pixels of the frame image
  • the present invention is not limited to this, and the error is calculated for some pixels.
  • the in-plane sum of the errors may be determined using the errors of the pixels of the part.
  • the filter operation is used when estimating the output pixel value Y i, ⁇ and the projection pixel value Z i, ⁇ .
  • the estimation method is arbitrary and is not limited to the filter operation.
  • other methods such as optimization by linear programming may be used.
  • the frame image for the left eye and the frame image for the right eye are alternately projected.
  • those frame images may be superimposed.
  • crosstalk occurs in which a plurality of frame images having different viewpoints are superimposed, which may reduce the subjective image quality.
  • crosstalk is more likely to occur. For example, the longer the output time of each frame image (the longer the projected time), the higher the possibility of crosstalk.
  • the time during which the user can view the projected image of each frame image of the moving image is controlled based on each frame image of the moving image. You may do it.
  • the time during which the user can view the projected image of each frame image of the moving image may be controlled so as to suppress an increase in the overall error between the error due to luminance reduction and the error due to crosstalk. . By doing this, it is possible to suppress the reduction in the subjective image quality of the projection image.
  • FIG. 22 is a block diagram illustrating an exemplary main configuration of an embodiment of an image projection system to which the present technology is applied.
  • An image projection system 300 shown in FIG. 22 is an active shutter type stereoscopic image projection system in which stereoscopic vision is realized by a user viewing a projection image through a glasses-type stereoscopic vision apparatus having a shutter (light shielding mechanism). An embodiment is shown.
  • this image projection system 300 includes, for example, a control device 301, a projection device 302, and a stereoscopic device 303.
  • the control device 301 is connected to the projection device 302 via the cable 304, and is further connected to the stereoscopic device 303 via the cable 305.
  • the control device 301 supplies an input image to the projection device 302 and controls image projection by the projection device 302 through the cable 304.
  • the control device 301 also controls the drive of the stereoscopic device 303 via the cable 305.
  • the projection device 302 is controlled by the control device 301, and sequentially projects each frame image of the moving image supplied from the control device 301 onto the screen 310.
  • the control device 301 supplies, to the projection device 302, a moving image for stereoscopic vision having frame images of multiple viewpoints having parallax (for example, a frame image for the right eye and a frame image for the left eye).
  • the projection device 302 sequentially projects frame images of respective viewpoints of the moving image (for example, a frame image for the right eye and a frame image for the left eye) on the screen 310.
  • the moving image for stereoscopic vision may be supplied from the outside to the control device 301 as an input image, or may be generated by the control device 301.
  • the control device 301 may convert each frame image of a normal moving image supplied from the outside into a plurality of viewpoints and convert it into a moving image for stereoscopic viewing.
  • the stereoscopic device 303 is a glasses-type device, and is a device that enables a user wearing the device to stereoscopically view the projection image 311 projected on the screen 310 by the projection device 302.
  • a light shielding mechanism is provided which alternately performs light shielding for the right eye and light shielding for the left eye according to the projection timing of the frame image for the right eye and the frame image for the left eye.
  • the stereoscopic device 303 is located in front of the user's left eye in a state of being properly worn by the user, and can block light incident on the left eye through itself and the left eye light shielding portion 321
  • a right eye light shielding portion 322 is provided in front of the user's right eye in a state of being properly worn by the user, and can shield light incident on the right eye via itself. That is, the left-eye light shielding portion 321 is formed at the position of the left-eye lens of ordinary glasses. Similarly, the right eye light shielding portion 322 is formed at the position of the lens for the right eye of ordinary glasses.
  • the left-eye light shielding unit 321 is controlled by, for example, the control device 301, and is driven in synchronization with the timing at which the projection device 302 projects the right-eye frame image, and does not show the right-eye frame image to the user's left eye To shade.
  • the right-eye light shielding unit 322 is controlled by, for example, the control device 301, and is driven in synchronization with the timing at which the projection device 302 projects a left-eye frame image, and the left-eye frame image is used as the user's right eye Shading so as not to show it.
  • the user wearing the stereoscopic device 303 can view the projected image of the left-eye frame image with the left eye and see the projected image of the right-eye frame image with the right eye. Therefore, the user can stereoscopically view the projected image 311 projected on the screen 310.
  • FIG. 23 is a timing chart showing an example of the state of projection and light blocking control.
  • each frame image is projected as the upper parallelogram of FIG.
  • the frame rate of the moving image is 240 frames per second (240 Hz), and each frame image is projected by 1/240 seconds.
  • the projection of each frame image is inclined like a parallelogram because the projection timing is shifted for each line (row) by the line scanning method. Horizontal lines in the parallelogram in the figure indicate examples of projection periods of the respective lines.
  • the stereoscopic device 303 is controlled by the control device 301, and is configured to control the left-eye light shielding portion 321 (also referred to as left-eye shutter) and the right-eye light shielding portion 322 (also referred to as right-eye shutter). Are closed (blocked) at the timing as indicated by the double arrows in FIG.
  • the user projects a projected image of a frame image for the left eye.
  • the image for the left eye can be seen with the left eye.
  • the user may look at the projected image (right-eye image) of the frame image for the right eye with the right eye it can. That is, the user can view the projection image 311 like a solid (stereoscopic view).
  • control device 301 controls the projection device 302 to sequentially project the frame image for the right eye and the frame image for the left eye of the moving image, and the user operates the stereoscopic device 303 to the frame for the right eye of the moving image.
  • the time during which the projected image of the frame image for the right eye and the frame image for the left eye of the moving image can be viewed is controlled.
  • control device 301 controls the light shielding by the stereoscopic device 303 so that the user can view the projected image of each frame image of the moving image. Control.
  • the projection device 302 projects an image by the line scanning method, the projection timing is shifted for each line. Therefore, as shown in FIG. 23, crosstalk occurs in which the frame image for the left eye and the frame image for the right eye are superimposed. Since the frame images of the respective viewpoints have parallax, there is a possibility that the subjective image quality may be reduced if such crosstalk occurs.
  • the stereoscopic device 303 has a period in which a frame image for the left eye and a frame image for the right eye overlap in the projection image (for example, periods T1 to T2, periods T3 to T4).
  • a frame image for the left eye and a frame image for the right eye overlap in the projection image for example, periods T1 to T2, periods T3 to T4.
  • both the left eye light shielding portion 321 and the right eye light shielding portion 322 are closed. That is, in this period, the light shielding for the right eye and the light shielding for the left eye overlap, and the user can not view the image for the left eye or the image for the right eye (blackout).
  • blackout period it is possible to suppress the occurrence of crosstalk in which frame images of multiple viewpoints are superimposed.
  • the blackout period becomes longer, the luminance of the projected image 311 viewed from the user decreases (the error due to the luminance reduction increases).
  • the blackout period is shorter, crosstalk is more likely to occur (or the period in which crosstalk occurs is longer).
  • the control device 301 controls the time during which the user can view the projected image of each frame image of the moving image by controlling the time (also referred to as light blocking time) at which the light blocking for the right eye and the light blocking for the left eye overlap. .
  • the control device 301 controls the length of the light blocking time so as to suppress the reduction in the subjective image quality of the projected image 311 viewed from the user.
  • control device 301 and the projection device 302 are described to be connected by wire by the cable 304, but the control device 301 and the projection device 302 may be able to perform wireless communication. In that case, the cable 304 can be omitted.
  • control device 301 and the stereoscopic device 303 are described as being connected by wire by the cable 305. However, even if the control device 301 and the stereoscopic device 303 can perform wireless communication. Good. In that case, the cable 305 can be omitted.
  • Control device> A main configuration example of the control device 301 is shown in FIG. As illustrated in FIG. 24, the control device 301 includes an image processing unit 351, a projection control unit 352, and a shutter control unit 353.
  • the image processing unit 351 controls the time during which the user can view the projected image of each frame image of the moving image based on each frame image of the input image. More specifically, the image processing unit 351 controls the length of the light blocking time by the stereoscopic device 303 as the time in which the user can visually recognize the projection image of each frame image of the moving image. For example, the image processing unit 351 calculates a parameter ⁇ representing the length of the light blocking time based on each frame image of the input image, and supplies the parameter to the shutter control unit 353.
  • the image processing unit 351 generates an output image (output pixel value Y i, ⁇ ) based on the input image (input pixel value X i ), and supplies it to the projection control unit 352.
  • the projection control unit 352 supplies the output image (output pixel value Y i, ⁇ ) supplied from the image processing unit 351 to the projection device 302 to sequentially project the frame images of each viewpoint of the moving image.
  • the shutter control unit 353 supplies the parameter ⁇ supplied from the image processing unit 351 to the stereoscopic device 303 (glasses), and the length of the light blocking time by the stereoscopic device 303 becomes the length corresponding to the parameter ⁇ .
  • the drive of the stereoscopic device 303 is controlled.
  • crosstalk decreases as the light blocking time decreases. Therefore, as the light blocking time decreases, as in the curve 372 of the graph of FIG. 25, the error due to crosstalk (the difference between the projected image and the input image) increases.
  • the overall error taking into account both the error due to the restriction of the luminance value that can be expressed as described above (error due to the luminance decrease) and the error due to crosstalk is a straight line 371 From the state of increase and decrease with the curve 372, for example, it becomes a curve like curve 373.
  • the image processing unit 351 of FIG. 24 controls the output time of each frame image to obtain this overall error (the difference between the input image and the projected image due to the decrease in Of the difference between the input image and the projected image can be controlled by increasing the time during which the image can be viewed.
  • the image processing unit 351 can control the light blocking time by the stereoscopic device 303 by obtaining the parameter ⁇ representing the light blocking time and supplying it to each of the projection devices 112.
  • the image processing unit 121 can control the time during which the user can visually recognize the projected image of each frame image based on each frame image of the input image.
  • the image processing unit 351 can suppress the reduction in the subjective image quality of the projection image by such control.
  • the image processing unit 351 may display an error due to a decrease in luminance (difference between a projected image and an input image due to decrease in luminance) and an error due to crosstalk (a projected image in a state in which a frame image for right eye and a frame image for left eye are superimposed)
  • This parameter ⁇ may be determined so as to suppress the overall error between (i) and the input image) (ie, to reduce the magnitude of the overall error).
  • the image processing unit 351 can suppress the reduction of the subjective image quality of the projection image.
  • the image processing unit 351 may obtain the parameter ⁇ so as to minimize the overall error between the error due to the luminance decrease and the error due to the crosstalk.
  • the image processing unit 351 obtains an optimum light blocking time (dotted line 374) which is a light blocking time at which the minimum value of the curve 373 can be obtained in the graph of FIG. May be supplied to the stereoscopic device 303. By doing this, the image processing unit 351 can further suppress the reduction in the subjective image quality of the projection image.
  • the image processing unit 351 may obtain this parameter ⁇ for each frame image.
  • the light blocking time for all frame images may not be uniform. That is, the image processing unit 351 may control the time during which the user can view the projection image for each frame image of the input image.
  • the overall error can be further suppressed by causing the image processing unit 351 to obtain the parameter ⁇ for each frame image according to the content of each frame image. That is, the image processing unit 351 can further suppress the reduction in the subjective image quality of the projection image.
  • the parameter ⁇ in the present embodiment is a parameter representing the length of the light shielding time, assuming that this is a ratio to the maximum value as in the first embodiment, (1- ⁇ ) Time will be represented. That is, as in the first embodiment, it can be said that the parameter ⁇ of the present embodiment also represents the time during which the user can view the projected image of each frame image of the moving image.
  • the image processing unit 351 may perform the same processing as that described in the first embodiment. That is, the description regarding the image processing unit 121 in the first embodiment can also be applied to the image processing unit 351 by setting the parameter ⁇ to (1 ⁇ ).
  • the image processing unit 351 has the same configuration as the image processing unit 121 in the first embodiment, and can perform the same processing.
  • the parameter ⁇ in this case can also be determined by the same method as described in ⁇ Method 1 for determining parameter ⁇ >.
  • the image processing unit 351 When the image display processing is started, the image processing unit 351 performs image processing to control "the time during which the user can visually recognize the projected image of each frame image of the moving image" based on the input image in step S301. .
  • step S302 the projection control unit 352 supplies each frame image of the input image to the projection device 112 and causes the projection device 112 to sequentially project.
  • step S303 the shutter control unit 353 controls the drive of the stereoscopic device 303 (the light shielding unit 321 for the left eye and the light shielding unit 322 for the right eye), so that the user can stereoscopically view the projection image.
  • the shutter control unit 353 controls the drive of the stereoscopic device 303 (the light shielding unit 321 for the left eye and the light shielding unit 322 for the right eye), so that the user can stereoscopically view the projection image.
  • the image display processing ends.
  • step S301 the flow of the image processing performed in step S301 is basically the same as the example described above with reference to the flowchart in FIG. 11, and the light blocking time may be calculated instead of the output time.
  • the flow of the process of calculating the light blocking time may be basically the same as the flow of the output time calculation process described with reference to the flowchart of FIG.
  • the image processing unit 351 can control the light blocking time by the stereoscopic device 303 so as to minimize the error between the input image and the projection image. Therefore, the image projection system 300 can suppress the reduction in subjective image quality due to the occurrence of crosstalk in the projected image and the reduction in luminance.
  • each frame image of the input image may be distributed as in the image projection system 100.
  • a low frame rate projector 302 can be used to project high frame rate images. Therefore, high frame rate projection can be realized more inexpensively.
  • the image projection system 300 can realize image projection at an even higher frame rate by increasing the number of projectors 302.
  • the difference (error) between the input image and the projected image is determined for all the pixels of the frame image
  • the present invention is not limited to this, and the error is calculated for some pixels.
  • the in-plane sum of the errors may be determined using the errors of the pixels of the part.
  • the method of obtaining the parameter ⁇ indicating the light blocking time is arbitrary, and is not limited to the above example.
  • the parameter ⁇ may be determined by a method basically the same as the method described above in ⁇ Method 2 for Determining the Parameter ⁇ >.
  • the image display process is performed in the same flow as the case described with reference to the flowchart of FIG.
  • the image processing executed in step S101 of the image display processing is also performed in the same flow as the case described with reference to the flowchart of FIG.
  • the process of calculating the light blocking time performed in step S112 of the image processing may be performed basically in the same manner as the flow of the output time calculating process described with reference to the flowchart of FIG.
  • the image processing unit 351 can control the light blocking time by the stereoscopic device 303 so as to minimize the error between the input image and the projection image. Therefore, the image projection system 300 can suppress the reduction in subjective image quality due to the occurrence of crosstalk in the projected image and the reduction in luminance.
  • the image projection system 300 can project a high frame rate image using the plurality of low frame rate projection devices 302. Therefore, high frame rate projection can be realized more inexpensively.
  • the image projection system 100 can realize an image projection at an even higher frame rate by increasing the number of projectors 302.
  • the difference (error) between the input image and the projected image is determined for all the pixels of the frame image
  • the present invention is not limited to this, and the error is calculated for some pixels.
  • the in-plane sum of the errors may be determined using the errors of the pixels of the part.
  • the method of estimating the output pixel value Y i, ⁇ or the projection pixel value Z i, ⁇ is arbitrary and is not limited to the filter operation.
  • other methods such as optimization by linear programming may be used.
  • the image processing unit 351 is further influenced by the superposition of a plurality of frame images in the projected image of each frame image of the input image. Image processing for suppressing the image may be performed on each frame image before projection.
  • the image processing unit 351 may correct the pixel value so as to minimize the error between the input image and the projection image.
  • the image processing unit 351 basically has the same configuration as the image processing unit 121 (FIG. 14) in the second embodiment, and basically the same processing may be performed. . That is, the description regarding the image processing unit 121 in the second embodiment can be applied to the image processing unit 351 by setting the parameter ⁇ to (1 ⁇ ).
  • the image display processing may be performed in the same flow as in the case of the third embodiment described with reference to the flowchart of FIG.
  • the image processing performed in step S301 may be performed in the same flow as the case described with reference to the flowchart in FIG.
  • the learning process performed in step S202 of FIG. 18 may be performed in the same flow as the case described with reference to the flowchart of FIG.
  • the prediction process executed in step S203 of FIG. 18 may be performed in the same flow as the case described with reference to the flowchart of FIG.
  • the image processing unit 351 can not only control the blocking time but also correct the pixel value so that the error between the input image and the projection image is minimized. it can. Therefore, the image projection system 300 can suppress the occurrence of crosstalk in the projection image, and can also suppress the reduction in the brightness of the projection image. That is, the image projection system 100 can suppress the reduction in subjective image quality.
  • the present invention is not limited to this, and the above-described learning and prediction may be performed on some pixels.
  • the frame image may be divided into a plurality of times to perform learning and prediction, or pixels to be interpolated may be provided by using a predetermined function or the like without performing learning and prediction.
  • the projection device 302 projects an image by a line scan method, and the timing of projection is shifted for each line.
  • the stereoscopic device 303 mixes the mixture ratio of the frame image for the left eye and the frame image for the right eye in this blackout period (light shielding time) in order to block the entire surface simultaneously. It is different. Therefore, the image processing unit 351 may perform the correction of the pixel value for each line of each frame image of the moving image. By doing this, the image processing unit 351 can perform correction according to the mixture ratio of frame images in units of lines, and can perform correction of pixel values more accurately. That is, reduction in subjective image quality can be further suppressed.
  • the method of obtaining the parameter ⁇ indicating the light blocking time is arbitrary, and is not limited to the above example.
  • the error e clip.i. ⁇ (first difference) due to the decrease in luminance and the correction error e deblur of the afterimage deterioration may be set using the error E i, ⁇ of the entire frame image which is the sum of the entire image of i, ⁇ (second difference).
  • the image processing unit 351 may suppress the reduction in subjective image quality of the projected image by setting the light blocking time (parameter ⁇ ) so as to suppress the increase in the error E i, ⁇ of the entire frame image. it can. Also, for example, the image processing unit 351 sets the light blocking time (parameter ⁇ ) so as to minimize the error E i, ⁇ of the entire frame image (that is, to obtain the optimum light blocking time). The reduction of the image quality can be further suppressed.
  • the image display processing may be performed in the same flow as the case of the third embodiment described with reference to the flowchart of FIG.
  • the image processing performed in step S301 may be performed in the same flow as the case described with reference to the flowchart in FIG.
  • the learning process performed in step S202 of FIG. 18 may be performed in the same flow as the case described with reference to the flowchart of FIG.
  • the prediction process executed in step S203 of FIG. 18 may be performed in the same flow as the case described with reference to the flowchart of FIG.
  • the image processing unit 351 can control the output time of each frame image so as to minimize the error between the input image and the projection image. Therefore, the image projection system 300 can suppress the reduction in subjective image quality due to the occurrence of crosstalk in the projection image and the reduction in luminance.
  • the method of estimating the output pixel value Y i, ⁇ or the projection pixel value Z i, ⁇ is arbitrary, and is not limited to the filter operation.
  • other methods such as optimization by linear programming may be used.
  • the configuration of the image projection system 100 to which the present technology is applied is not limited to the above-described example.
  • the numbers of central processing units 111 and projectors 112 are arbitrary.
  • the number of central processing units 111 may be more than one, the number of projection devices 112 may be three or less, or five or more.
  • the specifications (for example, resolution, brightness, frame rate, etc.) of the respective projection devices 112 may or may not be the same.
  • the image processing unit 121 and the distribution unit 122 of the central processing unit 111 may be independent units, and the image projection system 100 may be replaced by the image processing unit 511 and the central processing unit 111.
  • a distribution device 512 may be provided.
  • the devices may be connected to one another via a network 530.
  • the image processing device 511, the distribution device 512, and the respective projection devices 112 of FIG. 27 are connected to one another via the network 530.
  • This network 530 is an arbitrary communication network.
  • the communication method employed in network 530 is arbitrary. For example, wired communication, wireless communication, or both of them may be used. Also, the network 530 may be configured by a single communication network, or may be configured by a plurality of communication networks.
  • the Internet a public telephone network, a wide area communication network for wireless mobiles such as so-called 3G circuits and 4G circuits, WAN (Wide Area Network), LAN (Local Area Network), communication conforming to Bluetooth (registered trademark) standards Communication network for near field communication such as NFC (Near Field Communication), communication channel for infrared communication, standard such as HDMI (High-Definition Multimedia Interface) or USB (Universal Serial Bus)
  • WAN Wide Area Network
  • LAN Local Area Network
  • Bluetooth registered trademark
  • Communication network for near field communication such as NFC (Near Field Communication)
  • communication channel for infrared communication standard such as HDMI (High-Definition Multimedia Interface) or USB (Universal Serial Bus)
  • a communication network or communication path of any communication standard such as a communication network of wired communication conforming to the above may be included in the network 530.
  • Each device is communicably connected to the network 530.
  • This connection may be wired (that is, connected via wired communication), may be wireless (that is, connected via wireless communication), or may be both of them.
  • the respective devices can communicate with each other (perform transmission and reception of information, etc.) via the network 530.
  • the devices may be communicably connected to each other via other equipment (device, transmission path, etc.).
  • the image projection system 100 can apply the present technology as in the case of the other embodiments described above, and can exert the above-described effects.
  • the central processing unit 111 of FIG. 5 may be provided instead of the image processing unit 511 and the distribution unit 512.
  • An image projection device 551 shown in FIG. 29 includes an image processing unit 121, a distribution unit 122, and projection units 562-1 to 562-4.
  • the projection units 562-1 to 562-4 are processing units similar to each other, and are referred to as a projection unit 562 when it is not necessary to distinguish them from each other.
  • the projection unit 562 performs the same processing as the projection device 112, and projects the frame image assigned to itself.
  • the image projection device 551 can apply the present technology as in the case of the image projection system 100, and can exert the above-described effects.
  • the configuration of the image projection device 551 is arbitrary and is not limited to the example of FIG.
  • the numbers of the image processing units 121, the distributing units 122, and the projecting units 562 are arbitrary.
  • the specifications (for example, resolution, brightness, frame rate, etc.) of the respective projection devices 112 may or may not be the same.
  • the image processing unit 121, the distribution unit 122, and a part of the projection devices 112 may be configured as one device.
  • An image projection device 581 shown in FIG. 30 includes an image processing unit 121, a distribution unit 122, and a projection unit 562-1. Not only the projection unit 562-1 incorporated in the image projector 581 but also an external projector 112-1, a projector 112-3, and a projector 112-4 are connected to the distribution unit 122.
  • the distributing unit 122 cyclically distributes each frame image supplied from the image processing unit 121 to the projecting unit 562-1 and the projecting devices 112-1 to 112-4.
  • the present technology can be applied to such an image projection device 581 as in the case of the image projection system 100, and the above-described effects can be achieved.
  • the configuration of the image projection system 300 to which the present technology is applied is not limited to the above-described example.
  • the numbers of the control device 301, the projection device 302, and the stereoscopic device 303 are arbitrary.
  • the image processing unit 351, the projection control unit 352, and the shutter control unit 353 of the control device 301 may be independent devices.
  • the respective devices may be connected to one another via the network 530.
  • control device 301 and the projection device 302 may be configured as one device. Furthermore, when there are a plurality of projection devices 302, as in the example of FIG. 30, the control device 301 and some of the projection devices 302 may be configured as one device.
  • the control device 301 and the stereoscopic device 303 may be configured as one device. Furthermore, when there are a plurality of stereoscopic devices 303, the control device 301 and a part of the stereoscopic devices 303 may be configured as one device. Of course, the control device 301, the projection device 302, and the stereoscopic device 303 may be configured as one device.
  • the frame rates of the input image, the output image output from each projection unit or the projection apparatus, and the projection image projected on the screen are arbitrary, and are not limited to the above-described example.
  • the frame rates may be different between the input image and the projection image.
  • the present technology is a system and apparatus used in any field such as traffic, medical care, crime prevention, agriculture, animal husbandry, mining, beauty, factory, home appliance, weather, nature monitoring, etc. as long as it processes images. , Processing unit etc. can be applied.
  • the present technology can be applied to systems and devices provided for viewing. Also, for example, the present technology can be applied to systems and devices provided for traffic management. Furthermore, for example, the present technology can be applied to systems and devices provided for security. Also, for example, the present technology can be applied to systems and devices provided for sports. Furthermore, for example, the present technology can be applied to systems and devices provided for agriculture. Also, for example, the present technology can be applied to systems and devices provided for livestock industry. Furthermore, the present technology can also be applied to systems and devices that monitor natural conditions such as, for example, volcanoes, forests, and oceans.
  • the present technology can be applied to, for example, a meteorological observation system or a meteorological observation apparatus that observes weather, air temperature, humidity, wind speed, daylight hours, and the like.
  • the present technology can be applied to, for example, a system or device for observing the ecology of wildlife such as birds, fish, reptiles, amphibians, mammals, insects, plants and the like.
  • the series of processes described above can be performed by hardware or software. In addition, some processes may be executed by hardware and other processes may be executed by software.
  • a program that configures the software is installed on a computer.
  • the computer includes, for example, a general-purpose personal computer that can execute various functions by installing a computer incorporated in dedicated hardware and various programs.
  • FIG. 31 is a block diagram showing an example of a hardware configuration of a computer that executes the series of processes described above according to a program.
  • a central processing unit (CPU) 801, a read only memory (ROM) 802, and a random access memory (RAM) 803 are mutually connected via a bus 804.
  • An input / output interface 810 Also connected to the bus 804 is an input / output interface 810.
  • An input unit 811, an output unit 812, a storage unit 813, a communication unit 814, and a drive 815 are connected to the input / output interface 810.
  • the input unit 811 includes, for example, a keyboard, a mouse, a microphone, a touch panel, an input terminal, and the like.
  • the output unit 812 includes, for example, a display, a speaker, and an output terminal.
  • the storage unit 813 includes, for example, a hard disk, a RAM disk, and a non-volatile memory.
  • the communication unit 814 is, for example, a network interface.
  • the drive 815 drives removable media 821 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory.
  • the CPU 801 loads the program stored in the storage unit 813 into the RAM 803 via the input / output interface 810 and the bus 804 and executes the program. Processing is performed.
  • the RAM 803 also stores data necessary for the CPU 801 to execute various processes.
  • the program executed by the computer (CPU 801) can be recorded and applied to, for example, a removable medium 821 as a package medium or the like.
  • the program can be installed in the storage unit 813 via the input / output interface 810 by attaching the removable media 821 to the drive 815.
  • the program can also be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.
  • the program can be received by the communication unit 814 and installed in the storage unit 813.
  • this program can be installed in advance in the ROM 802 or the storage unit 813.
  • the present technology relates to any configuration that configures an apparatus or system, for example, a processor as a system LSI (Large Scale Integration) or the like, a module using a plurality of processors, a unit using a plurality of modules, etc. It can also be implemented as a set or the like with additional functions (ie, part of the configuration of the device).
  • a processor as a system LSI (Large Scale Integration) or the like
  • a module using a plurality of processors a unit using a plurality of modules, etc.
  • additional functions ie, part of the configuration of the device.
  • the system means a set of a plurality of components (apparatus, modules (parts), etc.), and it does not matter whether all the components are in the same case. Therefore, a plurality of devices housed in separate housings and connected via a network, and one device housing a plurality of modules in one housing are all systems. .
  • the configuration described as one device (or processing unit) may be divided and configured as a plurality of devices (or processing units).
  • the configuration described as a plurality of devices (or processing units) in the above may be collectively configured as one device (or processing unit).
  • configurations other than those described above may be added to the configuration of each device (or each processing unit).
  • part of the configuration of one device (or processing unit) may be included in the configuration of another device (or other processing unit) if the configuration or operation of the entire system is substantially the same. .
  • the present technology can have a cloud computing configuration in which one function is shared and processed by a plurality of devices via a network.
  • the program described above can be executed on any device.
  • the device may have necessary functions (functional blocks and the like) so that necessary information can be obtained.
  • each step described in the above-described flowchart can be executed by one device or in a shared manner by a plurality of devices.
  • the plurality of processes included in one step can be executed by being shared by a plurality of devices in addition to being executed by one device.
  • a plurality of processes included in one step can be executed as a process of a plurality of steps.
  • the processes described as a plurality of steps can be collectively performed as one step.
  • the program executed by the computer may be such that the processing of the steps describing the program is executed in chronological order according to the order described in this specification, in parallel or when a call is made, etc. It may be executed individually at the necessary timing of That is, as long as no contradiction arises, the processing of each step may be performed in an order different from the order described above. Furthermore, the process of the step of writing this program may be executed in parallel with the process of another program, or may be executed in combination with the process of another program.
  • An image processing apparatus comprising: a control unit configured to control a time during which a user can visually recognize a projected image of each frame image of the moving image based on each frame image of the moving image.
  • the control unit is configured to increase the difference between the moving image and the projected image due to the decrease in luminance, and the moving image and the projected image which increase as the time during which the user can view the projected image increases.
  • the image processing apparatus according to (1) wherein a time during which the user can view the projected image is controlled so as to suppress a difference between the above and the other.
  • the control unit controls the time during which the user can view the projected image so that the sum of the entire image of the difference between the moving image and the projected image obtained for each pixel is minimized.
  • the image processing apparatus according to any one of (1) to (5).
  • the control unit Based on an input luminance value that is a luminance value of the moving image, an output luminance value that is a luminance value output by the projection unit is estimated; Estimating a projected luminance value, which is a luminance value of the projected image, based on the estimated output luminance value and the restriction of the output luminance value by the length of time during which the user can view the projected image; The difference between the moving image and the projected image is determined for each pixel based on the input luminance value and the projected luminance value estimated. The time during which the user can view the projected image is controlled such that the sum of the entire image of the difference between the moving image and the projected image obtained for each pixel is minimized.
  • (6) apparatus Based on an input luminance value that is a luminance value of the moving image, an output luminance value that is a luminance value output by the projection unit is estimated; Estimating a projected luminance value, which is a luminance value of the projected image, based on the estimated output luminance value and the restriction of the output luminance value by the
  • the image processing apparatus estimates the output luminance value by filter calculation.
  • the image processing apparatus estimates the output luminance value by optimization using linear programming.
  • the control unit determines the maximum value of the output luminance value in accordance with a ratio of the time in which the user can view the projection image to the case in which the time in which the user can view the projection image is maximum.
  • the image processing apparatus according to any one of (7) to (9).
  • the control unit estimates the projection luminance value using a blur coefficient representing a degree of blurring due to overlapping of projection images of a plurality of frame images according to any one of (7) to (10). Image processing device.
  • the control unit determines a difference between the moving image and the projection image based on the input luminance value and the projection luminance value of all frame images to be superimposed. (7) to (11) The image processing apparatus according to any one of the above. (13) The control unit The difference between the moving image and the projected image due to the decrease in luminance is estimated for each pixel as a first difference, As a second difference, the difference between the moving image and the projection image, which increases as the time during which the user can view the projection image increases, is estimated for each pixel, Calculating a total sum of the first difference and the second difference over the entire image; The image processing apparatus according to (6), wherein a time during which the user can view the projection image is controlled such that the sum is minimized.
  • the image processing apparatus (14) The image processing apparatus according to (13), wherein the control unit estimates the first difference based on a length of time during which the user can view the projection image. (15) The control unit estimates the first difference according to a ratio of the time in which the user can view the projection image to the case in which the time in which the user can view the projection image is maximum. 14) The image processing apparatus according to the above. (16) The image processing apparatus according to any one of (13) to (15), wherein the control unit estimates the second difference based on a difference between a pixel of interest and a peripheral pixel. (17) The image processing apparatus according to any one of (1) to (16), wherein the control unit controls a time during which the user can view the projection image for each frame image of the moving image.
  • the control unit when projecting each frame image of the moving image cyclically using a plurality of projecting units, the time during which the user can view the projected image of each frame image of the moving image.
  • the image processing apparatus according to any one of (1) to (17).
  • the control unit sequentially projects the frame image for the right eye and the frame image for the left eye of the moving image, and the user can perform stereoscopic viewing of the moving image for the right eye of the moving image.
  • Controlling the time during which the projected image of the right-eye frame image and the left-eye frame image of the moving image can be viewed when the projected image of the image is viewed The image processing according to any one of (1) to (19) apparatus.
  • (21) The image processing apparatus according to (20), wherein the control unit controls a time during which the light shielding for the right eye and the light shielding for the left eye overlap by the stereoscopic device.
  • the control unit further performs, on each frame image before projection, image processing for suppressing the influence of the superposition of a plurality of frame images in the projected image of each frame image of the moving image.
  • the image processing apparatus according to any one of (21) to (21).
  • the image processing apparatus according to (22), wherein the control unit performs image processing to correct pixel values of each frame image.
  • the image processing apparatus according to (23), wherein the control unit corrects the pixel value so as to minimize an error between the frame image and the projection image.
  • the image processing apparatus according to any one of (1) to (25), further including: a distribution unit that cyclically distributes each frame image of the moving image to a plurality of projection units.
  • the image processing apparatus according to (26), further including a plurality of the projection units that project the frame image distributed to itself by the distribution unit.
  • the image processing apparatus according to (27), wherein the plurality of projection units project the frame images distributed to itself at a lower rate than the frame rate of the moving image.
  • a projection unit that sequentially projects a frame image for the right eye and a frame image for the left eye of the moving image; In order to enable stereoscopic viewing of the moving image, light shielding for the right eye and light shielding for the left eye are alternately performed according to the projection timing of the frame image for the right eye and the frame image for the left eye by the projection unit
  • the image processing apparatus according to any one of (1) to (28), further including: a stereoscopic unit including a mechanism.
  • An image processing method which controls a time during which a user can view a projected image of each frame image of the moving image based on each frame image of the moving image.
  • 100 image projection system 111 central processing unit, 112 projection device, 113 screen, 121 image processing unit, 122 distribution unit, 131 storage unit, 132 output time calculation unit, 201 output calculation unit, 211 learning unit, 212 prediction unit, 300 image projection system, 301 control device, 302 projection device, 303 stereoscopic device, 310 screen, 321 light shielding unit for left eye, 322 light shielding unit for right eye, 351 image processing unit, 352 projection control unit, 353 shutter control unit, 511 image Processing unit, 512 distribution units, 530 network, 551 image projector, 562 projection unit, 581 image projector, 800 computer

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

本開示は、主観画質の低減を抑制することができるようにする画像処理装置および方法に関する。 動画像の各フレーム画像に基づいて、ユーザがその動画像の各フレーム画像の投影画像を視認可能な時間を制御する。例えば、制御部は、輝度の減少による動画像と投影画像との差、および、ユーザが投影画像を視認可能な時間が長くなることにより増大する動画像と投影画像との差を抑制するように、ユーザが投影画像を視認可能な時間を制御する。本開示は、例えば、画像処理装置、画像投影装置、制御装置、情報処理装置、画像投影システム、画像処理方法、またはプログラム等に適用することができる。

Description

画像処理装置および方法
 本開示は、画像処理装置および方法に関し、特に、主観画質の低減を抑制することができるようにした画像処理装置および方法に関する。
 従来、高フレームレートの映像を低フレームレートの画像投影装置に分配して投影する方法があった(例えば、特許文献1乃至特許文献3参照)。
特開2009-110028号公報 特開2005-136868号公報 特開2004-266808号公報
 しかしながら、これらの場合、同時刻に複数のフレーム画像が投影されるため、動きのある部分に重畳ボケが発生し、主観画質が低減するおそれがあった。また、各フレーム画像の投影時間を低減させ、各フレーム画像の投影画像が重畳しないようにする方法も考えられるが、その場合、投影画像の輝度が低減し、主観画質が低減するおそれがあった。
 本開示は、このような状況に鑑みてなされたものであり、主観画質の低減を抑制することができるようにするものである。
 本技術の一側面の画像処理装置は、動画像の各フレーム画像に基づいて、ユーザが前記動画像の各フレーム画像の投影画像を視認可能な時間を制御する制御部を備える画像処理装置である。
 本技術の一側面の画像処理方法は、動画像の各フレーム画像に基づいて、ユーザが前記動画像の各フレーム画像の投影画像を視認可能な時間を制御する画像処理方法である。
 本技術の一側面の画像処理装置および方法においては、動画像の各フレーム画像に基づいて、ユーザがその動画像の各フレーム画像の投影画像を視認可能な時間が制御される。
 本開示によれば、画像を処理することができる。特に、主観画質の低減を抑制することができる。
画像投影システムの主な構成例を示すブロック図である。 画像投影の様子の例を説明するための図である。 投影画像の例を示す図である。 画像投影の様子の例を説明するための図である。 画像投影システムの主な構成例を示すブロック図である。 画像処理部の主な構成例を示すブロック図である。 出力時間の制御の様子の例を説明するための図である。 出力時間を制御した画像投影の様子の例を説明するための図である。 出力時間を制御した画像投影の様子の例を説明するための図である。 画像表示処理の流れの例を説明するフローチャートである。 画像処理の流れの例を説明するフローチャートである。 出力時間算出処理の流れの例を説明するフローチャートである。 出力時間算出処理の流れの例を説明するフローチャートである。 画像処理部の主な構成例を示すブロック図である。 画像投影の様子の例を説明するための図である。 係数Bの例を示す図である。 係数Dkの例を示す図である。 画像処理の流れの例を示すフローチャートである。 学習処理の流れの例を説明するフローチャートである。 予測処理の流れの例を説明するフローチャートである。 学習処理の流れの例を説明するフローチャートである。 画像投影システムの主な構成例を示すブロック図である。 画像投影と遮光の様子の例を説明するための図である。 制御装置の主な構成例を示すブロック図である。 遮光時間の制御の様子の例を説明するための図である。 画像表示処理の流れの例を説明するフローチャートである。 画像投影システムの主な構成例を示すブロック図である。 画像投影システムの主な構成例を示すブロック図である。 画像投影システムの主な構成例を示すブロック図である。 画像投影システムの主な構成例を示すブロック図である。 コンピュータの主な構成例を示すブロック図である。
 以下、本開示を実施するための形態(以下実施の形態とする)について説明する。なお、説明は以下の順序で行う。
 1.複数の投影装置による高フレームレート画像投影
 2.第1の実施の形態(画像投影システム・出力時間の制御)
 3.第2の実施の形態(画像投影システム・出力時間および輝度の制御)
 4.アクティブシャッタ方式による立体視画像投影
 5.第3の実施の形態(画像投影システム・出力時間の制御)
 6.第4の実施の形態(画像投影システム・出力時間および輝度の制御)
 7.第5の実施の形態(画像投影システム・他の構成例)
 8.その他
 <1.複数の投影装置による高フレームレート画像投影>
  <画像投影システム>
 従来、例えば、特許文献1乃至特許文献3に記載のように、高フレームレートの映像を低フレームレートの画像投影装置に分配して投影する方法があった。例えば、図1に示される画像投影システム10は、動画像を、4台の投影装置12(投影装置12-1乃至投影装置12-4)により投影するシステムである。
 この画像投影システム10に入力される動画像(入力画像とも称する)のフレームレートは毎秒120フレームである。これに対して、投影装置12-1乃至投影装置12-4は、それぞれ、毎秒30フレームで画像を投影する。そこで、振分装置11は、図2に示されるように、入力画像の各フレーム画像を、順次、投影装置12-1乃至投影装置12-4に循環的に振り分ける。投影装置12-1乃至投影装置12-4は、自身に振り分けられたフレーム画像を順次投影する。投影装置12のフレームレートは毎秒30フレームであるので、各投影装置12には、前のフレーム画像の投影が終了するタイミングで、次のフレーム画像が振分装置11から供給される。したがって、各投影装置12は、その次のフレーム画像を投影する。このように各投影装置12は、互いに120分の1秒ずつずれたタイミングでフレーム画像を投影する。
 例えば、投影装置12-1は、フレーム番号1、5、9、・・・のフレーム画像を投影し、投影装置12-2は、それより120分の1秒遅れたタイミングで、フレーム番号2、6、10、・・・のフレーム画像を投影し、投影装置12-3は、それより120分の1秒遅れたタイミングで、フレーム番号3、7、11、・・・のフレーム画像を投影し、投影装置12-4は、それより120分の1秒遅れたタイミングで、フレーム番号4、8、12、・・・のフレーム画像を投影する。
 したがって、スクリーン13に投影された投影画像は、各投影装置12から投影された画像が重畳された画像となる。例えば、点線枠21に示されるように、フレーム番号4の投影画像は、投影装置12-1より投影されたフレーム番号1のフレーム画像、投影装置12-2より投影されたフレーム番号2のフレーム画像、投影装置12-3より投影されたフレーム番号3のフレーム画像、および、投影装置12-4より投影されたフレーム番号4のフレーム画像が重畳された画像となる。図2に示されるように、このように重畳されるフレーム画像は、120分の1秒毎に変化する。つまり、投影画像は120分の1秒毎に変化するので、投影画像のフレームレートは毎秒120フレームとなる。
 しかしながら、この方法の場合、投影画像において、図2の点線枠21に示されるように、互いに異なる時刻のフレーム画像が重畳される。そのため、動きのある画像の場合、その部分に重畳ボケが発生し、主観画質が低減するおそれがあった。
 例えば、入力画像が、図3のAのように自動車31が右から左に移動する動画像である場合、各フレーム画像において自動車31の位置が異なるので、それらのフレーム画像を重畳すると、図3のBに示される例のように、自動車31の位置が互いにずれて重畳され、残像のように見える所謂重畳ボケが発生してしまう。そのため主観画質が低減するおそれがあった。
 これに対して、例えば、図4に示されるように、各投影装置12が各フレーム画像を120分の1秒しか投影しないようにする方法が考えられる。このようにすることにより、投影画像において各投影装置12から投影された画像が互いに重畳しないので、重畳ボケの発生を抑制することができる。しかしながら、この場合、図2の例に比べて明るさが4分の1に低減してしまうので主観画質が低減するおそれがあった。
  <投影画像の見える時間制御>
 そこで、動画像の各フレーム画像に基づいて、ユーザがその動画像の各フレーム画像の投影画像を視認可能な時間を制御するようにする。例えば、画像処理装置が、動画像の各フレーム画像に基づいて、ユーザがその動画像の各フレーム画像の投影画像を視認可能な時間を制御する制御部を備えるようにする。このようにすることにより、入力画像と投影画像との差がより小さくなるように動画像を投影することができる。すなわち、主観画質の低減を抑制することができる。
 <2.第1の実施の形態>
  <画像投影システム>
 図5は、本技術を適用した画像投影システムの一実施の形態の主な構成例を示すブロック図である。図5において、画像投影システム100は、入力される動画像(入力画像とも称する)の各フレーム画像を複数の投影装置を循環的に用いて投影することにより、投影装置のフレームレートよりも高フレームレートの動画像を投影することができるシステムである。
 図5に示されるように、画像投影システム100は、中央処理装置111、並びに、投影装置112-1乃至投影装置112-4を有する。中央処理装置111は、本技術を適用した画像処理装置の一実施の形態であり、投影対象である動画像(入力画像)の各フレーム画像に関する処理を行う。中央処理装置111は、例えば、画像処理部121および振分部122を有する。画像処理部121は、本技術を適用した画像処理部の一実施の形態であり、投影対象である動画像(入力画像)の各フレーム画像に対する画像処理に関する処理を行う。振分部122は、投影対象である動画像(入力画像)の各フレーム画像の振り分けに関する処理を行う。
 投影装置112-1乃至投影装置112-4は、画像を投影する機能を備える装置であり、画像の投影に関する処理を行う。なお、投影装置112-1乃至投影装置112-4を互いに区別して説明する必要がない場合、投影装置112と称する。投影装置112は、例えば、毎秒30フレームのフレームレートで画像を投影する。
 画像投影システム100に入力される入力画像は、フレームレートが毎秒120フレームの動画像である。この入力画像は、中央処理装置111(の画像処理部121)に入力される。画像処理部121は、その入力画像の各フレーム画像に基づいて、ユーザがその入力画像の各フレーム画像がスクリーン113に投影された投影画像を視認可能な時間を制御するための画像処理を行う。この画像処理の詳細については後述する。画像処理部121は、各フレーム画像を毎秒120フレームのフレームレートで振分部122に供給する。
 振分部122は、供給される各フレーム画像を、順次、投影装置112-1乃至投影装置112-4に循環的に振り分ける。例えば、振分部122は、投影装置112-1に対してフレーム番号1、5、9、・・・のフレーム画像を振り分け、投影装置112-2に対してフレーム番号2、6、10、・・・のフレーム画像を振り分け、投影装置112-3に対してフレーム番号3、7、11、・・・のフレーム画像を振り分け、投影装置112-4に対してフレーム番号4、8、12、・・・のフレーム画像を振り分ける。
 各投影装置112は、自身に振り分けられたフレーム画像を、出力画像として順次出力し、スクリーン113の同じ位置に投影する。上述のように各投影装置112には、フレームレートが毎秒120フレームの動画像の4フレーム毎に1フレームが振り分けられる。つまり、各投影装置112には、毎秒30フレームのフレームレートでフレーム画像が供給される。したがって、毎秒30フレームのフレームレートで画像を投影することができる各投影装置112は、供給されるフレーム画像を順次投影することができる。つまり、画像投影システム100は、入力画像のフレームレートよりも低レートで画像を投影する投影装置112を用いて、その入力画像を、入力画像のフレームレートで投影することができる。換言するに、画像投影システム100は、投影装置112の画像投影のフレームレートよりも高レートの入力画像を、その入力画像のフレームレートで投影することができる。
 また、振分部122が毎秒120フレームの動画像の各フレーム画像を順次振り分けることにより、各投影装置112にフレーム画像が振り分けられるタイミングは120分の1秒ずつずれる。そのため、各投影装置112の出力画像を投影するタイミングも120分の1秒ずつずれる。したがって、画像投影システム100は、図1の画像投影システム10の場合と同様に、毎秒120フレームのフレームレートで画像を投影することができる。
  <画像処理部>
 図6は、画像処理部121の主な構成例を示すブロック図である。図6に示されるように、画像処理部121は、記憶部131および出力時間算出部132を有する。記憶部131は、入力画像を記憶する。記憶部131は、所定のタイミングにおいて、または、出力時間算出部132等の外部の要求に基づいて、記憶している入力画像を出力時間算出部132に供給する。
 出力時間算出部132は、記憶部131から入力画像の各フレーム画像を取得し、その各フレーム画像に基づいて、各フレーム画像を投影装置112から出力する時間(出力時間とも称する)を制御する。
 フレームレート程度のような短時間においては、一般的に、フレーム画像の出力時間が短くなる程投影画像は暗くなる(輝度が低減する)。つまり、入力画像と投影画像の輝度の差は、ユーザが投影画像を視認可能な時間が短くなることにより増大する。したがって、図7のグラフの直線151のように、出力時間が短くなる程、投影画像の入力画像に対する誤差(この場合、投影画像と入力画像との輝度差)は大きくなる。
 また、一般的に、フレーム画像の出力時間が長くなる程、注目フレーム画像の投影画像が他のフレーム画像の投影画像と重畳(オーバーラップ)する時間が長くなる(場合によっては重畳するフレーム画像の数も増大する)。時刻の異なる複数のフレーム画像(の投影画像同士)が重畳すると図3のBを参照して説明したように所謂重畳ボケが発生する。つまり、複数のフレーム画像の投影画像が重畳することにより生じる投影画像と入力画像との差は、ユーザが投影画像を視認可能な時間が長くなることにより増大する。したがって、図7のグラフの曲線152のように、複数のフレーム画像の投影画像が重畳する程各フレーム画像の出力時間が長い場合、その出力時間が長くなる程、投影画像の入力画像に対する誤差(この場合、重畳ボケ)は大きくなる。
 図7のグラフに示されるように、以上のような表現可能な輝度値の制約による誤差(輝度減少による誤差)と、残像劣化による誤差(重畳ボケによる誤差)との両方を考慮した総合的な誤差は、直線151と曲線152との増減の様子から、例えば、曲線153のような曲線状となる。換言するに、出力時間算出部132は、各フレーム画像の出力時間を制御することにより、この総合的な誤差(輝度の減少による入力画像と投影画像との差、および、ユーザが投影画像を視認可能な時間が長くなることにより増大する入力画像と投影画像との差)の大きさを制御することができる。
 例えば、入力画像が毎秒120フレーム(120Hz)であり、投影装置112-1乃至投影装置112-4がそれぞれ毎秒30フレーム(30Hz)で出力画像を出力するとする。また、各フレーム画像の出力時間の最大値をフレームレートの1フレーム分の時間(この場合1/30秒(約33.3ms))とし、パラメータαが、出力時間を、その最大値に対する割合(%)で表すパラメータであるとする。
 α=50%の場合、投影装置112-1乃至投影装置112-4は、図8のように各フレーム画像を出力する。図8に示される各長方形は、各投影装置112が出力画像を出力している期間を示し、数字はその出力画像のフレーム番号を示している。この場合、各フレーム画像は、その前後のフレーム画像と1/120秒(約8.3ms)ずつ重畳(オーバーラップ)している。
 このように、出力時間算出部132(画像処理部121)は、フレーム画像の出力時間を表すパラメータαを求め、それを各投影装置112に供給することにより、各フレーム画像の出力時間を制御することができる。各フレーム画像の出力時間が変化することにより、ユーザが各フレーム画像の投影画像を視認可能な時間が変化する。つまり、出力時間算出部132(画像処理部121)は、入力画像の各フレーム画像に基づいて、ユーザがその各フレーム画像の投影画像を視認可能な時間を制御することができる。
 上述のように、「ユーザがその各フレーム画像の投影画像を視認可能な時間」として「各フレーム画像の出力時間」を制御することにより、輝度減少による誤差と重畳ボケによる誤差との総合的な誤差の大きさを制御することができるのであるから、出力時間算出部132は、このような制御により、投影画像の主観画質の低減を抑制することができる。
 例えば、出力時間算出部132が、輝度減少による誤差(輝度の減少による投影画像と入力画像との差)と重畳ボケによる誤差(複数のフレーム画像(の投影画像)が重畳した状態の投影画像と入力画像との差)との総合的な誤差を抑制するように(すなわち、この総合的な誤差の大きさが低減するように)、このパラメータαを求めるようにしてもよい。このようにすることにより、出力時間算出部132は、投影画像の主観画質の低減を抑制することができる。
 例えば、出力時間算出部132が、この輝度減少による誤差と重畳ボケによる誤差との総合的な誤差が最小となるように、パラメータαを求めるようにしてもよい。例えば、出力時間算出部132が、図7のグラフにおいて、曲線153の最小値が得られる出力時間である最適出力時間(点線154)を求め、その最適出力時間を表すパラメータαを各投影装置112に供給するようにしてもよい。このようにすることにより、出力時間算出部132は、投影画像の主観画質の低減をより抑制することができる。
 なお、出力時間算出部132が、このパラメータαを、フレーム画像毎に求めるようにしてもよい。例えば、図9に示される例のように、全てのフレーム画像の出力時間が統一されていなくてもよい。つまり、出力時間算出部132は、入力画像の各フレーム画像について、ユーザが投影画像を視認可能な時間を制御するようにしてもよい。
 一般的に、上述した輝度減少による誤差や重畳ボケによる誤差は、画像の内容によって変化する。したがって、出力時間算出部132が、各フレーム画像の内容に応じて、フレーム画像毎にパラメータαを求めるようにすることにより、総合的な誤差をより抑制することができる。つまり、出力時間算出部132は、投影画像の主観画質の低減をより抑制することができる。
  <パラメータαの求め方1>
 次に、上述の出力時間を示すパラメータαの求め方について説明する。上述のように、このパラメータαは、フレーム画像の出力時間を、その出力時間の最大値(例えばフレームレートの1フレーム分の時間)に対する割合(%)で表すとする。
 フィルタ演算(係数Di,α)によって、投影装置112から出力される出力画像の画素値(出力画素値)Yi,αは、入力画像の画素値(入力画素値)Xiを用いて以下の式(1)のように見積もることができる。なお、kは、フィルタの周辺タップループを示すパラメータである。
Figure JPOXMLDOC01-appb-I000001
 ・・・(1)
 なお、この画素値を輝度値とすると、入力画素値Xiは、入力輝度値Xiとも称する。また、出力画素値Yi,αは、出力輝度値Yi,αとも称する。さらに、入力画素値Xiをそのまま出力させる場合、出力画素値Yi,αは、以下の式(2)のように見積もることもできる。
Figure JPOXMLDOC01-appb-I000002
 ・・・(2)
 出力時間の減少(パラメータα)に応じて、出力画素値に対して以下の式(3)のように制約がくわわる。なお、出力時間が減少しない場合(すなわちパラメータα=100%の場合)の最大出力画素値(最大出力輝度値)をYmaxとする。また、式(3)において、CLIP(x,L,H)は、xを最小値L、最大値Hの間にクリップする関数とする。
Figure JPOXMLDOC01-appb-I000003
 ・・・(3)
 スクリーン113に投影された投影画像の画素値(投影画素値)Zi,αは、オーバーラップによるぼけ係数Bj,αを用いて以下の式(4)のように見積もることができる。なお、式(4)において、jは、投影装置112を識別するパラメータである。
Figure JPOXMLDOC01-appb-I000004
 ・・・(4)
 なお、この画素値を輝度値とすると、投影画素値Zi,αは、投影輝度値Zi,αとも称する。画像投影システム100が有する投影装置112は4台であるので、投影画素値Zi,αの理想値は、各フレーム画像の輝度値が互いに同一であるとすると、入力画素値Xiの4倍(すなわち、4Xi)である。したがって、画素毎の誤差(画素毎の入力画像と投影画像との差)ei,αは、以下の式(5)のように求めることができる。
Figure JPOXMLDOC01-appb-I000005
・・・(5)
 この値を一画面内(フレーム画像全体)で集計することにより、そのフレーム画像全体の誤差Ei,αは、以下の式(6)のように求めることができる。
Figure JPOXMLDOC01-appb-I000006
 ・・・(6)
 なお、式(6)においては、フレーム画像全体の誤差Ei,α(面内総和Ei,αとも称する)を二乗誤差和として求めたが、このフレーム画像全体の誤差Ei,αの算出方法は任意であり、この例に限定されない。例えば、一乗誤差の総和をフレーム画像全体の誤差Ei,αとしてもよいし、最大誤差値を選択し、それをフレーム画像全体の誤差Ei,αとするようにしてもよい。
 つまり、フレーム画像全体の誤差Ei,αは、パラメータαの関数として表すことができる。したがって、出力時間算出部132は、出力時間、すなわち、パラメータαを設定することにより、フレーム画像全体の誤差Ei,αを設定することができる。つまり、出力時間算出部132は、パラメータαを設定することにより、投影画像の主観画質の低減を抑制するように制御することができる。
 したがって、例えば、出力時間算出部132は、このフレーム画像全体の誤差Ei,αの増大を抑制するように、出力時間(パラメータα)を設定することにより、投影画像の主観画質の低減を抑制することができる。また、例えば、出力時間算出部132は、フレーム画像全体の誤差Ei,αが最小となるように、出力時間(パラメータα)を設定する(つまり最適出力時間を求める)ことにより、投影画像の主観画質の低減をより抑制することができる。
  <画像表示処理の流れ>
 次に、このような画像投影システム100において実行される処理の流れについて説明する。画像投影システム100は、上述のように高フレームレートの動画像を投影する場合、画像表示処理を行う。図10のフローチャートを参照して、この画像表示処理の流れの例を説明する。
 画像表示処理が開始されると、画像処理部121は、ステップS101において、フレームレートが毎秒120フレームの入力画像に基づいて、出力時間を制御する画像処理を行う。
 ステップS102において、振分部122は、その入力画像の各フレーム画像を、各投影装置112に振り分ける。また、振分部122は、ステップS101において算出されたパラメータαを各投影装置112に振り分ける。
 ステップS103において、各投影装置112は、自身に振り分けられた各フレーム画像を、自身に振り分けられたパラメータαに応じた出力時間で出力する(投影する)。このようにして各フレーム画像が順次投影される。
 画像の投影が終了すると画像表示処理が終了する。
  <画像処理の流れ>
 次に、図11のフローチャートを参照して、図10のステップS101において実行される画像処理の流れの例を説明する。
 画像処理が開始されると、画像処理部121の記憶部131は、ステップS111において、入力画像の全フレーム画像を記憶する。
 ステップS112において、出力時間算出部132は、記憶部131に記憶されている入力画像の各フレーム画像に基づいて、各フレーム画像の出力時間を求める。例えば、出力時間算出部132は、その出力時間を表すパラメータαを求める。
 出力時間(パラメータα)が求められると画像処理が終了し、処理は図10に戻る。
  <出力時間算出処理の流れ>
 次に、図12のフローチャートを参照して、図11のステップS112において実行される出力画像算出処理の流れの例を説明する。
 出力時間算出処理が開始されると、出力時間算出部132は、ステップS121において、処理対象とする水平座標である注目水平座標を、入力画像のフレーム画像の未処理の水平座標の中から設定する。
 ステップS122において、出力時間算出部132は、処理対象とする垂直座標である注目垂直座標を、入力画像のフレーム画像の未処理の垂直座標の中から設定する。
 ステップS123において、出力時間算出部132は、周辺タップループkを設定する(k=-m~m)。
 ステップS124において、出力時間算出部132は、記憶部131より入力画素値Xi+kを読み出す。
 ステップS125において、出力時間算出部132は、上述の式(1)(または式(2))で示される予測演算により出力画素値Yi,αを算出する。
 ステップS126において、出力時間算出部132は、上述の式(3)により、出力時間制御による最大輝度の制約を出力画素値Yi,αに反映する。
 ステップS127において、出力時間算出部132は、上述の式(4)により、輝度値制約後の投影画素値Zi,αを算出する。
 ステップS128において、出力時間算出部132は、入力画素値Xiと投影画素値Zi,αとの誤差ei,αを算出する。
 ステップS129において、出力時間算出部132は、全ての周辺タップループkについて処理を行ったか否かを判定する。未処理の周辺タップループkが存在すると判定された場合、処理はステップS123に戻り、それ以降の処理を繰り返す。すなわち、ステップS123乃至ステップS129の各処理が周辺タップループk毎に繰り返される。そして、ステップS129において全ての周辺タップループkについて処理が行われたと判定された場合、処理はステップS130に進む。
 ステップS130において、出力時間算出部132は、全ての垂直座標について処理を行ったか否かを判定する。未処理の垂直座標が存在すると判定された場合、処理はステップS122に戻り、それ以降の処理を繰り返す。すなわち、ステップS122乃至ステップS130の各処理が垂直座標毎に繰り返される。そして、ステップS130において全ての垂直座標について処理が行われたと判定された場合、処理はステップS131に進む。
 ステップS131において、出力時間算出部132は、全ての水平座標について処理を行ったか否かを判定する。未処理の水平座標が存在すると判定された場合、処理はステップS121に戻り、それ以降の処理を繰り返す。すなわち、ステップS121乃至ステップS131の各処理が水平座標毎に繰り返される。そして、ステップS131において全ての水平座標について処理が行われたと判定された場合、処理はステップS132に進む。
 ステップS132において、出力時間算出部132は、ステップS128において算出された画素毎の誤差ei,αの面内総和Ei,αを算出する。
 ステップS133において、出力時間算出部132は、ステップS132において算出された面内総和Ei,αが最小となる最適出力時間(そのパラメータα)を求める。
 ステップS133の処理が終了すると、出力時間算出処理が終了し、処理は図11に戻る。
 以上のように各処理を行うことにより、出力時間算出部132(画像処理部121)は、入力画像と投影画像との誤差が最小となるように各フレーム画像の出力時間を制御することができる。したがって、画像投影システム100は、投影画像における重畳ボケの発生および輝度低減による主観画質の低減を抑制することができる。
 なお、画像投影システム100は、上述のように画像投影を行うことにより、低フレームレートの投影装置112を用いて高フレームレートの映像を投影することができる。したがって、より安価に高フレームレートの投影を実現することができる。また、以上のように、画像投影システム100は、眼鏡等の特殊な視聴装置を必要とせずに、画像処理部121による映像信号の変換のみで主観画質の低減を抑制することができる。つまり、画像投影システム100は、より容易かつ安価に主観画質の低減を抑制することができる。さらに、画像投影システム100は、投影装置112の数を増大させることにより、さらなる高フレームレートの画像投影を実現することができる。
 なお、以上においては、フレーム画像の全画素を対象として入力画像と投影画像との差(誤差)を求めるように説明したが、これに限らず、一部の画素について誤差を算出し、その一部の画素の誤差を用いて誤差の面内総和を求めるようにしてもよい。
  <パラメータαの求め方2>
 なお、出力時間を示すパラメータαの求め方は、任意であり、上述の例に限定されない。このパラメータαの求め方の他の例について、いかに説明する。上述のように、このパラメータαは、フレーム画像の出力時間を、その出力時間の最大値(例えばフレームレートの1フレーム分の時間)に対する割合(%)で表すとする。
 輝度減少による誤差eclip.i.α(第1の差)は、入力画素値Xiを出力時間の減少(パラメータα)に応じて制約することで、以下の式(7)のように見積もることができる。つまり、この第1の差は、ユーザが投影画像を視認可能な時間の長さに基づいて見積もることができる。例えば、この第1の差は、ユーザが投影画像を視認可能な時間の、その最大値に対する割合(ユーザが投影画像を視認可能な時間が最大の場合に対する割合)に基づいて見積もることができる。
Figure JPOXMLDOC01-appb-I000007
 ・・・(7)
 また、輝度変化が大きい箇所程重畳ボケが発生しやすいので、重畳ボケによる誤差edeblur,i,α(第2の差)は、周囲の隣接画素との差分値の総和を特徴量として、以下の式(8)のように見積もることができる。つまり、この第2の差は、注目画素と周辺画素との差に基づいて見積もることができる。
Figure JPOXMLDOC01-appb-I000008
 ・・・(8)
 したがって、フレーム画像全体の誤差Ei,α(第1の差および第2の差の画像全体の総和)は、以下の式(9)のように求めることができる。
Figure JPOXMLDOC01-appb-I000009
 ・・・(9)
 つまり、フレーム画像全体の誤差Ei,αは、パラメータαの関数として表すことができる。したがって、出力時間算出部132は、出力時間、すなわち、パラメータαを設定することにより、フレーム画像全体の誤差Ei,αを設定することができる。つまり、出力時間算出部132は、パラメータαを設定することにより、投影画像の主観画質の低減を抑制するように制御することができる。
 したがって、例えば、出力時間算出部132は、このフレーム画像全体の誤差Ei,αの増大を抑制するように、出力時間(パラメータα)を設定することにより、投影画像の主観画質の低減を抑制することができる。また、例えば、出力時間算出部132は、フレーム画像全体の誤差Ei,αが最小となるように、出力時間(パラメータα)を設定する(つまり最適出力時間を求める)ことにより、投影画像の主観画質の低減をより抑制することができる。
  <出力時間算出処理の流れ>
 この場合も、画像表示処理は、図10のフローチャートを参照して説明した場合と同様の流れで行われる。また、その画像表示処理のステップS101において実行される画像処理も、図11のフローチャートを参照して説明した場合と同様の流れで行われる。
 また、この場合の、図11のステップS112において実行される出力画像算出処理の流れの例を、図13のフローチャートを参照して説明する。
 この場合も、出力時間算出処理が開始されると、出力時間算出部132は、ステップS141において、処理対象とする水平座標である注目水平座標を、入力画像のフレーム画像の未処理の水平座標の中から設定する。
 ステップS142において、出力時間算出部132は、処理対象とする垂直座標である注目垂直座標を、入力画像のフレーム画像の未処理の垂直座標の中から設定する。
 ステップS143において、出力時間算出部132は、周辺タップループkを設定する(k=-m~m)。
 ステップS144において、出力時間算出部132は、記憶部131より入力画素値Xi+kを読み出す。
 ステップS145において、出力時間算出部132は、上述の式(7)に示されるように、輝度減少による誤差eclip,i,αを算出する。
 ステップS146において、出力時間算出部132は、上述の式(8)に示されるように、重畳ボケによる誤差edeblur,i,αを算出する。
 ステップS147において、出力時間算出部132は、全ての周辺タップループkについて処理を行ったか否かを判定する。未処理の周辺タップループkが存在すると判定された場合、処理はステップS143に戻り、それ以降の処理を繰り返す。すなわち、ステップS143乃至ステップS147の各処理が周辺タップループk毎に繰り返される。そして、ステップS147において全ての周辺タップループkについて処理が行われたと判定された場合、処理はステップS148に進む。
 ステップS148において、出力時間算出部132は、全ての垂直座標について処理を行ったか否かを判定する。未処理の垂直座標が存在すると判定された場合、処理はステップS142に戻り、それ以降の処理を繰り返す。すなわち、ステップS142乃至ステップS148の各処理が垂直座標毎に繰り返される。そして、ステップS148において全ての垂直座標について処理が行われたと判定された場合、処理はステップS149に進む。
 ステップS149において、出力時間算出部132は、全ての水平座標について処理を行ったか否かを判定する。未処理の水平座標が存在すると判定された場合、処理はステップS141に戻り、それ以降の処理を繰り返す。すなわち、ステップS141乃至ステップS149の各処理が水平座標毎に繰り返される。そして、ステップS149において全ての水平座標について処理が行われたと判定された場合、処理はステップS150に進む。
 ステップS150において、出力時間算出部132は、ステップS145において算出された画素毎の輝度減少による誤差eclip,i,αと、ステップS146において算出された重畳ボケによる誤差edeblur,i,αとの面内総和Ei,αを、上述した式(9)に示されるように算出する。
 ステップS151において、出力時間算出部132は、ステップS150において算出された面内総和Ei,αが最小となる最適出力時間(そのパラメータα)を求める。
 ステップS151の処理が終了すると、出力時間算出処理が終了し、処理は図11に戻る。
 以上のように各処理を行うことにより、出力時間算出部132(画像処理部121)は、この場合も、入力画像と投影画像との誤差が最小となるように各フレーム画像の出力時間を制御することができる。したがって、画像投影システム100は、投影画像における重畳ボケの発生および輝度低減による主観画質の低減を抑制することができる。
 なお、画像投影システム100は、上述のように画像投影を行うことにより、低フレームレートの投影装置112を用いて高フレームレートの映像を投影することができる。したがって、より安価に高フレームレートの投影を実現することができる。また、以上のように、画像投影システム100は、眼鏡等の特殊な視聴装置を必要とせずに、画像処理部121による映像信号の変換のみで主観画質の低減を抑制することができる。つまり、画像投影システム100は、より容易かつ安価に主観画質の低減を抑制することができる。さらに、画像投影システム100は、投影装置112の数を増大させることにより、さらなる高フレームレートの画像投影を実現することができる。
 なお、以上においては、フレーム画像の全画素を対象として入力画像と投影画像との差(誤差)を求めるように説明したが、これに限らず、一部の画素について誤差を算出し、その一部の画素の誤差を用いて誤差の面内総和を求めるようにしてもよい。
 以上においては、出力画素値Yi,αや投影画素値Zi,αを見積もる際に、フィルタ演算を用いるように説明したが、この見積もりの手法は任意であり、フィルタ演算に限定されない。例えば、線形計画法による最適化等、他の方法を用いるようにしてもよい。
 <3.第2の実施の形態>
  <画像投影システム>
 第1の実施の形態においては、フレーム画像の出力時間を制御するように説明したが、この例に限らず、例えば、画像処理部121が、さらに、入力画像の各フレーム画像の投影画像において複数のフレーム画像が重畳することによる影響を抑制する画像処理を、投影前の各フレーム画像に対して行うようにしてもよい。
 より具体的には、例えば、画像処理部121が、投影画像(複数フレーム画像同士の)の重畳に応じて、各フレーム画像の画素値(輝度値)を補正する画像処理を行うようにしてもよい。例えば、画像処理部121が、入力画像と投影画像との誤差が最小となるように画素値を補正するようにしてもよい。
 画像処理部121が、投影画像の重畳に応じて、入力画像の各フレーム画像の画素値(輝度値)を補正する場合も、ある程度の誤差低減を図ることはできるものの、投影装置112の同期ズレに起因するモデルずれ等により、補正性能には限界がある。したがって、図7のグラフの曲線152の場合と同様に、その限界を超えると、出力時間の長期間化に伴って補正誤差(残像劣化の補正誤差)が増大する。
 そのため、第1の実施の形態の場合と同様に、画像投影システム100は、各フレーム画像の出力時間を制御する(ユーザの、入力画像の各フレーム画像の投影画像を視認可能な時間を制御する)ことにより、輝度減少による誤差と残像劣化の補正誤差の総合的な誤差の増大を抑制することができる。したがって、画像投影システム100は、投影画像の主観画質の低減を抑制することができる。
 このような場合も、画像投影システム100は、基本的に第1の実施の形態の場合(図5)と同様の構成を有する。
  <画像処理部>
 ただし、この場合、画像処理部121は、図14に示されるように、記憶部131および出力算出部201を有する。
 出力算出部201は、入力画像の各フレーム画像に基づいて、各フレーム画像の出力時間に関する情報(例えばパラメータα)と、出力画素値Yi,αとを求め、それらを各投影装置112に供給することにより、各フレーム画像の出力時間や各画素の出力輝度値を制御する。例えば、図14に示されるように、出力算出部201は、学習部211および予測部212を有する。
 第1の実施の形態の場合と同様に、記憶部131は、入力される動画像の全フレーム画像を記憶する。また、記憶部131は、所定のタイミングにおいて、または、学習部211や予測部212等の外部の要求に基づいて、記憶している入力画像を学習部211および予測部212に供給する。
 学習部211は、フィルタの最適化するための学習処理に関する処理を行う。例えば、学習部211は、第1の実施の形態において説明したように、出力時間(パラメータα)を設定する。
 さらに学習部211は、図15に示されるように、予め用意された所定の動画像を学習サンプルとして用いて空間方向および時間方向にフィルタを形成し、そのフィルタを用いて学習サンプルをフィルタ処理する。そして、学習部211は、そのフィルタ処理結果と投影画像とが一致するように学習処理を行い、パラメータαに対応するフィルタ係数Dk,αを算出する。
  <パラメータαの求め方3>
 第1の実施の形態において説明したように、出力画素値Zi,αは、式(4)のように見積もることができる。図16にぼけ係数Bj,αの値の例を示す。また、第1の実施の形態において説明したように、出力画素値Yi,αは、入力画素値Xiの線形結合により式(1)のように見積もることができる。
 これらの式から、画素値Zi,αは、画素値Xiを用いて、以下の式(10)のように表すことができる。
Figure JPOXMLDOC01-appb-I000010
 ・・・(10)
 スクリーン113に投影された投影画素値Zi,αが入力画素値Xiと一致(定数倍)するように出力画素値Yi,αを最適化するためには、入力画像と投影画像との誤差ei,αを最小化する必要がある。画素値Zi,αは、誤差ei,αを用いて以下の式(11)のように表すことができる。
Figure JPOXMLDOC01-appb-I000011
 ・・・(11)
 式(10)および式(11)から、誤差ei,αは、以下の式(12)のように表すことができる。
Figure JPOXMLDOC01-appb-I000012
 ・・・(12)
 したがって、学習部211は、予め用意された動画像を学習サンプルとし、既知の値をBj,αとし、変数をDi,αとし、学習サンプルをXi,sとして、最小化関数を以下の式(13)として、最小二乗法により係数Dk,αを算出する。
Figure JPOXMLDOC01-appb-I000013
 ・・・(13)
 m=7の場合の係数Dk,αの算出例を図17に示す。図17のAは、各kの場合の係数Dk,αの値を表で表したものであり、図17のBは、それをグラフ化したものである。
 学習部211は、以上のような学習の結果得られたパラメータαと係数Dk,αを予測部212に供給する。
 予測部212は、入力画像(入力画素値Xi)から出力画像(出力画素値Yi,α)を予測する予測演算に関する処理を行う。例えば、予測部212は、学習部211から供給されたパラメータαおよび係数Dk,αと式(12)を用いて、入力画素値Xiから出力画素値Yi,αを予測する。予測部212は、注目座標毎に同様に予測演算を行い、出力画素値Yi,αを算出する。このようにすることにより、投影画像と入力画像との誤差(差分値)が最小となるような出力画素値Yi,αが得られる。予測部212は、その出力画素値Yi,αおよびパラメータαを、毎秒120フレームのフレームレートで振分部122に供給する。
 振分部122は、このように画像処理部121により画像処理された(画素値が補正された)フレーム画像を順次各投影装置112に振り分ける。また振分部122は、画像処理部121から供給されたパラメータαを順次各投影装置112に振り分ける。
 各投影装置112は、自身に振り分けられたフレーム画像を、自身に振り分けられたパラメータαに対応する出力時間で出力する(スクリーン113に投影する)。このようにすることにより、スクリーン113に投影された投影画像は、入力画像との誤差が最小となるように画素値(輝度値)および出力時間が調整された状態となる。したがって、主観画質の低減を抑制することができる。
 なお、フレーム番号i=1、2、3の区間については投影画像において4つのフレーム画像が重畳されていないため、以上においては制約条件に含めていない。これらの区間については、別途、制約条件式を立てて算出するようにしてもよい。このようにすることにより、最初のフレームから主観画質の低減を抑制することができる。また、これらの区間については画像処理を省略するようにしてもよい。このようにすることにより、画像処理を行うことによる負荷の増大を抑制することができる。
  <画像表示処理の流れ>
 次に、このような画像投影システム100において実行される処理の流れについて説明する。この場合も画像投影システム100は、上述のように高フレームレートの動画像を投影する場合、画像表示処理を行う。この画像表示処理の流れは、第1の実施の形態の場合(図10のフローチャート)と同様であるので、その説明を省略する。
  <画像処理の流れ>
 次に、図18のフローチャートを参照して、この場合の、図10のステップS101において実行される画像処理の流れの例を説明する。
 画像処理が開始されると、学習サンプルとして予め用意された動画像が入力される。画像処理部121の記憶部131は、ステップS201において、その動画像の全フレーム画像を記憶する。
 ステップS202において、学習部211は、学習処理を行い、出力時間を示すパラメータαとフィルタ係数Dk,αとを求める。
 ステップS203において、予測部212は、ステップS202において得られたパラメータαおよびフィルタ係数Dk,αを用いて、出力画素値Yi,αを予測する予測処理を行う。出力画素値Yi,αが求められると画像処理が終了し、処理は図10に戻る。
  <学習処理の流れ>
 次に、図19のフローチャートを参照して、図18のステップS202において実行される学習処理の流れの例を説明する。
 学習処理が開始されると、学習部211は、ステップS211乃至ステップS223の各処理を、図12の出力時間算出処理のステップS121乃至ステップS133の各処理と同様に実行し、パラメータαを求める。
 ステップS224において、学習部211は、そのパラメータαを用いて、最小化関数を上述した式(13)として、最小二乗法によりフィルタ係数Dk,αを算出する。フィルタ係数Dk,αが算出されると学習処理が終了し、処理は図18に戻る。
  <予測処理の流れ>
 次に、図20のフローチャートを参照して、図18のステップS203において実行される予測処理の流れの例を説明する。
 予測処理が開始されると、予測部212は、ステップS231において、処理対象とする水平座標である注目水平座標を、入力画像のフレーム画像の未処理の水平座標の中から設定する。
 ステップS232において、予測部212は、処理対象とする垂直座標である注目垂直座標を、入力画像のフレーム画像の未処理の垂直座標の中から設定する。
 ステップS233において、予測部212は、周辺タップループkを設定する(k=-m~m)。
 ステップS234において、予測部212は、入力画素値Xi+kを読み出す。
 ステップS235において、予測部212は、予測演算により出力Y画素値i,αを算出する。すなわち、予測部212は、図19の学習処理により求められたフィルタ係数Dk,αを式(1)に代入し、その式(1)を用いて出力画素値Yi,αを求める。
 ステップS236において、予測部212は、全ての周辺タップループkについて処理を行ったか否かを判定する。未処理の周辺タップループkが存在すると判定された場合、処理はステップS233に戻り、それ以降の処理を繰り返す。すなわち、ステップS233乃至ステップS236の各処理が周辺タップループk毎に繰り返される。そして、ステップS236において全ての周辺タップループkについて処理が行われたと判定された場合、処理はステップS237に進む。
 ステップS237において、予測部212は、全ての垂直座標について処理を行ったか否かを判定する。未処理の垂直座標が存在すると判定された場合、処理はステップS232に戻り、それ以降の処理を繰り返す。すなわち、ステップS232乃至ステップS237の各処理が垂直座標毎に繰り返される。そして、ステップS237において全ての垂直座標について処理が行われたと判定された場合、処理はステップS238に進む。
 ステップS238において、予測部212は、全ての水平座標について処理を行ったか否かを判定する。未処理の水平座標が存在すると判定された場合、処理はステップS231に戻り、それ以降の処理を繰り返す。すなわち、ステップS231乃至ステップS238の各処理が水平座標毎に繰り返される。そして、ステップS238において全ての水平座標について処理が行われたと判定された場合、予測処理が終了し、処理は図19に戻る。
 以上のように各処理を行うことにより、画像処理部121は、入力画像と投影画像との誤差が最小となるように、出力時間を制御することができるだけでなく、画素値を補正することができる。したがって、画像投影システム100は、投影画像における重畳ボケの発生を抑制することができるとともに、投影画像の明るさの低減も抑制することができる。つまり、画像投影システム100は、主観画質の低減を抑制することができる。
 なお、画像投影システム100は、上述のように画像投影を行うことにより、低フレームレートの投影装置112を用いて高フレームレートの映像を投影することができる。したがって、より安価に高フレームレートの投影を実現することができる。また、以上のように、画像投影システム100は、眼鏡等の特殊な視聴装置を必要とせずに、画像処理部121による映像信号の変換のみで主観画質の低減を抑制することができる。つまり、画像投影システム100は、より容易かつ安価に主観画質の低減を抑制することができる。さらに、画像投影システム100は、投影装置112の数を増大させることにより、さらなる高フレームレートの画像投影を実現することができる。
 なお、以上においては、フレーム画像の全画素を対象として学習と予測を行うように説明したが、これに限らず、上述の学習と予測は一部の画素について行うようにしてもよい。その場合、フレーム画像を複数回に分けて学習と予測を行うようにしてもよいし、学習と予測を行わずに所定の関数を用いる等して補間する画素を設けるようにしてもよい。
  <パラメータαの求め方4>
 なお、第1の実施の形態の場合と同様に、出力時間を示すパラメータαの求め方は、任意であり、上述の例に限定されない。例えば、第1の実施の形態の<パラメータαの求め方2>において説明したのと同様の、輝度減少による誤差eclip.i.α(第1の差)と残像劣化の補正誤差edeblur,i,α(第2の差)の画像全体の総和であるフレーム画像全体の誤差Ei,αを用いてパラメータαを設定するようにしてもよい。
 例えば、学習部211は、このフレーム画像全体の誤差Ei,αの増大を抑制するように、出力時間(パラメータα)を設定することにより、投影画像の主観画質の低減を抑制することができる。また、例えば、学習部211は、フレーム画像全体の誤差Ei,αが最小となるように、出力時間(パラメータα)を設定する(つまり最適出力時間を求める)ことにより、投影画像の主観画質の低減をより抑制することができる。
  <学習処理の流れ>
 この場合も、画像表示処理は、図10のフローチャートを参照して説明した場合と同様の流れで行われる。また、その画像表示処理のステップS101において実行される画像処理も、図18のフローチャートを参照して説明した場合と同様の流れで行われる。
 また、この場合の、図18のステップS202において実行される学習処理の流れの例を、図21のフローチャートを参照して説明する。
 この場合も、学習処理が開始されると、学習部211は、ステップS251において、処理対象とする水平座標である注目水平座標を、入力画像のフレーム画像の未処理の水平座標の中から設定する。
 ステップS252において、学習部211は、処理対象とする垂直座標である注目垂直座標を、入力画像のフレーム画像の未処理の垂直座標の中から設定する。
 ステップS253において、学習部211は、周辺タップループkを設定する(k=-m~m)。
 ステップS254において、学習部211は、記憶部131より入力画素値Xi+kを読み出す。
 ステップS255において、学習部211は、上述の式(7)に示されるように、輝度減少による誤差eclip,i,αを算出する。
 ステップS256において、学習部211は、上述の式(8)に示されるように、残像劣化の補正誤差edeblur,i,αを算出する。
 ステップS257において、学習部211は、全ての周辺タップループkについて処理を行ったか否かを判定する。未処理の周辺タップループkが存在すると判定された場合、処理はステップS253に戻り、それ以降の処理を繰り返す。すなわち、ステップS253乃至ステップS257の各処理が周辺タップループk毎に繰り返される。そして、ステップS257において全ての周辺タップループkについて処理が行われたと判定された場合、処理はステップS258に進む。
 ステップS258において、学習部211は、全ての垂直座標について処理を行ったか否かを判定する。未処理の垂直座標が存在すると判定された場合、処理はステップS252に戻り、それ以降の処理を繰り返す。すなわち、ステップS252乃至ステップS258の各処理が垂直座標毎に繰り返される。そして、ステップS258において全ての垂直座標について処理が行われたと判定された場合、処理はステップS259に進む。
 ステップS259において、学習部211は、全ての水平座標について処理を行ったか否かを判定する。未処理の水平座標が存在すると判定された場合、処理はステップS251に戻り、それ以降の処理を繰り返す。すなわち、ステップS251乃至ステップS259の各処理が水平座標毎に繰り返される。そして、ステップS259において全ての水平座標について処理が行われたと判定された場合、処理はステップS260に進む。
 ステップS260において、学習部211は、ステップS255において算出された画素毎の輝度減少による誤差eclip,i,αと、ステップS256において算出された画素毎の残像劣化の補足誤差edeblur,i,αとの面内総和Ei,αを、上述した式(9)に示されるように算出する。
 ステップS261において、学習部211は、ステップS260において算出された面内総和Ei,αが最小となる最適出力時間(そのパラメータα)を求める。
 ステップS261の処理が終了すると、出力時間算出処理が終了し、処理は図18に戻る。
 以上のように各処理を行うことにより、学習部211(画像処理部121)は、この場合も、入力画像と投影画像との誤差が最小となるように各フレーム画像の出力時間を制御することができる。したがって、画像投影システム100は、投影画像における重畳ボケの発生および輝度低減による主観画質の低減を抑制することができる。
 なお、画像投影システム100は、上述のように画像投影を行うことにより、低フレームレートの投影装置112を用いて高フレームレートの映像を投影することができる。したがって、より安価に高フレームレートの投影を実現することができる。また、以上のように、画像投影システム100は、眼鏡等の特殊な視聴装置を必要とせずに、画像処理部121による映像信号の変換のみで主観画質の低減を抑制することができる。つまり、画像投影システム100は、より容易かつ安価に主観画質の低減を抑制することができる。さらに、画像投影システム100は、投影装置112の数を増大させることにより、さらなる高フレームレートの画像投影を実現することができる。
 なお、以上においては、フレーム画像の全画素を対象として入力画像と投影画像との差(誤差)を求めるように説明したが、これに限らず、一部の画素について誤差を算出し、その一部の画素の誤差を用いて誤差の面内総和を求めるようにしてもよい。
 以上においては、出力画素値Yi,αや投影画素値Zi,αを見積もる際に、フィルタ演算を用いるように説明したが、この見積もりの手法は任意であり、フィルタ演算に限定されない。例えば、線形計画法による最適化等、他の方法を用いるようにしてもよい。
 <4.アクティブシャッタ方式による立体視画像投影>
 以上においては、輝度低減による誤差と、互いに時刻が異なる複数のフレーム画像の投影画像が重畳する場合に発生する重畳ズレによる誤差との総合的な誤差の増大について説明したが、本技術は、これ以外にも、例えば、立体視用の互いに異なる視点の複数のフレーム画像のクロストークによる誤差の増大の抑制にも適用することができる。
 左目用のフレーム画像と右目用のフレーム画像とからなる動画像を投影する場合、その左目用のフレーム画像と右目用のフレーム画像(互いに視点が異なる複数のフレーム画像)が交互に投影されるため、投影画像において、それらのフレーム画像が重畳する場合がある。このように互いに視点が異なる複数のフレーム画像が重畳するクロストークが発生し、主観画質が低減するおそれがある。
 一般的に、ユーザが各フレーム画像を視認可能な時間が長くなる程、クロストークが発生しやすくなる。例えば、各フレーム画像の出力時間が長くなる程(投影されている時間が長くなる程)、クロストークが発生する可能性も高くなる。
  <投影画像の見える時間制御>
 そこで、第1の実施の形態や第2の実施の形態の場合と同様に、動画像の各フレーム画像に基づいて、ユーザがその動画像の各フレーム画像の投影画像を視認可能な時間を制御するようにしてもよい。例えば、輝度低減による誤差とクロストークによる誤差との総合的な誤差の増大を抑制するように、ユーザがその動画像の各フレーム画像の投影画像を視認可能な時間を制御するようにしてもよい。このようにすることにより、投影画像の主観画質の低減を抑制することができる。
 <5.第3の実施の形態>
  <画像投影システム>
 図22は、本技術を適用した画像投影システムの一実施の形態の主な構成例を示すブロック図である。図22に示される画像投影システム300は、ユーザがシャッタ(遮光機構)を有する眼鏡型の立体視装置を介して投影画像を見ることにより立体視を実現するアクティブシャッタ方式の立体視画像投影システムの一実施の形態を示している。
 図22に示されるように、この画像投影システム300は、例えば、制御装置301、投影装置302、および立体視装置303を有する。制御装置301は、ケーブル304を介して投影装置302に接続され、さらに、ケーブル305を介して立体視装置303に接続されている。
 制御装置301は、ケーブル304を介して、入力画像を投影装置302に供給したり、投影装置302による画像投影を制御したりする。また、制御装置301は、ケーブル305を介して立体視装置303の駆動を制御する。
 投影装置302は、制御装置301により制御され、制御装置301から供給される動画像の各フレーム画像を、スクリーン310に順次投影する。
 制御装置301は、互いに視差を有する複数視点のフレーム画像(例えば右目用のフレーム画像と左目用のフレーム画像)を有する立体視用の動画像を投影装置302に供給する。投影装置302は、その動画像の各視点のフレーム画像(例えば右目用のフレーム画像と左目用のフレーム画像)を、スクリーン310に順次投影する。なお、この立体視用の動画像は、入力画像として外部から制御装置301に供給されるようにしてもよいし、制御装置301によって生成されるようにしてもよい。例えば、制御装置301が、外部から供給される通常の動画像の各フレーム画像を複数視点化し、立体視用の動画像に変換するようにしてもよい。
 立体視装置303は、眼鏡型の装置であり、自身を装着したユーザが、投影装置302によりスクリーン310に投影された投影画像311を立体視することができるようにする装置であり、動画像の右目用のフレーム画像および左目用のフレーム画像の投影タイミングに合わせて右目に対する遮光および左目に対する遮光を交互に行う遮光機構を備える。
 より具体的には、立体視装置303は、ユーザに正しく装着された状態においてユーザの左目前方に位置し、自身を介して左目に入射する光を遮光することができる左目用遮光部321と、ユーザに正しく装着された状態においてユーザの右目前方に位置し、自身を介して右目に入射する光を遮光することができる右目用遮光部322とを備える。つまり、左目用遮光部321は、通常の眼鏡の左目用のレンズの位置に形成される。同様に、右目用遮光部322は、通常の眼鏡の右目用のレンズの位置に形成される。
 この左目用遮光部321は、例えば制御装置301により制御されて、投影装置302が右目用のフレーム画像を投影するタイミングに同期して駆動し、その右目用のフレーム画像をユーザの左目に見せないように遮光する。
 同様に、右目用遮光部322は、例えば制御装置301により制御されて、投影装置302が左目用のフレーム画像を投影するタイミングに同期して駆動し、その左目用のフレーム画像をユーザの右目に見せないように遮光する。
 このようにすることにより、立体視装置303を装着したユーザは、左目用のフレーム画像の投影画像を左目で見て、右目用のフレーム画像の投影画像を右目で見ることができる。したがって、ユーザは、スクリーン310に投影された投影画像311を立体視することができる。
  <遮光制御>
 以上のような立体視の為の立体視装置303の駆動の制御について、より詳細に説明する。図23は、投影および遮光制御の様子の例を示すタイミングチャートである。投影装置302により、各フレーム画像は、図23の上側の平行四辺形のように投影される。動画像のフレームレートは毎秒240フレーム(240Hz)であり、各フレーム画像は1/240秒ずつ投影される。各フレーム画像の投影が平行四辺形のように傾斜しているのは、ライン走査方式により、ライン(行)毎に投影タイミングがずれているからである。図中平行四辺形内の横線は、各ラインの投影期間の例を示す。
 このような画像投影に対して、立体視装置303は、制御装置301により制御されて、左目用遮光部321(左目用シャッタとも称する)と、右目用遮光部322(右目用シャッタとも称する)とを、図23中の両矢印で示されるようなタイミングで閉じる(遮光する)。
 図23に示されるように、右目用遮光部322のみが閉じている期間(例えば、時刻T0乃至T1、T4乃至T5、T8乃至T9等)において、ユーザは、左目用のフレーム画像の投影画像(左目用画像)を左目で見ることができる。また、左目用遮光部321のみが閉じている期間(例えば、時刻T2乃至T3、T6乃至T7等)において、ユーザは、右目用のフレーム画像の投影画像(右目用画像)を右目で見ることができる。つまり、ユーザは、投影画像311を立体のように見る(立体視)することができる。
 つまり、制御装置301は、投影装置302を制御して動画像の右目用のフレーム画像および左目用のフレーム画像を順次投影させ、ユーザが立体視装置303を介してその動画像の右目用のフレーム画像および左目用のフレーム画像の投影画像を見る際の、その動画像の右目用のフレーム画像および左目用のフレーム画像の投影画像を視認可能な時間を制御する。
 その際、制御装置301は、投影装置302による画像の出力時間を制御する代わりに、立体視装置303による遮光を制御することにより、ユーザが動画像の各フレーム画像の投影画像を視認可能な時間を制御する。
 ところで、上述したように、投影装置302がライン走査方式により画像投影を行うため、ライン(行)毎に投影タイミングがずれる。そのため、図23に示されるように、左目用のフレーム画像と右目用のフレーム画像とが重畳するクロストークが発生する。各視点のフレーム画像は互いに視差を有するため、このようなクロストークが発生すると主観画質が低減するおそれがあった。
 図23にも示されるように、立体視装置303は、このような、投影画像において左目用のフレーム画像と右目用のフレーム画像とが重畳する期間(例えば、期間T1乃至T2、期間T3乃至T4、期間T5乃至T6、期間T7乃至T8、期間T9乃至T10等)において、左目用遮光部321および右目用遮光部322の両方を閉じる。つまり、この期間は、右目に対する遮光および左目に対する遮光が重複しており、ユーザは、左目用画像も右目用画像も見ることができない(ブラックアウト)。このようなブラックアウトの期間を設けることにより、複数視点のフレーム画像が重畳するクロストークの発生を抑制することができる。
 ただし、このブラックアウトの期間が長くなる程、ユーザから見た投影画像311の輝度は低減する(輝度低減による誤差が大きくなる)。また、ブラックアウトの期間が短くなる程、クロストークが発生しやすくなる(またはクロストークが発生する期間が長くなる)。
 そこで、制御装置301は、この右目に対する遮光および左目に対する遮光が重複する時間(遮光時間とも称する)を制御することにより、ユーザが動画像の各フレーム画像の投影画像を視認可能な時間を制御する。例えば、制御装置301は、ユーザから見た投影画像311の主観画質の低減を抑制するように、この遮光時間の長さを制御する。
 なお、以上においては、制御装置301と投影装置302とがケーブル304により有線接続されるように説明したが、制御装置301と投影装置302とが無線通信を行うことができるようにしてもよい。その場合、ケーブル304を省略することができる。また、以上においては、制御装置301と立体視装置303とがケーブル305により有線接続されるように説明したが、制御装置301と立体視装置303とが無線通信を行うことができるようにしてもよい。その場合、ケーブル305を省略することができる。
  <制御装置>
 制御装置301の主な構成例を、図24に示す。図24に示されるように、制御装置301は、画像処理部351、投影制御部352、およびシャッタ制御部353を有する。
 画像処理部351は、入力画像の各フレーム画像に基づいて、ユーザが動画像の各フレーム画像の投影画像を視認可能な時間を制御する。より具体的には、画像処理部351は、ユーザが動画像の各フレーム画像の投影画像を視認可能な時間として、立体視装置303による遮光時間の長さを制御する。例えば、画像処理部351は、入力画像の各フレーム画像に基づいて、その遮光時間の長さを表すパラメータαを算出し、それをシャッタ制御部353に供給する。
 また、画像処理部351は、入力画像(入力画素値Xi)に基づいて出力画像(出力画素値Yi,α)を生成し、それを投影制御部352に供給する。
 投影制御部352は、画像処理部351から供給された出力画像(出力画素値Yi,α)を投影装置302に供給し、動画像の各視点のフレーム画像を順次投影させる。
 シャッタ制御部353は、画像処理部351より供給されたパラメータαを立体視装置303(メガネ)に供給し、立体視装置303による遮光時間の長さが、そのパラメータαに対応する長さとなるように、立体視装置303の駆動を制御する。
  <遮光時間の長さと誤差>
 上述したように、遮光時間(左右両目に対する遮光が行われる時間)が長くなる程、ユーザにとっての投影画像の輝度は低減する。したがって、図25のグラフの直線371のように、遮光時間が長くなる程、投影画像の入力画像に対する誤差(この場合、投影画像と入力画像との輝度差)は大きくなる。
 また、一般的に、遮光時間が短くなる程、クロストークが増大する。したがって、図25のグラフの曲線372のように、遮光時間が短くなる程、クロストークによる誤差(投影画像と入力画像との差)が大きくなる。
 図25のグラフに示されるように、以上のような表現可能な輝度値の制約による誤差(輝度減少による誤差)と、クロストークによる誤差との両方を考慮した総合的な誤差は、直線371と曲線372との増減の様子から、例えば、曲線373のような曲線状となる。換言するに、図24の画像処理部351は、各フレーム画像の出力時間を制御することにより、この総合的な誤差(輝度の減少による入力画像と投影画像との差、および、ユーザが投影画像を視認可能な時間が長くなることにより増大する入力画像と投影画像との差)の大きさを制御することができる。
 このように、画像処理部351は、遮光時間を表すパラメータαを求め、それを各投影装置112に供給することにより、立体視装置303による遮光時間を制御することができる。この遮光時間が変化することにより、ユーザが各フレーム画像の投影画像を視認可能な時間が変化する。つまり、画像処理部121は、入力画像の各フレーム画像に基づいて、ユーザがその各フレーム画像の投影画像を視認可能な時間を制御することができる。
 上述のように、「ユーザがその各フレーム画像の投影画像を視認可能な時間」として「遮光時間」を制御することにより、輝度減少による誤差とクロストークによる誤差との総合的な誤差の大きさを制御することができるのであるから、画像処理部351は、このような制御により、投影画像の主観画質の低減を抑制することができる。
 例えば、画像処理部351が、輝度減少による誤差(輝度の減少による投影画像と入力画像との差)とクロストークによる誤差(右目用のフレーム画像および左目用のフレーム画像が重畳した状態の投影画像と入力画像との差)との総合的な誤差を抑制するように(すなわち、この総合的な誤差の大きさが低減するように)、このパラメータαを求めるようにしてもよい。このようにすることにより、画像処理部351は、投影画像の主観画質の低減を抑制することができる。
 例えば、画像処理部351が、この輝度減少による誤差とクロストークによる誤差との総合的な誤差が最小となるように、パラメータαを求めるようにしてもよい。例えば、画像処理部351が、図25のグラフにおいて、曲線373の最小値が得られる遮光時間である最適遮光時間(点線374)を求め、シャッタ制御部353が、その最適遮光時間を表すパラメータαを立体視装置303に供給するようにしてもよい。このようにすることにより、画像処理部351は、投影画像の主観画質の低減をより抑制することができる。
 なお、画像処理部351が、このパラメータαをフレーム画像毎に求めるようにしてもよい。例えば、全てのフレーム画像に対する遮光時間が統一されていなくてもよい。つまり、画像処理部351は、入力画像の各フレーム画像について、ユーザが投影画像を視認可能な時間を制御するようにしてもよい。
 一般的に、上述した輝度減少による誤差やクロストークによる誤差は、画像の内容によって変化する。したがって、画像処理部351が、各フレーム画像の内容に応じて、フレーム画像毎にパラメータαを求めるようにすることにより、総合的な誤差をより抑制することができる。つまり、画像処理部351は、投影画像の主観画質の低減をより抑制することができる。
  <画像処理部>
 なお、本実施の形態のパラメータαは遮光時間の長さを表すパラメータであるが、これが第1の実施の形態のように最大値に対する割合であるとすると、(1-α)は「遮光されていない時間」を表すことになる。つまり、本実施の形態のパラメータαも、第1の実施の形態と同様に、ユーザが動画像の各フレーム画像の投影画像を視認可能な時間を表していると言える。
 したがって、画像処理部351は、第1の実施の形態において説明したのと同様の処理を行えば良い。つまり、第1の実施の形態における画像処理部121に関する説明を、パラメータαを(1-α)とすることにより、画像処理部351にも適用することができる。
  <パラメータαの求め方5>
 換言するに、画像処理部351は、第1の実施の形態における画像処理部121と同様の構成を有し、同様の処理を行うようにすることができる。また、この場合のパラメータαも、<パラメータαの求め方1>において説明したのと同様の方法で求めることができる。
  <画像表示処理の流れ>
 次に、このような画像投影システム300において実行される処理の流れについて説明する。図26のフローチャートを参照して、この場合の画像表示処理の流れの例を説明する。
 画像表示処理が開始されると、画像処理部351は、ステップS301において、入力画像に基づいて、「ユーザが動画像の各フレーム画像の投影画像を視認可能な時間」を制御する画像処理を行う。
 ステップS302において、投影制御部352は、その入力画像の各フレーム画像を、投影装置112に供給し、順次投影させる。
 ステップS303において、シャッタ制御部353は、立体視装置303(の左目用遮光部321および右目用遮光部322)の駆動を制御し、ユーザが投影画像を立体視することができるように、動画像の投影に同期した遮光を行わせる。
 画像の投影が終了すると画像表示処理が終了する。
 なお、ステップS301において実行される画像処理の流れは、図11のフローチャートを参照して上述した例と基本的に同様に行い、出力時間を算出する代わりに遮光時間を算出すればよい。
 また、その遮光時間を算出する処理の流れは、図12のフローチャートを参照して説明した出力時間算出処理の流れと基本的に同様に行えばよい。
 以上のように各処理を行うことにより、画像処理部351は、入力画像と投影画像との誤差が最小となるように立体視装置303による遮光時間を制御することができる。したがって、画像投影システム300は、投影画像におけるクロストークの発生や輝度低減による主観画質の低減を抑制することができる。
 なお、画像投影システム300は、図22においては投影装置302を1台のみ図示しているが、投影装置302の台数は任意であり、複数であってもよい。投影装置302を複数用いる場合、画像投影システム100のように入力画像の各フレーム画像を振り分けるようにしてもよい。このようにすることにより、低フレームレートの投影装置302を用いて高フレームレートの映像を投影することができる。したがって、より安価に高フレームレートの投影を実現することができる。また、画像投影システム300は、投影装置302の数を増大させることにより、さらなる高フレームレートの画像投影を実現することができる。
 なお、以上においては、フレーム画像の全画素を対象として入力画像と投影画像との差(誤差)を求めるように説明したが、これに限らず、一部の画素について誤差を算出し、その一部の画素の誤差を用いて誤差の面内総和を求めるようにしてもよい。
  <パラメータαの求め方6>
 また、第1の実施の形態の場合と同様に、遮光時間を示すパラメータαの求め方は、任意であり、上述の例に限定されない。例えば、<パラメータαの求め方2>において上述した方法と基本的に同様の方法によりパラメータαを求めるようにしてもよい。
  <処理の流れ>
 この場合も、画像表示処理は、図26のフローチャートを参照して説明した場合と同様の流れで行われる。また、その画像表示処理のステップS101において実行される画像処理も、図11のフローチャートを参照して説明した場合と同様の流れで行われる。さらに、その画像処理のステップS112において実行される遮光時間を算出する処理も、図13のフローチャートを参照して説明した出力時間算出処理の流れと基本的に同様に行えば良い。
 以上のように各処理を行うことにより、画像処理部351は、この場合も、入力画像と投影画像との誤差が最小となるように、立体視装置303による遮光時間を制御することができる。したがって、画像投影システム300は、投影画像におけるクロストークの発生や輝度低減による主観画質の低減を抑制することができる。
 なお、この場合も、画像投影システム300は、複数の低フレームレートの投影装置302を用いて高フレームレートの映像を投影することができる。したがって、より安価に高フレームレートの投影を実現することができる。また、画像投影システム100は、投影装置302の数を増大させることにより、さらなる高フレームレートの画像投影を実現することができる。
 なお、以上においては、フレーム画像の全画素を対象として入力画像と投影画像との差(誤差)を求めるように説明したが、これに限らず、一部の画素について誤差を算出し、その一部の画素の誤差を用いて誤差の面内総和を求めるようにしてもよい。
 また、出力画素値Yi,αや投影画素値Zi,αの見積もりの手法は任意であり、フィルタ演算に限定されない。例えば、線形計画法による最適化等、他の方法を用いるようにしてもよい。
 <6.第4の実施の形態>
  <画像投影システム>
 第3の実施の形態の場合も、第2の実施の形態の場合と同様に、画像処理部351が、さらに、入力画像の各フレーム画像の投影画像において複数のフレーム画像が重畳することによる影響を抑制する画像処理を、投影前の各フレーム画像に対して行うようにしてもよい。
 より具体的には、例えば、画像処理部351が、投影画像(複数フレーム画像同士の)の重畳に応じて、各フレーム画像の画素値(輝度値)を補正する画像処理を行うようにしてもよい。例えば、画像処理部351が、入力画像と投影画像との誤差が最小となるように画素値を補正するようにしてもよい。
  <画像処理部>
 この場合、画像処理部351は、第2の実施の形態の場合の画像処理部121(図14)と基本的に同様の構成を有し、基本的に同様の処理を行うようにすればよい。つまり、第2の実施の形態における画像処理部121に関する説明を、パラメータαを(1-α)とすることにより、画像処理部351にも適用することができる。
  <パラメータαの求め方7>
 なお、パラメータαに対応するフィルタ係数Dk,αは、第2の実施の形態の場合と同様に算出することができる。
  <処理の流れ>
 画像表示処理は、図26のフローチャートを参照して説明した、第3の実施の形態の場合と同様の流れで行えば良い。ステップS301において行われる画像処理は、図18のフローチャートを参照して説明した場合と同様の流れで行えば良い。図18のステップS202において実行される学習処理は、図19のフローチャートを参照して説明した場合と同様の流れで行えば良い。図18のステップS203において実行される予測処理は、図20のフローチャートを参照して説明した場合と同様の流れで行えば良い。
 以上のように各処理を行うことにより、画像処理部351は、入力画像と投影画像との誤差が最小となるように、遮光時間を制御することができるだけでなく、画素値を補正することができる。したがって、画像投影システム300は、投影画像におけるクロストークの発生を抑制することができるとともに、投影画像の明るさの低減も抑制することができる。つまり、画像投影システム100は、主観画質の低減を抑制することができる。
 なお、以上においては、フレーム画像の全画素を対象として学習と予測を行うように説明したが、これに限らず、上述の学習と予測は一部の画素について行うようにしてもよい。その場合、フレーム画像を複数回に分けて学習と予測を行うようにしてもよいし、学習と予測を行わずに所定の関数を用いる等して補間する画素を設けるようにしてもよい。
 また、図23を参照して上述したように、投影装置302は、ラインスキャン方式により画像を投影しており、投影のタイミングがライン毎にずれている。これに対して、立体視装置303は、面全体を一斉に遮光するために、このブラックアウトの期間(遮光時間)における左目用のフレーム画像と右目用のフレーム画像との混合比がライン毎に異なる。したがって、画像処理部351は、画素値の補正を、動画像の各フレーム画像のライン毎に行うようにしてもよい。このようにすることにより、画像処理部351は、ライン単位でフレーム画像同士の混合比に応じた補正を行うことができ、より正確に画素値の補正を行うことができる。すなわち、主観画質の低減をより抑制することができる。
  <パラメータαの求め方8>
 なお、この場合も、遮光時間を示すパラメータαの求め方は、任意であり、上述の例に限定されない。例えば、第1の実施の形態の<パラメータαの求め方2>において説明したのと同様の、輝度減少による誤差eclip.i.α(第1の差)と残像劣化の補正誤差edeblur,i,α(第2の差)の画像全体の総和であるフレーム画像全体の誤差Ei,αを用いてパラメータαを設定するようにしてもよい。
 例えば、画像処理部351は、このフレーム画像全体の誤差Ei,αの増大を抑制するように、遮光時間(パラメータα)を設定することにより、投影画像の主観画質の低減を抑制することができる。また、例えば、画像処理部351は、フレーム画像全体の誤差Ei,αが最小となるように、遮光時間(パラメータα)を設定する(つまり最適遮光時間を求める)ことにより、投影画像の主観画質の低減をより抑制することができる。
  <処理の流れ>
 この場合も、画像表示処理は、図26のフローチャートを参照して説明した、第3の実施の形態の場合と同様の流れで行えば良い。ステップS301において行われる画像処理は、図18のフローチャートを参照して説明した場合と同様の流れで行えば良い。図18のステップS202において実行される学習処理は、図21のフローチャートを参照して説明した場合と同様の流れで行えば良い。図18のステップS203において実行される予測処理は、図20のフローチャートを参照して説明した場合と同様の流れで行えば良い。
 以上のように各処理を行うことにより、画像処理部351は、この場合も、入力画像と投影画像との誤差が最小となるように各フレーム画像の出力時間を制御することができる。したがって、画像投影システム300は、投影画像におけるクロストークの発生および輝度低減による主観画質の低減を抑制することができる。
 なお、出力画素値Yi,αや投影画素値Zi,αの見積もりの手法は任意であり、フィルタ演算に限定されない。例えば、線形計画法による最適化等、他の方法を用いるようにしてもよい。
<7.第5の実施の形態>
  <その他の構成1>
 本技術を適用した画像投影システム100の構成は、上述した例に限定されない。例えば、中央処理装置111および投影装置112の数は、それぞれ任意である。例えば、中央処理装置111が複数であってもよいし、投影装置112が3台以下であってもよいし、5台以上であってもよい。また、各投影装置112の仕様(例えば、解像度、明るさ、フレームレート等)がすべて同一であってもよいし、同一でなくてもよい。
 また例えば図27に示されるように、中央処理装置111の画像処理部121と振分部122とをそれぞれ独立した装置とし、画像投影システム100が、中央処理装置111の代わりに画像処理装置511と振分装置512とを備えるようにしてもよい。
 また、図28に示されるように、各装置が、ネットワーク530を介して互いに接続されるようにしてもよい。図28に示される例の画像投影システム100の場合、図27の画像処理装置511、振分装置512、並びに、各投影装置112が、ネットワーク530を介して互いに接続されている。
 このネットワーク530は、任意の通信網である。ネットワーク530において採用される通信方法は任意である。例えば、有線通信であってもよいし、無線通信であってもよいし、それらの両方であってもよい。また、ネットワーク530は、単数の通信網により構成されるようにしてもよいし、複数の通信網により構成されるようにしてもよい。例えば、インターネット、公衆電話回線網、所謂3G回線や4G回線等の無線移動体用の広域通信網、WAN(Wide Area Network)、LAN(Local Area Network)、Bluetooth(登録商標)規格に準拠した通信を行う無線通信網、NFC(Near Field Communication)等の近距離無線通信の通信路、赤外線通信の通信路、HDMI(登録商標)(High-Definition Multimedia Interface)やUSB(Universal Serial Bus)等の規格に準拠した有線通信の通信網等、任意の通信規格の通信網や通信路がネットワーク530に含まれるようにしてもよい。
 各装置は、このネットワーク530に通信可能に接続されている。なお、この接続は有線(すなわち、有線通信を介した接続)であってもよいし、無線(すなわち、無線通信を介した接続)であってもよいし、その両方であってもよい。各装置は、ネットワーク530を介して互いに通信を行う(情報の授受等を行う)ことができる。換言するに、各装置は、他の設備(装置や伝送路等)を介して互いに通信可能に接続されるようにしてもよい。このような構成の場合も、画像投影システム100は、上述した他の実施の形態の場合と同様に本技術を適用することができ、上述した作用効果を奏することができる。
 なお、図28の例において、画像処理装置511および振分装置512の代わりに、図5の中央処理装置111が設けられるようにしてもよい。
 また、例えば図29に示されるように、画像投影システム100の全構成が1つの装置として構成されるようにしてもよい。図29に示される画像投影装置551は、画像処理部121、振分部122、並びに、投影部562-1乃至投影部562-4を有する。
 投影部562-1乃至投影部562-4は、互いに同様の処理部であり、互いに区別して説明する必要がない場合、投影部562と称する。投影部562は、投影装置112と同様の処理を行い、自身に振り分けられたフレーム画像を投影する。
 したがって、画像投影装置551は、画像投影システム100の場合と同様に本技術を適用することができ、上述した作用効果を奏することができる。もちろん、画像投影装置551の構成は任意であり、図29の例に限定されない。例えば、画像処理部121、振分部122、および投影部562の数はそれぞれ任意である。また、各投影装置112の仕様(例えば、解像度、明るさ、フレームレート等)がすべて同一であってもよいし、同一でなくてもよい。
 また、例えば図30に示されるように、画像処理部121、振分部122、および、一部の投影装置112が1つの装置として構成されるようにしてもよい。図30に示される画像投影装置581は、画像処理部121、振分部122、および投影部562-1を有する。振分部122には、画像投影装置581に内蔵される投影部562-1だけでなく、外部の投影装置112-1、投影装置112-3、投影装置112-4も接続されている。振分部122は、画像処理部121から供給される各フレーム画像を、投影部562-1、並びに、投影装置112-1乃至投影装置112-4に循環的に振り分ける。このような画像投影装置581にも、画像投影システム100の場合と同様に本技術を適用することができ、上述した作用効果を奏することができる。
  <その他の構成2>
 同様に、本技術を適用した画像投影システム300の構成は、上述した例に限定されない。例えば、制御装置301、投影装置302、および立体視装置303の数は、それぞれ任意である。
 また、図27の例の場合と同様に、制御装置301の画像処理部351、投影制御部352、およびシャッタ制御部353を、それぞれ独立した装置としてもよい。
 また、図28の例の場合と同様に、その各装置が、ネットワーク530を介して互いに接続されるようにしてもよい。
 また、図29の例の場合と同様に、制御装置301と投影装置302とが1つの装置として構成されるようにしてもよい。さらに、投影装置302が複数存在する場合、図30の例の場合と同様に、制御装置301と一部の投影装置302とが1つの装置として構成されるようにしてもよい。
 なお、制御装置301と立体視装置303とが1つの装置として構成されるようにしてもよい。さらに、立体視装置303が複数存在する場合、制御装置301と一部の立体視装置303とが1つの装置として構成されるようにしてもよい。もちろん、制御装置301、投影装置302、および立体視装置303が1つの装置として構成されるようにしてもよい。
 <8.その他>
  <フレームレート>
 なお、入力画像、各投影部または投影装置より出力される出力画像、および、スクリーンに投影された投影画像のフレームレートはそれぞれ任意であり、上述した例に限定されない。例えば、入力画像と投影画像とでフレームレートが互いに異なっていてもよい。
  <本技術の適用分野>
 本技術は、画像を処理するものであれば、例えば、交通、医療、防犯、農業、畜産業、鉱業、美容、工場、家電、気象、自然監視等、任意の分野に利用されるシステム、装置、処理部等に適用することができる。
 例えば、本技術は、鑑賞の用に供されるシステムやデバイスにも適用することができる。また、例えば、本技術は、交通管理の用に供されるシステムやデバイスにも適用することができる。さらに、例えば、本技術は、セキュリティの用に供されるシステムやデバイスにも適用することができる。また、例えば、本技術は、スポーツの用に供されるシステムやデバイスにも適用することができる。さらに、例えば、本技術は、農業の用に供されるシステムやデバイスにも適用することができる。また、例えば、本技術は、畜産業の用に供されるシステムやデバイスにも適用することができる。さらに、本技術は、例えば火山、森林、海洋等の自然の状態を監視するシステムやデバイスにも適用することができる。また、本技術は、例えば天気、気温、湿度、風速、日照時間等を観測する気象観測システムや気象観測装置に適用することができる。さらに、本技術は、例えば鳥類、魚類、ハ虫類、両生類、哺乳類、昆虫、植物等の野生生物の生態を観測するシステムやデバイス等にも適用することができる。
  <ソフトウエア>
 上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。また、一部の処理をハードウエアにより実行させ、他の処理をソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここでコンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等が含まれる。
 図31は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。
 図31に示されるコンピュータ800において、CPU(Central Processing Unit)801、ROM(Read Only Memory)802、RAM(Random Access Memory)803は、バス804を介して相互に接続されている。
 バス804にはまた、入出力インタフェース810も接続されている。入出力インタフェース810には、入力部811、出力部812、記憶部813、通信部814、およびドライブ815が接続されている。
 入力部811は、例えば、キーボード、マウス、マイクロホン、タッチパネル、入力端子などよりなる。出力部812は、例えば、ディスプレイ、スピーカ、出力端子などよりなる。記憶部813は、例えば、ハードディスク、RAMディスク、不揮発性のメモリなどよりなる。通信部814は、例えば、ネットワークインタフェースよりなる。ドライブ815は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブルメディア821を駆動する。
 以上のように構成されるコンピュータでは、CPU801が、例えば、記憶部813に記憶されているプログラムを、入出力インタフェース810およびバス804を介して、RAM803にロードして実行することにより、上述した一連の処理が行われる。RAM803にはまた、CPU801が各種の処理を実行する上において必要なデータなども適宜記憶される。
 コンピュータ(CPU801)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア821に記録して適用することができる。その場合、プログラムは、リムーバブルメディア821をドライブ815に装着することにより、入出力インタフェース810を介して、記憶部813にインストールすることができる。また、このプログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することもできる。その場合、プログラムは、通信部814で受信し、記憶部813にインストールすることができる。その他、このプログラムは、ROM802や記憶部813に、あらかじめインストールしておくこともできる。
  <補足>
 本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本技術は、装置またはシステムを構成するあらゆる構成、例えば、システムLSI(Large Scale Integration)等としてのプロセッサ、複数のプロセッサ等を用いるモジュール、複数のモジュール等を用いるユニット、ユニットにさらにその他の機能を付加したセット等(すなわち、装置の一部の構成)として実施することもできる。
 なお、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、全ての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 また、例えば、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。
 また、例えば、本技術は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、例えば、上述したプログラムは、任意の装置において実行することができる。その場合、その装置が、必要な機能(機能ブロック等)を有し、必要な情報を得ることができるようにすればよい。
 また、例えば、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。換言するに、1つのステップに含まれる複数の処理を、複数のステップの処理として実行することもできる。逆に、複数のステップとして説明した処理を1つのステップとしてまとめて実行することもできる。
 コンピュータが実行するプログラムは、プログラムを記述するステップの処理が、本明細書で説明する順序に沿って時系列に実行されるようにしても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで個別に実行されるようにしても良い。つまり、矛盾が生じない限り、各ステップの処理が上述した順序と異なる順序で実行されるようにしてもよい。さらに、このプログラムを記述するステップの処理が、他のプログラムの処理と並列に実行されるようにしても良いし、他のプログラムの処理と組み合わせて実行されるようにしても良い。
 本明細書において複数説明した本技術は、矛盾が生じない限り、それぞれ独立に単体で実施することができる。もちろん、任意の複数の本技術を併用して実施することもできる。例えば、いずれかの実施の形態において説明した本技術の一部または全部を、他の実施の形態において説明した本技術の一部または全部と組み合わせて実施することもできる。また、上述した任意の本技術の一部または全部を、上述していない他の技術と併用して実施することもできる。
 なお、本技術は以下のような構成も取ることができる。
 (1) 動画像の各フレーム画像に基づいて、ユーザが前記動画像の各フレーム画像の投影画像を視認可能な時間を制御する制御部
 を備える画像処理装置。
 (2) 前記制御部は、輝度の減少による前記動画像と前記投影画像との差、および、前記ユーザが前記投影画像を視認可能な時間が長くなることにより増大する前記動画像と前記投影画像との差を抑制するように、前記ユーザが前記投影画像を視認可能な時間を制御する
 (1)に記載の画像処理装置。
 (3) 前記ユーザが前記投影画像を視認可能な時間が長くなることにより増大する前記動画像と前記投影画像との差は、複数のフレーム画像の投影画像が重畳することにより生じる差である
 (2)に記載の画像処理装置。
 (4) 前記複数のフレーム画像は、前記動画像において互いに時刻が異なるフレーム画像である
 (3)に記載の画像処理装置。
 (5) 前記複数のフレーム画像は、右目用のフレーム画像および左目用のフレーム画像である
 (3)または(4)に記載の画像処理装置。
 (6) 前記制御部は、画素毎に求めた前記動画像と前記投影画像との差の、画像全体の総和が最小となるように、前記ユーザが前記投影画像を視認可能な時間を制御する
 (1)乃至(5)のいずれかに記載の画像処理装置。
 (7) 前記制御部は、
  前記動画像の輝度値である入力輝度値に基づいて投影部が出力する輝度値である出力輝度値を見積もり、
  見積もった前記出力輝度値と、前記ユーザが前記投影画像を視認可能な時間の長さによる前記出力輝度値の制約とに基づいて、前記投影画像の輝度値である投影輝度値を見積もり、
  前記入力輝度値と見積もった前記投影輝度値とに基づいて前記動画像と前記投影画像との差を画素毎に求め、
  画素毎に求めた前記動画像と前記投影画像との差の、画像全体の総和が最小となるように、前記ユーザが前記投影画像を視認可能な時間を制御する
 (6)に記載の画像処理装置。
 (8) 前記制御部は、フィルタ演算により前記出力輝度値を見積もる
 (7)に記載の画像処理装置。
 (9) 前記制御部は、線形計画法による最適化により前記出力輝度値を見積もる
 (7)または(8)に記載の画像処理装置。
 (10) 前記制御部は、前記ユーザが前記投影画像を視認可能な時間の、前記ユーザが前記投影画像を視認可能な時間が最大の場合に対する割合に応じて、前記出力輝度値の最大値を制限する
 (7)乃至(9)のいずれかに記載の画像処理装置。
 (11) 前記制御部は、複数のフレーム画像の投影画像のオーバーラップすることによるぼけ具合を表すぼけ係数を用いて、前記投影輝度値を見積もる
 (7)乃至(10)のいずれかに記載の画像処理装置。
 (12) 前記制御部は、重畳する全てのフレーム画像の、前記入力輝度値と前記投影輝度値とに基づいて、前記動画像と前記投影画像との差を求める
 (7)乃至(11)のいずれかに記載の画像処理装置。
 (13) 前記制御部は、
  輝度の減少による前記動画像と前記投影画像との差を第1の差として画素毎に見積もり、
  前記ユーザが前記投影画像を視認可能な時間が長くなることにより増大する前記動画像と前記投影画像との差を第2の差として画素毎に見積もり、
  前記第1の差および前記第2の差の、画像全体の総和を算出し、
  前記総和が最小となるように、前記ユーザが前記投影画像を視認可能な時間を制御する
 (6)に記載の画像処理装置。
 (14) 前記制御部は、前記ユーザが前記投影画像を視認可能な時間の長さに基づいて、前記第1の差を見積もる
 (13)に記載の画像処理装置。
 (15) 前記制御部は、前記ユーザが前記投影画像を視認可能な時間の、前記ユーザが前記投影画像を視認可能な時間が最大の場合に対する割合に応じて、前記第1の差を見積もる
 (14)に記載の画像処理装置。
 (16) 前記制御部は、注目画素と周辺画素との差に基づいて、前記第2の差を見積もる
 (13)乃至(15)のいずれかに記載の画像処理装置。
 (17) 前記制御部は、前記動画像の各フレーム画像について、前記ユーザが前記投影画像を視認可能な時間を制御する
 (1)乃至(16)のいずれかに記載の画像処理装置。
 (18) 前記制御部は、前記動画像の各フレーム画像を複数の投影部を循環的に用いて投影する際の、前記ユーザが前記動画像の各フレーム画像の投影画像を視認可能な時間を制御する
 (1)乃至(17)のいずれかに記載の画像処理装置。
 (19) 前記制御部は、前記複数の投影部による、前記動画像の各フレーム画像の出力時間を制御する
 (18)に記載の画像処理装置。
 (20) 前記制御部は、前記動画像の右目用のフレーム画像および左目用のフレーム画像を順次投影し、前記ユーザが、前記動画像の立体視が可能なように前記動画像の右目用のフレーム画像および左目用のフレーム画像の投影タイミングに合わせて右目に対する遮光および左目に対する遮光を交互に行う遮光機構を備える立体視装置を介して、前記動画像の右目用のフレーム画像および左目用のフレーム画像の投影画像を見る際の、前記動画像の右目用のフレーム画像および左目用のフレーム画像の投影画像を視認可能な時間を制御する
 (1)乃至(19)のいずれかに記載の画像処理装置。
 (21) 前記制御部は、前記立体視装置による、右目に対する遮光および左目に対する遮光が重複する時間を制御する
 (20)に記載の画像処理装置。
 (22) 前記制御部は、さらに、前記動画像の各フレーム画像の投影画像において複数のフレーム画像が重畳することによる影響を抑制する画像処理を、投影前の各フレーム画像に対して行う
 (1)乃至(21)のいずれかに記載の画像処理装置。
 (23) 前記制御部は、各フレーム画像の画素値を補正する画像処理を行う
 (22)に記載の画像処理装置。
 (24) 前記制御部は、フレーム画像と投影画像との誤差が最小となるように画素値を補正する
 (23)に記載の画像処理装置。
 (25) 前記制御部は、前記画素値の補正を、前記動画像の各フレーム画像のライン毎に行う
 (24)に記載の画像処理装置。
 (26) 前記動画像の各フレーム画像を複数の投影部に循環的に振り分ける振り分け部をさらに備える
 (1)乃至(25)のいずれかに記載の画像処理装置。
 (27) 前記振り分け部により自身に振り分けられたフレーム画像を投影する複数の前記投影部をさらに備える
 (26)に記載の画像処理装置。
 (28) 複数の前記投影部は、自身に振り分けられたフレーム画像を、前記動画像のフレームレートよりも低レートで投影する
 (27)に記載の画像処理装置。
 (29) 前記動画像の右目用のフレーム画像および左目用のフレーム画像を順次投影する投影部と、
 前記動画像の立体視が可能なように、前記投影部による前記動画像の右目用のフレーム画像および左目用のフレーム画像の投影タイミングに合わせて、右目に対する遮光および左目に対する遮光を交互に行う遮光機構を備える立体視部と
 をさらに備える(1)乃至(28)のいずれかに記載の画像処理装置。
 (30) 動画像の各フレーム画像に基づいて、ユーザが前記動画像の各フレーム画像の投影画像を視認可能な時間を制御する
 画像処理方法。
 100 画像投影システム, 111 中央処理装置, 112 投影装置, 113 スクリーン, 121 画像処理部, 122 振分部, 131 記憶部, 132 出力時間算出部, 201 出力算出部, 211 学習部, 212 予測部, 300 画像投影システム, 301 制御装置, 302 投影装置, 303 立体視装置, 310 スクリーン, 321 左目用遮光部, 322 右目用遮光部, 351 画像処理部, 352 投影制御部, 353 シャッタ制御部, 511 画像処理装置, 512 振分装置, 530 ネットワーク, 551 画像投影装置, 562 投影部, 581 画像投影装置, 800 コンピュータ

Claims (20)

  1.  動画像の各フレーム画像に基づいて、ユーザが前記動画像の各フレーム画像の投影画像を視認可能な時間を制御する制御部
     を備える画像処理装置。
  2.  前記制御部は、輝度の減少による前記動画像と前記投影画像との差、および、前記ユーザが前記投影画像を視認可能な時間が長くなることにより増大する前記動画像と前記投影画像との差を抑制するように、前記ユーザが前記投影画像を視認可能な時間を制御する
     請求項1に記載の画像処理装置。
  3.  前記ユーザが前記投影画像を視認可能な時間が長くなることにより増大する前記動画像と前記投影画像との差は、複数のフレーム画像の投影画像が重畳することにより生じる差である
     請求項2に記載の画像処理装置。
  4.  前記複数のフレーム画像は、前記動画像において互いに時刻が異なるフレーム画像である
     請求項3に記載の画像処理装置。
  5.  前記複数のフレーム画像は、右目用のフレーム画像および左目用のフレーム画像である
     請求項3に記載の画像処理装置。
  6.  前記制御部は、画素毎に求めた前記動画像と前記投影画像との差の、画像全体の総和が最小となるように、前記ユーザが前記投影画像を視認可能な時間を制御する
     請求項1に記載の画像処理装置。
  7.  前記制御部は、前記動画像の各フレーム画像について、前記ユーザが前記投影画像を視認可能な時間を制御する
     請求項1に記載の画像処理装置。
  8.  前記制御部は、前記動画像の各フレーム画像を複数の投影部を循環的に用いて投影する際の、前記ユーザが前記動画像の各フレーム画像の投影画像を視認可能な時間を制御する
     請求項1に記載の画像処理装置。
  9.  前記制御部は、前記複数の投影部による、前記動画像の各フレーム画像の出力時間を制御する
     請求項8に記載の画像処理装置。
  10.  前記制御部は、前記動画像の右目用のフレーム画像および左目用のフレーム画像を順次投影し、前記ユーザが、前記動画像の立体視が可能なように前記動画像の右目用のフレーム画像および左目用のフレーム画像の投影タイミングに合わせて右目に対する遮光および左目に対する遮光を交互に行う遮光機構を備える立体視装置を介して、前記動画像の右目用のフレーム画像および左目用のフレーム画像の投影画像を見る際の、前記動画像の右目用のフレーム画像および左目用のフレーム画像の投影画像を視認可能な時間を制御する
     請求項1に記載の画像処理装置。
  11.  前記制御部は、前記立体視装置による、右目に対する遮光および左目に対する遮光が重複する時間を制御する
     請求項10に記載の画像処理装置。
  12.  前記制御部は、さらに、前記動画像の各フレーム画像の投影画像において複数のフレーム画像が重畳することによる影響を抑制する画像処理を、投影前の各フレーム画像に対して行う
     請求項1に記載の画像処理装置。
  13.  前記制御部は、各フレーム画像の画素値を補正する画像処理を行う
     請求項12に記載の画像処理装置。
  14.  前記制御部は、フレーム画像と投影画像との誤差が最小となるように画素値を補正する
     請求項13に記載の画像処理装置。
  15.  前記制御部は、前記画素値の補正を、前記動画像の各フレーム画像のライン毎に行う
     請求項14に記載の画像処理装置。
  16.  前記動画像の各フレーム画像を複数の投影部に循環的に振り分ける振り分け部をさらに備える
     請求項1に記載の画像処理装置。
  17.  前記振り分け部により自身に振り分けられたフレーム画像を投影する複数の前記投影部をさらに備える
     請求項16に記載の画像処理装置。
  18.  複数の前記投影部は、自身に振り分けられたフレーム画像を、前記動画像のフレームレートよりも低レートで投影する
     請求項17に記載の画像処理装置。
  19.  前記動画像の右目用のフレーム画像および左目用のフレーム画像を順次投影する投影部と、
     前記動画像の立体視が可能なように、前記投影部による前記動画像の右目用のフレーム画像および左目用のフレーム画像の投影タイミングに合わせて、右目に対する遮光および左目に対する遮光を交互に行う遮光機構を備える立体視部と
     をさらに備える請求項1に記載の画像処理装置。
  20.  動画像の各フレーム画像に基づいて、ユーザが前記動画像の各フレーム画像の投影画像を視認可能な時間を制御する
     画像処理方法。
PCT/JP2018/031872 2017-09-12 2018-08-29 画像処理装置および方法 WO2019054179A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/644,821 US11397376B2 (en) 2017-09-12 2018-08-29 Image processing device and method for suppressing a reduction in image quality

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017174901 2017-09-12
JP2017-174901 2017-09-12

Publications (1)

Publication Number Publication Date
WO2019054179A1 true WO2019054179A1 (ja) 2019-03-21

Family

ID=65723306

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/031872 WO2019054179A1 (ja) 2017-09-12 2018-08-29 画像処理装置および方法

Country Status (2)

Country Link
US (1) US11397376B2 (ja)
WO (1) WO2019054179A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110383828B (zh) * 2017-03-09 2022-02-08 索尼公司 图像处理设备和方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004266808A (ja) * 2003-02-10 2004-09-24 Sony Corp 画像処理装置および画像処理方法、画像表示システム、記録媒体、並びにプログラム
JP2005136868A (ja) * 2003-10-31 2005-05-26 Sony Corp 撮像装置および撮像方法、画像処理装置および画像処理方法、画像表示システム、記録媒体、並びにプログラム
JP2006195206A (ja) * 2005-01-14 2006-07-27 Seiko Epson Corp 映像投写システム
JP2011259070A (ja) * 2010-06-07 2011-12-22 Hitachi Consumer Electronics Co Ltd 立体映像表示装置
JP2012103357A (ja) * 2010-11-08 2012-05-31 Jvc Kenwood Corp 立体映像表示装置
JP2012151641A (ja) * 2011-01-19 2012-08-09 Seiko Epson Corp 立体映像表示装置、立体映像表示装置の制御方法及び立体映像表示システム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004015204A (ja) * 2002-06-04 2004-01-15 Olympus Corp マルチプロジェクションシステム
JP2006078505A (ja) * 2004-08-10 2006-03-23 Sony Corp 表示装置および方法
JP4561525B2 (ja) * 2005-08-10 2010-10-13 セイコーエプソン株式会社 表示装置および遊技機
JP2007121893A (ja) * 2005-10-31 2007-05-17 Olympus Corp 偏光スイッチング液晶素子、およびこれを備える画像表示装置
JP4985672B2 (ja) 2009-02-16 2012-07-25 ソニー株式会社 画像表示システム
JP5634503B2 (ja) * 2010-04-09 2014-12-03 シャープ株式会社 アクティブシャッターメガネ及び立体映像認識システム
JP5813751B2 (ja) * 2010-04-18 2015-11-17 アイマックス ヨーロッパ ソシエテ アノニム プロジェクタによって投影される画像を生成する方法及び画像投影システム
JP2013059016A (ja) * 2011-08-12 2013-03-28 Sony Corp 画像処理装置および方法、並びにプログラム
EP2928269A1 (en) * 2014-04-04 2015-10-07 LG Electronics Inc. Lighting system and control method thereof
CN104052988B (zh) * 2014-06-16 2016-03-30 京东方科技集团股份有限公司 3d显示驱动方法及3d眼镜驱动方法
US20160131904A1 (en) * 2014-11-07 2016-05-12 Osterhout Group, Inc. Power management for head worn computing
JP6816352B2 (ja) * 2015-10-08 2021-01-20 株式会社リコー 投影装置、投影システム及びプログラム
JP7070417B2 (ja) * 2016-08-24 2022-05-18 ソニーグループ株式会社 画像処理装置および方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004266808A (ja) * 2003-02-10 2004-09-24 Sony Corp 画像処理装置および画像処理方法、画像表示システム、記録媒体、並びにプログラム
JP2005136868A (ja) * 2003-10-31 2005-05-26 Sony Corp 撮像装置および撮像方法、画像処理装置および画像処理方法、画像表示システム、記録媒体、並びにプログラム
JP2006195206A (ja) * 2005-01-14 2006-07-27 Seiko Epson Corp 映像投写システム
JP2011259070A (ja) * 2010-06-07 2011-12-22 Hitachi Consumer Electronics Co Ltd 立体映像表示装置
JP2012103357A (ja) * 2010-11-08 2012-05-31 Jvc Kenwood Corp 立体映像表示装置
JP2012151641A (ja) * 2011-01-19 2012-08-09 Seiko Epson Corp 立体映像表示装置、立体映像表示装置の制御方法及び立体映像表示システム

Also Published As

Publication number Publication date
US20210074243A1 (en) 2021-03-11
US11397376B2 (en) 2022-07-26

Similar Documents

Publication Publication Date Title
EP3368965B1 (en) Remote rendering for virtual images
JP6510039B2 (ja) ジャダー可視性制御のためのデュアルエンドメタデータ
JP6644371B2 (ja) 映像表示装置
CN107038982B (zh) 投影设备及其控制方法
WO2020143191A1 (en) Image frame prediction method, image frame prediction apparatus and head display apparatus
KR101669840B1 (ko) 다시점 비디오로부터 일관성 있는 변이를 추정하는 변이 추정 시스템 및 방법
US8803947B2 (en) Apparatus and method for generating extrapolated view
US20190222823A1 (en) Techniques for Capturing and Rendering Videos with Simulated Reality Systems and for Connecting Services with Service Providers
US20160330371A1 (en) Image correction apparatus and imaging apparatus
US20120120055A1 (en) Three-dimensional image processing apparatus and three-dimensional image processing method
KR102273331B1 (ko) 화상 처리 장치, 화상 처리 방법 및 기록 매체
CN103858432A (zh) 图像处理装置、方法、程序以及记录介质
US10992927B2 (en) Stereoscopic image display apparatus, display method of liquid crystal display, and non-transitory computer-readable recording medium storing program of liquid crystal display
WO2019054179A1 (ja) 画像処理装置および方法
CN112470484B (zh) 用于流式传输视频的方法和设备
US20120274749A1 (en) Stereoscopic video display device
US20130016196A1 (en) Display apparatus and method for displaying 3d image thereof
CN110431840B (zh) 图像处理装置、方法以及存储介质
US20210168328A1 (en) Electronic apparatus and control method thereof
JP2014052792A (ja) 立体画像処理装置、立体画像処理方法、及びプログラム
JP5858254B2 (ja) 2次元コンテンツの3次元コンテンツへのリアルタイム変換の方法及び装置
JP4815004B2 (ja) 多視点画像符号化装置
WO2018168528A1 (ja) 画像処理装置および方法
US10063834B2 (en) Method and apparatus for providing video enhancements for display images
CN110383828B (zh) 图像处理设备和方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18856987

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18856987

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP