WO2018003644A1 - 映像処理装置、送信装置、制御プログラム及び記録媒体 - Google Patents
映像処理装置、送信装置、制御プログラム及び記録媒体 Download PDFInfo
- Publication number
- WO2018003644A1 WO2018003644A1 PCT/JP2017/022956 JP2017022956W WO2018003644A1 WO 2018003644 A1 WO2018003644 A1 WO 2018003644A1 JP 2017022956 W JP2017022956 W JP 2017022956W WO 2018003644 A1 WO2018003644 A1 WO 2018003644A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- video
- mute
- video signal
- luminance value
- luminance
- Prior art date
Links
- 238000012545 processing Methods 0.000 title description 50
- 230000005540 biological transmission Effects 0.000 claims abstract description 73
- 238000004364 calculation method Methods 0.000 claims description 55
- 230000001953 sensory effect Effects 0.000 claims description 37
- 238000000034 method Methods 0.000 abstract description 7
- 230000008447 perception Effects 0.000 abstract description 2
- 230000008859 change Effects 0.000 description 43
- 238000003780 insertion Methods 0.000 description 13
- 230000037431 insertion Effects 0.000 description 13
- 230000036962 time dependent Effects 0.000 description 12
- 230000003247 decreasing effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000035807 sensation Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000010348 incorporation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/44—Receiver circuitry for the reception of television signals according to analogue transmission standards
- H04N5/57—Control of contrast or brightness
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/4402—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
- H04N21/440254—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering signal-to-noise parameters, e.g. requantization
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/38—Transmitter circuitry for the transmission of television signals according to analogue transmission standards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/007—Systems with supplementary picture signal insertion during a portion of the active part of a television signal, e.g. during top and bottom lines in a HDTV letter-box system
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/08—Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
- H04N7/0806—Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division the signals being two or more video signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/77—Circuits for processing the brightness signal and the chrominance signal relative to each other, e.g. adjusting the phase of the brightness signal relative to the colour signal, correcting differential gain or differential phase
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/64—Circuits for processing colour signals
- H04N9/74—Circuits for processing colour signals for obtaining special effects
Definitions
- the present invention relates to a video processing device, a transmission device, a control program, and a recording medium.
- a black screen is usually displayed at the time of channel switching or content switching, which is the timing at which video cannot be displayed.
- HDR has a larger luminance fluctuation range than SDR, and when the luminance of the content before switching is high, when the black screen is displayed, the luminance difference is large and the viewer may feel uncomfortable.
- the present invention has been made in view of the above problems, and an object of the present invention is to provide a technique for preventing a viewer's feeling of brightness from changing greatly when content is switched.
- a video processing apparatus includes a calculation unit that calculates a video feature amount of a transmission video signal, and a mute video that generates a mute video to be inserted into the video signal.
- a mute video generator configured to set the luminance of the mute video to a value corresponding to a video feature amount of a video signal displayed before the mute video in time.
- the viewer's feeling of brightness does not change greatly, and the unnecessary psychological burden on the viewer can be reduced.
- FIG. 1 It is a block diagram which shows the structure of the transmitter which concerns on Embodiment 1 of this invention. It is a flowchart explaining the mute video production
- the video processing apparatus of the present invention includes a calculation unit that calculates a video feature amount of a video signal for transmission, and a mute video generation unit that generates a mute video to be inserted into the video signal.
- the luminance of the video is set so as to be a value corresponding to the video feature amount of the video signal displayed before the mute video.
- the image feature amount is an index indicating the sensory brightness of the image.
- An example of the video feature amount is a sensory luminance value.
- the sensation luminance value is an index representing the sensation of brightness calculated from the luminance value in the video signal.
- Examples of the sensory luminance value include an average luminance value, a maximum luminance value, a median value of luminance value histogram, MaxFALL (Maximum Frame Average Light Level), and combinations thereof.
- the video feature amount includes not only an index calculated from the luminance value in the video signal, such as a sensory luminance value, but also an index calculated from the chromaticity in the video signal.
- mute video refers to video data inserted into a display video or an image represented by the video data at a timing such as scene switching between two different contents or content. .
- FIG. 1 is a block diagram illustrating a configuration of a transmission apparatus 1 including a video processing apparatus 10 according to the present embodiment.
- the transmission device 1 includes a video processing device 10, a meta information generation unit 20, an encoder 30, and a transmission unit 40.
- Examples of the external configuration of the transmission apparatus 1 include a camera 50 and a recorder 60.
- the camera 50 captures a video and outputs a video signal of the captured video to the recorder 60.
- the recorder 60 records the input video signal and outputs the recorded video signal to the transmission device 1.
- the transmission device 1 acquires the input video signal by the video processing device 10 and the meta information generation unit 20. Note that the video signal may be output directly from the camera 50 to the transmission device 1 without going through the recorder 60.
- the video processing device 10 is a device that sequentially outputs a plurality of frames constituting a video by decoding a video signal, and includes an acquisition unit 11, a calculation unit 12, a mute video generation unit 13, and a mute video insertion unit 14. .
- the acquisition unit 11 acquires a video signal input from the recorder 60 or the camera 50.
- the acquisition unit 11 outputs the acquired video signal to the calculation unit 12 and the mute video insertion unit 14.
- the calculation unit 12 refers to at least one of the average luminance, the maximum luminance, the median luminance value, and MAXFALL of the video data in the input video signal, and each content (program and CM) included in the video signal. ) Is calculated. In other words, the calculation unit 12 calculates a video feature amount related to the video signal.
- the median luminance value is an average median value obtained by averaging the median luminance values per frame over a plurality of frames, or the center of a histogram over a plurality of frames based on the average luminance value per frame. Any of the values may be used. An example of calculating the video feature amount will be described later.
- the calculation unit 12 calculates a second average luminance value that is an average luminance value for each frame in a plurality of frames included in the input video signal, and calculates the second average luminance value for the plurality of frames.
- a first average luminance value may be calculated by averaging, and the first average luminance value may be used as the video feature amount. Note that, when calculating the second average luminance value, the calculation unit 12 may calculate the second average luminance value in the active image region excluding the luminance value equal to or higher than a predetermined value, as will be described later. .
- the calculation unit 12 outputs the calculated video feature amount to the mute video generation unit 13. A specific description of the video feature amount will be described later.
- the mute video generation unit 13 sets the luminance value of the mute video so as to have a value corresponding to the video feature amount of each input content, and generates a mute video having the luminance value. Further, the mute video generation unit 13 determines the brightness of the mute video so that the mute video inserted after the last content included in the video signal has a value corresponding to the video feature amount of the last content. A value is set, and a mute video having the luminance value is generated.
- the mute video generation unit 13 (1-1) The brightness of the muted video, (1-2) a sensory luminance value of a video signal displayed before the mute video in time, The brightness of the mute video is set so that the difference between the two is within a predetermined range.
- “before the mute video” is, for example, immediately before the mute video.
- the “video signal displayed before the mute video” is also referred to as “first video signal”.
- “after the first video signal” is, for example, immediately after the first video signal, but is not limited thereto.
- the “video signal displayed after the mute video” is also referred to as “second video signal”.
- the expression “video signal” used without “first” and “second” is used as including at least one of the first video signal and the second video signal. May be.
- “to be within a predetermined range” It includes the case where the brightness value of the mute video is the sensory brightness value of the video data,
- / sensory luminance value ⁇ A (for example, A 0.1) is also included (where
- the range of the predetermined video data can be set as appropriate.
- the predetermined range includes a change in value accompanying a calculation error due to rounding or the like.
- the mute video generation unit 13 outputs the generated mute video to the mute video insertion unit 14.
- the mute video insertion unit 14 uses the video signal input from the acquisition unit 11 and the mute video input from the mute video generation unit 13 to insert a mute video between the contents included in the video signal.
- the mute video insertion unit 14 outputs the video signal with the mute video inserted to the encoder 30.
- the meta information generation unit 20 generates meta information of the video signal based on the input video signal.
- the meta information generation unit 20 outputs the generated meta information to the transmission unit 40.
- the meta information includes an average brightness indicating the brightness value of each content, a maximum brightness, a median value of brightness values, MAXFALL, and the like.
- the encoder 30 outputs a video signal in which a mute video is inserted from the video processing device 10.
- the encoder 30 encodes the input video signal and generates video data.
- the encoder 30 outputs the generated video data to the transmission unit 40.
- the transmission unit 40 (1-3) meta information input from the meta information generation unit 20; (1-4) video data input from the encoder 30; Is included in the transmission video signal, and the transmission video signal is transmitted to the display device.
- the transmission video signal transmitted by the transmission unit 40 is an HDMI signal based on the HDMI (registered trademark) (High-Definition Multimedia Interface) standard, a Tuner signal (a signal received by the tuner), and It may be an HDR signal such as a CVBS (Composite Video, Blanking, and Sync: composite video signal) signal.
- HDMI registered trademark
- Tuner signal a signal received by the tuner
- HDR High-Definition Multimedia Interface
- CVBS Composite Video, Blanking, and Sync: composite video signal
- the display device includes a receiving unit, a video control unit, an operation receiving unit, a panel control unit, and a display panel.
- the reception unit receives the transmission video signal transmitted from the transmission device 1 and outputs the received video signal to the video control unit.
- the video control unit decodes the input video signal and outputs the decoded video data to the panel control unit.
- the panel control unit performs tone mapping on the video data input from the video control unit, so that the video data can be displayed on the display panel with appropriate luminance. Tone mapping is to determine which luminance information that can be expressed by the display panel is assigned to luminance information included in the video signal.
- the operation accepting unit accepts an operation by the user. As an example of the operation received by the operation receiving unit, there are an operation for starting display of video, an operation for stopping display video, and the like.
- FIG. 2 is a flowchart showing the flow of the mute video generation process.
- the video processing apparatus 10 generates a mute video with a luminance value set by executing steps S0 to S4 described below.
- the acquisition unit 11 acquires a video signal (step S0).
- the acquisition unit 11 outputs the acquired video signal to the calculation unit 12 and the mute video insertion unit 14.
- the calculation unit 12 specifies the video feature amount corresponding to each content included in the video signal from the video signal input from the acquisition unit 11 (step S1).
- the mute video generation unit 13 acquires the video feature amount from the calculation unit 12.
- the mute video generation unit 13 sets the brightness value of the mute video so that the mute video inserted between the contents has a value corresponding to the acquired video feature amount.
- the mute video generation unit 13 generates a mute video having the brightness value (step S2).
- the mute video insertion unit 14 inserts the mute video input from the mute video generation unit 13 into the video signal input from the acquisition unit 11.
- the mute video insertion unit 14 inserts the mute video between each content included in the video signal and after the last content (step S3).
- the mute video insertion unit 14 outputs a video signal in which the mute video is inserted to the encoder 30.
- the encoder 30 encodes the video signal and generates video data.
- the encoder 30 outputs the video data to the transmission unit 40.
- the transmission unit 40 acquires the meta information of the video signal from the meta information generation unit 20.
- the transmission unit 40 includes the video data and the meta information in the transmission video signal, and transmits the transmission video signal to the display device (step S4).
- the brightness value of the mute video is set to a value corresponding to the sensory brightness value of the video signal displayed before the mute video. It is possible to reduce the difference in luminance value between the video and the video signal displayed before the mute video. Thereby, the psychological burden to the user by a brightness
- FIGS. 3A and 3C show changes in the luminance value when the luminance value of the mute video is set in the conventional display device
- FIGS. 3B and 3D show the implementation of the present invention.
- the change of the luminance value at the time of setting the luminance value of the mute video in the transmission device according to the first embodiment is shown.
- the luminance value of the mute video is 0 nit, and the difference in luminance value between the mute video and the content before and after the mute video is large.
- the mute video generation unit 13 has a difference in luminance value between the mute video and the content displayed before the mute video in time.
- the brightness value of the mute video is set so as to be within a predetermined range.
- FIG. 4 shows the change over time in the luminance value of the display video (content and mute video).
- 4A shows a change in luminance value when the luminance value of the mute video is set in the conventional display device
- FIG. 4B shows the mute video in the transmission device 1 according to the present embodiment.
- the change of the luminance value when the luminance value is set is shown.
- FIG. 4A in the conventional display device, the difference in luminance value between the mute video and the content before and after the mute video becomes large.
- FIG. 4A shows a change in luminance value when the luminance value is set in the conventional display device
- FIG. 4B shows the mute video in the transmission device 1 according to the present embodiment.
- the change of the luminance value when the luminance value is set is shown.
- FIG. 4A in the conventional display device, the difference in luminance value between the mute video and the content before and after the mute video becomes large.
- FIG. 4A in the conventional display device, the
- the mute image generation unit 13 (1-1) The brightness of the muted video, (1-2) a sensory luminance value of a video signal displayed before the mute video in time, The luminance value of the mute video is set so that the difference between the two is within a predetermined range.
- FIG. 4B the difference in luminance value between the mute video and the content before and after the mute video is reduced as compared with FIG.
- a case where a mute video is inserted between each content has been described as an example.
- the position where the mute video is inserted is not particularly limited, and after the last content included in the video signal. Mute video may be inserted.
- the luminance value of the mute video is set to a value within a predetermined range from the sensory luminance value of the video data displayed before the mute video in time. Differences in luminance values between the mute video and the video data displayed before the mute video can be reduced, and the psychological burden on the user due to the luminance difference can be reduced.
- the image feature amount refers to a feature amount related to the brightness of a target image.
- a sensory luminance value CPL: “Contents” Perceptual ”Luminance
- the following description is an example of calculation of sensory luminance value to the last, and does not intend to limit description of this specification by this.
- Example 1 Calculation method using MaxFALL
- the calculation unit 12 calculates a maximum frame average brightness MaxFALL (Maximum Frame Average Light Level), and sets the calculated MaxFALL as a sensory brightness value.
- MaxFALL is the maximum value of the average luminance in all the frames constituting the video, and the algorithm is defined by CEA861.3.
- FIG. 6 shows a pseudo code for calculating MaxFALL.
- the calculation unit 12 calculates a non-linear pixel value (R ′, G ′, B ′) cd / m for each pixel included in an active image area in a certain frame. 2 Converts to (R, G, B), which is a linear luminance value in units of (candela per square meter). Then, the maximum value among (R, G, B) is set as the maximum luminance value maxRGB in the pixel.
- the calculation unit 12 sets the average of the maximum luminance values maxRGB of all the pixels included in the active image area as the average luminance flameAverageLightLevel in the frame.
- calculation unit 12 sets the maximum average luminance flameAverageLightLevel among all the frames included in the video sequence to MaxFALL, and sets this MaxFALL as the sensory luminance value of the target video.
- the active image area refers to an area obtained by excluding an area having a predetermined luminance value or more from a target frame, for example, as will be described later. It can also be set.
- Example 2 How to exclude black screen and white screen
- the MaxFALL value will be very large.
- the video feature amount calculated by the calculation unit 23 may not be suitable as a feature of the entire video sequence.
- the calculation unit 12 excludes at least one of a black screen (a screen whose average luminance is equal to or lower than the threshold Bk) and a white screen (a screen whose average luminance is equal to or higher than the threshold Wt (Bk ⁇ Wt)).
- a black screen a screen whose average luminance is equal to or lower than the threshold Bk
- a white screen a screen whose average luminance is equal to or higher than the threshold Wt (Bk ⁇ Wt)
- FIG. 6 shows a pseudo code for the calculation unit 12 to calculate the sensory luminance value according to this example.
- the calculation unit 12 calculates a linear luminance value Y of each pixel included in an active image area in a certain frame.
- EOTF Electro-Optical Transfer Function
- calculation part 12 sets the average of the luminance value Y of all the pixels contained in an active image area
- the calculation unit 12 displays a black screen (a screen whose average brightness is equal to or less than the threshold Bk) and a white screen (the average brightness is the threshold Wt (Bk ⁇ Wt) At least one of the above screens) is excluded, and the average luminance flameAverageLuminance is averaged to calculate the sensory luminance value of the target video.
- the calculating unit 12 When calculating the frame luminance value per frame, the calculating unit 12 preferably calculates the frame luminance value by excluding an area having a luminance equal to or higher than a predetermined threshold.
- an image area excluding an area having a luminance equal to or higher than a predetermined threshold is referred to as an active image area.
- the processing of the calculation unit 12 when the displayable maximum luminance of the display panel is 1000 nit and the predetermined threshold is 200 nit will be described with reference to FIG.
- the calculation unit 12 uses the luminance value of a predetermined luminance of a high luminance region of 200 nits or more. Instead, the frame luminance value is calculated.
- the calculation unit 12 sets an area having a luminance equal to or higher than a predetermined threshold as an excluded area, and includes the excluded area as shown in FIG. 7D.
- the luminance to be used is not used for calculating the frame luminance value.
- the calculation unit 12 refers to the luminance included in the area other than the excluded area and calculates the frame luminance value.
- the transmission device 1 according to the present embodiment includes a mute image generation unit 13a instead of the mute image generation unit 13 included in the transmission device 1 according to the first embodiment.
- FIG. 8 shows the change over time of the luminance value of the display image.
- FIG. 8A shows a change in luminance value when the luminance value of the mute video is set in the conventional display device
- FIG. 8B shows the mute video in the transmission device 1 according to the present embodiment. The change of the luminance value when the luminance value is set is shown.
- the video processing apparatus 10 according to the present embodiment is configured to gradually reduce the luminance value of the mute video.
- gradually decreasing the luminance value is -Decreasing the luminance value in stages-Including decreasing the luminance value linearly or nonlinearly.
- the rate of decreasing the luminance value can be set as appropriate according to the length of the display time of the mute video, the luminance value to be decreased, and the like.
- the mute image generation unit 13a (2-1) The brightness of the muted video, (2-2) Sensory luminance value of a video signal (first video signal) displayed temporally before a mute video, The initial value of the brightness of the mute video is set so that the difference between the values is within a predetermined range, and the brightness value of the mute video is set so as to decrease in time series from the initial value of the brightness of the mute video. .
- FIG. 8B the luminance value of the mute video is gradually reduced, and a sudden change in the luminance value is suppressed. Thereby, the psychological burden to the user by a brightness
- a case where a mute video is inserted between each content has been described as an example.
- the position where the mute video is inserted is not particularly limited, and after the last content included in the video signal. Mute video may be inserted.
- the reduction rate for reducing the luminance value is not limited to this embodiment, and can be set as appropriate.
- the transmission device 1 according to the present embodiment includes a mute image generation unit 13b instead of the mute image generation unit 13 included in the transmission device 1 according to the first embodiment.
- FIG. 9 shows the change over time of the luminance value of the display image.
- 9A shows a change in luminance value when the luminance value of the mute video is set in the conventional display device
- FIG. 9B shows the mute video in the transmission device 1 according to the present embodiment.
- the change of the luminance value when the luminance value is set is shown.
- the mute video generation unit 24b according to the present embodiment (3-1) A video feature amount of a certain content, (3-2) the video feature amount of the next content, Is set as the luminance value of the mute video so as to be a value corresponding to, and a mute video is generated.
- the luminance value of the mute video is a luminance corresponding to the video feature amount related to the first video signal and the second video signal.
- the mute video generation unit 24b sets the average value of (3-1) and (3-2) as the luminance value of the mute video.
- the “certain content” corresponds to a video signal (first video signal) that is displayed temporally before the muted video, and the “next content” is temporally after the muted video. This corresponds to the video signal to be displayed (second video signal).
- the average value of the luminance values of the content before and after the mute video is set to the luminance value of the mute video.
- the difference in luminance value between the previous and next contents is reduced.
- the video processing apparatus 10 not only the luminance value difference between the mute video and the video data displayed before the mute video is reduced, but also displayed after the mute video and the mute video. It is possible to reduce the brightness value with the video data. Thereby, the psychological burden to the user by a brightness
- the transmission device 1 according to the present embodiment includes a mute video generation unit 13c instead of the mute video generation unit 13 included in the transmission device 1 according to the first embodiment.
- FIG. 10 shows the change over time of the luminance value of the display image.
- 10A shows a change in the luminance value when the luminance value of the muted video is set in the conventional display device
- FIG. 10B shows the muted video in the video processing device 10 according to the present embodiment.
- the change of the luminance value when setting the luminance value is shown.
- the mute video generation unit 13c changes the luminance value of the mute video from the video feature amount of a certain content to the video feature amount of the next content in time series. To generate a mute video.
- the luminance value of the mute video is displayed after the mute video from the luminance value of the video signal (first video signal) displayed before the mute video.
- the luminance value of the video signal (second video signal) is gradually changed to suppress sudden fluctuations in the luminance value.
- the transmission device 1 includes a calculation unit 12d and a mute video generation unit 13d instead of the calculation unit 12 and the mute video generation unit 13 included in the transmission device 1 according to the embodiment.
- FIG. 11 shows the change over time of the luminance value of the display image.
- 11A shows a change in luminance value when the luminance value of the muted video is set in the conventional display device
- FIG. 11B shows the muted video in the video processing device 10 according to the present embodiment.
- the change of the luminance value when setting the luminance value is shown.
- the luminance value of the mute video is set based on the video feature amount within the predetermined period of the content before and after the mute video.
- t 1 shows a predetermined time period at the end of the previous contents of the mute image
- t 2 represents the predetermined period at the beginning of the content after the mute image.
- the calculation unit 12d When calculating the video feature amount of each content, the calculation unit 12d adds to the video feature amount of each content calculated in the first embodiment, A video feature amount of a video signal within a predetermined period temporally before the mute video. A video feature amount of a video signal within a predetermined period temporally after the mute video is calculated. The calculation unit 12d outputs the video feature amount to the mute video generation unit 13. More specifically, “before the mute video” means “immediately before the mute video”, and “after the mute video” means “immediately after the mute video”. That's it. Further, the “predetermined period” can be set as appropriate, for example, 1 second, 3 seconds, or 10 seconds. Further, a predetermined period may be set according to the content included in the video signal.
- the mute video generation unit 13d (5-1) Video feature amount of a certain content (first video signal); (5-2) Video feature amount of the next content (second video signal); Is set as the luminance value of the muted video so that the value is in accordance with the.
- the mute video generation unit 13d uses at least one of the video feature quantities (5-1) and (5-2) as the video feature quantity of the video signal within the predetermined period described above, and Set the brightness value.
- the mute video generation unit 13d performs the same process as in the first to fourth embodiments except that the video feature amount is the video feature amount of the video signal within the predetermined period described above. Can be set.
- the brightness value of the mute video can be set based on the video feature amount in the vicinity of the mute video, so that it is displayed before and after the mute video and the mute video.
- the difference in luminance value from the video data can be further reduced. Thereby, the psychological burden to the user by a brightness
- the transmission device 1 includes a calculation unit 12e and a mute video generation unit 13e instead of the calculation unit 12 and the mute video generation unit 13 included in the transmission device 1 according to the above embodiment.
- the calculation unit 12e refers to at least one of the average chromaticity, the maximum chromaticity, the median value of chromaticity values, and the color gamut information such as MAXFALL of the video data input from the acquisition unit 11 to generate a video signal. A sensory chromaticity value for each included content is calculated.
- the calculation unit 12e outputs the calculated sensory chromaticity value to the mute video generation unit 13e.
- the mute video generation unit 13e sets the chromaticity value of the mute video so as to be a value according to the input sensory chromaticity value, and generates a mute video having the chromaticity value.
- a color gamut compliant with ITU-R BT.2020 or ITU-R BT.709 may be used.
- this embodiment can generate the mute video by setting the chromaticity of the mute video instead of the luminance value of the mute video in the above embodiment.
- FIG. 12 shows the change over time of the chromaticity value of the display image.
- FIG. 12A shows the change in chromaticity value over time in a conventional video processing apparatus
- FIGS. 12B, 12C, and 12D are diagrams in the video processing apparatus 10 according to the present embodiment. An example of a change with time of a chromaticity value is shown. Note that FIG. 12 shows a change with time when the color of the current content is green and the color of the next content is blue as an example of the change with time of the chromaticity value.
- the color of the mute video is cyan. That is, in this example, the chromaticity value of the mute video is the average value of the chromaticity values of the content before and after the mute video. Thereby, the difference in chromaticity values between the mute video and the content before and after the mute video can be reduced.
- the color of the mute video is gradually changed from green to blue. That is, in this example, the chromaticity value of the mute video is gradually changed from the chromaticity value of the display video displayed before the mute video to the chromaticity value of the display video displayed after the mute video. Thereby, rapid fluctuations in chromaticity values can be suppressed.
- the color of the mute video is gradually changed from green to gray and then gradually changed from gray to blue. That is, in this example, the chromaticity value of the mute video is gradually changed from the chromaticity value of the display video displayed before the mute video to 0, and then the color of the display video displayed after 0 from the mute video. Gradually change to a degree value. Thereby, when suppressing the rapid fluctuation
- the video processing apparatus 10 can reduce the psychological burden on the user due to the chromaticity difference.
- control blocks (particularly the calculation unit 12, the mute video generation unit 13, and the mute video insertion unit 14) of the video processing device 10 may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like. However, it may be realized by software using a CPU (Central Processing Unit).
- a logic circuit hardware
- IC chip integrated circuit
- CPU Central Processing Unit
- the video processing apparatus 10 includes a CPU that executes instructions of a program that is software for realizing each function, and a ROM (Read Only Memory) in which the program and various data are recorded so as to be readable by the computer (or CPU).
- a storage device (these are referred to as “recording media”), a RAM (Random Access Memory) for expanding the program, and the like are provided.
- the objective of this invention is achieved when a computer (or CPU) reads the said program from the said recording medium and runs it.
- a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used.
- the program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program.
- an arbitrary transmission medium such as a communication network or a broadcast wave
- one embodiment of the present invention can also be realized in the form of a data signal embedded in a carrier wave, in which the program is embodied by electronic transmission.
- calculation includes derivation, calculation, calculation, guidance, and the like.
- “generation” includes creation, production, creation, creation, creation, and the like.
- insertion includes introduction, pinching, insertion, incorporation, and the like.
- the “sensory luminance value” in this specification includes visual luminance, visual correction luminance, sensitivity luminance, sensory luminance, and the like.
- the transmission device 1 includes a calculation unit 12 that calculates a video feature amount of a transmission video signal, and a mute video generation unit 13 that generates a mute video after the first video signal.
- the brightness of the mute video is a brightness corresponding to the value of the video feature value.
- the brightness value of the mute video is set to a value within a predetermined range with respect to the sensory brightness value of the video signal displayed before the mute video in time.
- the difference in luminance value from the video signal displayed on the screen can be reduced.
- the mute video generation unit 13 generates the mute video before the second video signal, and the brightness of the mute video is the first The luminance is in accordance with the video feature value of the video signal and the video feature value of the second video signal.
- the video feature amount related to the first video signal is a video feature amount within a predetermined period of the first video signal.
- the video feature amount related to the second video signal is a video feature amount within a predetermined period of the second video signal.
- the luminance value of the mute video is gradually changed from the luminance value of the video signal displayed before the mute video to the luminance value of the video signal displayed after the mute video. Can be suppressed.
- the video feature amount is a sensation luminance value representing a sense of brightness.
- the calculation unit 12 determines that the sensory luminance value is at least one of average luminance, maximum luminance, median luminance value, and MAXFALL of the video signal. Calculate with reference to.
- the calculation unit 12 includes a screen having an average luminance equal to or lower than a first threshold among display images represented by the video signal, and an average luminance of The sensory luminance value is calculated by excluding at least one of the screens equal to or higher than the second threshold value, the first threshold value is a threshold value for a black screen, and the second threshold value is a white screen. Is a threshold value.
- the transmission apparatus 1 may be realized by a computer.
- the video processing apparatus is operated by causing the computer to operate as each unit (software element) included in the video processing apparatus 20.
- the control program of the video processing device 20 that realizes the computer 20 on a computer and a computer-readable recording medium that records the control program also fall within the scope of the present invention.
- the brightness of the mute video generated after the first video signal is a value corresponding to the video feature amount related to the first video signal.
- the brightness value of the mute video is set to a value within a predetermined range with respect to the sensory brightness value of the video signal displayed before the mute video in time.
- the difference in luminance value from the video signal displayed on the screen can be reduced.
- the transmitter 1 according to the aspect 10 of the present invention generates the mute video before the second video signal in the aspect 9, and the luminance of the mute video is a video feature amount of the first video signal, And a luminance corresponding to the value of the video feature value of the second video signal.
- the video feature amount related to the first video signal is a video feature amount within a predetermined period of the first video signal.
- the video feature amount related to the second video signal is a video feature amount within a predetermined period of the second video signal.
- the luminance value of the mute video is gradually changed from the luminance value of the video signal displayed before the mute video to the luminance value of the video signal displayed after the mute video. Can be suppressed.
- the video feature amount is a sensation luminance value representing a sense of brightness.
- the transmission device 1 according to aspect 13 of the present invention is the transmission apparatus 1 according to aspect 12, wherein the sensory luminance value is an average luminance, a maximum luminance, and a luminance value center of the video signal.
- the transmission device 1 according to the aspect 14 of the present invention is calculated with reference to at least one of the value and the MAXFALL.
- the sensory luminance value is calculated by excluding at least one of the following screens and a screen having an average luminance equal to or higher than the second threshold.
- the transmission apparatus 1 may be realized by a computer.
- the video processing apparatus is operated by causing the computer to operate as each unit (software element) included in the video processing apparatus 20.
- the control program of the video processing device 20 that realizes the computer 20 on a computer and a computer-readable recording medium that records the control program also fall within the scope of the present invention.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Controls And Circuits For Display Device (AREA)
- Picture Signal Circuits (AREA)
Abstract
コンテンツの切り替え時に視聴者の明るさの感じ方が大きく変化することを防ぐ技術を提供する。送信装置(1)は、送信用映像信号の映像特徴量を算出する算出部(12)と、第1の映像信号の後にミュート映像を生成するミュート映像生成部(13)と、を備え、前記ミュート映像の輝度は、前記第1の映像信号に係る映像特徴量の値に応じた輝度である。
Description
本発明は、映像処理装置、送信装置、制御プログラム及び記録媒体に関する。
音声に関する技術では、人が感じる音の大きさであるラウドネスを用いて、コンテンツ毎の音の大きさに対する視聴者の感じ方を均一化する技術が知られている。また、映像に関する技術では、HDR等の高輝度の表示が可能となり、コンテンツ毎で視聴者による明るさの感じ方が大きく変わる機会が多くなってきている。
コンテンツ毎で視聴者による明るさの感じ方が大きく変化すると、視聴者の心理的負担が大きくなる場合がある。例えば、映像が表示出来ないタイミングであるチャンネル切り替え時またはコンテンツ切り替え時において、通常、黒画面を表示する。しかし、SDRに比べて、HDRは輝度の変動幅が大きいことから、切り替え前のコンテンツの輝度が高い場合、黒画面を表示すると、輝度差が大きく、視聴者が違和感を持つことがある。
本発明は、上記の問題点に鑑みてなされたものであり、その目的は、コンテンツの切り替え時に視聴者の明るさの感じ方が大きく変化することを防ぐ技術を提供することである。
上記の課題を解決するために、本発明の一態様に係る映像処理装置は、送信用映像信号の映像特徴量を算出する算出部と、前記映像信号に挿入されるミュート映像を生成するミュート映像生成部と、を備え、前記ミュート映像生成部は、前記ミュート映像の輝度を、前記ミュート映像よりも時間的に前に表示される映像信号の映像特徴量に応じた値となるように設定する。
本発明の一態様によれば、コンテンツの切り替え時に視聴者の明るさの感じ方が大きく変わることがなくなり、視聴者の無用な心理的負担を軽減することができる。
以下、本発明の実施形態について、詳細に説明する。ただし、本実施形態に記載されている構成は、特に特定的な記載がない限り、この発明の範囲をそれのみに限定する趣旨ではなく、単なる説明例にすぎない。
本発明の映像処理装置は、送信用映像信号の映像特徴量を算出する算出部と、映像信号に挿入されるミュート映像を生成するミュート映像生成部と、を備え、ミュート映像生成部は、ミュート映像の輝度を、ミュート映像よりも時間的に前に表示される映像信号の映像特徴量に応じた値となるように設定する。
ここで、映像特徴量とは、映像の感覚的な明るさを示す指標である。映像特徴量の例として、感覚輝度値等を挙げることができる。感覚輝度値とは、映像信号における輝度値から算出される明るさの感覚を表す指標である。感覚輝度値の例として、平均輝度値、最大輝度値、輝度値ヒストグラムの中央値、MaxFALL(Maximum Frame Average Light Level)及びそれらの組み合わせ等を挙げることができる。なお、映像特徴量は、感覚輝度値のように映像信号における輝度値から算出される指標のみではなく、映像信号における色度から算出される指標も含む。
本明細書において、「ミュート映像」とは、2つの異なるコンテンツの間またはコンテンツにおけるシーン切り替え等のタイミングにおいて、表示映像に挿入される映像データ、又は当該映像データによって表される画像のことを指す。
〔実施形態1〕
(送信装置)
本実施形態1に係る映像処理装置10を備えた送信装置1について図1を参照して説明する。図1は、本実施形態に係る映像処理装置10を備えた送信装置1の構成を示すブロック図である。送信装置1は、映像処理装置10、メタ情報生成部20、エンコーダ30及び送信部40を備えている。
(送信装置)
本実施形態1に係る映像処理装置10を備えた送信装置1について図1を参照して説明する。図1は、本実施形態に係る映像処理装置10を備えた送信装置1の構成を示すブロック図である。送信装置1は、映像処理装置10、メタ情報生成部20、エンコーダ30及び送信部40を備えている。
送信装置1の外部の構成として、例えば、カメラ50及びレコーダ60が挙げられる。カメラ50は、映像を撮影し、撮影した映像の映像信号をレコーダ60へ出力する。レコーダ60は、入力された映像信号を記録し、記録された映像信号を送信装置1へ出力する。送信装置1は、入力された映像信号を、映像処理装置10とメタ情報生成部20で取得する。なお、映像信号は、レコーダ60を介さずに、カメラ50から直接送信装置1に出力されてもよい。
(映像処理装置)
映像処理装置10は、映像信号を復号することにより映像を構成する複数のフレームを順次出力する装置であり、取得部11、算出部12、ミュート映像生成部13及びミュート映像挿入部14が含まれる。
映像処理装置10は、映像信号を復号することにより映像を構成する複数のフレームを順次出力する装置であり、取得部11、算出部12、ミュート映像生成部13及びミュート映像挿入部14が含まれる。
取得部11は、レコーダ60またはカメラ50から入力される映像信号を取得する。取得部11は、取得した映像信号を、算出部12及びミュート映像挿入部14へ出力する。
算出部12は、入力された映像信号のうち、映像データの平均輝度、最大輝度、輝度値の中央値、及びMAXFALLの少なくとも何れかを参照して、映像信号に含まれる各コンテンツ(番組及びCM)における映像特徴量を算出する。換言すれば、算出部12は、映像信号に係る映像特徴量を算出する。ここで、輝度値の中央値としては、1フレームあたりの輝度値の中央値を複数フレームに亘って平均した平均中央値、または1フレームあたりの平均輝度値に基づく、複数フレームに亘るヒストグラムの中央値、の何れであってもよい。なお、映像特徴量の算出例については後述する。
算出部12は、入力された映像信号に含まれる複数のフレームにおいて、フレーム毎の平均輝度値である第2の平均輝度値をそれぞれ算出し、当該複数のフレームについて当該第2の平均輝度値を平均することにより、第1の平均輝度値を算出し、当該第1の平均輝度値を映像特徴量としてもよい。なお、算出部12は、第2の平均輝度値を算出する際に、後述するように、所定値以上の輝度値を除外したアクティブ画像領域において、第2の平均輝度値を算出してもよい。
算出部12は、算出された映像特徴量をミュート映像生成部13に出力する。なお、映像特徴量の具体的説明は後述する。
ミュート映像生成部13は、入力された各コンテンツの映像特徴量に応じた値となるように、ミュート映像の輝度値を設定し、当該輝度値を有するミュート映像を生成する。またミュート映像生成部13は、映像信号に含まれる最後のコンテンツの後に挿入されるミュート映像については、当該ミュート映像が最後のコンテンツの映像特徴量に応じた値となるように、ミュート映像の輝度値を設定し、当該輝度値を有するミュート映像を生成する。例えば、ミュート映像生成部13は、
(1-1)ミュート映像の輝度と、
(1-2)ミュート映像よりも時間的に前に表示される映像信号の感覚輝度値と、
の差異が所定の範囲内となるように、ミュート映像の輝度を設定する。ここで、「ミュート映像よりも時間的に前に」とは、例えばミュート映像の直前のことである。
(1-1)ミュート映像の輝度と、
(1-2)ミュート映像よりも時間的に前に表示される映像信号の感覚輝度値と、
の差異が所定の範囲内となるように、ミュート映像の輝度を設定する。ここで、「ミュート映像よりも時間的に前に」とは、例えばミュート映像の直前のことである。
なお、本明細書において、「ミュート映像よりも時間的に前に表示される映像信号」のことを、「第1の映像信号」とも呼称する。ここで、「第1の映像信号の後に」とは、例えば第1の映像信号の直後のことであるがこれに限定されるものではない。また、「ミュート映像よりも後に表示される映像信号」のことを、「第2の映像信号」とも呼称する。また、「第1の」及び「第2の」を付けずに用いられる「映像信号」との表現は、上述の第1の映像信号及び第2の映像信号の少なくとも何れかを含むものとして用いられることがある。
また、「所定の範囲内となるように」とは、
ミュート映像の輝度値=映像データの感覚輝度値
となる場合も含まれるし、
|ミュート映像の輝度値-感覚輝度値|/感覚輝度値 ≦ A(例えばA=0.1)と表される場合も含まれる(ここで、表記|X|は、Xの絶対値を示す)。また、所定の映像データの範囲は適宜設定することもできる。また、所定の範囲には、丸め込み等に起因した計算誤差に伴う値の変動も含まれる。
ミュート映像の輝度値=映像データの感覚輝度値
となる場合も含まれるし、
|ミュート映像の輝度値-感覚輝度値|/感覚輝度値 ≦ A(例えばA=0.1)と表される場合も含まれる(ここで、表記|X|は、Xの絶対値を示す)。また、所定の映像データの範囲は適宜設定することもできる。また、所定の範囲には、丸め込み等に起因した計算誤差に伴う値の変動も含まれる。
ミュート映像生成部13は、生成されたミュート映像をミュート映像挿入部14に出力する。
ミュート映像挿入部14は、取得部11から入力された映像信号とミュート映像生成部13から入力されたミュート映像とを用いて、映像信号に含まれる各コンテンツの間にミュート映像を挿入する。ミュート映像挿入部14は、ミュート映像が挿入された映像信号をエンコーダ30へ出力する。
(その他部材)
メタ情報生成部20は、入力された映像信号に基づき、映像信号のメタ情報を生成する。メタ情報生成部20は、生成したメタ情報を送信部40へ出力する。メタ情報には、各コンテンツの輝度値を示す平均輝度、最大輝度、輝度値の中央値、及びMAXFALL等が含まれる。
メタ情報生成部20は、入力された映像信号に基づき、映像信号のメタ情報を生成する。メタ情報生成部20は、生成したメタ情報を送信部40へ出力する。メタ情報には、各コンテンツの輝度値を示す平均輝度、最大輝度、輝度値の中央値、及びMAXFALL等が含まれる。
エンコーダ30は、映像処理装置10からミュート映像が挿入された映像信号を出力される。エンコーダ30は、入力された映像信号を符号し、映像データを生成する。エンコーダ30は、生成した映像データを送信部40へ出力する。
送信部40は、
(1-3)メタ情報生成部20から入力されたメタ情報と、
(1-4)エンコーダ30から入力された映像データと、
を送信用映像信号に含ませて、当該送信用映像信号を表示装置へ送信する。
(1-3)メタ情報生成部20から入力されたメタ情報と、
(1-4)エンコーダ30から入力された映像データと、
を送信用映像信号に含ませて、当該送信用映像信号を表示装置へ送信する。
ここで、送信部40が送信する送信用映像信号は、HDMI(登録商標)(High-Definition Multimedia Interface:高精細度マルチメディアインターフェース)規格に基づくHDMI信号、Tuner信号(チューナーによって受信した信号)及びCVBS(Composite Video, Blanking, and Sync:コンポジット映像信号)信号等のHDR信号であり得る。
(表示装置)
表示装置は、受信部、映像制御部、操作受付部、パネル制御部及び表示パネルを備えている。受信部は、送信装置1から送信される送信用映像信号を受信し、映像制御部に出力する。映像制御部は、入力された映像信号を復号し、復号した映像データをパネル制御部へ出力する。パネル制御部は、映像制御部から入力された映像データをトーンマッピングすることにより、映像データを適切な輝度で表示パネルにおいて表示できるようにする。トーンマッピングとは、映像信号に含まれる輝度情報を、表示パネルで表現できるどの輝度に割り振るかを決定するものである。操作受付部は、ユーザによる操作を受け付ける。操作受付部が受け付ける操作の一例として、映像の表示を開始する操作、及び表示映像を停止する操作等が挙げられる。
表示装置は、受信部、映像制御部、操作受付部、パネル制御部及び表示パネルを備えている。受信部は、送信装置1から送信される送信用映像信号を受信し、映像制御部に出力する。映像制御部は、入力された映像信号を復号し、復号した映像データをパネル制御部へ出力する。パネル制御部は、映像制御部から入力された映像データをトーンマッピングすることにより、映像データを適切な輝度で表示パネルにおいて表示できるようにする。トーンマッピングとは、映像信号に含まれる輝度情報を、表示パネルで表現できるどの輝度に割り振るかを決定するものである。操作受付部は、ユーザによる操作を受け付ける。操作受付部が受け付ける操作の一例として、映像の表示を開始する操作、及び表示映像を停止する操作等が挙げられる。
(ミュート映像生成処理)
本実施形態に係る映像処理装置10により実行されるミュート映像生成処理の流れを、図2を参照して説明する。図2は、ミュート映像生成処理の流れを示すフローチャートである。
本実施形態に係る映像処理装置10により実行されるミュート映像生成処理の流れを、図2を参照して説明する。図2は、ミュート映像生成処理の流れを示すフローチャートである。
本実施形態に係る映像処理装置10は、以下に説明するステップS0~S4を実行することによって、輝度値を設定したミュート映像を生成する。
まず、取得部11は、映像信号を取得する(ステップS0)。取得部11は、取得した映像信号を、算出部12及びミュート映像挿入部14へ出力する。
次に、算出部12は、取得部11から入力された映像信号より、映像信号に含まれる各コンテンツに対応する映像特徴量を特定する(ステップS1)。
次に、ミュート映像生成部13は、算出部12から映像特徴量を取得する。ミュート映像生成部13は、各コンテンツの間に挿入するミュート映像に対して、取得した映像特徴量に応じた値となるように、ミュート映像の輝度値を設定する。ミュート映像生成部13は、当該輝度値を有するミュート映像を生成する(ステップS2)。
次に、ミュート映像挿入部14は、取得部11から入力された映像信号へ、ミュート映像生成部13から入力されたミュート映像を挿入する。ミュート映像挿入部14は、当該ミュート映像を、映像信号に含まれる各コンテンツの間及び最後のコンテンツの後に挿入する(ステップS3)。
次に、ミュート映像挿入部14は、ミュート映像を挿入した映像信号を、エンコーダ30へ出力する。エンコーダ30は、当該映像信号を符号し、映像データを生成する。エンコーダ30は、当該映像データを送信部40へ出力する。送信部40は、メタ情報生成部20から、当該映像信号のメタ情報を取得する。送信部40は、当該映像データと当該メタ情報とを送信用映像信号に含ませ、当該送信用映像信号を表示装置へ送信する(ステップS4)。
以上のように、本実施形態に係るミュート映像生成処理では、ミュート映像の輝度値を、ミュート映像よりも時間的に前に表示される映像信号の感覚輝度値に応じた値とするため、ミュート映像とミュート映像の前に表示される映像信号との輝度値の差異を低減することができる。これにより、輝度差によるユーザへの心理的負担を軽減することができる。
次に、図3及び4を参照して、本実施形態に係る輝度値を設定したミュート映像生成処理の一例についてより具体的に説明する。
図3の(a)及び(c)は、従来の表示装置においてミュート映像の輝度値を設定した際の輝度値の変化を示し、図3の(b)及び(d)は、本発明の実施形態1に係る送信装置においてミュート映像の輝度値を設定した際の輝度値の変化を示している。
図3の(a)及び(c)に示すように、ミュート映像の輝度値が0nitであり、ミュート映像とミュート映像の前後のコンテンツとの輝度値の差異が大きい。本実施形態に係るミュート映像生成部13は、図3の(b)及び(d)に示すように、ミュート映像とミュート映像よりも時間的に前に表示されるコンテンツとの輝度値の差異が所定の範囲内となるように、ミュート映像の輝度値を設定する。その結果、図3の(b)及び(d)に示すように、図3の(a)及び(c)と比較して、コンテンツの切り替え時におけるミュート映像とミュート映像の前後のコンテンツとの輝度値の差異が低減される。
図4は、表示映像(コンテンツ及びミュート映像)の輝度値の経時変化を示している。図4の(a)は、従来の表示装置においてミュート映像の輝度値を設定した際の輝度値の変化を示し、図4の(b)は、本実施形態に係る送信装置1においてミュート映像の輝度値を設定した際の輝度値の変化を示している。図4の(a)に示すように、従来の表示装置では、ミュート映像とミュート映像の前後のコンテンツとの輝度値の差異が大きくなる。一方、図4の(b)に示すように、本実施形態に係る映像処理装置10では、ミュート画像生成部13は、
(1-1)ミュート映像の輝度と、
(1-2)ミュート映像よりも時間的に前に表示される映像信号の感覚輝度値と、
の差異が所定の範囲となるように、ミュート映像の輝度値を設定する。その結果、図4の(b)では、図4の(a)と比較して、ミュート映像とミュート映像の前後のコンテンツとの輝度値の差異が低減する。
(1-1)ミュート映像の輝度と、
(1-2)ミュート映像よりも時間的に前に表示される映像信号の感覚輝度値と、
の差異が所定の範囲となるように、ミュート映像の輝度値を設定する。その結果、図4の(b)では、図4の(a)と比較して、ミュート映像とミュート映像の前後のコンテンツとの輝度値の差異が低減する。
なお、本実施形態では、ミュート映像を各コンテンツの間に挿入する場合を例として挙げたが、ミュート映像が挿入される位置は特に限定されておらず、映像信号に含まれる最後のコンテンツの後にミュート映像を挿入してもよい。
このように、本実施形態に係る映像処理装置10では、ミュート映像の輝度値を、ミュート映像よりも時間的に前に表示される映像データの感覚輝度値から所定の範囲の値とするため、ミュート映像とミュート映像の前に表示される映像データとの輝度値の差異を低減することができ、輝度差によるユーザへの心理的負担を軽減することができる。
(映像特徴量の算出例)
以下では、図5及び6を参照して、算出部12による映像特徴量の算出例について説明する。
以下では、図5及び6を参照して、算出部12による映像特徴量の算出例について説明する。
本明細書において、映像特徴量とは、対象となる映像の明るさに関連した特徴量のことを指す。映像特徴量の一例として、以下に具体的に説明する感覚輝度値(CPL: Contents Perceptual Luminance)を挙げることができる。なお、以下の説明はあくまで感覚輝度値の算出の例であり、これによって本願明細書の記載を限定しようとするものではない。
(例1:MaxFALLを用いる算出方法)
本例では、算出部12は、最大フレーム平均輝度MaxFALL(Maximum Frame Average Light Level)を算出し、算出したMaxFALLを感覚輝度値として設定する。ここで、MaxFALLとは、映像を構成する全フレーム中の平均輝度の最大値であり、CEA861.3によってアルゴリズムは規定されている。図6に、MaxFALLを算出するための疑似コードを示す。
本例では、算出部12は、最大フレーム平均輝度MaxFALL(Maximum Frame Average Light Level)を算出し、算出したMaxFALLを感覚輝度値として設定する。ここで、MaxFALLとは、映像を構成する全フレーム中の平均輝度の最大値であり、CEA861.3によってアルゴリズムは規定されている。図6に、MaxFALLを算出するための疑似コードを示す。
図5に示すように、算出部12は、あるフレームにおけるアクティブ画像領域(activeimage area)に含まれる1画素毎に、非線形画素値である(R’,G’,B’)を、cd/m2(カンデラ毎平方メートル)を単位とする線形輝度値である(R,G,B)に変換する。そして(R,G,B)のうちの最大値を、当該画素における最大輝度値maxRGBとして設定する。
そして、算出部12は、アクティブ画像領域に含まれる全ての画素の最大輝度値maxRGBの平均を当該フレームにおける平均輝度flameAverageLightLevelとして設定する。
さらに、算出部12は、映像シーケンスに含まれる全てのフレームのうち、最大の平均輝度flameAverageLightLevelをMaxFALLに設定し、このMaxFALLを、対象映像の感覚輝度値に設定する。
なお、アクティブ画像領域とは、例えば、後述するように、対象のフレームから所定の輝度値以上の領域を除外することによって得られる領域のことを指すが、これに限定されるものではなく、適宜設定することもできる。
(例2:黒画面及び白画面を除外する方法)
映像シーケンスに含まれる全てのフレームの中に、白画面(平均輝度が閾値Wt(Bk<Wt)以上の画面)を有するフレームが含まれている場合、MaxFALLの値が非常に大きい値となるため、算出部23において算出する映像特徴量が、当該映像シーケンス全体の特徴として適していないことがある。
映像シーケンスに含まれる全てのフレームの中に、白画面(平均輝度が閾値Wt(Bk<Wt)以上の画面)を有するフレームが含まれている場合、MaxFALLの値が非常に大きい値となるため、算出部23において算出する映像特徴量が、当該映像シーケンス全体の特徴として適していないことがある。
本例では、算出部12は、黒画面(平均輝度が閾値Bk以下の画面)、及び白画面(平均輝度が閾値Wt(Bk<Wt)以上の画面)のうち少なくともいずれか一方を除外することにより、感覚輝度値を算出する。感覚輝度値の算出に本例を用いることによってより好適な感覚輝度値を算出することができる。
図6に、算出部12が本例に係る感覚輝度値を算出するための疑似コードを示す。図6に示すように、算出部12は、あるフレームにおけるアクティブ画像領域(active imagearea)に含まれる1画素毎に、当該ピクセルの線形輝度値Y(linear luminance value Y)を算出する。線形輝度値Yの算出は、図6の点線枠内に示した疑似コードによって行う。より具体的には、算出部12は、当該画素の画素値(Rin,Gin,Bin)に対してEOTF(Electro-Optical Transfer Function)変換を適用することにより、輝度値(R,G,B)を算出し、更に、
Y = 0.2627R + 0.6780G + 0.0593B
によって輝度値Yを算出する。
Y = 0.2627R + 0.6780G + 0.0593B
によって輝度値Yを算出する。
そして、算出部12は、図6に示すように、アクティブ画像領域に含まれる全ての画素の輝度値Yの平均を当該フレームにおける平均輝度flameAverageLuminanceとして設定する。
更に、算出部12は、図6に示すように、映像シーケンスに含まれる全てのフレームのうち、黒画面(平均輝度が閾値Bk以下の画面)、及び白画面(平均輝度が閾値Wt(Bk<Wt)以上の画面)のうち少なくともいずれか一方を除外したうえで、平均輝度flameAverageLuminanceの平均を取ることにより、対象映像の感覚輝度値を算出する。なお、閾値Bk(第1の閾値)及びWt(第2の閾値)の具体的値は本実施形態を限定するものではないが、例えばBk=50、Wt=2000とすればよい。
(アクティブ画像領域)
以下では、上記の説明に登場したアクティブ画像領域についてより具体的に説明する。
以下では、上記の説明に登場したアクティブ画像領域についてより具体的に説明する。
算出部12は、1フレームあたりのフレーム輝度値を算出する際、所定の閾値以上の輝度を有する領域を除外して、当該フレーム輝度値を算出することが好ましい。ここで、所定の閾値以上の輝度を有する領域を除外した画像領域をアクティブ画像領域と称する。
アクティブ画像領域の一例として、表示パネルの表示可能最大輝度が1000nitであり、所定の閾値を200nitとした場合の算出部12の処理について図7を参照して説明する。
図7の(a)及び(b)に示す例では、ラインL1に沿った輝度において、200nitを超える輝度が存在する。算出部12は、図7の(a)に示すラインL1に沿って輝度の平均を算出しようとする場合、所定の輝度である200nit以上の高輝度領域については、当該領域の輝度値を用いることなく、フレーム輝度値を算出する。
より具体的には、算出部12は、図7(c)に示すように、所定の閾値以上の輝度を有する領域を除外領域とし、図7(d)に示すように、当該除外領域に含まれる輝度をフレーム輝度値の算出に用いない。換言すれば、算出部12は、除外領域以外の領域に含まれる輝度を参照して、フレーム輝度値を算出する。
〔実施形態2〕
本実施形態2に係る映像処理装置10を備えた送信装置1について、図8を参照して以下に説明する。以下の説明では、上記実施形態において既に説明した事項については説明を省略し、上記実施形態とは異なる点について説明を行う。
本実施形態2に係る映像処理装置10を備えた送信装置1について、図8を参照して以下に説明する。以下の説明では、上記実施形態において既に説明した事項については説明を省略し、上記実施形態とは異なる点について説明を行う。
本実施形態に係る送信装置1は、上記実施形態1に係る送信装置1が備えるミュート画像生成部13に代えて、ミュート画像生成部13aを備えている。
図8は、表示映像の輝度値の経時変化を示している。図8の(a)は、従来の表示装置においてミュート映像の輝度値を設定した際の輝度値の変化を示し、図8の(b)は、本実施形態に係る送信装置1においてミュート映像の輝度値を設定した際の輝度値の変化を示している。図8の(b)に示すように、本実施形態に係る映像処理装置10は、ミュート映像の輝度値を徐々に低下させる構成となる。
ここで、本明細書において、輝度値を徐々に低下とは、
・輝度値を段階的に低下させること
・輝度値を線形的又は非線形的に低下させること
を含む。また、本実施形態において、輝度値を低下させる割合は、ミュート映像の表示時間の長さや低下させるべき輝度値等に応じて適宜設定することができる。
・輝度値を段階的に低下させること
・輝度値を線形的又は非線形的に低下させること
を含む。また、本実施形態において、輝度値を低下させる割合は、ミュート映像の表示時間の長さや低下させるべき輝度値等に応じて適宜設定することができる。
より具体的には、本実施形態に係るミュート画像生成部13aは、
(2-1)ミュート映像の輝度と、
(2-2)ミュート映像よりも時間的に前に表示される映像信号(第1の映像信号)の感覚輝度値と、
の差異が所定の範囲となるように、ミュート映像の輝度の初期値を設定し、当該ミュート映像の輝度の初期値より、時系列に沿って低下するように、ミュート映像の輝度値を設定する。その結果、図8の(b)では、ミュート映像の輝度値を徐々に低下させる構成となっており、輝度値の急激な変動を抑制する。これにより、輝度差によるユーザへの心理的負担を軽減することができる。
(2-1)ミュート映像の輝度と、
(2-2)ミュート映像よりも時間的に前に表示される映像信号(第1の映像信号)の感覚輝度値と、
の差異が所定の範囲となるように、ミュート映像の輝度の初期値を設定し、当該ミュート映像の輝度の初期値より、時系列に沿って低下するように、ミュート映像の輝度値を設定する。その結果、図8の(b)では、ミュート映像の輝度値を徐々に低下させる構成となっており、輝度値の急激な変動を抑制する。これにより、輝度差によるユーザへの心理的負担を軽減することができる。
なお、本実施形態では、ミュート映像を各コンテンツの間に挿入する場合を例として挙げたが、ミュート映像が挿入される位置は特に限定されておらず、映像信号に含まれる最後のコンテンツの後にミュート映像を挿入してもよい。また、輝度値を低下させる低下率は、本実施形態を限定するものではなく、適宜設定することができる。
〔実施形態3〕
本実施形態3に係る映像処理装置10を備えた送信装置1について、図9を参照して以下に説明する。以下の説明では、上記実施形態において既に説明した事項については説明を省略し、上記実施形態とは異なる点について説明を行う。
本実施形態3に係る映像処理装置10を備えた送信装置1について、図9を参照して以下に説明する。以下の説明では、上記実施形態において既に説明した事項については説明を省略し、上記実施形態とは異なる点について説明を行う。
本実施形態に係る送信装置1は、上記実施形態1に係る送信装置1が備えるミュート画像生成部13に代えて、ミュート画像生成部13bを備えている。
図9は、表示映像の輝度値の経時変化を示している。図9の(a)は、従来の表示装置においてミュート映像の輝度値を設定した際の輝度値の変化を示し、図9の(b)は、本実施形態に係る送信装置1においてミュート映像の輝度値を設定した際の輝度値の変化を示している。図9の(b)に示すように、本実施形態に係るミュート映像生成部24bは、
(3-1)あるコンテンツの映像特徴量と、
(3-2)次コンテンツの映像特徴量と、
に応じた値になるように、ミュート映像の輝度値として設定し、ミュート映像を生成する。換言すれば、ミュート映像の輝度値は、第1の映像信号及び第2の映像信号に係る映像特徴量に応じた輝度である。例えば、ミュート映像生成部24bは、上記(3-1)と上記(3-2)との平均値をミュート映像の輝度値として設定する。なお、「あるコンテンツ」とは、ミュート映像より時間的に前に表示される映像信号(第1の映像信号)に対応するものであり、「次コンテンツ」とは、ミュート映像より時間的に後に表示される映像信号(第2の映像信号)に対応するものである。
(3-1)あるコンテンツの映像特徴量と、
(3-2)次コンテンツの映像特徴量と、
に応じた値になるように、ミュート映像の輝度値として設定し、ミュート映像を生成する。換言すれば、ミュート映像の輝度値は、第1の映像信号及び第2の映像信号に係る映像特徴量に応じた輝度である。例えば、ミュート映像生成部24bは、上記(3-1)と上記(3-2)との平均値をミュート映像の輝度値として設定する。なお、「あるコンテンツ」とは、ミュート映像より時間的に前に表示される映像信号(第1の映像信号)に対応するものであり、「次コンテンツ」とは、ミュート映像より時間的に後に表示される映像信号(第2の映像信号)に対応するものである。
図9(b)に示すように、本実施形態に係る映像処理装置10では、ミュート映像の前後のコンテンツの輝度値の平均値をミュート映像の輝度値に設定するので、ミュート映像とミュート映像の前後のコンテンツとの輝度値の差異が低減される。
このように、本実施形態に係る映像処理装置10では、ミュート映像とミュート映像の前に表示される映像データとの輝度値の差異を低減するだけでなく、ミュート映像とミュート映像の後に表示される映像データとの輝度値の際を低減することができる。これにより、輝度差によるユーザへの心理的負担を軽減することができる。
〔実施形態4〕
本実施形態4に係る映像処理装置10を備えた送信装置1について、図10を参照して以下に説明する。以下の説明では、上記実施形態において既に説明した事項については説明を省略し、上記実施形態とは異なる点について説明を行う。
本実施形態4に係る映像処理装置10を備えた送信装置1について、図10を参照して以下に説明する。以下の説明では、上記実施形態において既に説明した事項については説明を省略し、上記実施形態とは異なる点について説明を行う。
本実施形態に係る送信装置1は、上記実施形態1に係る送信装置1が備えるミュート映像生成部13に代えて、ミュート映像生成部13cを備えている。
図10は、表示映像の輝度値の経時変化を示している。なお、図10(a)は、従来の表示装置においてミュート映像の輝度値を設定した際の輝度値の変化を示し、図10(b)は、本実施形態に係る映像処理装置10においてミュート映像の輝度値を設定した際の輝度値の変化を示している。図10(b)に示すように、本実施形態に係るミュート映像生成部13cは、ミュート映像の輝度値を、時系列に沿って、あるコンテンツの映像特徴量から、次コンテンツの映像特徴量へと変化するように設定し、ミュート映像を生成する。
このように、本実施形態に係る映像処理装置10では、ミュート映像の輝度値を、ミュート映像の前に表示される映像信号(第1の映像信号)の輝度値からミュート映像の後に表示される映像信号(第2の映像信号)の輝度値へと徐々に変化させており、輝度値の急激な変動を抑制する。これにより、輝度差によるユーザへの心理的負担を軽減することができる。
〔実施形態5〕
本実施形態5に係る映像処理装置10を備えた送信装置1について、図11を参照して以下に説明する。以下の説明では、上記実施形態において既に説明した事項については説明を省略し、上記実施形態とは異なる点について説明を行う。
本実施形態5に係る映像処理装置10を備えた送信装置1について、図11を参照して以下に説明する。以下の説明では、上記実施形態において既に説明した事項については説明を省略し、上記実施形態とは異なる点について説明を行う。
本実施形態に係る送信装置1は、上記実施形態に係る送信装置1が備える算出部12及びミュート映像生成部13に代えて、算出部12d及びミュート映像生成部13dを備えている。
図11は、表示映像の輝度値の経時変化を示している。なお、図11(a)は、従来の表示装置においてミュート映像の輝度値を設定した際の輝度値の変化を示し、図11(b)は、本実施形態に係る映像処理装置10においてミュート映像の輝度値を設定した際の輝度値の変化を示している。図11(b)に示すように、本実施形態に係る映像処理装置10では、ミュート映像の輝度値を、ミュート映像の前後のコンテンツの所定期間内の映像特徴量に基づき設定する。ここで、t1は、ミュート映像の前のコンテンツの末尾の所定期間を示しており、t2は、ミュート映像の後のコンテンツの冒頭の所定期間を示している。
算出部12dは、各コンテンツの映像特徴量を算出する際に、実施形態1で算出した各コンテンツの映像特徴量に加えて、
・ミュート映像よりも時間的に前の所定期間内の映像信号の映像特徴量
・ミュート映像よりも時間的に後の所定期間内の映像信号の映像特徴量
を算出する。算出部12dは、当該映像特徴量をミュート映像生成部13へ出力する。ここで、より具体的には「ミュート映像よりも時間的に前の」とは「ミュート映像の直前の」ことであり、「ミュート映像よりも時間的に後の」とは「ミュート映像の直後の」ことである。また、「所定期間」は、例えば、1秒、3秒、10秒のように適宜設定することができる。また、映像信号に含まれるコンテンツに応じて所定期間を設定してもよい。
・ミュート映像よりも時間的に前の所定期間内の映像信号の映像特徴量
・ミュート映像よりも時間的に後の所定期間内の映像信号の映像特徴量
を算出する。算出部12dは、当該映像特徴量をミュート映像生成部13へ出力する。ここで、より具体的には「ミュート映像よりも時間的に前の」とは「ミュート映像の直前の」ことであり、「ミュート映像よりも時間的に後の」とは「ミュート映像の直後の」ことである。また、「所定期間」は、例えば、1秒、3秒、10秒のように適宜設定することができる。また、映像信号に含まれるコンテンツに応じて所定期間を設定してもよい。
ミュート映像生成部13dは、
(5-1)あるコンテンツ(第1の映像信号)の映像特徴量と、
(5-2)次コンテンツ(第2の映像信号)の映像特徴量と、
に応じた値になるように、ミュート映像の輝度値として設定する。ここで、ミュート映像生成部13dは、上記(5-1)及び(5-2)の映像特徴量の少なくとも何れか1つを上述した所定期間内の映像信号の映像特徴量とし、ミュート映像の輝度値を設定する。
(5-1)あるコンテンツ(第1の映像信号)の映像特徴量と、
(5-2)次コンテンツ(第2の映像信号)の映像特徴量と、
に応じた値になるように、ミュート映像の輝度値として設定する。ここで、ミュート映像生成部13dは、上記(5-1)及び(5-2)の映像特徴量の少なくとも何れか1つを上述した所定期間内の映像信号の映像特徴量とし、ミュート映像の輝度値を設定する。
なお、本実施形態に係るミュート映像生成部13dは、映像特徴量を上述した所定期間内の映像信号の映像特徴量とした以外は、実施形態1~4と同様の処理でミュート映像の輝度値を設定することができる。
このように、本実施形態に係る映像処理装置10では、ミュート映像の近傍の映像特徴量に基づき、ミュート映像の輝度値を設定することができるため、ミュート映像とミュート映像の前後に表示される映像データとの輝度値の差異をより低減することができる。これにより、輝度差によるユーザへの心理的負担を軽減することができる。
〔実施形態6〕
本実施形態6に係る映像処理装置10を備えた送信装置1について、図12を参照して以下に説明する。以下の説明では、上記実施形態において既に説明した事項については説明を省略し、上記実施形態とは異なる点について説明を行う。
本実施形態6に係る映像処理装置10を備えた送信装置1について、図12を参照して以下に説明する。以下の説明では、上記実施形態において既に説明した事項については説明を省略し、上記実施形態とは異なる点について説明を行う。
本実施形態に係る送信装置1は、上記実施形態に係る送信装置1が備える算出部12及びミュート映像生成部13に代えて、算出部12e及びミュート映像生成部13eを備えている。
算出部12eは、取得部11から入力された映像データの平均色度、最大色度、色度値の中央値、及びMAXFALL等の色域情報のうち少なくとも何れかを参照して、映像信号に含まれる各コンテンツにおける感覚色度値を算出する。
算出部12eは、算出された感覚色度値をミュート映像生成部13eに出力する。ミュート映像生成部13eは、入力された感覚色度値に応じた値となるように、ミュート映像の色度値を設定し、当該色度値を有するミュート映像を生成する。
ミュート映像生成部13eが設定する色域としては、ITU-R BT.2020又はITU-R BT.709に準拠した色域を用いればよい。
このように本実施形態は、上記実施形態において、ミュート映像の輝度値に代えてミュート映像の色度を設定し、ミュート映像を生成することができる。
図12は、表示映像の色度値の経時変化を示している。なお、図12(a)は従来の映像処理装置における色度値の経時変化を示しており、図12(b)、(c)及び(d)は、本実施形態に係る映像処理装置10における色度値の経時変化の一例を示している。なお、図12では色度値の経時変化の一例として、現時点のコンテンツの色を緑、次コンテンツの色を青とした際の経時変化を示している。
従来の映像処理装置では、色度及び輝度の値が0となるため、図12(a)に示すように、ミュート映像の色は黒となる。また、ミュート映像とミュート映像の前後のコンテンツとの色度値の差異が大きくなる。
図12(b)に示すように、本実施形態に係る映像処理装置10の一例では、ミュート映像の色をシアンとする。即ち本例では、ミュート映像の色度値を、ミュート映像の前後のコンテンツの色度値の平均値とする。これにより、ミュート映像とミュート映像の前後のコンテンツとの色度値の差異が低減することができる。
図12(c)に示すように、本実施形態に係る映像処理装置10の一例では、ミュート映像の色を緑から青へと徐々に変化させる。すなわち、本例では、ミュート映像の色度値を、ミュート映像の前に表示される表示映像の色度値からミュート映像の後に表示される表示映像の色度値へと徐々に変化させる。これにより、色度値の急激な変動を抑制することができる。
図12(d)に示すように、本実施形態に係る映像処理装置10の一例では、ミュート映像の色を緑からグレーへ徐々に変化させ、その後グレーから青へ徐々に変化させる。すなわち、本例では、ミュート映像の色度値を、ミュート映像の前に表示される表示映像の色度値から0に徐々に変化させ、その後0からミュート映像の後に表示される表示映像の色度値へと徐々に変化させる。これにより、色度値の急激な変動を抑制する際に、ミュート映像前後のコンテンツの色による影響を軽減することができる。
このように、本実施形態に係る映像処理装置10は、色度差によるユーザへの心理的負担を軽減することができる。
〔ソフトウェアによる実現例〕
映像処理装置10の制御ブロック(特に算出部12、ミュート映像生成部13及びミュート映像挿入部14)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
映像処理装置10の制御ブロック(特に算出部12、ミュート映像生成部13及びミュート映像挿入部14)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
後者の場合、映像処理装置10は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラム及び各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
〔付記事項〕
本明細書において、「算出」とは、導出、演算、計算、誘導等を含む。
本明細書において、「算出」とは、導出、演算、計算、誘導等を含む。
また、本明細書において、「生成」とは、作成、作製、作出、創成、創造等を含む。
また、本明細書において、「挿入」とは、導入、挟み込む、差し込む、組み込む等を含む。
また、本明細書における「感覚輝度値」とは、視覚輝度、視覚補正輝度、感性輝度、官能輝度等を含む。
〔まとめ〕
本発明の態様1に係る送信装置1は、送信用映像信号の映像特徴量を算出する算出部12と、第1の映像信号の後にミュート映像を生成するミュート映像生成部13と、を備え、前記ミュート映像の輝度は、前記映像特徴量の値に応じた輝度である。
本発明の態様1に係る送信装置1は、送信用映像信号の映像特徴量を算出する算出部12と、第1の映像信号の後にミュート映像を生成するミュート映像生成部13と、を備え、前記ミュート映像の輝度は、前記映像特徴量の値に応じた輝度である。
前記構成によれば、ミュート映像の輝度値を、ミュート映像よりも時間的に前に表示される映像信号の感覚輝度値に対して所定の範囲の値とするため、ミュート映像とミュート映像の前に表示される映像信号との輝度値の差異を低減することができる。
本発明の態様2に係る送信装置1は、前記態様1において、前記ミュート映像生成部13は、第2の映像信号の前に前記ミュート映像を生成し、前記ミュート映像の輝度は、前記第1の映像信号の映像特徴量、及び前記第2の映像信号の映像特徴量の値に応じた輝度である。
前記構成によれば、ミュート映像とミュート映像の前に表示される映像信号との輝度値の差異を低減するだけでなく、ミュート映像とミュート映像の後に表示される映像信号との輝度値の際を低減することができる。
本発明の態様3に係る送信装置1は、前記態様1または2の態様において、前記第1の映像信号に係る映像特徴量は、前記第1の映像信号の所定期間内の映像特徴量であり、前記第2の映像信号に係る映像特徴量は、前記第2の映像信号の所定期間内の映像特徴量である。
前記構成によれば、ミュート映像の輝度値を、ミュート映像の前に表示される映像信号の輝度値からミュート映像の後に表示される映像信号の輝度値へと徐々に変化させており、輝度値の急激な変動を抑制することができる。
本発明の態様4に係る送信装置1は、前記態様1から3の何れかの態様において、前記映像特徴量が、明るさの感覚を表す感覚輝度値である。
本発明の態様5に係る送信装置1は、前記態様4において、前記算出部12は、前記感覚輝度値を、前記映像信号の平均輝度、最大輝度、輝度値の中央値、及びMAXFALLの少なくとも何れかを参照して算出する。
本発明の態様6に係る送信装置1は、前記態様4または5において、前記算出部12は、前記映像信号の表す表示映像のうち、平均輝度が第1の閾値以下の画面と、平均輝度が第2の閾値以上の画面と、のうち少なくともいずれか一方を除外し、前記感覚輝度値を算出し、当該第1の閾値は、黒画面における閾値であり、当該第2の閾値は、白画面における閾値である。
本発明の態様1~6に係る送信装置1は、コンピュータによって実現してもよく、この場合には、コンピュータを前記映像処理装置20が備える各部(ソフトウェア要素)として動作させることにより前記映像処理装置20をコンピュータにて実現させる映像処理装置20の制御プログラム、及びそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
本発明の態様9に係る送信装置1は、第1の映像信号の後に生成する前記ミュート映像の輝度が、前記第1の映像信号に係る映像特徴量に応じた値である。
前記構成によれば、ミュート映像の輝度値を、ミュート映像よりも時間的に前に表示される映像信号の感覚輝度値に対して所定の範囲の値とするため、ミュート映像とミュート映像の前に表示される映像信号との輝度値の差異を低減することができる。
本発明の態様10に係る送信装置1は、前記態様9において、第2の映像信号の前に前記ミュート映像を生成し、前記ミュート映像の輝度が、前記第1の映像信号の映像特徴量、及び前記第2の映像信号の映像特徴量の値に応じた輝度である。
前記構成によれば、ミュート映像とミュート映像の前に表示される映像信号との輝度値の差異を低減するだけでなく、ミュート映像とミュート映像の後に表示される映像信号との輝度値の際を低減することができる。
本発明の態様11に係る送信装置1は、前記態様9または11の態様において、前記第1の映像信号に係る映像特徴量は、前記第1の映像信号の所定期間内の映像特徴量であり、前記第2の映像信号に係る映像特徴量は、前記第2の映像信号の所定期間内の映像特徴量である。
前記構成によれば、ミュート映像の輝度値を、ミュート映像の前に表示される映像信号の輝度値からミュート映像の後に表示される映像信号の輝度値へと徐々に変化させており、輝度値の急激な変動を抑制することができる。
本発明の態様2に係る送信装置1は、前記態様9から11の何れかの態様において、前記映像特徴量が、明るさの感覚を表す感覚輝度値である。
本発明の態様13に係る送信装置1は、前記態様12において、前記感覚輝度値を、前記映像信号の平均輝度、最大輝度、輝度値の中央。値、及びMAXFALLの少なくとも何れかを参照して算出する
本発明の態様14に係る送信装置1は、前記態様12または13において、前記映像信号の表す表示映像のうち、平均輝度が第1の閾値以下の画面と、平均輝度が第2の閾値以上の画面と、のうち少なくともいずれか一方を除外して、前記感覚輝度値を算出する。
本発明の態様14に係る送信装置1は、前記態様12または13において、前記映像信号の表す表示映像のうち、平均輝度が第1の閾値以下の画面と、平均輝度が第2の閾値以上の画面と、のうち少なくともいずれか一方を除外して、前記感覚輝度値を算出する。
本発明の態様9~14に係る送信装置1は、コンピュータによって実現してもよく、この場合には、コンピュータを前記映像処理装置20が備える各部(ソフトウェア要素)として動作させることにより前記映像処理装置20をコンピュータにて実現させる映像処理装置20の制御プログラム、及びそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
1 送信装置
10 映像処理装置
11 取得部
12 算出部
13 ミュート映像生成部
14 ミュート映像挿入部
20 メタ情報生成部
30 エンコーダ
40 送信部
50 カメラ
60 レコーダ
10 映像処理装置
11 取得部
12 算出部
13 ミュート映像生成部
14 ミュート映像挿入部
20 メタ情報生成部
30 エンコーダ
40 送信部
50 カメラ
60 レコーダ
Claims (8)
- 送信用映像信号の映像特徴量を算出する算出部と、
第1の映像信号の後にミュート映像を生成するミュート映像生成部と、
を備え、
前記ミュート映像の輝度は、前記第1の映像信号に係る映像特徴量の値に応じた輝度であることを特徴とする送信装置。 - 前記ミュート映像生成部は、第2の映像信号の前に前記ミュート映像を生成し、
前記ミュート映像の輝度は、前記第1の映像信号の映像特徴量、及び前記第2の映像信号の映像特徴量の値に応じた輝度であることを特徴とする請求項1に記載の送信装置。 - 前記第1の映像信号に係る映像特徴量は、前記第1の映像信号の所定期間内の映像特徴量であり、
前記第2の映像信号に係る映像特徴量は、前記第2の映像信号の所定期間内の映像特徴量であることを特徴とする、請求項2に記載の送信装置。 - 前記映像特徴量は、明るさの感覚を表す感覚輝度値であることを特徴とする請求項1から3の何れか1項に記載の送信装置。
- 前記算出部は、前記感覚輝度値を、前記映像信号の平均輝度、最大輝度、輝度値の中央値、及びMAXFALLの少なくとも何れかを参照して算出することを特徴とする請求項4に記載の送信装置。
- 前記算出部は、前記映像信号の表す表示映像のうち、
平均輝度が第1の閾値以下の画面と、
平均輝度が第2の閾値以上の画面と、
のうち少なくともいずれか一方を除外して、前記感覚輝度値を算出することを特徴とする請求項4または5に記載の送信装置。 - 請求項1から6に記載の送信装置としてコンピュータを機能させるためのミュート映像生成プログラムであって、前記算出部及び前記ミュート映像生成部としてコンピュータを機能させるための制御プログラム。
- 請求項7に記載の制御プログラムを記録したコンピュータ読み取り可能な記録媒体。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018525108A JP6602977B2 (ja) | 2016-07-01 | 2017-06-22 | 送信装置、送信方法、制御プログラム及び記録媒体 |
CN201780013607.5A CN109314756B (zh) | 2016-07-01 | 2017-06-22 | 影像处理装置、发送装置、控制程序及存储介质 |
US16/079,065 US10419709B2 (en) | 2016-07-01 | 2017-06-22 | Video processing device, transmitting device, control program, and recording medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016132058 | 2016-07-01 | ||
JP2016-132058 | 2016-07-01 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2018003644A1 true WO2018003644A1 (ja) | 2018-01-04 |
Family
ID=60787132
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2017/022956 WO2018003644A1 (ja) | 2016-07-01 | 2017-06-22 | 映像処理装置、送信装置、制御プログラム及び記録媒体 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10419709B2 (ja) |
JP (1) | JP6602977B2 (ja) |
CN (1) | CN109314756B (ja) |
WO (1) | WO2018003644A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2021039123A1 (ja) * | 2019-08-29 | 2021-03-04 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008252761A (ja) * | 2007-03-30 | 2008-10-16 | Sony Corp | 映像信号処理装置と映像信号処理方法 |
JP2013520874A (ja) * | 2010-02-22 | 2013-06-06 | ドルビー ラボラトリーズ ライセンシング コーポレイション | ビデオデータへの上書きによるビデオ配信および制御 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4574819B2 (ja) * | 2000-08-30 | 2010-11-04 | パナソニック株式会社 | ビデオプロジェクタ装置 |
US7093941B2 (en) * | 2001-04-25 | 2006-08-22 | Matsushita Electric Industrial Co., Ltd. | Video display apparatus and video display method |
JP3720813B2 (ja) * | 2003-02-26 | 2005-11-30 | キヤノン株式会社 | 映像表示装置 |
US7357514B2 (en) * | 2005-07-29 | 2008-04-15 | Optoma Technology, Inc. | Methods and systems for improving operation of a video projector |
JP2009027550A (ja) | 2007-07-20 | 2009-02-05 | Funai Electric Co Ltd | 映像信号処理装置 |
CN102460552B (zh) * | 2009-06-18 | 2014-12-31 | 夏普株式会社 | 显示装置和显示控制方法 |
JP4818408B2 (ja) * | 2009-08-04 | 2011-11-16 | キヤノン株式会社 | 画像処理装置およびその制御方法 |
JP6180135B2 (ja) * | 2013-03-05 | 2017-08-16 | キヤノン株式会社 | 画像表示装置及びその制御方法 |
-
2017
- 2017-06-22 US US16/079,065 patent/US10419709B2/en active Active
- 2017-06-22 JP JP2018525108A patent/JP6602977B2/ja active Active
- 2017-06-22 CN CN201780013607.5A patent/CN109314756B/zh active Active
- 2017-06-22 WO PCT/JP2017/022956 patent/WO2018003644A1/ja active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008252761A (ja) * | 2007-03-30 | 2008-10-16 | Sony Corp | 映像信号処理装置と映像信号処理方法 |
JP2013520874A (ja) * | 2010-02-22 | 2013-06-06 | ドルビー ラボラトリーズ ライセンシング コーポレイション | ビデオデータへの上書きによるビデオ配信および制御 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2021039123A1 (ja) * | 2019-08-29 | 2021-03-04 | ||
JP7369777B2 (ja) | 2019-08-29 | 2023-10-26 | 日東電工株式会社 | 偏光子保護用樹脂組成物および該組成物から形成された保護層を備える偏光板 |
Also Published As
Publication number | Publication date |
---|---|
US10419709B2 (en) | 2019-09-17 |
CN109314756A (zh) | 2019-02-05 |
JPWO2018003644A1 (ja) | 2018-12-13 |
US20190052832A1 (en) | 2019-02-14 |
JP6602977B2 (ja) | 2019-11-06 |
CN109314756B (zh) | 2021-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7018573B2 (ja) | 輝度変換装置および輝度変換方法 | |
US10237525B2 (en) | Display device, method for controlling display device, control program, and recording medium | |
US11183143B2 (en) | Transitioning between video priority and graphics priority | |
US20180061026A1 (en) | Display method and display device | |
EP3685575B1 (en) | Display apparatus, method for controlling the same and image providing apparatus | |
JP2009122552A (ja) | 表示装置、画像信号処理方法、およびプログラム | |
US20080225180A1 (en) | Display Information Feedback | |
KR20150002440A (ko) | 영상처리장치 및 영상처리방법 | |
WO2017159182A1 (ja) | 表示制御装置、表示装置、テレビジョン受像機、表示制御装置の制御方法、制御プログラム、及び記録媒体 | |
US9319656B2 (en) | Apparatus and method for processing 3D video data | |
JP6640353B2 (ja) | 映像表示装置、テレビジョン受像機、送信装置、制御プログラム及び記録媒体 | |
JP6602977B2 (ja) | 送信装置、送信方法、制御プログラム及び記録媒体 | |
WO2018003665A1 (ja) | 画像処理装置、画像処理方法、制御プログラム、および記録媒体 | |
US20160065927A1 (en) | Video reproduction apparatus, video reproduction method and video display apparatus | |
JP2019114890A (ja) | 表示装置及びその制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WWE | Wipo information: entry into national phase |
Ref document number: 2018525108 Country of ref document: JP |
|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17820003 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 17820003 Country of ref document: EP Kind code of ref document: A1 |