WO2013191027A1 - 信号処理装置、信号処理方法、及びプログラム - Google Patents

信号処理装置、信号処理方法、及びプログラム Download PDF

Info

Publication number
WO2013191027A1
WO2013191027A1 PCT/JP2013/066025 JP2013066025W WO2013191027A1 WO 2013191027 A1 WO2013191027 A1 WO 2013191027A1 JP 2013066025 W JP2013066025 W JP 2013066025W WO 2013191027 A1 WO2013191027 A1 WO 2013191027A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
signal processing
processing
lsi
sub
Prior art date
Application number
PCT/JP2013/066025
Other languages
English (en)
French (fr)
Inventor
太田 章浩
敬 飯川
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2014521332A priority Critical patent/JPWO2013191027A1/ja
Priority to BR112014031251A priority patent/BR112014031251A2/pt
Priority to US14/407,105 priority patent/US20150172557A1/en
Priority to IN2409MUN2014 priority patent/IN2014MN02409A/en
Publication of WO2013191027A1 publication Critical patent/WO2013191027A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/66Transforming electric information into light information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/3406Control of illumination source
    • G09G3/342Control of illumination source using several illumination sources separately controlled corresponding to different display panel areas, e.g. along one dimension such as lines
    • G09G3/3426Control of illumination source using several illumination sources separately controlled corresponding to different display panel areas, e.g. along one dimension such as lines the different display panel areas being distributed in two dimensions, e.g. matrix
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/38Transmitter circuitry for the transmission of television signals according to analogue transmission standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards

Definitions

  • the present disclosure relates to a signal processing device, a signal processing method, and a program, and in particular, for example, a signal processing device and a signal that can process an input signal having a larger data amount without increasing the size of a signal processing chip.
  • the present invention relates to a processing method and a program.
  • an LSI Large Scale Integration
  • Patent Document 1 For example, an LSI (Large Scale Integration) for image processing built in a television receiver or the like realizes real-time processing that processes an input image input to the television receiver by the display time of the input image.
  • LSI Large Scale Integration
  • the LSI chip size is increased as the number of pixels of the input image to be processed increases, and the image processing is performed. It is necessary to improve ability.
  • the present disclosure has been made in view of such a situation, and allows an input signal having a larger data amount to be processed without increasing the size of a signal processing chip.
  • a signal processing device includes a dividing unit that divides input data into a plurality of different divided data, and a plurality of signal processing units that respectively process a plurality of different divided data, and the signal processing unit includes: The first processing unit that performs first data processing on the divided data and the first processing result by the first processing unit are transmitted to the other signal processing unit, and the other And a communication unit that receives the second processing result transmitted from the signal processing unit.
  • the signal processing unit acquires a third processing result obtained when the first data processing is performed on the input data based on the first processing result and the second processing result. And a second processing unit that performs second data processing different from the first data processing on the third processing result acquired by the acquisition unit. .
  • setting information indicating setting contents reflected in the plurality of signal processing units can be transmitted to the other signal processing units.
  • the communication unit can synchronize the timing of reflecting the setting content based on the setting information with the other signal processing unit that has received the setting information.
  • the communication unit can transmit the first processing result to the other signal processing unit together with the second processing result received from the other signal processing unit.
  • the dividing unit divides an input image input as the input data into a plurality of different partial images.
  • the first processing unit targets the partial image to the partial image.
  • the first data processing for calculating sub-region information which is information relating to the luminance of the sub-region obtained by classification, is performed, and the communication unit is configured to obtain the first data obtained as a processing result of the first processing unit.
  • the sub-region information is transmitted to the other signal processing unit, and the second sub-region information calculated for the other partial image is received from the other signal processing unit.
  • the first data processing is performed on the input image with the first sub-region information calculated by the first processing unit and the second sub-region information received by the communication unit. Obtained in the first
  • the second processing unit obtains a part of the backlight that is lit for display of the partial image for the third sub-region information acquired by the acquisition unit.
  • the second data processing for generating backlight data for control can be performed.
  • a signal processing method is a signal processing method of a signal processing device including a dividing unit and a plurality of signal processing units, and divides input data into a plurality of different divided data by the dividing unit.
  • a program according to one aspect of the present disclosure is a program for causing a computer to function as a dividing unit that divides input data into a plurality of different divided data and a plurality of signal processing units that respectively process the plurality of different divided data. Then, the signal processing unit sends the first processing unit for performing the first data processing on the divided data and the first processing result by the first processing unit to the other signal processing unit. And a communication unit that receives the second processing result transmitted from the other signal processing unit.
  • the input data is divided into a plurality of different divided data, the first data processing is performed on the divided data, and the processing result is transmitted to the other signal processing unit.
  • the processing result transmitted from the other signal processing unit is received.
  • FIG. 4 is a diagram illustrating an example in which the chip size of an LSI is increased according to the data amount to be processed. It is a block diagram which shows the structural example of the television receiver in this indication. It is the 1st figure for explaining the reason for providing a plurality of LSIs. It is the 2nd figure for explaining the reason for providing a plurality of LSIs. It is a block diagram which shows an example when two LSIs are provided. It is a block diagram which shows the detailed structural example of two LSI. It is a block diagram which shows the detailed structural example of the block statistics part of FIG. It is a figure which shows an example of the timing of the process which the block statistics part of FIG. 6 performs.
  • FIG. 2 shows a configuration example of the television receiver 21 according to the present embodiment.
  • the television receiver 21 includes a division unit 41, LSIs (Large Scale Integration) 42 1 and 42 2 , a display unit 43 having a backlight 43a and a liquid crystal panel 43b, a microcomputer (hereinafter referred to as a microcomputer) 44, and an operation unit. 45.
  • LSIs Large Scale Integration
  • microcomputer hereinafter referred to as a microcomputer
  • the television receiver 21 can be used as the LSI 42 1, for example, FPGA (Field Programmable Gate Array) or the like. The same applies to the LSI 42 2 .
  • FPGA Field Programmable Gate Array
  • the dividing unit 41 is supplied with an image signal as content received from an antenna (not shown) or an image signal from a reproduction device (not shown).
  • the dividing unit 41 divides the supplied image signal into a plurality of partial signals. That is, for example, the dividing unit 41 divides the input image represented by the supplied image signal into a half image R that represents a half area on the right side of the input image and a half that represents a half area on the left side of the input image. Divide into images L.
  • the dividing unit 41 divides the input image into the half image R and the half image R, both of which have the same size. You may make it divide
  • the dividing unit 41 divides the input image into two partial images into the half image R and the half image L, but may divide the input image into three or more partial images. For example, the case where the input image is divided into four 1/4 images as partial images will be described with reference to FIG.
  • the dividing unit 41 supplies the half images R obtained by dividing, and supplies the LSI 42 1, likewise the half image L obtained by dividing, into LSI 42 2.
  • LSI 42 1 based on the half image R from the division unit 41 calculates the sub-area information S (r) for each sub-region r constituting half image R, and transmits to the LSI 42 2.
  • the sub region information S (r) is information regarding the luminance of each pixel constituting the sub region r.
  • the maximum luminance, the average luminance, and the luminance distribution for example, the luminance of each pixel constituting the sub region r (for example, , Luminance histogram), and information including the luminance centroid.
  • the LSI 42 1 receives the sub area information S (l) from the LSI 42 2 , and uses the sub area information S (l) received and the calculated sub area information S (r) for the half image R.
  • the backlight data and the liquid crystal signal are generated.
  • LSI 42 1 is a backlight data of the generated half image R, by supplying to the backlight 43a, and controls the backlight 43a required to half output image R.
  • the LSI 42 1 controls the liquid crystal panel 43b necessary for outputting the half image R by supplying the generated liquid crystal signal for the half image R to the liquid crystal panel 43b.
  • LSI 42 2 based on the half image L from the division unit 41 calculates the sub-area information S (l) for each subregion l constituting half image L, and transmits to the LSI 42 1.
  • the LSI 42 2 receives the sub area information S (r) from the LSI 42 1 , and based on the received sub area information S (r) and the calculated sub area information S (l), is used for the half image L.
  • the backlight data and the liquid crystal signal are generated.
  • LSI 42 2 is the back light data of the generated half image L, by supplying to the backlight 43a, and controls the backlight 43a required to half to output the image L.
  • LSI 42 2 is a liquid crystal signal of the generated half image L, by supplying to the liquid crystal panel 43b, and controls the liquid crystal panel 43b required to half to output the image L.
  • the display unit 43 includes a backlight 43a and a liquid crystal panel 43b.
  • the backlight 43a is constituted by, for example, a plurality of LED (Light Emitting Diode), is turned on or off under the control of the LSI 42 1 and LSI 42 2.
  • LED Light Emitting Diode
  • the LED is lit when outputting the half image R is on when the lights under the control of the LSI 42 1, to half the output image L that LED is lighted under the control of the LSI 42 2.
  • the liquid crystal panel 43b changes the transmittance for transmitting the light from the backlight 43a in accordance with the control from the LSI 42 1 and the LSI 42 2 .
  • the transmittance of the liquid crystal to be changed when outputting the half image R is changed under the control of the LSI 42 1
  • the liquid crystal of the transmission to be changed when half to output the image L
  • the rate is changed according to the control from the LSI 42 2 .
  • the liquid crystal panel 43b outputs light as an input image composed of the half image R and the half image L by transmitting light from the backlight 43a with the changed transmittance.
  • the microcomputer 44 controls the dividing unit 41, the LSI 42 1 , the LSI 42 2, and the like based on an operation signal from the operation unit 45.
  • the microcomputer 44 controls the LSI 42 1 and the LSI 42 2 to change the setting of each register.
  • the LSI 42 1 of the register indicating the parameters for setting the operating state of the LSI 42 1.
  • the operation unit 45 is an operation button or the like operated by the user, and supplies an operation signal corresponding to the user's operation to the microcomputer 44 according to the user's operation.
  • the television receiver 21 in one LSI without a plurality of LSI, it explains why provided, for example two LSI 42 1 and LSI 42 2.
  • FIG. 3 shows an example when one LSI 42 controls the backlight 43a and the liquid crystal panel 43b.
  • the television receiver 21 is provided with one LSI 42 instead of the two LSIs 42 1 and 42 2 .
  • the LSI 42 blocks the input image input to the television receiver 21 into, for example, 72 sub-regions having 12 ⁇ 6 horizontal ⁇ vertical. .
  • the LSI 42 calculates sub-region information S (r) and S (l) from 72 sub-regions obtained by blocking, respectively.
  • the LSI 42 generates backlight data for input images and liquid crystal signals for input images based on the calculated sub-region information S (r) and S (l).
  • the backlight 43a and the liquid crystal panel 43b can be quickly controlled even when the size of the input image is relatively large. ing.
  • the television receiver 21 can maintain the real-time property of the television receiver 21 while using the relatively small LSIs 42 1 and LSI 42 2 .
  • FIG. 5 shows an example when two LSIs 42 1 and 42 2 are provided.
  • the processing for calculating the sub-region information S (r) and S (l) from the input image is performed by the LSI 42. it can be dispersed in 1 and LSI 42 2 and.
  • half image R is supplied to the LSI 42 2, half image L is supplied.
  • LSI 42 1 calculates the sub-area information S (r) from the half image R supplied
  • LSI 42 2 calculates the sub-area information S (l) from the half image L supplied.
  • the sub region information S (r) and S (l) can be calculated.
  • the LSI 42 1 cannot acquire the sub-region information S (l) calculated from the half image L as shown in the upper side of FIG.
  • LSI 42 2 only one half image L is supplied, the image R is not supplied half. Therefore, LSI 42 2 is 5 as shown in the lower, it is impossible to acquire the sub-area information S (r) which is calculated from the half image R.
  • LSI 42 1 is required if the other sub-area information is calculated from the half image R S (r), the sub-region information is calculated from the half image L S (l) is also for generating a half backlight data for image R It is said.
  • the LSI 42 1 considers not only the LEDs that are lit for the half image R but the LEDs that are lit for the half image L among the plurality of LEDs that constitute the backlight 43a, and the backlight data for the half image R. Must be generated. This is the same even when the LSI 42 1 generates a liquid crystal signal for the half image R.
  • LSI 42 2 when generating a half backlight data for image L, another sub region information is calculated from the half image L S (l), the sub-region information is calculated from the half image R S ( r) is also required.
  • the LSI 42 1 and the LSI 42 2 transmit and receive mutually calculated sub-region information to acquire sub-region information that cannot be calculated by itself.
  • FIG. 6 shows a detailed configuration example of the LSI 42 1 and the LSI 42 2 that transmit and receive mutually calculated sub-region information.
  • the LSI 42 1 includes a block statistics unit 61 1 , a BL intensity determination unit 62 1 , a BL control unit 63 1 , a diffused light amount calculation unit 64 1 , and a correction unit 65 1 .
  • the LSI 42 2 includes a block statistics unit 61 2 , a BL intensity determination unit 62 2 , a BL control unit 63 2 , a diffused light amount calculation unit 64 2 , and a correction unit 65 2 .
  • the half image is supplied from the dividing unit 41 to the block statistics unit 61.
  • the block statistics unit 61 calculates sub-region information from each sub-region constituting the half image from the dividing unit 41.
  • the block statistics unit 61 acquires all the sub-region information calculated from the input image by transmitting and receiving the calculated sub-region information to each other.
  • the block statistical unit 61 1 transmits the calculated sub-region information S (r) to the block statistical unit 61 2 and receives the sub-region information S (l) transmitted from the block statistical unit 61 2. .
  • the block statistical unit 61 2 transmits the calculated sub-region information S (l) to the block statistical unit 61 1 and receives the sub-region information S (r) transmitted from the block statistical unit 61 1. .
  • the block statistical unit 61 1 and the block statistical unit 61 2 can acquire the sub-region information S (l) and S (r) calculated from the input image.
  • the block statistics unit 61 supplies the acquired sub-region information S (l) and S (r) to the BL intensity determination unit 62.
  • the BL intensity determination unit 62 controls backlight data for controlling the brightness of the backlight 43a when a half image is output.
  • BL is generated and supplied to the BL control unit 63 and the diffused light amount calculation unit 64.
  • the BL intensity determination unit 62 1 generates the backlight data BL R when the half image R is output based on the sub-region information S (l) and S (r) from the block statistics unit 61 1 And supplied to the BL control unit 63 1 and the diffused light amount calculation unit 64 1 .
  • BL strength determination unit 62 2 generates a backlight data BL L when on the basis of the sub-region information S (l) and S (r) from the block statistics unit 61 2, and outputs the image L half To the BL control unit 63 2 and the diffused light amount calculation unit 64 2 .
  • the BL control unit 63 controls the brightness of the LEDs used when outputting a half image among the plurality of LEDs constituting the backlight 43a based on the backlight data BL from the BL intensity determining unit 62.
  • BL controller 63 1, based on the backlight data BL R from BL strength determination unit 62 1, among the plurality of LED constituting the backlight 43a, LED arranged on the right side (half image R Controls the brightness of the LED) used to output.
  • the BL control unit 63 2 based on the backlight data BL L from the BL intensity determination unit 62 2 , out of the plurality of LEDs constituting the backlight 43a (half image L Controls the brightness of the LED) used to output.
  • the diffused light amount calculating unit 64 calculates (calculates) the degree of light diffusion from each LED constituting the backlight 43a, and corrects the calculation result. Supply to unit 65.
  • the diffused light amount calculation unit 64 2 calculates (calculates) the degree of diffusion of light from the backlight 43a when the half image L is output based on the backlight data BL L from the BL intensity determination unit 62 2. ), and supplies the calculation result, the correction unit 65 2.
  • the same half image as that supplied to the block statistics unit 61 is supplied from the division unit 41 to the correction unit 65 with a delay from the timing at which the half image is supplied to the block statistics unit 61.
  • the correction unit 65 corrects the half image supplied from the dividing unit 41 to the liquid crystal signal for the half image based on the calculation result from the diffused light amount calculation unit 64.
  • the liquid crystal signal for half image represents a signal for controlling the transmittance of the liquid crystal panel 43b which is changed when the half image is output.
  • the correction unit 65 controls the transmittance of the liquid crystal panel 43b by supplying the liquid crystal signal for half image obtained by the correction to the liquid crystal panel 43b, and the light from the backlight 43a is controlled after the control. By transmitting at a transmittance, a half image as transmitted light is output.
  • the correction unit 65 1 based on the calculation result from the diffusion light amount calculating section 64 1, the half image R supplied from the dividing unit 41 is corrected to the liquid crystal signal P R of the half image R. Then, the correction unit 65 1, half the liquid crystal signal P R of the image R, by supplying to the liquid crystal panel 43 b, to control the transmittance of the liquid crystal panel 43 b, the light from the backlight 43a, transmission after the control By transmitting at a rate, a half image R is output as transmitted light.
  • the correction unit 65 2 corrects the half image L supplied from the division unit 41 to the liquid crystal signal P L for the half image L based on the calculation result from the diffused light amount calculation unit 64 2 . Then, the correction unit 65 2, half of the liquid crystal signal P L for image L, by supplying to the liquid crystal panel 43 b, to control the transmittance of the liquid crystal panel 43 b, the light from the backlight 43a, transmission after the control By transmitting at a rate, a half image L is output as transmitted light.
  • FIG. 7 shows a detailed configuration example of the block statistics units 61 1 and 61 2 .
  • the block statistics unit 61 1 includes a calculation unit 81 1 incorporating SRAM 81a 1 , an SPI (Serial Parallel Interface) 82 1 , SRAM 83 1 , and an integration unit 84 1 incorporating SRAM 84a 1 .
  • the block statistics unit 61 like the block statistics unit 61 1, the calculation unit 81 2, SPI82 2, SRAM83 2 incorporating the SRAM81a 2, and consists of integrating unit 84 2 having a built-in SRAM84a 2.
  • the calculation unit 81 1 calculates sub-region information S (r 1 ) to S (r 36 ) from each of the sub-regions r 1 to r 36 obtained by the blocking, and supplies it to the built-in SRAM 81a 1 . And hold it.
  • calculator 811 from SRAM81a reads the sub-area information S (r 1) to S (r 36), it is supplied to SPI82 1 and integrating unit 84 1.
  • the calculation unit 81 2 of the block statistics unit 61 2 performs the same processing as the calculation unit 81 1 , reads the sub area information S (l 1 ) to S (l 36 ) from the built-in SRAM 81 a 2 , and executes the SPI 82 2. and it supplies the integration unit 84 2.
  • SPI82 1 is calculating section 81 sub-region information S (r 1) to S (r 36) of 1, and transmits the SPI82 2, sub-region information from SPI82 2 S (l 1) to S (l 36 ) receives, is held is supplied to the SRAM 83 1.
  • SPI82 2 blocks statistics unit 61 2 in the same manner as SPI82 1, sub-region information from the calculator 81 2 S (l 1) to S a (l 36), and transmits to SPI82 1, SPI82 1 through sub-region information S (r 1) from receiving the S (r 36), it is held is supplied to the SRAM 83 2.
  • SRAM 83 1 holds subregion information S (l 1) to S (l 36) from SPI81 1, in response to a read instruction from the integration unit 84 1, the held sub region information S (l 1) To S (l 36 ) are output to the integration unit 84 1 .
  • the SRAM 83 2 of the block statistics unit 61 2 holds the sub-region information S (r 1 ) to S (r 36 ) from the SPI 81 2 in the same manner as the SRAM 83 1, and issues a read instruction from the integration unit 84 2. in response, the held sub region information S a (r 1) to S (r 36), and outputs to the integration section 84 2.
  • the integration unit 84 1 supplies and holds the sub-region information S (r 1 ) to S (r 36 ) from the calculation unit 81 1 to the built-in SRAM 84a 1 .
  • the integrated unit 84 1 reads the SRAM 83 1 subregion information held in the S (l 1) to S (l 36), to be held is supplied to SRAM84a 1 to built.
  • the integration unit 84 1 calculates the sub area information S (r 1 ) to S (r 36 ) and S (l 1 ) to S (l 36 ) held in the built-in SRAM 84a 1 from the input image. as subregion information, and it supplies the BL intensity determining unit 62 1.
  • the integration unit 84 1 uses the sub-region information S (r 1 ) to S (r 36 ) and S (l 1 ) to S (l 36 ) based on the maximum brightness in all regions constituting the input image, average luminance, and also calculates the entire region information including a distribution or the like of the brightness, may be supplied to the BL intensity determining unit 62 1.
  • the BL intensity determination unit 62 1 uses the sub-region information S (r 1 ) to S (r 36 ) and S (l 1 ) to S (l 36 ) from the integration unit 84 1 as well as the entire region information. Therefore, the backlight data for the half image R is calculated.
  • the integration unit 84 2 of the block statistics unit 61 2 is similar to the integration unit 84 1 in that the sub-region information S (r 1 ) to S (r 36 ) and S (l 1 ) held in the built-in SRAM 84a 2. ) to supply S a (l 36), as a sub-area information calculated from the input image, the BL strength determination unit 62 2.
  • FIG. 8 shows an example of the timing of processing performed by the block statistics unit 61 1 and the block statistics unit 61 2 .
  • the dividing unit 41 converts the input image A into a half image R. And split into half images L.
  • the dividing unit 41 supplies the half image R obtained by the division to the block statistics unit 61 1 and the half image L obtained by the division to the block statistics unit 61 2 .
  • the block statistics units 61 1 and 61 2 block the input image A into sub-regions r 1 to r 36 and l 1 to l 36 as shown on the left side of B in FIG. Then, the block statistics units 61 1 and 61 2 obtain sub-region information S (r 1 ) to S (r 36 ) and S from the sub-regions r 1 to r 36 and l 1 to l 36 obtained by the blocking. (l 1 ) to S (l 36 ) are calculated.
  • the block statistics unit 61 1 blocks the half image R, and calculates sub-region information S (r 1 ) to S (r 36 ) from the sub-regions r 1 to r 36 obtained by the blocking.
  • the block statistics unit 61 similarly, half blocks of an image L, from each subregion l 1 to l 36 obtained through the blocking, the sub-region information S (l 1) to S (l 36) Is calculated.
  • the block statistics unit 61 1 and the block statistics unit 61 2 perform communication with each other to acquire the other party's sub-region information. Thereby, the block statistics unit 61 1 and the block statistics unit 61 2 store the sub-region information S (r 1 ) to S (r 36 ) and S (l 1 ) to S (l 36 ) calculated from the input image A. get.
  • this communication is performed, for example, within a vertical blanking period from displaying an input image to displaying the next input image.
  • block statistics unit 61 the sub-area information calculated from the input image, and supplies the BL intensity determining unit 62 1
  • the block statistics unit 61 2 the subregion information calculated from the input image, and supplies the BL strength determination unit 62 2.
  • processing such as blocking shown on the right side of B in FIG. 8 and communication shown on the right side of C in FIG. 8 are performed.
  • This partial driving process is started when the power of the television receiver 21 is turned on, for example. At this time, an input image received by an antenna (not shown) or the like is input to the dividing unit 41 of the television receiver 21.
  • step S21 the dividing unit 41, an input image input thereto, for example half is divided into image R and half image L, half image R to the block statistics unit 61 1 of the LSI 42 1, half the image L LSI 42 2 of the block statistics unit 61 2, respectively supply.
  • step S22 the block statistics unit 61 1 is integrated with the sub-area information S (r) which is calculated from the half image R, and a sub-region information S (l) is calculated from the half image L, from the input image Block statistical processing for obtaining the calculated sub-region information S (r) and S (l) is performed. Details of this block statistical processing will be described in detail with reference to the flowchart of FIG.
  • step S22 the block statistical unit 61 2 performs the same block statistical processing as the block statistical unit 61 1 .
  • step S23 the BL intensity determination unit 62 controls the brightness of the backlight when the half image is output based on the sub-region information S (l) and S (r) from the block statistics unit 61.
  • Backlight data BL is generated and supplied to the BL control unit 63 and the diffused light amount calculation unit 64.
  • step S24 the BL control unit 63, based on the backlight data BL from the BL intensity determination unit 62, out of the plurality of LEDs constituting the backlight 43a, the brightness of the LED that emits light when a half image is output. To control.
  • step S25 the diffused light amount calculation unit 64 calculates (calculates) the degree of diffusion of light from the backlight 43a based on the backlight data BL from the BL intensity determination unit 62, and the calculation result is used as a correction unit. 65.
  • step S26 the correcting unit 65 corrects the half image supplied from the dividing unit 41 based on the calculation result from the diffused light amount calculating unit 64, thereby generating a liquid crystal signal for the half image.
  • step S27 the correcting unit 65 supplies the liquid crystal signal for half image obtained by the correction to the liquid crystal panel 43b, thereby controlling the transmittance of the liquid crystal panel 43b and controlling the light from the backlight 43a. By transmitting at a later transmittance, a half image as transmitted light is output.
  • step S21 When a new input image is supplied to the dividing unit 41, the process returns to step S21, and thereafter the same process is performed.
  • This partial driving process is terminated when the power of the television receiver 21 is turned off.
  • block statistical unit 61 1 and the block statistical unit 61 2 perform similar block statistical processing, respectively. Therefore, in FIG. 10, only the block statistical process performed by the block statistical unit 61 1 will be described, and the description of the block statistical process performed by the block statistical unit 61 2 will be omitted.
  • step S42 the calculation unit 81 1 calculates sub-region information S (r 1 ) to S (r 36 ) from each of the sub-regions r 1 to r 36 obtained by the blocking, and the built-in SRAM 81a 1 To supply and hold.
  • calculator 811 from SRAM81a reads the sub-area information S (r 1) to S (r 36), it is supplied to SPI82 1 and integrating unit 84 1.
  • step S43 the SPI 82 1 of the block statistical unit 61 1 transmits the sub-region information S (r 1 ) to S (r 36 ) from the calculation unit 81 1 to the SPI 82 2 of the other block statistical unit 61 2 .
  • step S44 the SPI 82 1 of the block statistical unit 61 1 receives the sub-region information S (l 1 ) to S (l 36 ) from the SPI 82 2 of the other block statistical unit 61 2 and supplies it to the SRAM 83 1. Hold.
  • step S45 the integration unit 84 1 of the block statistics unit 61 1 supplies and holds the sub-region information S (r 1 ) to S (r 36 ) from the calculation unit 81 1 to the built-in SRAM 84a 1 .
  • the integrated unit 84 1 reads the SRAM 83 1 subregion information held in the S (l 1) to S (l 36), to be held is supplied to SRAM84a 1 to built.
  • the integration unit 84 1 calculates the sub area information S (r 1 ) to S (r 36 ) and S (l 1 ) to S (l 36 ) held in the built-in SRAM 84a 1 from the input image. obtained as sub-area information is supplied to the BL intensity determining unit 62 1, the processing is returned to step S22 of FIG. 9.
  • the backlight 43a and the liquid crystal panel 43b can be quickly controlled using the small LSIs 42 1 and 42 2 .
  • the manufacturing cost of the television receiver 21 can be reduced. Furthermore, since it is not necessary to provide a large space for incorporating a large LSI when the television receiver 21 is manufactured, it is easier than the case of manufacturing a television receiver incorporating a large LSI.
  • the television receiver 21 can be manufactured.
  • FIG. 11 shows an example when the microcomputer 44 individually controls the LSI 42 1 and the LSI 42 2 to change the state of each register.
  • FIG. 11A shows a state in which the microcomputer 44 individually controls the LSI 42 1 and the LSI 42 2 to change the state of each register from the state A to the state B.
  • LSI 42 1 is in the vertical synchronization signal, at the timing when the third rising edge from the left occurs, how to change the state A of the register to the state B is illustrated.
  • LSI 42 2 is in the vertical synchronization signal, at the timing when the second rising edge from the left occurs, how to change the state A of the register to the state B is illustrated.
  • the vertical synchronization signal is supplied from the microcomputer 44 to the LSI 42 1 and the LSI 42 2 , for example.
  • the LSI 42 2 displays the second from the left as shown in the lower part B of FIG.
  • the register state A is changed to state B in synchronization with the timing when the rising edge occurs.
  • the register change information refers to information for changing the state A of the register to the state B, for example.
  • the microcomputer 44 supplies the register change information to the LSI 42 1 immediately after the second rising edge from the left occurs, the LSI 42 1 receives 3 from the left as shown on the upper side of B in FIG.
  • the state A of the register is changed to state B in synchronization with the timing when the first rising edge occurs.
  • the microcomputer 44 supplies the register change information individually to the LSI 42 1 and the LSI 42 2 to change the register, the LSI 42 1 and the LSI 42 2 are displayed as shown on the upper side B of FIG. 11 and the lower side of B of FIG. It is possible that the state of the registers cannot be changed at the same timing.
  • the microcomputer 44 supplies the register change information to only one LSI 42 1 , and the LSI 42 1 uses the sub-region information S (r 1 ) calculated from the half image R as the register change information from the microcomputer 44. Along with S (r 36 ), it is transmitted to the LSI 42 2 .
  • the LSI 42 1 and the LSI 42 2 synchronize the timing for reflecting the change based on the register change information in the next communication.
  • FIG. 12 the microcomputer 44, by supplying one LSI 42 1 only in the register modification information shows an example of when to change the state of the two LSI 42 1 and LSI 42 2 registers.
  • the microcomputer 44 supplies the register modification information only LSI 42 1, LSI 42 1 has been shown how to send the register change information from the microcomputer 44 to the LSI 42 2.
  • the LSI 42 1 that has acquired the register change information from the microcomputer 44 and the LSI 42 2 that has received the register change information from the LSI 42 1 reflect the register change information at the same timing.
  • the state of changing register state C to state D is shown.
  • the LSI 42 1 transmits the register change information from the microcomputer 44 to the LSI 42 2 together with the sub area information.
  • the LSI 42 1 and the LSI 42 2 reflect the register change information at the timing synchronized by the communication between the LSI 42 1 and the LSI 42 2 (the timing at which the second rising edge from the left occurs).
  • LSI 42 1 and the communication between the LSI 42 2 by synchronizing the timing to reflect the register modification information, LSI 42 1 and LSI 42 2 is the register at the same timing Can be changed.
  • the television receiver 21 is provided with the two LSIs 42 1 and the LSI 42 2 , but can be provided with three or more LSIs.
  • FIG. 13 shows an example when the television receiver 21 is provided with four LSIs 42a to 42d.
  • the dividing unit 41 divides the input image into, for example, four equal parts, and each of the four 1/4 images obtained as a result is obtained. , Supplied to the LSIs 42a to 42d.
  • LSI42a as subject the supplied 1/4 image, the same treatment as LSI 42 1 and LSI 42 2 described above, to calculate the sub-area information a 1/4 images.
  • the LSI 42b, LSI 42c, and LSI 42d calculate sub-region information b, c, and d, respectively.
  • the LSI 42a transmits the sub-region information a to the LSI 42b and receives the sub-region information b from the LSI 42b.
  • the LSI 42c transmits the sub area information c to the LSI 42d and receives the sub area information d from the LSI 42d.
  • the LSI 42a and LSI 42b hold the sub area information a and b
  • the LSI 42c and LSI 42d hold the sub area information c and d.
  • the LSI 42a transmits the sub-region information a and b to the LSI 42c, and the sub-region information c and d from the LSI 42c. Receive.
  • the LSI 42b transmits the sub area information a and b to the LSI 42d and receives the sub area information c and d from the LSI 42d.
  • the LSIs 42a to 42d all hold the sub-region information a to d.
  • the LSI 42a communicates with the LSI 42b, and the LSI 42c communicates with the LSI 42d.
  • the LSI 42a and the LSI 42c communicate, and the LSI 42b and the LSI 42d communicate.
  • the LSI 42a and the LSI 42c communicate in the first communication
  • the LSI 42b and the LSI 42d communicate
  • the LSI 42a and the LSI 42b communicate in the second communication
  • the LSI 42c and the LSI 42d communicate.
  • FIG. 14 shows an example of the timing of processing performed by the LSIs 42a to 42d in FIG.
  • the dividing unit 41 converts the input image A into four sheets. Divide into 1/4 images.
  • the dividing unit 41 supplies four 1/4 images obtained by the division to the LSIs 42a to 42d, respectively.
  • each of the LSIs 42a to 42d blocks a 1/4 image into sub-regions as shown on the left side of FIG. Then, the LSIs 42a to 42d calculate sub-region information from each sub-region obtained by the blocking.
  • the first communication shown in FIG. 13 is performed between the LSIs 42a to 42d in the communication period as shown on the left side of FIG. Further, the second communication shown in FIG. 13 is performed between the LSIs 42a to 42d in the communication period as shown on the left side of FIG.
  • each of the LSIs 42a to 42d holds the same sub-region information a to d as the sub-region information calculated from the input image.
  • Each of the LSIs 42a to 42d performs post-processing A using the held sub-region information a to d after the end of the second communication, as shown in E of FIG.
  • the input image B of the second frame is also subjected to the same processing as the input image A of the first frame, and thereafter the same processing is repeated.
  • the television receiver 21 provided with the LSI 42 1 and the LSI 42 2 has been described.
  • the present disclosure can be applied to, for example, an imaging apparatus provided with the LSI 42 1 and the LSI 42 2 . That is, the electronic device provided with a plurality of LSIs is not limited to the television receiver 21.
  • the LSI 42 1 controls the display of the half image R and the LSI 42 2 controls the display of the half image L.
  • the LSI 42 1 and the LSI 42 2 The processing performed by is not limited to this.
  • the LSI 42 1 and the LSI 42 2 can perform any process as long as the process is performed using all information obtained from the input image.
  • the processing target is not limited to the input image, and an audio signal can be the processing target.
  • the LSI 42 1 and the LSI 42 2 use, for example, the movement of each area constituting the input image from the image pickup device. Accordingly, it is possible to perform camera shake correction processing or the like that reduces camera shake or the like generated in the input image.
  • LSI 42 1 detects the motion vector mv of each region constituting the image R half (R)
  • LSI 42 2 is, the motion vector mv of each region constituting the image L half (L) To detect. Then, the LSI 42 1 transmits the motion vector mv (R) detected from the half image R to the LSI 42 2 and receives the motion vector mv (L) from the LSI 42 2 .
  • the LSI 42 1 and the LSI 42 2 both obtain the same motion vectors mv (R) and mv (L) as the motion vectors of the respective regions constituting the input image.
  • LSI 42 1 based on the acquired motion vector mv (R) and mv (L), as well as correcting the camera shake or the like half occurring in the image R, LSI 42 2 is acquired motion vector mv (R) and mv (L ) To correct camera shake or the like occurring in the half image L.
  • the half image R and the half image L after camera shake correction are one image, that is, an input image after camera shake correction, and are held in, for example, a memory in the imaging apparatus. .
  • this technique can take the following structures.
  • a dividing unit that divides input data into a plurality of different divided data and a plurality of signal processing units that respectively process a plurality of different divided data, wherein the signal processing unit targets the divided data
  • the first processing unit that performs the first data processing and the first processing result by the first processing unit are transmitted to the other signal processing unit, and the first processing unit transmitted from the other signal processing unit And a communication unit that receives the processing result of 2.
  • the signal processing unit obtains a third processing result obtained when the first data processing is performed on the input data based on the first processing result and the second processing result.
  • a second processing unit that performs second data processing different from the first data processing on the third processing result acquired by the acquisition unit.
  • the communication unit transmits setting information indicating setting contents to be reflected in the plurality of signal processing units to the other signal processing units in addition to the first processing result. ).
  • the signal processing device according to (3), wherein the communication unit synchronizes timing for reflecting setting contents based on the setting information with another signal processing unit that has received the setting information. .
  • the communication unit transmits the first processing result to the other signal processing unit together with the second processing result received from the other signal processing unit.
  • the dividing unit divides an input image input as the input data into a plurality of different partial images.
  • the first processing unit targets the partial image, and
  • the first data processing for calculating sub-region information which is information relating to the luminance of the sub-region obtained by dividing the partial image, is performed, and the communication unit obtains a first result obtained as a processing result of the first processing unit.
  • the sub-region information of 1 is transmitted to the other signal processing unit, and the second sub-region information calculated for the other partial image is received from the other signal processing unit,
  • the acquisition unit performs the first data processing on the input image by using the first sub-region information calculated by the first processing unit and the second sub-region information received by the communication unit.
  • the second processing unit is a backlight that is lit for display of the partial image with respect to the third sub-region information acquired by the acquisition unit.
  • a signal processing method of a signal processing device including a dividing unit and a plurality of signal processing units, a dividing step of dividing input data into a plurality of different divided data by the dividing unit, and the signal processing unit, A first processing step for performing first data processing on the divided data, and a first processing result by the first processing step are transmitted to the other signal processing unit, and the other signal A signal processing method including a communication step of receiving a second processing result transmitted from the processing unit.
  • the series of processes described above can be executed by hardware or software, for example.
  • a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose computer or the like.
  • FIG. 15 shows an example of the hardware configuration of a computer that executes the above-described series of processing by a program.
  • a CPU (Central Processing Unit) 201 executes various processes in accordance with a program stored in a ROM (Read Only Memory) 202 or a storage unit 208.
  • a RAM (Random Access Memory) 203 appropriately stores programs executed by the CPU 201, data, and the like. These CPU 201, ROM 202, and RAM 203 are connected to each other by a bus 204.
  • the CPU 201 is also connected with an input / output interface 205 via the bus 204.
  • an input unit 206 composed of a keyboard, a mouse, a microphone, and the like
  • an output unit 207 composed of a display, a speaker, and the like.
  • the CPU 201 executes various processes in response to commands input from the input unit 206. Then, the CPU 201 outputs the processing result to the output unit 207.
  • the storage unit 208 connected to the input / output interface 205 includes, for example, a hard disk, and stores programs executed by the CPU 201 and various data.
  • the communication unit 209 communicates with an external device via a network such as the Internet or a local area network.
  • the program may be acquired via the communication unit 209 and stored in the storage unit 208.
  • the drive 210 connected to the input / output interface 205 drives a removable medium 211 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and drives programs and data recorded there. Etc. The acquired program and data are transferred to and stored in the storage unit 208 as necessary.
  • a recording medium for recording (storing) a program that is installed in a computer and can be executed by the computer includes a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc- Removable media 211, which is a package media made up of read only memory, DVD (digital versatile disc), magneto-optical disk (including MD (mini-disc)), or semiconductor memory, etc. It is composed of a ROM 202 that is permanently stored, a hard disk that constitutes the storage unit 208, and the like.
  • Recording of a program on a recording medium is performed using a wired or wireless communication medium such as a local area network, the Internet, or digital satellite broadcasting via a communication unit 209 that is an interface such as a router or a modem as necessary. Is called.
  • a wired or wireless communication medium such as a local area network, the Internet, or digital satellite broadcasting
  • a communication unit 209 that is an interface such as a router or a modem as necessary. Is called.
  • steps describing the series of processes described above are not limited to the processes performed in time series according to the described order, but are not necessarily performed in time series, either in parallel or individually.
  • the process to be executed is also included.
  • 21 television receiver 41 division unit, 42 1 , 42 2 , 42a to 42d LSI, 43 display unit, 43a backlight, 43b liquid crystal panel, 44 microcomputer, 45 operation unit, 61 1 , 61 2 block statistics unit, 62 1 , 62 2 BL intensity determination unit, 63 1 , 63 2 BL control unit, 64 1 , 64 2 diffused light amount calculation unit, 65 1 , 65 2 correction unit, 81 1 , 81 2 calculation unit, 81a 1 , 81a 2 SRAM , 82 1, 82 2 SPI, 83 1, 83 2 SRAM, 84 1, 84 2 integrated unit, 81a 1, 81a 2 SRAM

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Liquid Crystal Display Device Control (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Liquid Crystal (AREA)

Abstract

 本開示は、信号処理用のチップを大型化させることなく、より大きなデータ量の入力信号を処理することができるようにする信号処理装置、信号処理方法、及びプログラムに関する。 分割部は、入力データを複数の異なる分割データに分割し、複数のLSIは、複数の異なる分割データをそれぞれ処理する。また、LSIは、分割データを対象として、第1のデータ処理を行い、その処理により得られる第1の処理結果を、他のLSIに送信するとともに、他のLSIから送信された第2の処理結果を受信する。本開示は、例えば、テレビジョン受像機等に適用できる。

Description

信号処理装置、信号処理方法、及びプログラム
 本開示は、信号処理装置、信号処理方法、及びプログラムに関し、特に、例えば、信号処理用のチップを大型化させることなく、より大きなデータ量の入力信号を処理できるようにした信号処理装置、信号処理方法、及びプログラムに関する。
 例えば、テレビジョン受像機等に内蔵された画像処理用のLSI(Large Scale Integration)では、テレビジョン受像機に入力される入力画像を、その入力画像の表示時刻までに処理するリアルタイム性が実現されている(例えば特許文献1参照)。
 現在、例えば、リアルタイム性を維持して、1920×1080画素の入力画像を表示するテレビジョン受像機が主流となっているが、将来的には、より高解像度の入力画像として、3840×2160画素や、4096×2160画素、7680×4320画素等の入力画像も採用される予定である。
 また、例えば、図1のA乃至図1のCに示されるように、画像処理の対象とされる入力画像の画素数が増加するほどに、LSIのチップサイズを大きくして、画像処理の処理能力を向上させる必要がある。
 すなわち、図1のA及び図1のBに示されるように、LSIに、2160×3840画素の入力画像を処理させる場合、1920×1080画素の入力画像を処理させる場合と比較して、4倍の画素数を処理しなければならない。
 この場合、リアルタイム性を維持するためには、LSIのチップサイズを約4倍の大きさにすることにより、処理能力を向上させる必要がある。
 また同様に、図1のA及び図1のCに示されるように、LSIに、7680×4320画素の入力画像を処理させる場合、1920×1080画素の入力画像を処理させる場合と比較して、16倍の画素数を処理しなければならない。
 この場合、リアルタイム性を維持するためには、LSIのチップサイズを約16倍の大きさにすることにより、処理能力をより向上させる必要がある。
特開2011-180336号公報
 上述のように、入力画像の解像度が増加するほど、比較的高価で大型のLSIを用いる必要が生じてしまう。
 このため、そのようなLSIを内蔵するテレビジョン受像機を製造する場合、テレビジョン受像機の製造コストが上昇してしまうとともに、大型のLSIを内蔵するための大きなスペースを、テレビジョン受像機内に確保しなければならず、現実的ではない。
 本開示は、このような状況に鑑みてなされたものであり、信号処理用のチップを大型化させることなく、より大きなデータ量の入力信号を処理できるようにするものである。
 本開示の一側面の信号処理装置は、入力データを複数の異なる分割データに分割する分割部と、複数の異なる前記分割データをそれぞれ処理する複数の信号処理部とを含み、前記信号処理部は、前記分割データを対象として、第1のデータ処理を行う第1の処理部と、前記第1の処理部による第1の処理結果を、他の前記信号処理部に送信するとともに、他の前記信号処理部から送信された第2の処理結果を受信する通信部とを有する信号処理装置である。
 前記信号処理部では、前記第1の処理結果と前記第2の処理結果に基づいて、前記入力データに前記第1のデータ処理を施したときに得られる第3の処理結果を取得する取得部と、前記取得部により取得された前記第3の処理結果を対象として、前記第1のデータ処理とは異なる第2のデータ処理を行う第2の処理部とをさらに有するようにすることができる。
 前記通信部では、前記第1の処理結果の他、前記複数の信号処理部に反映させる設定内容を示す設定情報も、他の前記信号処理部に送信することができる。
 前記通信部では、前記設定情報を受信済みの他の前記信号処理部との間で、前記設定情報に基づく設定内容を反映させるタイミングを同期させることができる。
 前記通信部では、前記第1の処理結果を、他の前記信号処理部から受信済みの前記第2の処理結果とともに、さらに他の前記信号処理部に送信することができる。
 前記分割部は、前記入力データとして入力される入力画像を、複数の異なる部分画像に分割し、前記信号処理部において、前記第1の処理部は、前記部分画像を対象として、前記部分画像を区分して得られるサブ領域の輝度に関する情報であるサブ領域情報を算出する前記第1のデータ処理を行い、前記通信部は、前記第1の処理部の処理結果として得られた第1の前記サブ領域情報を、他の前記信号処理部に送信するとともに、他の前記信号処理部から、他の前記部分画像を対象として算出された第2の前記サブ領域情報を受信し、前記取得部は、前記第1の処理部により算出された前記第1のサブ領域情報、及び前記通信部により受信された前記第2のサブ領域情報を、前記入力画像に前記第1のデータ処理を施したときに得られる第3のサブ領域情報として取得し、前記第2の処理部は、前記取得部により取得された前記第3のサブ領域情報を対象として、前記部分画像の表示用に点灯する、バックライトの一部を制御させるためのバックライトデータを生成する前記第2のデータ処理を行うことができる。
 本開示の一側面の信号処理方法は、分割部と、複数の信号処理部とを含む信号処理装置の信号処理方法であって、前記分割部による、入力データを複数の異なる分割データに分割する分割ステップと、前記信号処理部による、前記分割データを対象として、第1のデータ処理を行う第1の処理ステップと、前記第1の処理ステップによる第1の処理結果を、他の前記信号処理部に送信するとともに、他の前記信号処理部から送信された第2の処理結果を受信する通信ステップとを含む信号処理方法である。
 本開示の一側面のプログラムは、コンピュータを、入力データを複数の異なる分割データに分割する分割部と、複数の異なる前記分割データをそれぞれ処理する複数の信号処理部として機能させるためのプログラムであって、前記信号処理部は、前記分割データを対象として、第1のデータ処理を行う第1の処理部と、前記第1の処理部による第1の処理結果を、他の前記信号処理部に送信するとともに、他の前記信号処理部から送信された第2の処理結果を受信する通信部とを有するプログラムである。
 本開示によれば、入力データが複数の異なる分割データに分割され、前記分割データを対象として、第1のデータ処理が行われ、その処理結果が、他の前記信号処理部に送信されるとともに、他の前記信号処理部から送信された処理結果が受信される。
 本開示によれば、信号処理用のチップを大型化させることなく、より大きなデータ量の入力信号を処理することが可能となる。
処理対象のデータ量に応じてLSIのチップサイズが拡大する一例を示す図である。 本開示におけるテレビジョン受像機の構成例を示すブロック図である。 複数のLSIを設ける理由を説明するための第1の図である。 複数のLSIを設ける理由を説明するための第2の図である。 2個のLSIを設けたときの一例を示すブロック図である。 2個のLSIの詳細な構成例を示すブロック図である。 図6のブロック統計部の詳細な構成例を示すブロック図である。 図6のブロック統計部が行う処理のタイミングの一例を示す図である。 テレビジョン受像機が行う部分駆動処理を説明するためのフローチャートである。 図9のステップS22におけるブロック統計処理の詳細を説明するためのフローチャートである。 マイコンが、LSIのレジスタの状態を変更するときの一例を示す図である。 LSI間で行われる通信を利用して、レジスタの状態を変更するときの一例を示す図である。 4個のLSIを設けたときの一例を示すブロック図である。 図13のLSIが行う処理のタイミングの一例を示す図である。 コンピュータのハードウェアの構成例を示すブロック図である。
 以下、本開示における実施の形態(以下、本実施の形態という)について説明する。なお、説明は以下の順序で行う。
 1.本実施の形態(複数のLSIを設けたテレビジョン受像機の一例)
 2.変形例
<1.本実施の形態>
[テレビジョン受像機21の構成例]
 図2は、本実施の形態であるテレビジョン受像機21の構成例を示している。
 このテレビジョン受像機21は、分割部41、LSI(Large Scale Integration)421及び422、バックライト43a及び液晶パネル43bを有する表示部43、マイクロコンピュータ(以下、マイコンという)44、並びに操作部45から構成される。
 なお、テレビジョン受像機21において、LSI421として、例えばFPGA(Field Programmable Gate Array)等を用いることができる。このことは、LSI422についても同様である。
 また、テレビジョン受像機21において、分割部41には、図示せぬアンテナ等から受信したコンテンツとしての画像信号や、図示せぬ再生装置等から画像信号が供給される。
 分割部41は、供給される画像信号を、複数の部分信号に分割する。すなわち、例えば、分割部41は、供給される画像信号が表す入力画像を、入力画像の右側の1/2の領域を表す半分画像Rと、入力画像の左側の1/2の領域を表す半分画像Lに分割する。
 なお、本実施の形態では、分割部41は、入力画像を、いずれも同じ大きさの半分画像R及び半分画像Rに分割するようにしたが、異なる大きさの半分画像R及び半分画像Lに分割するようにしてもよい。
 また、分割部41は、入力画像を、2枚の部分画像として、半分画像Rと半分画像Lに分割したが、3枚以上の部分画像に分割するようにしてもよい。例えば、部分画像として、入力画像が4枚の1/4画像に分割される場合については、図13を参照して説明する。
 そして、分割部41は、分割により得られた半分画像Rを、LSI42に供給するとともに、同じく分割により得られた半分画像Lを、LSI422に供給する。
 LSI421は、分割部41からの半分画像Rに基づいて、半分画像Rを構成する各サブ領域rについてのサブ領域情報S(r)を算出し、LSI422に送信する。
 ここで、サブ領域情報S(r)とは、サブ領域rを構成する各画素の輝度に関する情報であり、例えば、サブ領域rを構成する各画素の最大輝度、平均輝度、輝度の分布(例えば、輝度のヒストグラム)、及び輝度の重心等を含む情報を表す。
 また、LSI421は、LSI422からのサブ領域情報S(l)を受信し、受信したサブ領域情報S(l)と、算出済みのサブ領域情報S(r)に基づいて、半分画像R用のバックライトデータ及び液晶信号を生成する。
 そして、LSI421は、生成した半分画像R用のバックライトデータを、バックライト43aに供給することにより、半分画像Rを出力させるために必要なバックライト43aの制御を行う。
 また、LSI421は、生成した半分画像R用の液晶信号を、液晶パネル43bに供給することにより、半分画像Rを出力させるために必要な液晶パネル43bの制御を行う。
 LSI422は、分割部41からの半分画像Lに基づいて、半分画像Lを構成する各サブ領域lについてのサブ領域情報S(l)を算出し、LSI421に送信する。
 また、LSI422は、LSI421からのサブ領域情報S(r)を受信し、受信したサブ領域情報S(r)と、算出済みのサブ領域情報S(l)に基づいて、半分画像L用のバックライトデータ及び液晶信号を生成する。
 そして、LSI422は、生成した半分画像L用のバックライトデータを、バックライト43aに供給することにより、半分画像Lを出力させるために必要なバックライト43aの制御を行う。
 また、LSI422は、生成した半分画像L用の液晶信号を、液晶パネル43bに供給することにより、半分画像Lを出力させるために必要な液晶パネル43bの制御を行う。
 表示部43は、バックライト43a及び液晶パネル43bを有する。
 バックライト43aは、例えば複数のLED(Light Emitting Diode)から構成されており、LSI421及びLSI422からの制御にしたがって点灯又は消灯する。
 すなわち、例えば、バックライト43aを構成する複数のLEDのうち、半分画像Rを出力する際に点灯されるLEDは、LSI421からの制御にしたがって点灯し、半分画像Lを出力する際に点灯されるLEDは、LSI422からの制御にしたがって点灯する。
 液晶パネル43bは、LSI421及びLSI422からの制御にしたがって、バックライト43aからの光を透過させる透過率を変更する。
 すなわち、例えば、液晶パネル43bにおいて、半分画像Rを出力する際に変更される液晶の透過率は、LSI421からの制御にしたがって変更され、半分画像Lを出力する際に変更される液晶の透過率は、LSI422からの制御にしたがって変更される。
 そして、液晶パネル43bは、変更後の透過率で、バックライト43aからの光を透過させることにより、半分画像R及び半分画像Lから構成される入力画像としての光を出力する。
 マイコン44は、例えば、操作部45からの操作信号に基づいて、分割部41、LSI421及びLSI422等を制御する。
 すなわち、例えば、マイコン44は、LSI421及びLSI422を制御して、それぞれのレジスタの設定などを変更させる。
 ここで、例えば、LSI421のレジスタとは、LSI421の動作状態を設定するためのパラメータを表す。
 なお、マイコン44が行うレジスタの変更については、図11及び図12を参照して詳述する。
 操作部45は、ユーザにより操作される操作ボタン等であり、ユーザの操作に応じて、ユーザの操作に対応する操作信号を、マイコン44に供給する。
 次に、図3及び図4を参照して、テレビジョン受像機21に、1個のLSIではなく、複数のLSIとして、例えば2個のLSI421及びLSI422を設ける理由を説明する。
 図3は、1個のLSI42が、バックライト43a及び液晶パネル43bを制御するときの一例を示している。
 例えば、テレビジョン受像機21において、2個のLSI421及びLSI422ではなく、1個のLSI42を設けた場合を考える。
 この場合、LSI42は、図4に示されるように、テレビジョン受像機21に入力される入力画像を、例えば横×縦が12×6個である72個のサブ領域に区分するブロック化を行う。
 また、LSI42は、ブロック化により得られた72個のサブ領域から、それぞれ、サブ領域情報S(r)及びS(l)を算出する。
 そして、LSI42は、算出したサブ領域情報S(r)及びS(l)に基づいて、入力画像用のバックライトデータ、及び入力画像用の液晶信号を生成することとなる。
 ここで、入力画像のサイズ(データ量)が比較的大きい場合、LSI42の処理能力によっては、サブ領域情報S(r)及びS(l)を算出するのに多くの処理時間が必要となることが生じてしまい、テレビジョン受像機21のリアルタイム性を維持することができない。
 そこで、テレビジョン受像機21では、例えば、2個のLSI421及びLSI422を設けることにより、入力画像のサイズが比較的大きい場合でも、速やかに、バックライト43a及び液晶パネル43bを制御できるようにしている。
 このため、テレビジョン受像機21は、比較的小型のLSI421及びLSI422を用いつつ、テレビジョン受像機21のリアルタイム性を維持できる。
 次に、図5は、2個のLSI421及びLSI422を設けたときの一例を示している。
 テレビジョン受像機21において、図5に示されるように、2個のLSI421及びLSI422を設けた場合、入力画像からサブ領域情報S(r)及びS(l)を算出する処理を、LSI421とLSI422とで分散させることができる。
 すなわち、例えば、LSI421には、入力画像を構成する半分画像R及びLのうち、半分画像Rが供給され、LSI422には、半分画像Lが供給される。
 そして、LSI421は、供給される半分画像Rからサブ領域情報S(r)を算出し、LSI422は、供給される半分画像Lからサブ領域情報S(l)を算出する。
 このため、例えば、1個のLSI42が、入力画像からサブ領域情報S(r)及びS(l)を算出する場合と比較して、より迅速にサブ領域情報S(r)及びS(l)を算出できるようになる。
 しかしながら、LSI421には、半分画像Rのみが供給され、半分画像Lは供給されない。このため、LSI421は、図5上側に示されるように、半分画像Lから算出されるサブ領域情報S(l)を取得することができない。
 また、同様にして、LSI422には、半分画像Lのみが供給され、半分画像Rは供給されない。このため、LSI422は、図5下側に示されるように、半分画像Rから算出されるサブ領域情報S(r)を取得することができない。
 LSI421が、半分画像R用のバックライトデータを生成する場合、半分画像Rから算出されるサブ領域情報S(r)の他、半分画像Lから算出されるサブ領域情報S(l)も必要とされる。
 これは、バックライト43aを構成する各LEDからは、光が拡散して出力されるため、その光の拡散も考慮してバックライトデータを生成する必要があることによる。
 すなわち、LSI421は、バックライト43aを構成する複数のLEDのうち、半分画像R用に点灯するLEDの他、半分画像L用に点灯するLEDも考慮して、半分画像R用のバックライトデータを生成しなければならない。このことは、LSI421が、半分画像R用の液晶信号を生成する場合でも同様である。
 同様にして、LSI422が、半分画像L用のバックライトデータを生成する場合、半分画像Lから算出されるサブ領域情報S(l)の他、半分画像Rから算出されるサブ領域情報S(r)も必要とされる。
 そこで、LSI421とLSI422は、それぞれ算出したサブ領域情報を、互いに送受信することにより、自らでは算出できないサブ領域情報を取得するようにしている。
 次に、図6は、互いに算出したサブ領域情報を送受信するLSI421及びLSI422の詳細な構成例を示している。
 LSI421は、ブロック統計部611、BL強度決定部621、BL制御部631、拡散光量計算部641、及び補正部651から構成される。
 また、LSI422は、LSI421と同様に、ブロック統計部612、BL強度決定部622、BL制御部632、拡散光量計算部642、及び補正部652から構成されている。
 なお、以下では、LSI421のブロック統計部611乃至補正部651と、LSI422のブロック統計部612乃至補正部652をそれぞれ区別する必要がない場合、単に、ブロック統計部61乃至補正部65という。
 ブロック統計部61には、分割部41から半分画像が供給される。ブロック統計部61は、分割部41からの半分画像を構成する各サブ領域から、それぞれ、サブ領域情報を算出する。
 そして、ブロック統計部61は、算出したサブ領域情報を互いに送受信することにより、入力画像から算出されるサブ領域情報の全てを取得する。
 すなわち、例えば、ブロック統計部611は、算出したサブ領域情報S(r)を、ブロック統計部612に送信し、ブロック統計部612から送信されるサブ領域情報S(l)を受信する。
 また、例えば、ブロック統計部612は、算出したサブ領域情報S(l)を、ブロック統計部611に送信し、ブロック統計部611から送信されるサブ領域情報S(r)を受信する。
 これにより、ブロック統計部611及びブロック統計部612は、入力画像から算出されるサブ領域情報S(l)及びS(r)を取得することができる。
 そして、ブロック統計部61は、取得したサブ領域情報S(l)及びS(r)を、BL強度決定部62に供給する。
 BL強度決定部62は、ブロック統計部61からのサブ領域情報S(l)及びS(r)に基づいて、半分画像を出力する際のバックライト43aの明るさを制御するためのバックライトデータBLを生成し、BL制御部63及び拡散光量計算部64に供給する。
 すなわち、例えば、BL強度決定部621は、ブロック統計部611からのサブ領域情報S(l)及びS(r)に基づいて、半分画像Rを出力する際のバックライトデータBLRを生成し、BL制御部631及び拡散光量計算部641に供給する。
 また、例えば、BL強度決定部622は、ブロック統計部612からのサブ領域情報S(l)及びS(r)に基づいて、半分画像Lを出力する際のバックライトデータBLLを生成し、BL制御部632及び拡散光量計算部642に供給する。
 BL制御部63は、BL強度決定部62からのバックライトデータBLに基づいて、バックライト43aを構成する複数のLEDのうち、半分画像を出力させる際に用いるLEDの明るさを制御する。
 すなわち、例えば、BL制御部631は、BL強度決定部621からのバックライトデータBLRに基づいて、バックライト43aを構成する複数のLEDのうち、右側に配置されたLED(半分画像Rを出力させる際に用いるLED)の明るさを制御する。
 また、例えば、BL制御部632は、BL強度決定部622からのバックライトデータBLLに基づいて、バックライト43aを構成する複数のLEDのうち、左側に配置されたLED(半分画像Lを出力させる際に用いるLED)の明るさを制御する。
 拡散光量計算部64は、BL強度決定部62からのバックライトデータBLに基づいて、バックライト43aを構成する各LEDからの光の拡散の程度を計算(算出)し、その計算結果を、補正部65に供給する。
 すなわち、例えば、拡散光量計算部641は、BL強度決定部621からのバックライトデータBLRに基づいて、半分画像Rを出力時のバックライト43aからの光の拡散の程度を計算(算出)し、その計算結果を、補正部651に供給する。
 また、例えば、拡散光量計算部642は、BL強度決定部622からのバックライトデータBLLに基づいて、半分画像Lを出力時のバックライト43aからの光の拡散の程度を計算(算出)し、その計算結果を、補正部652に供給する。
 補正部65には、ブロック統計部61に半分画像が供給されるタイミングから遅延して、ブロック統計部61に供給されたものと同一の半分画像が、分割部41から供給される。
 補正部65は、拡散光量計算部64からの計算結果に基づいて、分割部41から供給される半分画像を、その半分画像用の液晶信号に補正する。なお、半分画像用の液晶信号とは、半分画像を出力する際に変更される液晶パネル43bの透過率を制御するための信号を表す。
 そして、補正部65は、補正により得られた半分画像用の液晶信号を、液晶パネル43bに供給することにより、液晶パネル43bの透過率を制御し、バックライト43aからの光を、制御後の透過率で透過させることにより、透過光としての半分画像を出力させる。
 すなわち、例えば、補正部651は、拡散光量計算部641からの計算結果に基づいて、分割部41から供給される半分画像Rを、半分画像R用の液晶信号PRに補正する。そして、補正部651は、半分画像R用の液晶信号PRを、液晶パネル43bに供給することにより、液晶パネル43bの透過率を制御し、バックライト43aからの光を、制御後の透過率で透過させることにより、透過光としての半分画像Rを出力させる。
 また、例えば、補正部652は、拡散光量計算部642からの計算結果に基づいて、分割部41から供給される半分画像Lを、半分画像L用の液晶信号PLに補正する。そして、補正部652は、半分画像L用の液晶信号PLを、液晶パネル43bに供給することにより、液晶パネル43bの透過率を制御し、バックライト43aからの光を、制御後の透過率で透過させることにより、透過光としての半分画像Lを出力させる。
 次に、図7は、ブロック統計部611及び612の詳細な構成例を示している。
 ブロック統計部611は、SRAM81a1を内蔵する算出部811、SPI(Serial Parallel Interface)821、SRAM831、及びSRAM84a1を内蔵する統合部841から構成される。
 また、ブロック統計部612は、ブロック統計部611と同様に、SRAM81a2を内蔵する算出部812、SPI822、SRAM832、及びSRAM84a2を内蔵する統合部842から構成される。
 算出部811は、分割部41からの半分画像Rを、例えば、6×6(=36)個の各サブ領域r1乃至r36に区分するブロック化を行う。
 そして、算出部811は、そのブロック化により得られる各サブ領域r1乃至r36から、それぞれ、サブ領域情報S(r1)乃至S(r36)を算出し、内蔵するSRAM81a1に供給して保持させる。
 また、算出部811は、SRAM81a1から、サブ領域情報S(r1)乃至S(r36)を読み出し、SPI821及び統合部841に供給する。
 なお、ブロック統計部612の算出部812は、算出部811と同様の処理を行い、内蔵するSRAM81a2から、サブ領域情報S(l1)乃至S(l36)を読み出し、SPI822及び統合部842に供給する。
 SPI821は、算出部811からのサブ領域情報S(r1)乃至S(r36)を、SPI822に送信するとともに、SPI822からのサブ領域情報S(l1)乃至S(l36)を受信し、SRAM831に供給して保持させる。
 なお、ブロック統計部612のSPI822は、SPI821と同様にして、算出部812からのサブ領域情報S(l1)乃至S(l36)を、SPI821に送信するとともに、SPI821からのサブ領域情報S(r1)乃至S(r36)を受信し、SRAM832に供給して保持させる。
 SRAM831は、SPI811からのサブ領域情報S(l1)乃至S(l36)を保持し、統合部841からの読み出し指示に応じて、保持しているサブ領域情報S(l1)乃至S(l36)を、統合部841に出力する。
 なお、ブロック統計部612のSRAM832は、SRAM831と同様にして、SPI812からのサブ領域情報S(r1)乃至S(r36)を保持し、統合部842からの読み出し指示に応じて、保持しているサブ領域情報S(r1)乃至S(r36)を、統合部842に出力する。
 統合部841は、算出部811からのサブ領域情報S(r1)乃至S(r36)を、内蔵するSRAM84a1に供給して保持させる。また、統合部841は、SRAM831に保持されたサブ領域情報S(l1)乃至S(l36)を読み出し、内蔵するSRAM84a1に供給して保持させる。
 そして、統合部841は、内蔵するSRAM84a1に保持されたサブ領域情報S(r1)乃至S(r36)及びS(l1)乃至S(l36)を、入力画像から算出されるサブ領域情報として、BL強度決定部621に供給する。
 ところで、統合部841は、サブ領域情報S(r1)乃至S(r36)及びS(l1)乃至S(l36)に基づいて、入力画像を構成する全領域内の最大輝度、平均輝度、及び輝度の分布等を含む全体領域情報も算出し、BL強度決定部621に供給してもよい。
 この場合、BL強度決定部621は、統合部841からのサブ領域情報S(r1)乃至S(r36)及びS(l1)乃至S(l36)の他、全体領域情報にも基づいて、半分画像R用のバックライトデータを算出することとなる。
 なお、ブロック統計部612の統合部842は、統合部841と同様にして、内蔵するSRAM84a2に保持されたサブ領域情報S(r1)乃至S(r36)及びS(l1)乃至S(l36)を、入力画像から算出されるサブ領域情報として、BL強度決定部622に供給する。
 次に、図8は、ブロック統計部611とブロック統計部612が行う処理のタイミングの一例を示している。
 例えば、図8のA左側に示されるように、テレビジョン受像機21の分割部41に、1フレーム目の入力画像Aが入力されると、分割部41は、入力画像Aを、半分画像Rと半分画像Lに分割する。
 また、分割部41は、分割により得られた半分画像Rをブロック統計部611に、同じく分割により得られた半分画像Lをブロック統計部612に供給する。
 そして、ブロック統計部611及び612は、図8のB左側に示されるように、入力画像Aを各サブ領域r1乃至r36及びl1乃至l36にブロック化する。そして、ブロック統計部611及び612は、そのブロック化により得られる各サブ領域r1乃至r36及びl1乃至l36から、サブ領域情報S(r1)乃至S(r36)及びS(l1)乃至S(l36)を算出する。
 すなわち、ブロック統計部611は、半分画像Rをブロック化し、そのブロック化により得られる各サブ領域r1乃至r36から、サブ領域情報S(r1)乃至S(r36)を算出する。
 また、ブロック統計部612は、同様にして、半分画像Lをブロック化し、そのブロック化により得られる各サブ領域l1乃至l36から、サブ領域情報S(l1)乃至S(l36)を算出する。
 そして、図8のC左側に示されるような通信期間で、ブロック統計部611とブロック統計部612は、互いに、相手方のサブ領域情報を取得するための通信を行う。これにより、ブロック統計部611とブロック統計部612は、入力画像Aから算出されるサブ領域情報S(r1)乃至S(r36)及びS(l1)乃至S(l36)を取得する。
 なお、この通信は、例えば、入力画像を表示してから次の入力画像を表示するまでの垂直ブランキング期間内に行われる。
 また、図8のC左側に示される通信の終了後、ブロック統計部611は、入力画像から算出されるサブ領域情報を、BL強度決定部621に供給するとともに、ブロック統計部612は、入力画像から算出されるサブ領域情報を、BL強度決定部622に供給する。
 そして、垂直ブランキング期間の終了後、図8のD右側に示される後段処理Aとして、LSI421のBL強度決定部621乃至補正部651による処理、及びLSI421のBL強度決定部622乃至補正部652による処理が行われ、入力画像Aが表示される。
 また、図8のA右側に示されるように、テレビジョン受像機21の分割部41に、2フレーム目の入力画像Bが入力されると、1フレーム目の入力画像Aが入力されたときと同様の処理が行われ、3フレーム目以降の入力画像についても、同様の処理が繰り返される。
 すなわち、入力画像Bに対しては、図8のB右側に示されるブロック化、及び図8のC右側に示される通信等の処理が行われる。
[テレビジョン受像機21の動作説明]
 次に、図9のフローチャートを参照して、テレビジョン受像機21が行う部分駆動処理について説明する。
 この部分駆動処理は、例えば、テレビジョン受像機21の電源がオンされたときに開始される。このとき、テレビジョン受像機21の分割部41には、図示せぬアンテナ等で受信された入力画像が入力される。
 ステップS21では、分割部41は、そこに入力される入力画像を、例えば半分画像Rと半分画像Lに分割し、半分画像RをLSI421のブロック統計部611に、半分画像LをLSI422のブロック統計部612に、それぞれ供給する。
 ステップS22では、ブロック統計部611は、半分画像Rから算出されるサブ領域情報S(r)と、半分画像Lから算出されるサブ領域情報S(l)とを統合して、入力画像から算出されるサブ領域情報S(r)及びS(l)を取得するブロック統計処理を行う。このブロック統計処理の詳細は、図10のフローチャートを参照して詳述する。
 また、ステップS22では、ブロック統計部612は、ブロック統計部611と同様のブロック統計処理を行う。
 ステップS23では、BL強度決定部62は、ブロック統計部61からのサブ領域情報S(l)及びS(r)に基づいて、半分画像を出力するときのバックライトの明るさを制御するためのバックライトデータBLを生成し、BL制御部63及び拡散光量計算部64に供給する。
 ステップS24では、BL制御部63は、BL強度決定部62からのバックライトデータBLに基づいて、バックライト43aを構成する複数のLEDのうち、半分画像を出力させる際に発光させるLEDの明るさを制御する。
 ステップS25では、拡散光量計算部64は、BL強度決定部62からのバックライトデータBLに基づいて、バックライト43aからの光の拡散の程度を計算(算出)し、その計算結果を、補正部65に供給する。
 ステップS26では、補正部65は、拡散光量計算部64からの計算結果に基づいて、分割部41から供給される半分画像を補正することにより、半分画像用の液晶信号を生成する。
 ステップS27では、補正部65は、補正により得られた半分画像用の液晶信号を、液晶パネル43bに供給することにより、液晶パネル43bの透過率を制御し、バックライト43aからの光を、制御後の透過率で透過させることにより、透過光としての半分画像を出力させる。
 そして、分割部41に新たな入力画像が供給されると、処理はステップS21に戻り、それ以降同様の処理が行われる。なお、この部分駆動処理は、テレビジョン受像機21の電源がオフされたとき等に終了される。
[ブロック統計処理の詳細]
 次に、図10のフローチャートを参照して、図9のステップS22におけるブロック統計処理の詳細について説明する。
 なお、ブロック統計部611とブロック統計部612は、それぞれ、同様のブロック統計処理を行う。したがって、図10では、ブロック統計部611が行うブロック統計処理のみを説明し、ブロック統計部612が行うブロック統計処理の説明を省略する。
 ステップS41では、ブロック統計部611の算出部811は、分割部41からの半分画像Rをブロック化し、例えば、6×6(=36)個の各サブ領域r1乃至r36に区分する。
 ステップS42では、算出部811は、そのブロック化により得られる各サブ領域r1乃至r36から、それぞれ、サブ領域情報S(r1)乃至S(r36)を算出し、内蔵するSRAM81a1に供給して保持させる。
 また、算出部811は、SRAM81a1から、サブ領域情報S(r1)乃至S(r36)を読み出し、SPI821及び統合部841に供給する。
 ステップS43では、ブロック統計部611のSPI821は、算出部811からのサブ領域情報S(r1)乃至S(r36)を、他のブロック統計部612のSPI822に送信する。
 ステップS44では、ブロック統計部611のSPI821は、他のブロック統計部612のSPI822からのサブ領域情報S(l1)乃至S(l36)を受信し、SRAM831に供給して保持させる。
 ステップS45では、ブロック統計部611の統合部841は、算出部811からのサブ領域情報S(r1)乃至S(r36)を、内蔵するSRAM84a1に供給して保持させる。また、統合部841は、SRAM831に保持されたサブ領域情報S(l1)乃至S(l36)を読み出し、内蔵するSRAM84a1に供給して保持させる。
 そして、統合部841は、内蔵するSRAM84a1に保持されたサブ領域情報S(r1)乃至S(r36)及びS(l1)乃至S(l36)を、入力画像から算出されるサブ領域情報として取得し、BL強度決定部621に供給し、処理は、図9のステップS22にリターンされる。
 以上説明したように、図9の部分駆動処理によれば、2個のLSI421及びLSI422を用いて処理を分散させるようにしたので、1個のLSI421(又はLSI422)にかかる負荷を軽減できる。
 このため、入力画像のサイズが大であるときでも、小型のLSI421及びLSI422を用いて、速やかにバックライト43a及び液晶パネル43bを制御することができる。
 また、比較的高価で大型のLSIを用いる必要がないので、テレビジョン受像機21の製造コストを低減させることができる。さらに、テレビジョン受像機21の製造時に、大型のLSIを内蔵するための大きなスペースを設ける必要がないので、大型のLSIを内蔵するテレビジョン受像機を製造する場合と比較して、より容易にテレビジョン受像機21を製造することができる。
 次に、図11及び図12を参照して、マイコン44が、LSI421とLSI422のレジスタの状態を変更する場合について説明する。
 次に、図11は、マイコン44が、LSI421とLSI422を個別に制御して、それぞれのレジスタの状態を変更するときの一例を示している。
 図11のAには、マイコン44が、LSI421とLSI422を個別に制御して、それぞれのレジスタの状態を、状態Aから状態Bに変更させる様子が示されている。
 図11のB上側には、LSI421が、垂直同期信号において、左から3番目の立ち上がりエッジが生じるタイミングで、レジスタの状態Aを状態Bに変更する様子が示されている。
 また、図11のB下側には、LSI422が、垂直同期信号において、左から2番目の立ち上がりエッジが生じるタイミングで、レジスタの状態Aを状態Bに変更する様子が示されている。
 なお、垂直同期信号は、例えば、マイコン44からLSI421及びLSI422に供給される。
 例えば、マイコン44が、左から2番目の立ち上がりエッジが生じる直前に、レジスタ変更情報をLSI422に供給した場合、LSI422は、図11のB下側に示されるように、左から2番目の立ち上がりエッジが生じるタイミングに同期して、レジスタの状態Aを状態Bに変更する。
 ここで、レジスタ変更情報とは、例えば、レジスタの状態Aを状態Bに変更させるための情報をいう。
 また、例えば、マイコン44が、左から2番目の立ち上がりエッジが生じた直後に、レジスタ変更情報をLSI421に供給した場合、LSI421は、図11のB上側に示されるように、左から3番目の立ち上がりエッジが生じるタイミングに同期して、レジスタの状態Aを状態Bに変更する。
 これは、LSI421及びLSI422では、一般的に、垂直同期信号において、立ち上がりエッジが生じるタイミングで、レジスタの状態を変更することによる。
 マイコン44が、レジスタ変更情報を、LSI421とLSI422に個別に供給して、レジスタを変更させる場合、図11のB上側及び図11のB下側に示されるように、LSI421とLSI422とのレジスタの状態を、同じタイミングで変更できないことが生じ得る。
 そこで、マイコン44は、例えば、1個のLSI421のみにレジスタ変更情報を供給し、LSI421は、マイコン44からのレジスタ変更情報を、半分画像Rから算出したサブ領域情報S(r1)乃至S(r36)とともに、LSI422に送信する。
 そして、LSI421とLSI422は、次の通信の際に、レジスタ変更情報に基づく変更を反映させるタイミングを同期することが望ましい。
 次に、図12は、マイコン44が、1個のLSI421のみにレジスタ変更情報を供給することにより、2個のLSI421及びLSI422のレジスタの状態を変更するときの一例を示している。
 図12のAには、マイコン44が、LSI421のみにレジスタ変更情報を供給し、LSI421は、マイコン44からのレジスタ変更情報をLSI422に送信する様子が示されている。
 図12のBには、マイコン44からレジスタ変更情報を取得済みのLSI421と、LSI421からレジスタ変更情報を受信済みのLSI422とが、同一のタイミングで、レジスタ変更情報を反映することにより、レジスタの状態Cを状態Dに変更する様子が示されている。
 例えば、LSI421は、マイコン44からのレジスタ変更情報を、サブ領域情報とともに、LSI422に送信する。
 そして、LSI421及びLSI422は、それぞれ、LSI421とLSI422間の通信により同期したタイミング(左から2番目の立ち上がりエッジが生じるタイミング)で、レジスタ変更情報を反映する。
 図12のBに示されるように、LSI421とLSI422との間で行われる通信により、レジスタ変更情報を反映させるタイミングの同期をとることにより、LSI421とLSI422は、同一のタイミングでレジスタを変更することが可能となる。
 また、本実施の形態では、テレビジョン受像機21において、2個のLSI421及びLSI422を設けるようにしたが、3個以上のLSIを設けるようにすることができる。
 次に、図13は、テレビジョン受像機21において、4個のLSI42a乃至42dを設けるようにしたときの一例を示している。
 なお、図13には、テレビジョン受像機21に設けられるLSI42a乃至42dのみを図示しており、その他のブロックの図示は省略している。
 例えば、図13に示されるように、4個のLSI42a乃至42dを設けるようにした場合、分割部41は、入力画像を例えば4等分し、その結果得られる4枚の1/4画像をそれぞれ、LSI42a乃至42dに供給する。
 LSI42aは、供給された1/4画像を対象として、上述したLSI421及びLSI422と同様の処理を行い、1/4画像からサブ領域情報aを算出する。また、同様にして、LSI42b,LSI42c,LSI42dは、それぞれ、サブ領域情報b,c,dを算出する。
 そして、図13に示されるように、LSI42a乃至42dの間で行われる1回目の通信において、LSI42aは、LSI42bにサブ領域情報aを送信するとともに、LSI42bからのサブ領域情報bを受信する。
 また、1回目の通信において、LSI42cは、LSI42dにサブ領域情報cを送信するとともに、LSI42dからのサブ領域情報dを受信する。
 これにより、1回目の通信の終了後には、LSI42a及びLSI42bは、サブ領域情報a及びbを保持し、LSI42c及びLSI42dは、サブ領域情報c及びdを保持しているものとなる。
 さらに、図13に示されるように、LSI42a乃至42dの間で行われる2回目の通信において、LSI42aは、LSI42cにサブ領域情報a及びbを送信するとともに、LSI42cからのサブ領域情報c及びdを受信する。
 また、2回目の通信において、LSI42bは、LSI42dにサブ領域情報a及びbを送信するとともに、LSI42dからのサブ領域情報c及びdを受信する。
 これにより、2回目の通信の終了後には、LSI42a乃至42dは、いずれも、サブ領域情報a乃至dを保持するものとなる。
 なお、図13では、1回目の通信において、LSI42aとLSI42bが通信し、LSI42cとLSI42dが通信するようにした。また、2回目の通信において、LSI42aとLSI42cが通信し、LSI42bとLSI42dが通信するようにした。
 しかしながら、通信の回数や順番、通信するLSIどうしの組合せ等に限定されない。すなわち、例えば、1回目の通信において、LSI42aとLSI42cが通信し、LSI42bとLSI42dが通信するようにし、2回目の通信において、LSI42aとLSI42bが通信し、LSI42cとLSI42dが通信するようにしてもよい。
 また、例えば、LSIの個数は4個に限定されず、3回の通信を行うようにすれば、LSIの個数を8(=23)個とする構成を採用することができる。さらに、例えば、同様にして、4回目の通信を行うようにすれば、LSIの個数を16(=24)個にすることができる。
 すなわち、N回の通信を行うようにすれば、LSIの個数を2N個とする構成を採用できる。
 次に、図14は、図13のLSI42a乃至42dが行う処理のタイミングの一例を示している。
 例えば、図14のA左側に示されるように、テレビジョン受像機21の分割部41に、1フレーム目の入力画像Aが入力されると、分割部41は、入力画像Aを、4枚の1/4画像に分割する。
 また、分割部41は、分割により得られた4枚の1/4画像を、それぞれ、LSI42a乃至42dに供給する。
 そして、LSI42a乃至42dは、それぞれ、図14のB左側に示されるように、1/4画像を各サブ領域にブロック化する。そして、LSI42a乃至42dは、そのブロック化により得られる各サブ領域から、サブ領域情報を算出する。
 その後、図14のC左側に示されるような通信期間で、図13に示した1回目の通信が、LSI42a乃至42dの間で行われる。また、図14のD左側に示されるような通信期間で、図13に示した2回目の通信が、LSI42a乃至42dの間で行われる。
 これにより、LSI42a乃至42dは、いずれも、入力画像から算出されるサブ領域情報と同一のサブ領域情報a乃至dを保持するものとなる。
 LSI42a乃至42dは、それぞれ、図14のEに示されるように、2回目の通信の終了後に、保持しているサブ領域情報a乃至dを用いた後段処理Aを行う。
 なお、2フレーム目の入力画像Bについても、1フレーム目の入力画像Aと同様の処理が行われ、それ以降、同様の処理が繰り返される。
<2.変形例>
 本実施の形態では、LSI421及びLSI422を設けたテレビジョン受像機21について説明したが、本開示は、その他、例えば、LSI421及びLSI422を設けた撮像装置等にも適用できる。すなわち、複数のLSIを設ける電子機器は、テレビジョン受像機21に限定されない。
 また、本実施の形態では、例えば、LSI421が、半分画像Rの表示を制御するとともに、LSI422が、半分画像Lの表示を制御するようにしたが、その他、例えば、LSI421及びLSI422が行う処理は、これに限定されない。
 すなわち、例えば、LSI421及びLSI422は、入力画像から得られる情報全てを用いて行う処理であれば、どのような処理も行うことができる。また、処理対象も入力画像に限定されず、音声信号を処理対象とすることができる。
 具体的には、例えば、LSI421及びLSI422が、撮像素子を有する撮像装置に設けられている場合、LSI421及びLSI422は、例えば、撮像素子からの入力画像を構成する各領域の動きに応じて、入力画像に生じた手振れ等を低減する手振れ補正処理等を行うことができる。
 具体的には、例えば、LSI421が、半分画像Rを構成する各領域の動きベクトルmv(R)を検出し、LSI422が、半分画像Lを構成する各領域の動きベクトルmv(L)を検出する。そして、LSI421は、半分画像Rから検出した動きベクトルmv(R)を、LSI422に送信するとともに、LSI422からの動きベクトルmv(L)を受信する。
 これにより、LSI421及びLSI422は、いずれも、入力画像を構成する各領域の動きベクトルと同一の動きベクトルmv(R)及びmv(L)を取得する。
 LSI421は、取得した動きベクトルmv(R)及びmv(L)に基づいて、半分画像Rに生じた手振れ等を補正するとともに、LSI422は、取得した動きベクトルmv(R)及びmv(L)に基づいて、半分画像Lに生じた手振れ等を補正する。
 なお、カメラ等の撮像装置において、手振れ補正後の半分画像R及び半分画像Lは、1枚の画像、すなわち、手振れ補正後の入力画像とされ、例えば、撮像装置内のメモリ等に保持される。
 ところで、本技術は、以下の構成をとることができる。
 (1)入力データを複数の異なる分割データに分割する分割部と、複数の異なる前記分割データをそれぞれ処理する複数の信号処理部とを含み、前記信号処理部は、前記分割データを対象として、第1のデータ処理を行う第1の処理部と、前記第1の処理部による第1の処理結果を、他の前記信号処理部に送信するとともに、他の前記信号処理部から送信された第2の処理結果を受信する通信部とを有する信号処理装置。
 (2)前記信号処理部は、前記第1の処理結果と前記第2の処理結果に基づいて、前記入力データに前記第1のデータ処理を施したときに得られる第3の処理結果を取得する取得部と、前記取得部により取得された前記第3の処理結果を対象として、前記第1のデータ処理とは異なる第2のデータ処理を行う第2の処理部とをさらに有する前記(1)に記載の信号処理装置。
 (3)前記通信部は、前記第1の処理結果の他、前記複数の信号処理部に反映させる設定内容を示す設定情報も、他の前記信号処理部に送信する前記(1)又は(2)に記載の信号処理装置。
 (4)前記通信部は、前記設定情報を受信済みの他の前記信号処理部との間で、前記設定情報に基づく設定内容を反映させるタイミングを同期させる前記(3)に記載の信号処理装置。
 (5)前記通信部は、前記第1の処理結果を、他の前記信号処理部から受信済みの前記第2の処理結果とともに、さらに他の前記信号処理部に送信する前記(1)乃至(4)に記載の信号処理装置。
 (6)前記分割部は、前記入力データとして入力される入力画像を、複数の異なる部分画像に分割し、前記信号処理部において、前記第1の処理部は、前記部分画像を対象として、前記部分画像を区分して得られるサブ領域の輝度に関する情報であるサブ領域情報を算出する前記第1のデータ処理を行い、前記通信部は、前記第1の処理部の処理結果として得られた第1の前記サブ領域情報を、他の前記信号処理部に送信するとともに、他の前記信号処理部から、他の前記部分画像を対象として算出された第2の前記サブ領域情報を受信し、前記取得部は、前記第1の処理部により算出された前記第1のサブ領域情報、及び前記通信部により受信された前記第2のサブ領域情報を、前記入力画像に前記第1のデータ処理を施したときに得られる第3のサブ領域情報として取得し、前記第2の処理部は、前記取得部により取得された前記第3のサブ領域情報を対象として、前記部分画像の表示用に点灯する、バックライトの一部を制御させるためのバックライトデータを生成する前記第2のデータ処理を行う前記(2)に記載の信号処理装置。
 (7)分割部と、複数の信号処理部とを含む信号処理装置の信号処理方法において、前記分割部による、入力データを複数の異なる分割データに分割する分割ステップと、前記信号処理部による、前記分割データを対象として、第1のデータ処理を行う第1の処理ステップと、前記第1の処理ステップによる第1の処理結果を、他の前記信号処理部に送信するとともに、他の前記信号処理部から送信された第2の処理結果を受信する通信ステップとを含む信号処理方法。
 (8)コンピュータを、入力データを複数の異なる分割データに分割する分割部と、複数の異なる前記分割データをそれぞれ処理する複数の信号処理部として機能させるためのプログラムであって、前記信号処理部は、前記分割データを対象として、第1のデータ処理を行う第1の処理部と、前記第1の処理部による第1の処理結果を、他の前記信号処理部に送信するとともに、他の前記信号処理部から送信された第2の処理結果を受信する通信部とを有するプログラム。
 上述した一連の処理は、例えばハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、又は、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のコンピュータなどに、プログラム記録媒体からインストールされる。
[コンピュータの構成例]
 図15は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示している。
 CPU(Central Processing Unit)201は、ROM(Read Only Memory)202、又は記憶部208に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)203には、CPU201が実行するプログラムやデータ等が適宜記憶される。これらのCPU201、ROM202、及びRAM203は、バス204により相互に接続されている。
 CPU201にはまた、バス204を介して入出力インタフェース205が接続されている。入出力インタフェース205には、キーボード、マウス、マイクロホン等よりなる入力部206、ディスプレイ、スピーカ等よりなる出力部207が接続されている。CPU201は、入力部206から入力される指令に対応して各種の処理を実行する。そして、CPU201は、処理の結果を出力部207に出力する。
 入出力インタフェース205に接続されている記憶部208は、例えばハードディスクからなり、CPU201が実行するプログラムや各種のデータを記憶する。通信部209は、インターネットやローカルエリアネットワーク等のネットワークを介して外部の装置と通信する。
 また、通信部209を介してプログラムを取得し、記憶部208に記憶してもよい。
 入出力インタフェース205に接続されているドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等のリムーバブルメディア211が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータ等を取得する。取得されたプログラムやデータは、必要に応じて記憶部208に転送され、記憶される。
 コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを記録(記憶)する記録媒体は、図15に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini-Disc)を含む)、もしくは半導体メモリ等よりなるパッケージメディアであるリムーバブルメディア211、又は、プログラムが一時的もしくは永続的に格納されるROM202や、記憶部208を構成するハードディスク等により構成される。記録媒体へのプログラムの記録は、必要に応じてルータ、モデム等のインタフェースである通信部209を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線又は無線の通信媒体を利用して行われる。
 なお、本明細書において、上述した一連の処理を記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
 さらに、本開示は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
 21 テレビジョン受像機, 41 分割部, 421,422,42a乃至42d LSI, 43 表示部, 43a バックライト, 43b 液晶パネル, 44 マイコン, 45 操作部, 611,612 ブロック統計部, 621,622 BL強度決定部, 631,632 BL制御部, 641,642 拡散光量計算部, 651,652 補正部, 811,812 算出部, 81a1,81a2 SRAM, 821,822 SPI, 831,832 SRAM, 841,842 統合部, 81a1,81a2 SRAM

Claims (8)

  1.  入力データを複数の異なる分割データに分割する分割部と、
     複数の異なる前記分割データをそれぞれ処理する複数の信号処理部と
     を含み、
     前記信号処理部は、
      前記分割データを対象として、第1のデータ処理を行う第1の処理部と、
      前記第1の処理部による第1の処理結果を、他の前記信号処理部に送信するとともに、他の前記信号処理部から送信された第2の処理結果を受信する通信部と
     を有する
     信号処理装置。
  2.  前記信号処理部は、
      前記第1の処理結果と前記第2の処理結果に基づいて、前記入力データに前記第1のデータ処理を施したときに得られる第3の処理結果を取得する取得部と、
      前記取得部により取得された前記第3の処理結果を対象として、前記第1のデータ処理とは異なる第2のデータ処理を行う第2の処理部と
     をさらに有する
     請求項1に記載の信号処理装置。
  3.  前記通信部は、前記第1の処理結果の他、前記複数の信号処理部に反映させる設定内容を示す設定情報も、他の前記信号処理部に送信する
     請求項2に記載の信号処理装置。
  4.  前記通信部は、前記設定情報を受信済みの他の前記信号処理部との間で、前記設定情報に基づく設定内容を反映させるタイミングを同期させる
     請求項3に記載の信号処理装置。
  5.  前記通信部は、前記第1の処理結果を、他の前記信号処理部から受信済みの前記第2の処理結果とともに、さらに他の前記信号処理部に送信する
     請求項4に記載の信号処理装置。
  6.  前記分割部は、前記入力データとして入力される入力画像を、複数の異なる部分画像に分割し、
     前記信号処理部において、
      前記第1の処理部は、前記部分画像を対象として、前記部分画像を区分して得られるサブ領域の輝度に関する情報であるサブ領域情報を算出する前記第1のデータ処理を行い、
      前記通信部は、前記第1の処理部の処理結果として得られた第1の前記サブ領域情報を、他の前記信号処理部に送信するとともに、他の前記信号処理部から、他の前記部分画像を対象として算出された第2の前記サブ領域情報を受信し、
      前記取得部は、前記第1の処理部により算出された前記第1のサブ領域情報、及び前記通信部により受信された前記第2のサブ領域情報を、前記入力画像に前記第1のデータ処理を施したときに得られる第3のサブ領域情報として取得し、
      前記第2の処理部は、前記取得部により取得された前記第3のサブ領域情報を対象として、前記部分画像の表示用に点灯する、バックライトの一部を制御させるためのバックライトデータを生成する前記第2のデータ処理を行う
     請求項2に記載の信号処理装置。
  7.  分割部と、複数の信号処理部とを含む信号処理装置の信号処理方法において、
     前記分割部による、入力データを複数の異なる分割データに分割する分割ステップと、
     前記信号処理部による、
      前記分割データを対象として、第1のデータ処理を行う第1の処理ステップと、
      前記第1の処理ステップによる第1の処理結果を、他の前記信号処理部に送信するとともに、他の前記信号処理部から送信された第2の処理結果を受信する通信ステップと
     を含む信号処理方法。
  8.  コンピュータを、
     入力データを複数の異なる分割データに分割する分割部と、
     複数の異なる前記分割データをそれぞれ処理する複数の信号処理部と
     して機能させるためのプログラムであって、
     前記信号処理部は、
      前記分割データを対象として、第1のデータ処理を行う第1の処理部と、
      前記第1の処理部による第1の処理結果を、他の前記信号処理部に送信するとともに、他の前記信号処理部から送信された第2の処理結果を受信する通信部と
     を有する
     プログラム。
PCT/JP2013/066025 2012-06-20 2013-06-11 信号処理装置、信号処理方法、及びプログラム WO2013191027A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014521332A JPWO2013191027A1 (ja) 2012-06-20 2013-06-11 信号処理装置、信号処理方法、及びプログラム
BR112014031251A BR112014031251A2 (pt) 2012-06-20 2013-06-11 dispositivo e método de processamento de sinal, e, programa
US14/407,105 US20150172557A1 (en) 2012-06-20 2013-06-11 Signal processing device, signal processing method, and program
IN2409MUN2014 IN2014MN02409A (ja) 2012-06-20 2013-06-11

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-138674 2012-06-20
JP2012138674 2012-06-20

Publications (1)

Publication Number Publication Date
WO2013191027A1 true WO2013191027A1 (ja) 2013-12-27

Family

ID=49768627

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/066025 WO2013191027A1 (ja) 2012-06-20 2013-06-11 信号処理装置、信号処理方法、及びプログラム

Country Status (5)

Country Link
US (1) US20150172557A1 (ja)
JP (1) JPWO2013191027A1 (ja)
BR (1) BR112014031251A2 (ja)
IN (1) IN2014MN02409A (ja)
WO (1) WO2013191027A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190029534A (ko) * 2016-06-28 2019-03-20 인터디지털 브이씨 홀딩스 인코포레이티드 하이 다이내믹 레인지를 위한 구역 백라이트 메타데이터의 전달을 위한 방법 및 장치

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011180336A (ja) 2010-03-01 2011-09-15 Seiko Epson Corp 画像処理装置、投写型表示装置、映像表示システム、画像処理方法、コンピュータープログラム
WO2011162040A1 (ja) * 2010-06-23 2011-12-29 シャープ株式会社 画像表示装置および画像表示方法
JP2012010194A (ja) * 2010-06-25 2012-01-12 Toshiba Corp 映像信号処理装置及び方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011180336A (ja) 2010-03-01 2011-09-15 Seiko Epson Corp 画像処理装置、投写型表示装置、映像表示システム、画像処理方法、コンピュータープログラム
WO2011162040A1 (ja) * 2010-06-23 2011-12-29 シャープ株式会社 画像表示装置および画像表示方法
JP2012010194A (ja) * 2010-06-25 2012-01-12 Toshiba Corp 映像信号処理装置及び方法

Also Published As

Publication number Publication date
IN2014MN02409A (ja) 2015-08-21
BR112014031251A2 (pt) 2017-06-27
US20150172557A1 (en) 2015-06-18
JPWO2013191027A1 (ja) 2016-05-26

Similar Documents

Publication Publication Date Title
US9830884B2 (en) Multi-display device, display system including the same and display method thereof
US9529562B2 (en) Image display apparatus, image output apparatus, and control methods therefor
US7564501B2 (en) Projection system, projector, method of controlling projectors and program therefor
CN114730093A (zh) 在头戴式显示器(hmd)和主机计算机之间划分渲染
JP5404989B2 (ja) 映像表示装置およびマルチディスプレイ装置
US9875522B2 (en) Display control apparatus
KR101852349B1 (ko) 입체 영상 표시 방법 및 입체 영상 표시 장치
US9412310B2 (en) Image processing apparatus, projector, and image processing method
EP2713615A2 (en) Multi viewer display and displaying method of the same
US20120154559A1 (en) Generate Media
JP2014146938A (ja) 投影装置、制御方法、プログラム、及び投影システム
US10992927B2 (en) Stereoscopic image display apparatus, display method of liquid crystal display, and non-transitory computer-readable recording medium storing program of liquid crystal display
CN112399157A (zh) 投影机及投影方法
US8384636B2 (en) Overdriving apparatus and method thereof
JP6391280B2 (ja) 画像表示装置及びその制御方法
US20150221078A1 (en) Calibration device, display system and control method thereof
WO2013191027A1 (ja) 信号処理装置、信号処理方法、及びプログラム
TWI427611B (zh) 過驅動值產生方法
JP6450591B2 (ja) 表示装置、表示方法、プログラム、及びテレビジョン受像機
US9247230B2 (en) Image processing apparatus, image processing method, and program
US8269805B2 (en) Image processing module with less line buffers
US20150002525A1 (en) Display system and data transmission method thereof
JP7419736B2 (ja) 補正テーブル生成装置、補正テーブル生成方法、補正テーブル生成プログラム、及び液晶表示装置
US10212316B2 (en) Video processing apparatus
JP5821259B2 (ja) 画像表示システム、画像表示装置、3dメガネ、及び、画像表示方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13806220

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014521332

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2013806220

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14407105

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2014150562

Country of ref document: RU

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112014031251

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 112014031251

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20141212