WO2006049213A1 - 映像信号処理方法、映像信号処理装置、及び、表示装置 - Google Patents

映像信号処理方法、映像信号処理装置、及び、表示装置 Download PDF

Info

Publication number
WO2006049213A1
WO2006049213A1 PCT/JP2005/020219 JP2005020219W WO2006049213A1 WO 2006049213 A1 WO2006049213 A1 WO 2006049213A1 JP 2005020219 W JP2005020219 W JP 2005020219W WO 2006049213 A1 WO2006049213 A1 WO 2006049213A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel data
video
adjacent
video signal
original pixel
Prior art date
Application number
PCT/JP2005/020219
Other languages
English (en)
French (fr)
Inventor
Atsushi Mino
Satoru Uehara
Takumi Yoshimoto
Teruhiko Kamibayashi
Original Assignee
Fujitsu Ten Limited
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ten Limited filed Critical Fujitsu Ten Limited
Priority to US11/666,332 priority Critical patent/US20070296865A1/en
Priority to EP05805511A priority patent/EP1808842A4/en
Publication of WO2006049213A1 publication Critical patent/WO2006049213A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/66Transforming electric information into light information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2007Display of intermediate tones
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/36Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source using liquid crystals
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/36Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source using liquid crystals
    • G09G3/3611Control of matrices with row and column drivers
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41422Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance located in transportation means, e.g. personal vehicle
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2300/00Aspects of the constitution of display devices
    • G09G2300/04Structural and physical details of display devices
    • G09G2300/0439Pixel structures
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0242Compensation of deficiencies in the appearance of colours
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0247Flicker reduction other than flicker reduction circuits used for single beam cathode-ray tubes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0285Improving the quality of display appearance using tables for spatial correction of display data
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/16Determination of a pixel data signal depending on the signal applied in the previous frame
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4622Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers

Definitions

  • Video signal processing method video signal processing device, and display device
  • the present invention relates to a display device that can provide different independent information to a plurality of users substantially simultaneously on a single screen. More specifically, the present invention relates to a group of pixels that constitute a screen. A multi-view display device that can display different images in two directions at the same time by distributing them in one pixel group and second pixel group and driving them separately based on different video signals. On the other hand, the original pixel data of one frame constituting the source signal is compressed in a predetermined direction to generate video pixel data, and the multi-view is based on the video signal composed of the generated video pixel data.
  • the present invention relates to a video signal processing method, a video signal processing device, and a display device for driving either a first or second pixel group of a display device.
  • JP-A-6-186526 and JP-A-2000-137443 two screens can be simultaneously displayed on a single liquid crystal display.
  • a display device has been devised that can display different screens from the passenger seat.
  • Japanese Patent Application Laid-Open Nos. 11-331876 and 09-46622 disclose a two-screen display device that can display two types of images on the same screen at the same time.
  • two or more different viewers can simultaneously view at least two different images by observing from different directions, even though there is only one display screen. It is a display device capable of.
  • the original pixel data of one frame constituting the source signal corresponding to the pixel group is driven in a predetermined direction. It is necessary to generate compressed or extracted video pixel data and drive the pixel group based on a video signal composed of the generated video pixel data.
  • in-vehicle TFT liquid crystal display devices are mainly composed of 800 X 480 dots, but multi-view display devices based on such display device configurations are at least 800 X 480 dots. It is necessary to generate image pixel data by horizontally compressing or extracting 400 x 480 dots from the original pixel data force corresponding to.
  • an object of the present invention is to provide a video signal processing method and video capable of preventing loss of high-frequency components and ensuring continuity of pixel data when generating a source signal power video signal.
  • the object is to provide a signal processing device and a display processing device.
  • a first characteristic configuration of a video signal processing method is that pixel groups constituting a screen are distributed and arranged in a first pixel group and a second pixel group. Are driven separately based on different video signals to compress one frame of original pixel data that constitutes the source signal in a predetermined direction for multi-view display devices capable of simultaneously displaying different images in two directions.
  • Video signal processing for processing to generate video pixel data, and driving either the first or second pixel group of the multi-view display device based on the video signal composed of the generated video pixel data A method, wherein arbitrary original pixel data arranged in the predetermined direction is placed between adjacent original pixel data
  • a smoothing process that performs a predetermined filtering operation and generates new pixel data by performing a smoothing process, and from the smoothed pixel data based on the compression rate! /
  • an extraction process step for extracting the image pixel data
  • each pixel data after processing is processed by the adjacent pixel data. Is generated as a value in which the components of the data are added. Since the pixel data extracted in the extraction process from the new pixel generated in such a manner includes the pixel data adjacent to the corresponding original pixel, a certain high-frequency component is secured, A certain level of good visibility can be ensured without any significant deterioration in image quality.
  • pixel data can be calculated based on RGB color component data or YUV luminance and color difference data.
  • the extraction processing step from the new pixel data generated in the smoothing processing step, a corresponding original pixel is generated.
  • the video pixel data is extracted based on the luminance difference with respect to the adjacent original pixel data of the data.
  • the luminance difference and the color difference signal level of the original pixel data with respect to the adjacent original pixel data are adjusted.
  • the tone of the processed image can be adjusted. For example, a pixel with a large luminance difference can be identified as a gray edge, a pixel with a large phase difference in the chrominance signal can be recognized as a color-changing edge, and if the filter coefficient is determined so as to emphasize them, It becomes possible to increase the sharpness of the image. It can be determined based on either or both of the luminance difference and the phase difference of the color difference signal, depending on which of luminance and color is important.
  • the number of adjacent source pixel data to be smoothed is determined based on the compression rate.
  • the number of target pixels of smoothing processing is increased more than necessary, and high frequency components cannot be secured even if the number is too small. It is. Therefore, by always determining the number of target pixels based on the compression rate, a stable result can be obtained.
  • the pixel groups constituting the screen are dispersedly arranged in the first pixel group and the second pixel group, and they are driven separately based on different video signals. Therefore, for a multi-view display device that can display different images in two directions at the same time, the original pixel data of one frame constituting the source signal is compressed in a predetermined direction to generate image pixel data.
  • the predetermined number of adjacent original pixel data determined based on the compression rate and the video pixel data extracted immediately before (compressed pixel data) are compared for each RGB component. Then, new video pixel data is generated based on the result. For example, if a component with a large difference in each color component is selected and used as new video pixel data, a pixel component that greatly changes in color can be captured, so that sharpness can be ensured.
  • the predetermined number is, for example, the number of pixels to be subjected to thinning processing, and when the compression rate is 1Z2, at least two adjacent pixels are adjacent source pixel data.
  • a difference for each RGB component obtained in the comparison step is smaller than a predetermined threshold value. This means that any component of the adjacent original pixel data or an average value thereof is extracted as a component of the next video pixel data.
  • a threshold value By setting a threshold value, a large value can be obtained. Sharpness can be ensured for singular points that change frequently, and the original pixels can be reproduced to some extent faithfully for those that do not.
  • the seventh characteristic configuration is that the pixel groups constituting the screen are dispersedly arranged in the first pixel group and the second pixel group, and they are driven separately based on different video signals. Therefore, for a multi-view display device that can display different images in two directions at the same time, the original pixel data of one frame constituting the source signal is compressed in a predetermined direction to generate image pixel data.
  • a comparison step for obtaining a luminance difference between a predetermined number of adjacent original pixel data determined based on the compression ratio and the video pixel data extracted immediately before, and a difference obtained in the comparison step The adjacent original pixel data Ru near the point comprising the extraction process step of either extracted as the next image pixel data of data.
  • any of the luminance differences obtained in the comparison step is less than a predetermined threshold value. Is the point at which the average value of the adjacent original pixel data is extracted as the next video pixel data, and by setting a threshold value, contrast is ensured for singular points that change greatly, and pixels that are not On the other hand, the original pixel can be reproduced with some fidelity.
  • the adjacent original pixel data to be compared with the video pixel data extracted immediately before in the comparison step. If any of the luminance differences between them is less than a predetermined threshold, the average value of the adjacent source pixel data is extracted as the next video pixel data, and the luminance of the video pixel extracted immediately before Regardless of the difference, if any of the luminance differences between adjacent source pixel data is less than a predetermined threshold, that is, does not change significantly, the average A smooth video can be obtained by using the value as video pixel data.
  • the extraction processing step when the difference in luminance difference obtained in the comparison step is less than a predetermined threshold value, The average value of adjacent original pixel data is extracted as the next video pixel data, and when the difference in luminance difference is equal to or greater than the threshold value, that is, whether or not the luminance between the original pixels has changed significantly can be determined. It becomes like this. Based on the result, contrast can be secured or a smooth image can be obtained.
  • the eleventh characteristic configuration is that pixel groups constituting a screen are dispersedly arranged in a first pixel group and a second pixel group, and they are driven separately based on different video signals.
  • the original pixel data of one frame constituting the source signal is compressed in a predetermined direction to generate image pixel data.
  • a difference in luminance is calculated between a predetermined number of adjacent original pixel data determined in advance and the video pixel data extracted immediately before, and the calculated difference is the same. Less than a predetermined threshold When both of the obtained differences are less than a predetermined threshold, a comparison step for obtaining a phase difference of a color difference signal between the adjacent original pixel data and the video pixel data, and a phase difference obtained in the comparison step This is because it includes an extraction processing step for extracting the original pixel data with the maximum value as video pixel data.
  • the twelfth characteristic configuration is that pixel groups constituting a screen are distributed and arranged in a first pixel group and a second pixel group, and they are driven separately based on different video signals.
  • the original pixel data of one frame constituting the source signal is compressed in a predetermined direction to generate image pixel data.
  • a video signal processing method for driving either the first or second pixel group of the multi-view display device, wherein the adjacent elements of the constants determined in accordance with a compression ratio arranged in the predetermined direction A comparison step for obtaining the phase difference of the color difference signal between the pixel data and the video pixel data extracted immediately before, and any of the adjacent source pixel data based on the phase difference obtained in the comparison step It is possible to make a pixel whose color changes to be a target for extraction and to avoid a lack of color change from the video pixel. It becomes like this.
  • the phase difference obtained in the comparison step is less than a predetermined threshold over the extraction processing step.
  • any of the adjacent source pixel data is extracted as the next video pixel data based on the saturation obtained from the color difference signal of the adjacent source pixel data, and the color change with the video pixel is When it is not so noticeable, a more favorable image can be obtained by extracting the image pixel data based on the saturation, that is, the color power.
  • any of the phase differences obtained from the color difference signals of the adjacent original pixel data can be obtained in the extraction process step. Is also less than a predetermined threshold, any one of the adjacent source pixel data is extracted as the next video pixel data based on the saturation obtained from the color difference signal of the adjacent source pixel data. When there is no color difference between adjacent adjacent original pixel data, a more preferable video can be obtained by using saturation as an extraction criterion.
  • the fifteenth characteristic configuration is that pixel groups constituting a screen are distributedly arranged in a first pixel group and a second pixel group, and they are driven separately based on different video signals.
  • the original pixel data of one frame constituting the source signal is compressed in a predetermined direction to generate image pixel data.
  • any of the saturations obtained in the comparison step is not a predetermined threshold value.
  • a luminance difference is obtained between the adjacent original pixel data and the video pixel data extracted immediately before, and in the extraction processing step, any of the adjacent original pixel data is determined based on the luminance difference value. Is extracted as the next video pixel data, which makes it possible to compensate for the brightness return to which humans react sensitively while giving priority to saturation.
  • the first force is orthogonal to the predetermined direction in the video pixel data extracted in the extraction processing step.
  • a correlation determination step for determining whether or not there is a correlation between the original pixel data corresponding to a predetermined number of video pixel data adjacent to each other, and each video pixel data when the correlation determination step determines that there is a correlation.
  • a second smoothing process step for generating a new image pixel data by performing a smoothing process by applying a predetermined second filter operation, and by configuring in this way, it is orthogonal to the compression direction.
  • the correlation determination step presence or absence of correlation is determined based on luminance or color difference of the original pixel data
  • the second filter operation is performed based on either or both of the luminance and / or color difference of the original pixel data, and the edge of the luminance or color difference is processed according to preference. Will be able to adjust. For example, if the second filter coefficient is set to a large value at the edge portion, an image with high sharpness can be obtained.
  • the correlation determination step presence or absence of correlation is determined based on luminance or color difference of the original pixel data
  • the second smoothing process the second frame is based on the color signal of the original pixel data! The filter operation is performed.
  • the twentieth feature configuration includes a conversion processing step of converting and generating a plurality of new pixel data based on a plurality of original pixel data constituting a video source signal, and conversion in the conversion processing step.
  • a plurality of processed new pixel data forces, and an extraction processing step for extracting a predetermined number of pixel data for generating a video signal, wherein the conversion processing step takes into account the extraction of pixel data by the extraction processing step.
  • new pixel data is converted and generated based on arbitrary original pixel data and at least its adjacent original pixel data.
  • a predetermined conversion process such as a smoothing process is performed between the original pixel data and the adjacent original pixel data in the conversion process step. Is generated as a value in which components of adjacent pixel data are added.
  • the pixel data extracted in the new pixel force extraction process generated in this way includes pixel data adjacent to the corresponding original pixel, so that a certain high-frequency component is secured. As a result, it is possible to ensure a certain level of good visibility with no significant deterioration in image quality.
  • pixel data can be calculated based on RGB color component data or YUV luminance and color difference data.
  • the extraction processing step includes original pixel data corresponding to new pixel data converted and generated in the conversion processing step. And new pixel data to be extracted are determined based on the luminance difference between the pixel data and the adjacent original pixel data.
  • the twenty-second feature configuration includes the conversion processing step between any original pixel data and at least its adjacent original pixel data.
  • a smoothing process is performed by a predetermined filter operation to generate new pixel data.
  • the conversion processing step may include the luminance of the original pixel data and the adjacent original pixel data.
  • New pixel data is generated based on either or both of the difference between the color difference and the phase difference of the color difference signal.
  • the twenty-fourth feature configuration is the same as the twenty-second feature described above in addition to any one of the twenty-third feature configuration.
  • the number of adjacent source pixel data to be converted and generated for new pixel data is determined by the number of pixel data extractions in the extraction processing step.
  • the twenty-fifth characteristic configuration includes an extraction processing step of extracting a predetermined number of original pixel data as video pixel data for generating a video signal from a plurality of pixel data constituting the video source signal.
  • the extraction processing step based on the difference for each RGB component between a predetermined number of adjacent original pixel data and the video pixel data extracted immediately before, one of the RGB components of the adjacent original pixel data is converted to the next video. Extract as one of the RGB components of the pixel data.
  • the twenty-sixth feature configuration is the same as the twenty-fifth feature configuration described above, in which the extraction process includes a component that is smaller than a predetermined threshold among the differences for each of the RGB components. Is that any component of the adjacent original pixel data or an average value thereof is extracted as a component of the next video pixel data.
  • the twenty-seventh feature configuration includes an extraction processing step of extracting, as video pixel data, a predetermined number of original pixel data for generating a plurality of original pixel data force video signals constituting the video source signal.
  • the extraction processing step includes extracting any of the adjacent source pixel data based on a luminance difference between a predetermined number of adjacent source pixel data and the video pixel data extracted immediately before.
  • the twenty-eighth feature configuration is similar to the above-described twenty-seventh feature configuration, in which the extraction processing step is performed when the difference in luminance is less than a predetermined threshold value.
  • the average value of the original pixel data is extracted as the next video pixel data.
  • the feature configuration of the twenty-ninth embodiment is the same as the above-described twenty-seventh feature configuration, in which the extraction process step is performed between the adjacent source pixel data to be compared with the video pixel data extracted immediately before.
  • the average value of the adjacent original pixel data is extracted as the next video pixel data.
  • the extraction processing step may be configured such that the difference between the luminance differences is less than a predetermined threshold value when the adjacent source pixel data is The average value of the data is extracted as the next video pixel data.
  • the thirty-first characteristic configuration includes an extraction processing step of extracting a predetermined number of original pixel data as video pixel data for generating a plurality of original pixel data force video signals constituting the video source signal. And the extraction processing step extracts one of the adjacent source pixel data based on a phase difference of a color difference signal between a predetermined number of adjacent source pixel data and the video pixel data extracted immediately before. is there.
  • the thirty-second feature configuration includes the extraction processing step when any of the phase differences of the color difference signals is less than a predetermined threshold value.
  • One of the adjacent pixel data is extracted as the next video pixel data based on the saturation obtained from the color difference signal power of the adjacent original pixel data.
  • any of the phase difference differences of the color difference signals is less than a predetermined threshold value.
  • one of the adjacent source pixel data is extracted based on the saturation obtained from the color difference signal of the adjacent source pixel data.
  • the thirty-fourth characteristic configuration includes an extraction processing step of extracting a predetermined number of original pixel data as video pixel data for generating a video signal from a plurality of original pixel data constituting the video source signal.
  • the extraction processing step extracts any of the adjacent source pixel data based on a saturation difference that also obtains a color difference signal power between a predetermined number of adjacent source pixel data and the video pixel data extracted immediately before. In the point.
  • the thirty-fifth feature configuration is the same as the above-described extraction processing step. If it is less than the threshold value, one of the adjacent source pixel data is extracted based on a difference in luminance between the adjacent source pixel data and the pixel data extracted immediately before.
  • the thirty-sixth feature configuration is that in the adjacent direction of the original pixel data and adjacent original pixel data adjacent to the original pixel data.
  • the correlation with a predetermined number of orthogonal adjacent original pixel data adjacent in the orthogonal direction is determined, and when it is determined that there is a correlation, a predetermined calculation is performed on the extracted new pixel data to obtain a second new
  • the thirty-seventh feature configuration includes the arithmetic processing unit.
  • the presence or absence of correlation is determined based on the luminance difference between the original pixel data and the orthogonal adjacent original pixel data or the phase difference of the color difference signal, and the difference in luminance or color difference signal of the original pixel data is determined. The point is that arithmetic processing is performed based on the phase difference.
  • the thirty-eight feature configuration includes a difference in luminance or a color difference between the original pixel data and the orthogonal adjacent source pixel data.
  • the presence / absence of correlation is determined based on the phase difference of the signal, and calculation processing is performed based on at least one of the luminance difference of the original pixel data, the phase difference of the color difference signal, and the color signal.
  • a first characteristic configuration of the video signal processing device is that pixel groups constituting a screen are distributed and arranged in a first pixel group and a second pixel group, and these are based on different video signals.
  • a multi-view display device capable of simultaneously displaying different images in two directions, compresses the original pixel data of one frame constituting the source signal in a predetermined direction, and converts the image pixel data into a predetermined direction.
  • a video signal processing device configured to drive the first or second pixel group of the multi-view display device based on a video signal formed by the generated video pixel data, the predetermined direction Smoothing processing means for generating a new pixel data by performing a predetermined filtering operation on the arbitrary original pixel data arranged in the adjacent original pixel data and the smoothing processing.
  • Certain number of pixel data based on the pixel data force compression rate to a point comprising a extraction processing means for extracting, as the video pixel data.
  • the second characteristic configuration is that pixel groups constituting the screen are dispersedly arranged in the first pixel group and the second pixel group, and they are driven separately based on different video signals. Therefore, for a multi-view display device that can display different images in two directions at the same time, the original pixel data of one frame constituting the source signal is compressed in a predetermined direction to generate image pixel data.
  • a video signal processing device for driving either the first or second pixel group of the multi-view display device based on a video signal composed of the video pixel data, arranged in the predetermined direction.
  • a comparison means for obtaining a difference for each RGB component between a predetermined number of adjacent original pixel data determined based on the compression ratio and the video pixel data extracted immediately before, and a difference obtained by the comparison means Based on said neighbor Extraction processing means for extracting any of the RGB components of the pixel data as any of the RGB components of the next video pixel data.
  • the third characteristic configuration is that pixel groups constituting the screen are dispersedly arranged in the first pixel group and the second pixel group, and they are driven separately based on different video signals. Therefore, for a multi-view display device that can display different images in two directions at the same time, the original pixel data of one frame constituting the source signal is compressed in a predetermined direction to generate image pixel data.
  • a comparison means for obtaining a luminance difference between the predetermined number of adjacent original pixel data determined based on the compression ratio and the video pixel data extracted immediately before, and a difference obtained by the comparison means
  • the adjacent original pixel data There one of data to a point which is provided with an extraction process means for extracting a next video pixel data.
  • the fourth characteristic configuration is that pixel groups constituting a screen are distributed and arranged in a first pixel group and a second pixel group, and they are driven separately based on different video signals. Therefore, for a multi-view display device that can display different images in two directions at the same time, the original pixel data of one frame constituting the source signal is compressed in a predetermined direction to generate image pixel data.
  • a video signal processing device for driving either the first or second pixel group of the multi-view display device based on a video signal composed of the video pixel data, arranged in the predetermined direction. Based on the compression ratio, a luminance difference is obtained between the predetermined number of adjacent source pixel data determined in advance and the video pixel data extracted immediately before, and the obtained difference is the same force.
  • the comparison means for obtaining the phase difference of the color difference signal between the adjacent original pixel data and the video pixel data, and the phase difference obtained by the comparison means Extraction processing means for extracting the maximum original pixel data as video pixel data is provided.
  • the fifth characteristic configuration is that pixel groups constituting the screen are dispersedly arranged in the first pixel group and the second pixel group, and they are driven separately based on different video signals. Therefore, for a multi-view display device that can display different images in two directions at the same time, the original pixel data of one frame constituting the source signal is compressed in a predetermined direction to generate image pixel data.
  • a comparison means for obtaining a phase difference of the color difference signal between the predetermined number of adjacent original pixel data determined based on the compression ratio and the video pixel data extracted immediately before, and a position obtained by the comparison means.
  • extraction processing means for extracting any of the adjacent original pixel data as the next video pixel data based on the phase difference.
  • the sixth feature configuration is that pixel groups constituting a screen are distributed and arranged in a first pixel group and a second pixel group, and they are driven separately based on different video signals. Therefore, for a multi-view display device that can display different images in two directions at the same time, the original pixel data of one frame constituting the source signal is compressed in a predetermined direction to generate image pixel data.
  • a comparison means for obtaining a saturation difference obtained from a color difference signal between a predetermined number of adjacent original pixel data determined based on the compression ratio and the video pixel data extracted immediately before, and the comparison means;
  • To the difference in saturation Lies in comprising a Extraction processing means for extracting one of the adjacent original pixel data as the next image pixel data Zui.
  • the seventh characteristic configuration includes a conversion processing unit that converts and generates a plurality of new pixel data based on a plurality of original pixel data that constitutes a video source signal, and a plurality of conversion processings performed by the conversion processing unit.
  • New pixel data is converted and generated based on the original pixel data and at least the adjacent original pixel data.
  • the eighth characteristic configuration is an extraction processing method for extracting a predetermined number of pixel data for generating a video signal from a plurality of pixel data constituting a video source signal as video pixel data. And the extraction processing means calculates any of RGB components of the adjacent original pixel data based on a difference for each RGB component between a predetermined number of adjacent pixel data and the image pixel data extracted immediately before. The point is to extract it as one of the RGB components of the next video pixel data.
  • the ninth characteristic configuration includes extraction processing means for extracting a predetermined number of original pixel data for generating a video signal from a plurality of original pixel data constituting the video source signal as video pixel data,
  • the extraction processing means is to extract one of the adjacent source pixel data based on a luminance difference between a predetermined number of adjacent source pixel data and the video pixel data extracted immediately before.
  • the tenth feature configuration includes extraction processing means for extracting a predetermined number of original pixel data for generating a video signal from a plurality of original pixel data constituting the video source signal as video pixel data,
  • the extraction processing means is to extract one of the adjacent source pixel data based on a phase difference of a color difference signal between a predetermined number of adjacent source pixel data and the video pixel data extracted immediately before.
  • the eleventh characteristic configuration includes extraction processing means for extracting a predetermined number of original pixel data for generating a plurality of original pixel data force video signals constituting the video source signal as video pixel data.
  • the extraction processing means extracts any of the adjacent source pixel data based on a saturation difference that also obtains a color difference signal power between a predetermined number of adjacent source pixel data and the video pixel data extracted immediately before. is there.
  • the twelfth characteristic configuration includes a display unit capable of displaying individual videos for a plurality of viewing directions on the same screen based on a video signal, and a plurality of original pixel data constituting a video source signal.
  • Conversion processing means for converting and generating a plurality of new pixel data based on the image data, and extracting a predetermined number of pixel data for generating a video signal from the plurality of new pixel data converted by the conversion processing means.
  • the conversion processing means considers extraction of pixel data by the extraction processing step, and based on arbitrary original pixel data and at least its adjacent original pixel data. Therefore, new pixel data is converted and generated.
  • the characteristic configuration of the display device is that a display unit capable of displaying individual videos for a plurality of viewing directions on the same screen based on a video signal and a video source signal are configured.
  • Duplicate Extraction processing means for extracting, as video pixel data, a predetermined number of original pixel data for generating video signals from a number of original pixel data, the extraction processing means immediately before a predetermined number of adjacent original pixel data Based on the difference for each RGB component from the extracted video pixel data, one of the RGB components of the adjacent source pixel data is extracted as one of the RGB components of the next video pixel data.
  • the second characteristic configuration is a display unit that can display individual videos for a plurality of viewing directions on the same screen based on a video signal, and a video from a plurality of original pixel data constituting a video source signal.
  • Extraction processing means for extracting a predetermined number of original pixel data for generating a signal as video pixel data, and the extraction processing means includes a predetermined number of adjacent original pixel data, video pixel data extracted immediately before, One of the adjacent source pixel data is extracted based on the difference in luminance.
  • the third feature configuration is a display unit capable of displaying individual videos for a plurality of viewing directions on the same screen based on a video signal, and a video from a plurality of original pixel data constituting a video source signal.
  • Extraction processing means for extracting a predetermined number of original pixel data for generating a signal as video pixel data, and the extraction processing means includes a predetermined number of adjacent original pixel data, video pixel data extracted immediately before, One of the adjacent original pixel data is extracted based on the phase difference of the color difference signal.
  • an image is displayed from a display unit capable of displaying individual videos for a plurality of viewing directions on the same screen based on a video signal, and a plurality of original pixel data constituting a video source signal.
  • Extraction processing means for extracting a predetermined number of original pixel data for generating a signal as video pixel data, and the extraction processing means includes a predetermined number of adjacent original pixel data, the video pixel data extracted immediately before, The color difference signal power is based on the obtained saturation difference to extract any of the adjacent source pixel data.
  • a video signal processing method and video signal processing capable of preventing missing of high-frequency components and ensuring continuity of pixel data are provided.
  • An apparatus and a display device can be provided.
  • FIG. 1 is a conceptual diagram of a display device according to an embodiment of the present invention.
  • FIG. 2 is a perspective view showing that the display device shown in FIG. 1 is mounted on a car.
  • FIG. 3 is a cross-sectional view of the display unit shown in FIG.
  • FIG. 4 is a schematic view of the structure of the display panel as viewed from the front.
  • FIG. 5 is a circuit diagram showing an outline of a TFT substrate.
  • FIG. 6 is a block diagram of the display device shown in FIG.
  • FIG. 7 is a block diagram of the image output unit 211 shown in FIG.
  • FIG. 8 is a block diagram of control unit 200 shown in FIG.
  • FIG. 9 is a block diagram of memory 218 shown in FIG.
  • FIG. 10 is an explanatory diagram showing a procedure for generating a video signal displayed on the display unit from two types of video signals.
  • FIG. 11 is a block diagram of a display device (video signal processing device) according to the first embodiment.
  • FIG. 12 is an explanatory diagram of a multi-view display device.
  • FIG. 13 is an explanatory diagram of a liquid crystal panel.
  • FIG. 14 is an explanatory diagram of a video signal processing method according to the present invention.
  • FIG. 15 is an explanatory diagram of a video signal processing method according to the present embodiment.
  • FIG. 16 is an explanatory diagram of a video signal processing method according to the present embodiment.
  • FIG. 17 is a block diagram of the main part of the video signal processing apparatus according to the present embodiment.
  • FIG. 18 is a flowchart of the present example.
  • FIG. 19 is an explanatory diagram of a video signal processing method showing another embodiment.
  • FIG. 20 is a flowchart of another embodiment.
  • FIG. 21 is a flowchart showing another embodiment.
  • FIG. 22 is an explanatory diagram of a video signal processing method showing another embodiment.
  • FIG. 23 is a flowchart showing another embodiment.
  • FIG. 24 is an explanatory diagram of a video signal processing method showing another embodiment.
  • FIG. 25 is an explanatory diagram of a video signal processing method showing another embodiment.
  • FIG. 26 is an explanatory diagram of a video signal processing method showing another embodiment.
  • FIG. 27 is an explanatory diagram of a video signal processing method showing another embodiment.
  • FIG. 28 is an explanatory diagram of a video signal processing method showing another embodiment.
  • FIG. 29 is an explanatory diagram of a video signal processing method showing another embodiment.
  • FIG. 30 is an explanatory diagram of a video signal processing method showing another embodiment.
  • FIG. 31 is an explanatory diagram of a video signal processing method showing another embodiment.
  • FIG. 32 is an explanatory diagram of a video signal processing method showing another embodiment.
  • FIG. 33 is a block configuration diagram of a display device (video signal processing device) showing another embodiment.
  • First video source 2 Second video source 3: First image data 4: Second image data 5: Display control unit 6: Display data 7: Display unit 8 : First display image, 9: Second display image, 10: Observer, 11: Observer, 12: Passenger seat, 13: Driver's seat, 14: Windshield, 15: Operation unit, 16: Speaker, 100: LCD panel, 101: Back light, 102: Polarizing plate, 103: Polarizing plate, 104: TFT substrate, 105: Liquid crystal layer, 106: Color filter substrate, 107: Glass substrate, 1 08: Parallax barrier, 109: Left side (Passenger side) Display pixel, 110: Right side (Driver side) Display pixel, 111: Display panel drive unit, 112: Scan line drive circuit, 113: Data line drive circuit, 114: TFT element, 115 to 118: Data line, 119 to 121: Scan line, 122: Pixel electrode, 123: Subpixel, 124: Tutchinnel, 200: Control unit
  • FIG. 1 is a conceptual diagram of a multi-view display device (hereinafter simply referred to as “display device”) according to the present invention.
  • 1 is the first video source
  • 2 is the second video source
  • 3 is the first image data from the first video source
  • 4 is the second image data from the second video source
  • 6 is display data
  • 7 is a display unit (for example, a liquid crystal panel)
  • 8 is a first display image based on the first video source
  • 9 is a second display based on the second video source 2.
  • a display image, 10 is an observer (user) located on the left side with respect to the display unit 7
  • 11 is an observer (user) located on the right side with respect to the display unit 7.
  • FIG. 1 shows the first display image according to the relative position of the observers 10 and 11 with respect to the display unit 7, in other words, according to the viewing angle with respect to the display unit 7. 8 that the observer 11 can see the second display image 9 substantially simultaneously, and that each display image 8, 9 can be viewed over the entire display surface of the display unit 7.
  • the first video source 1 is, for example, a movie image of a DVD player or a received image of a television receiver
  • the second video source 2 is, for example, a map of a car navigation device or a route plan image.
  • the first video data 3 and the second video data 4 are supplied to the display control means 5 and processed so that they can be displayed substantially simultaneously on the display unit 7.
  • the display unit 7 to which the display data 6 is supplied from the display control means 5 is configured by a liquid crystal panel or the like provided with a parallax barrier described later.
  • Half of the total number of pixels in the horizontal direction of the display unit 7 is displayed on the first display image 8 based on the first video source 1, and the other half of the pixels are displayed on the second display image 9 based on the second video source 2.
  • Used for display The observer 10 located on the left side with respect to the display unit 7 sees only the pixels corresponding to the first display image 8, and the second display image 9 is the parallax formed on the surface of the display unit 7. It is blocked by the barrier and is virtually invisible. on the other hand
  • the observer 11 positioned on the right side of the display unit 7 can see only the pixel corresponding to the second display image 9, and the first display image 8 is substantially invisible because it is blocked by the parallax barrier. . still
  • JP-A-10-123461, JP-A-11-8413 As for the parallax barrier, for example, JP-A-10-123461, JP-A-11-8413
  • FIG. 2 is a perspective view showing an example of mounting the display device according to the present invention on a vehicle.
  • 12 is a passenger seat
  • 13 is a driver's seat
  • 14 is a windshield
  • 15 is an operation unit
  • 16 is a speaker.
  • the display unit 7 of the display device of FIG. 1 is arranged in the dashboard portion at the substantially center between the driver's seat 13 and the passenger seat 12, for example, as shown in FIG.
  • Various operations on the display device are performed by operating a touch panel (not shown) integrally formed on the surface of the display unit 7, the operation unit 15, or an infrared or wireless remote controller (not shown).
  • a speaker 16 is arranged at each door of the vehicle, and sounds, warning sounds, etc. linked to the display image are output.
  • the observer 11 in FIG. 1 sits in the driver seat 13 and the observer 10 sits in the passenger seat 12.
  • the image that can be seen from the first viewing direction (driver's side) with respect to the display unit 7 is, for example, an image such as a map of a car navigation device, and is viewed from the second viewing direction (passenger's seat side) substantially simultaneously.
  • Examples of images that can be received are TV reception images and DVD movie images. Therefore, the passenger in the passenger seat 13 can enjoy television and DVD at the same time that the driver in the driver seat 13 receives driving assistance by car navigation. Since each image is displayed using the entire 7-inch screen, for example, the screen size force S is not reduced as in the conventional multi-window display. In other words, for drivers and passengers, optimal information and content are provided for each person as if there is a dedicated display that is independent of each other.
  • FIG. 3 is a schematic diagram of a cross-sectional structure of the display unit 7.
  • 100 is a liquid crystal panel
  • 101 is a backlight
  • 102 is a polarizing plate placed on the backlight side of the liquid crystal panel
  • 103 is a polarizing plate placed on the front side of the light emitting direction of the liquid crystal panel
  • 104 is a TFT ( Thin Film Transistor) group A plate
  • 105 is a liquid crystal layer
  • 106 is a color filter substrate
  • 107 is a glass substrate
  • 108 is a parallax barrier.
  • the liquid crystal panel 100 includes a pair of substrates having a liquid crystal layer 105 sandwiched between a TFT substrate 104 and a color filter substrate 106 disposed opposite thereto, a parallax barrier 108 disposed on the front surface on the light emitting direction side, and glass.
  • the substrate 107 is sandwiched between two polarizing plates 102 and 103, and is disposed slightly apart from the knocklight 101.
  • the liquid crystal panel 100 has pixels composed of RGB colors (three primary colors).
  • Each pixel of the liquid crystal panel 100 is displayed and controlled separately for left side (passenger seat side) display and right side (driver seat side) display.
  • the display pixel on the left side (passenger seat side) is blocked from being displayed on the right side (driver seat side) by the parallax barrier 108 and is visible from the left side (passenger seat side).
  • the display pixel on the right side (driver's seat side) is blocked from being displayed on the left side (passenger seat side) by the parallax barrier 108 and is visible from the right side (driver's seat side). This makes it possible to provide different indications for the driver and passengers.
  • navigation map information can be given to the driver, and at the same time, a DVD movie or the like can be shown to the passenger.
  • a configuration in which different images are displayed in a plurality of directions such as three directions is also possible.
  • the viewing angle may be varied by configuring the parallax noria itself with a liquid crystal shirt or the like that can be electrically driven.
  • Fig. 4 is a schematic view of the structure of the display panel as seen from the front, and Fig. 3 shows the A—
  • 109 is a pixel for left side (passenger seat side) display
  • 110 is a pixel for right side (driver's seat side) display
  • 3 and 4 show a part of the liquid crystal panel 100 in which, for example, 800 pixels are arranged in the horizontal direction and 480 pixels are arranged in the vertical direction.
  • the left side (passenger side) display pixel 109 and the right side (driver's side) display pixel 110 are grouped in the vertical direction and arranged alternately.
  • the parallax barriers 108 are arranged at intervals in the horizontal direction and are uniform in the vertical direction.
  • the parallax barrier 108 covers the right side pixel 110 and the left side pixel 109 is visible.
  • the parallax barrier 108 covers the left side pixel 109 and the right side pixel 110 can be seen.
  • the left display image and the right display image appear to substantially overlap.
  • the pixel 110 has an RGB color as shown in FIG. 3 In each group vertical direction, it may be composed of a single color such as R column, G column, and B column, or a plurality of RGB may be mixed. It may be configured as a column.
  • source signals corresponding to the respective images are displayed.
  • the video signal corresponding to 800 X 480 which is the number of pixels of the display unit 7 can be obtained.
  • the source signal on the driver's seat side the odd-numbered source signal of the source signal to be originally displayed is thinned out, and for the source signal on the passenger seat side, an even number sequence is used. It is possible to adopt a configuration that thins out the source signal.
  • the thinning method is not limited to this, and thinning may be performed in odd and even columns for each element of R, G, and B constituting one pixel.
  • the final video source is generated by synthesizing the video sources compressed by the thinning process so that the columns are alternated.
  • a control process converts a plurality of new pixel data based on a plurality of original pixel data constituting a video source signal, and a conversion processing step.
  • the extraction processing step for extracting a predetermined number of pixel data for generating a plurality of new pixel data force video signals subjected to the conversion processing in the conversion processing step is executed.
  • the conversion processing step performs filtering operation etc. based on arbitrary original pixel data and at least its adjacent original pixel data in consideration of extraction of pixel data by the extraction processing step. Therefore, each pixel data after processing is generated as a value that takes into account the components of adjacent pixel data, and the degree of image quality degradation is improved.
  • FIG. 5 is a circuit diagram showing an outline of the TFT substrate 104.
  • 111 is a display panel driving unit
  • 112 is a scanning line driving circuit
  • 113 is a data line driving circuit
  • 114 is a TFT element
  • 115 to 118 are data Data lines
  • 119 to 121 are scanning lines
  • 122 is a pixel electrode
  • 123 is a sub-pixel.
  • a plurality of subpixels 123 are formed with a region surrounded by the data lines 115 to 118 and the scanning lines 119 to 121 as one unit.
  • a pixel electrode 122 for applying a voltage to the liquid crystal layer 105 and a TFT element 114 for controlling the switching are formed.
  • the display panel driver 111 controls the drive timing of the scanning line driver circuit 112 and the data line driver circuit 113.
  • the scanning line driving circuit 112 performs selective scanning of the TFT element 114, and the data line driving circuit 113 controls the voltage applied to the pixel electrode 122.
  • the plurality of sub-pixels are, for example, connected to the data lines 115 and 117 based on the synthesized data of the first image data and the second image data, or the first and second individual image data.
  • 1 pixel data (for left image display) and 2nd pixel data (for right image display) are transmitted to the data lines 116 and 118, and the first image data group for displaying the first image and A second image data group for displaying the second image is formed.
  • FIG. 6 is a block diagram showing an outline of a display device according to the present invention, which is an application example to a so-called Audio Visual Navigation multifunction device.
  • 124 is a touch panel
  • 200 is a control means
  • 201 is a CDZMD playback unit
  • 202 is a radio reception unit
  • 203 is a TV reception unit
  • 204 is DVD playback
  • 205 is an HD (Hard Disk) playback unit
  • 206 is navigation.
  • 207 is a distribution circuit
  • 208 is a first image adjustment circuit
  • 209 is a second image adjustment circuit
  • 210 is an audio adjustment circuit
  • 211 is an image output unit
  • 212 is a single information receiving unit
  • 213 is GPS information reception unit
  • 214 is a selector
  • 215 is an operation unit
  • 216 is a remote control transmission / reception unit
  • 217 is a remote control
  • 218 is a memory
  • 219 is an external audio Z video input unit
  • 220 is a camera
  • 221 is a brightness detection means
  • 222 Is an occupant detection means
  • 223 is a rear display unit
  • 224 is an ETC vehicle-mounted device
  • 225 is a communication unit.
  • the display unit 7 includes a touch panel 124, a liquid crystal panel 100, and a backlight 101.
  • the liquid crystal panel 100 of the display unit 7 includes an image seen from the driver side as the first viewing direction and an image seen from the passenger side as the second viewing direction. It is possible to display virtually simultaneously.
  • the display unit 7 may be a flat panel display other than a liquid crystal panel, such as an organic EL display panel, a plasma display panel, a cold cathode flat panel display, or the like.
  • the control means 200 includes various sources (CDZMD playback section 201, radio reception section 202, TV reception section 203, DVD playback section 204, HD playback section 205, and navigation section 206).
  • the first image adjustment circuit 208 and the second image adjustment circuit 208 and the second image distribution source 207 are distributed to the left and the distribution source 207 distributes the source specified to the right to 209.
  • the image adjustment circuit 209 is distributed to the audio adjustment circuit 210.
  • the first and second image adjustment circuits 208 and 209 adjust the brightness, color tone, contrast, and the like, and display the adjusted images on the display unit 7 in the image output unit 211.
  • the sound adjustment circuit 210 adjusts the distribution, volume, and sound to each speaker, and the adjusted sound is output from the speaker 16.
  • the control means 200 controls the first image adjustment circuit 208, the second image adjustment circuit 209, and the image output unit 211.
  • the control means 200 is arranged in the horizontal direction.
  • the original pixel data is subjected to a smoothing process using a predetermined filter operation between arbitrary original pixel data and at least the adjacent original pixel data to generate new pixel data.
  • New pixel data composing the video signal is extracted and processed.
  • a video signal processing method for example, it is possible to select a pixel that strongly includes a high frequency component by extracting a pixel group in which the luminance difference of the converted pixel group power source pixel is large, The sharpness of the displayed image can be maintained and good visibility can be secured.
  • FIG. 7 is a block diagram showing an outline of the image output unit 211.
  • 226 is a first write circuit
  • 227 is a second write circuit
  • 228 is a VRAM (Video RAM).
  • the image output unit 211 includes a first write circuit 226, a second write circuit 227, a VRAM (Video RAM) 228, and a display panel drive unit 111, for example, as shown in FIG. ! / Speak.
  • the first writing circuit 226 includes image data corresponding to an odd-numbered column of image data adjusted by the first image adjustment circuit 208 (that is, image data for the first display image 8 in FIG. 1).
  • the second writing circuit 227 is the image data corresponding to the even number sequence of the image data adjusted by the second image adjustment circuit 209 (that is, the image data for the second display image 9 in FIG. 1). Based on And write to the corresponding area in VRAM228 respectively.
  • the display panel driving unit 111 is a circuit for driving the liquid crystal panel 100, and based on the image data (the combined data of the first image data and the second image data) held in the VRAM 228, the liquid crystal panel 100 is driven. Drives the corresponding pixel in display panel 100.
  • the image data is written in the VRAM 228 so as to correspond to the multi-view display image obtained by combining the first image data and the second image data, so only one drive circuit is required.
  • the operation is the same as that of the drive circuit of a normal liquid crystal display device.
  • HD playback unit 205 When the HD playback unit 205 is selected, music data such as MP3 files stored on the hard disk (HD), JPE G files, etc. Image data, navigation map data, and the like are read out, and a menu display and image data for selecting music data can be displayed on the display unit 7.
  • HD hard disk
  • JPE G files JPE G files
  • Image data, navigation map data, and the like are read out, and a menu display and image data for selecting music data can be displayed on the display unit 7.
  • the navigation unit 206 includes a map information storage unit that stores map information used for navigation.
  • the navigation unit 206 obtains information from the VICS information reception unit 212 and the GPS information reception unit 213, and performs navigation. An image for operation can be created and displayed.
  • the TV receiver 203 receives analog TV broadcast waves and digital TV broadcast waves via the selector 214 with respect to the antenna power.
  • FIG. 8 is a block diagram showing an outline of the control means 200.
  • 229 is an interface, 230 ⁇ CPU, 231 231 ⁇ 232 232 ⁇ data record ⁇ ⁇ .
  • control means 200 controls the distribution circuit 207 and various sources to display the selected two sources or one source.
  • the control means 200 also displays an operation menu display for controlling these various sources on the display unit 7.
  • the control means 200 is constituted by a microprocessor or the like, and includes a CPU 230 that comprehensively controls each part and each circuit in the display device via an interface 229.
  • This CPU230 has a variety of functions necessary for the operation of the display device.
  • a program storage unit 231 having a ROM power for holding programs and a data storage unit 232 having a RAM power for holding various data are provided.
  • ROM, RAM, etc. can be used whether they are built in the CPU or provided externally.
  • the ROM may be an electrically rewritable nonvolatile memory such as a flash memory.
  • the user operates the touch panel 124 attached to the surface of the display unit 7 or the switches provided around the display unit 7 or the input operation or selection operation such as voice recognition to control the above various sources. This can be done by part 215. Further, an input or selection operation may be performed by the remote control 217 via the remote control transmission / reception unit 216.
  • the control means 200 performs control including various sources in accordance with the operation of the touch panel 124 and the operation unit 215. Further, the control means 200 is configured to be able to control the sound volume and the like of a plurality of speakers 16 provided in the vehicle as shown in FIG.
  • the control means 200 also stores various setting information such as image quality setting information, programs, and vehicle information in the memory 218.
  • FIG. 9 is a block diagram showing an outline of the memory 218.
  • 233 is a first screen RAM
  • 234 is a second screen RAM 23
  • 235 is an image quality setting information storage means
  • 236 is an environment adjustment value holding means.
  • the memory 218 includes a first screen RAM 233 and a second screen RAM 234 in which adjustment values of the image quality of the first image and the second image set by the user can be written, respectively.
  • the image quality setting information storage means 235 in which a plurality of image quality adjustment values are stored in advance for each image quality adjustment as preset values that can be read out.
  • an environment adjustment value holding means 236 that holds the adjustment values of the image quality of the first and second images with respect to the surrounding environment. is doing.
  • the image quality setting information storage unit 235 and the environmental adjustment value holding unit 236 are configured by an electrically rewritable non-volatile memory such as a flash memory or a non-volatile backed up volatile memory.
  • an image from the rear monitoring camera 220 connected to the external audio Z image input unit 219 may be displayed on the display unit 7.
  • a video camera, a game machine, or the like may be connected to the external audio Z image input unit 219.
  • the control means 200 uses the information detected by the brightness detection means 221 (for example, a vehicle light switch or light sensor) or the occupant detection means 222 (for example, a pressure sensor provided in a driver seat or a passenger seat). Originally, it is possible to change settings such as a sound localization position.
  • the brightness detection means 221 for example, a vehicle light switch or light sensor
  • the occupant detection means 222 for example, a pressure sensor provided in a driver seat or a passenger seat.
  • Reference numeral 223 denotes a rear display unit provided for the rear seat of the vehicle, which is the same as the image displayed on the display unit 7 via the image output unit 211, or an image car assistant for the driver's seat. One of the images for the seat can be displayed.
  • the control means 200 displays a charge display or the like from the ETC vehicle-mounted device 250. Further, the control means 200 may control the communication unit 225 for wireless connection with a mobile phone or the like, and display related thereto.
  • a video signal processing method that is embodied in the above-described display device and can prevent loss of high-frequency components and ensure continuity of pixel data when generating a video signal has a signal power.
  • the video signal processing apparatus will be described in detail.
  • a navigation device N for guiding a vehicle to a destination
  • a radio wave receiving device 302 for receiving terrestrial digital broadcasting
  • a DVD player 330 for receiving terrestrial digital broadcasting
  • the navigation device N the navigation device N
  • a video signal processing device 340 for controlling the display of the multi-view display unit 325, etc. It is installed. That is, the multi-view display unit 325 and the video signal processing device 340 constitute a display device.
  • the navigation device N manages the map data storage means 305 storing road map data, the GPS receiving means 306 for recognizing the position information of the own vehicle, the GPS antenna 306a, and the running state of the own vehicle.
  • Autonomous navigation means 307 route search means 308 for searching for a route to the designated destination based on map data
  • traveling state display processing means 309 for displaying the traveling position of the vehicle on the map, It is configured with an operation unit 326 etc. that sets the operation mode and operating conditions of each, and each block is controlled by a single or multiple CPUs, a ROM that stores the operation program, and a RAM that is used for the working area. It has a navigation function that guides the vehicle to a designated point.
  • the radio wave receiving apparatus 2 includes a receiving antenna 320, a tuner 321 that selects a transmission channel (frequency band) received via the receiving antenna 320, and a received signal power that is selected is also a digital signal.
  • An OFDM demodulator 322 that outputs TS (transport stream) packets after performing error correction processing, and decodes audio signals from the video / audio packets of the TS packets and outputs them to the speaker 324.
  • TS transport stream
  • the multi-view display unit 325 is configured such that the pixel groups constituting the screen are dispersedly arranged in the first pixel group and the second pixel group, and are driven separately based on different video signals.
  • a liquid crystal layer 913 is sandwiched between a TFT substrate 912 on which a TFT array 916 is formed and a counter substrate 914 arranged opposite to the TFT substrate 912, as shown in FIG.
  • a liquid crystal panel in which a pair of substrates is disposed between two polarizing plates 911 and a viewing barrier substrate 917 in which a parallax barrier layer 915 in which a microlens and a light-shielding slit are formed are integrally formed.
  • the TFT array 916 includes a plurality of pixels each having a region surrounded by the data lines 925 and the scanning lines 924 as a unit.
  • a voltage is applied to the liquid crystal layer 913 in each pixel.
  • a pixel electrode 923 to be applied and a TFT element 922 that controls the switching are formed.
  • the scanning line driving circuit 921 performs selective scanning of the TFT element 922, and the data line driving circuit 920 controls the voltage applied to the pixel electrode 923.
  • the control circuit 926 controls the driving timing of the scanning line driving circuit 921 and the data line driving circuit 920.
  • the pixels as a whole are provided with 800 X 480 dots, and a first pixel group (400 X 480 dots) arranged in one row (one data line) (classified as an odd column and an even column) and a first pixel group. It consists of two pixel groups (400 X 480 dots) of two pixel groups, each driven separately based on different video signals from the source.
  • the light that has passed through the two pixel groups is guided in different directions by the parallax noria layer 915, or the light in a specific direction is shielded, so that it is limited to the vicinity of the display surface 918 in space and in different directions. Different images can be displayed.
  • the two pixel groups are not limited to being arranged in every other row, but need only be distributed in the screen.
  • the multi-view display unit 325 is provided on the front panel in the center of the driver seat and the passenger seat. It is configured so that the image observed from the driver's seat side and the image observed from the passenger seat side can be displayed differently.
  • the radio wave receiver For example, on the passenger seat side, the radio wave receiver
  • the video signal processing device 340 extracts one frame of original pixel data constituting the source signal in a predetermined direction (here, the horizontal direction) and performs video pixel processing.
  • 11 is a device that drives the first or second pixel group of the multi-view display unit 325 based on a video signal composed of generated video pixel data. As shown in FIG.
  • source signal selection output means 344 for selecting a source signal to be supplied to each pixel group from the above-described plurality of video source signals (hereinafter also simply referred to as “source signals”), and two selected systems Compression that converts the original pixel data of one frame that constitutes each source signal into a single frame of video pixel data by compressing it horizontally at a compression rate of 50% to correspond to the pixels of each pixel group of the display unit 325.
  • Processing means 346 and after compression processing Video signal output means 341 for outputting each video signal to drive the multi-view display section 325, an operation section 345 as a mode switching means for setting a source signal selection reference by the source signal selection output means 344, etc. It is prepared for.
  • the operation unit 345 includes a touch panel provided on the display screen of the multi-view display unit 325 and a selection key displayed on the display screen. Display on / off, source signal selection, etc. are performed.
  • the operation unit 345 is not limited to the configuration provided on the display screen.
  • the compression processing means 346 for the two source signals supplied from the source signal selection output means 344, and arbitrary original pixel data arranged in a predetermined direction (here, the horizontal direction) and its source data Smoothing which is an example of conversion processing means for generating new pixel data corresponding to the original pixel data by performing predetermined image conversion processing with adjacent original pixel data, for example, smoothing processing by filter operation, etc.
  • the image processing means 343 and the extraction processing means 342 for extracting a predetermined number of pixel data based on the smoothed pixel data force compression rate as the video pixel data are configured.
  • the smoothing processing means 343 performs one frame of the source signal.
  • the original pixel data that constitutes a pixel and the sum of the values obtained by multiplying by a 1: 2: 1 filter coefficient in units of 3 pixels of an arbitrary original pixel arranged in the horizontal direction and its adjacent adjacent original pixel 4
  • a low-pass filter process for generating a new pixel by dividing by a smoothing process is executed.
  • new pixel data is generated that takes into account the influence of the adjacent pixels on the left and right while emphasizing the center pixel.
  • the original pixel data is used as it is for the first pixel.
  • the original pixel is a pixel constituting the source signal, which is a pixel displayed in the viewing direction on either the left side or the right side of the display unit 325.
  • the value of the adjacent pixel is obtained by the above filtering process. Is converted as a candidate for a video pixel in consideration of the above. Since the number of pixels actually used for display is half of the number of original pixels, odd-numbered pixels or even-numbered pixels are adopted. Therefore, as shown in FIG. 14 (b), in this example, for example, odd-numbered pixels reflecting component data of even-numbered pixels not conventionally employed are selected as video pixels.
  • the extraction processing means 342 applies a pixel group of either an even array pixel or an odd array pixel among newly generated pixels over one frame.
  • the image pixel data is generated, that is, an extraction process is executed.
  • the image pixel data generated in this way is simply extracted from the original pixel, either an even array pixel or an odd array pixel group, over one frame.
  • a high-frequency component indicating that the data change between the pixels is large is left, so that the image quality is greatly deteriorated. A certain level of good visibility can be ensured.
  • FIG. 15 schematically shows an image actually viewed by the observer, and shows an image displayed on the display unit based on the extracted image pixel data without performing the conversion process.
  • FIG. 15 (a) high-frequency components are missing, so it appears that important edge information is missing from the original video.
  • Fig. 15 (b) the information of neighboring pixels is added to the extracted pixels, so that it is possible to recognize roughly the original video.
  • the number of even-numbered pixels or odd-numbered pixels by the extraction processing means 342 When extracting one of these pixel groups, as shown in FIG. 16, a value (such as an RGB average value) corresponding to the luminance or luminance of the original pixel data adjacent to the original pixel data and the luminance or luminance of the original pixel data. It is also possible to select either even or odd pixel groups based on the difference from the value corresponding to (such as RGB average value)!
  • the process of obtaining the luminance difference between the original pixel arranged in the horizontal direction and the original pixel adjacent to the left and right is performed over one frame, and the difference is added between the even pixel group and the odd pixel group.
  • the pixel group with the larger value may be selected.
  • the pixel group with the larger number of pixels (singular points) in which each difference exceeds a predetermined threshold between the even pixel group and the odd pixel group is extracted. It may be a thing.
  • a pixel having a large luminance change is selected, a pixel that strongly includes a high-frequency component is selected, sharpness is maintained, and good visibility can be ensured. become.
  • Figure 17 shows a block circuit that implements this process.
  • Such extraction processing that is, whether to select an even pixel group or an odd pixel group need not be performed every frame, and may be performed in units of predetermined frames as shown in FIG.
  • the filter coefficient employed by the smoothing processing means 343 is not limited to a fixed one, and is switched based on the luminance of the original pixel adjacent to the original pixel and the amount of change in the luminance of the original pixel. You may comprise. For example, as shown in FIGS. 19 (a) and 19 (b), when the difference in luminance between the original pixel and the adjacent original pixel exceeds a predetermined threshold, low-pass filter processing is performed using a 1: 2: 2 filter coefficient. In other cases, a low-pass filter process using a 1: 2: 1 filter coefficient is performed to obtain a candidate pixel of a video pixel.
  • Fig. 20 shows the flow of the filter process performed at the horizontal synchronization timing of the original pixel in one frame.
  • a filter coefficient in which the influence of one adjacent pixel is strengthened is adopted, and when not so, a normal filter coefficient is adopted.
  • the specific values of the filter coefficients are not limited to these values, and appropriate values can be variably set as appropriate.
  • the filter coefficient includes a difference between the luminance (Y signal) of the original pixel data adjacent to the original pixel data and the luminance (Y signal) of the original pixel data, and a color difference therebetween. It is determined based on one or both of the phase differences of the signal (Cb, Cr signal) This makes it possible to perform processing that incorporates the influence based on a large change in luminance or color, and as a result, it is possible to ensure the sharpness of the image.
  • the filter coefficient is first selected according to the luminance component, and when the normal filter coefficient (1: 2: 1) is selected at this time, the filter coefficient is selected when the phase difference of the color difference signal becomes larger than the threshold value. It can be configured that (1: 2: 2) is selected. In this case, the selection procedure based on the luminance component and the selection based on the phase difference of the color difference signal may be interchanged.
  • the filter coefficient a is set to 0 if the pixel brightness difference and the 3rd and 4th original pixel brightness differences are both greater than the predetermined threshold, otherwise normal 1 is set, and the 5th element
  • the luminance difference between the fourth and fifth original pixels and the luminance difference between the fifth and sixth original pixels are both predetermined threshold values.
  • the filter coefficient j8 is determined to be 2, otherwise it is determined to be normal 1, and when it is determined to be a normal filter coefficient (1: 2: 1), the color difference signal (Cb , Cr signal) and whether the phase difference is larger than a predetermined threshold. Judgment is made to determine the filter coefficients OC and ⁇ . In this case as well, the selection procedure based on the luminance component and the selection based on the phase difference of the color difference signal can be interchanged. In this case, either the odd-numbered pixel or the even-numbered pixel of the converted pixels is extracted as a video pixel.
  • the number of pixels of adjacent original pixel data to be smoothed is determined based on a compression rate that is not limited to one pixel on each side. Since it is necessary to secure missing pixel components by extraction processing, sharpness cannot be ensured even if the number of target pixels for smoothing processing is increased more than necessary, and high frequency even if it is too small. Ingredients cannot be secured. Therefore, a stable result can always be obtained by determining the number of target pixels based on the compression rate.
  • the compression processing unit 346 is arranged in a predetermined direction as shown in FIG. Comparing means 343 ′ for obtaining a difference for each RGB component between a predetermined number of adjacent original pixel data determined based on the compression rate and the video pixel data extracted immediately before, and the comparing means 343 ′. And extraction processing means 342 for extracting one of the RGB components of the adjacent original pixel data as one of the RGB components of the next video pixel data based on the difference.
  • the comparison step executed by the comparison means 343 ′ are arranged in the horizontal direction and based on the compression rate!
  • the predetermined number of adjacent original pixel data determined here here, 2 pixels are set as the number of adjacent pixel data at a compression rate of 50%
  • the video pixel data here, extracted by the extraction processing means 342
  • the first original pixel data is extracted as it is, and a difference is obtained for each RGB component.
  • the difference is obtained based on the difference obtained in the comparison step.
  • a large value of the difference of the R component, a large value of the difference of the G component, and a large value of the difference of the B component are individually extracted to form a new video pixel. Since each of the color components having a large difference is selected and used as new video pixel data, a pixel component whose color changes greatly can be taken in, and sharpness can be ensured.
  • any one of the components of the adjacent source pixel data or their components An average value can be extracted as a component of the next video pixel data, which makes it possible to extract a pixel with a large change as a singular point.
  • any one of the compression processing means 346 described above among the video pixel data extracted by the extraction processing means 342, an element corresponding to a predetermined number of video pixel data adjacent in the vertical direction orthogonal to the horizontal direction Correlation determining means for determining presence or absence of correlation of pixel data; Second smoothing for generating new video pixel data by applying a predetermined second filter operation to each video pixel data when the correlation determination means determines that there is a correlation, and performing smoothing processing By providing the processing means, it becomes possible to secure a sharp and smooth image by ensuring the correlation of the pixels in the direction orthogonal to the compression direction.
  • FIG. 25 (a) among the original pixel data existing in the n line and the n + 1 line along the horizontal direction, a luminance difference is obtained between the original pixels adjacent in the vertical direction.
  • a predetermined threshold for determining the presence or absence of correlation it is determined that there is a correlation, and when correlation is recognized, between the corresponding video pixels between the n line and the n + 1 line.
  • the average value is converted as a new video pixel in the n + 1 line, and when there is no correlation, the video pixel extracted by the extraction processing means is output as it is, so that the vertical smoothing of the video pixel can be performed.
  • FIG. 2B is a circuit block configuration diagram at that time. The conversion process is not limited to two adjacent lines, but may be performed between three or more lines.
  • the presence or absence of correlation in the correlation determination means can be determined based on not only the luminance but also either or both of the luminance of the original pixel data and the phase difference of the color difference.
  • the second filter coefficient may be determined based on either or both of luminance and color difference of the original pixel data. In this way, it is possible to adjust the processing of the edge of luminance or color difference in the vertical direction according to preference.
  • the second filter coefficient is, for example, the correlation between the original pixels corresponding to the video pixels arranged in the vertical direction in three lines, one line in the vertical direction around the n line.
  • the filter coefficients (a, ⁇ 0, ⁇ ) may be variably set depending on the presence or absence of correlation.
  • the target data of the second smoothing process is the video pixel data extracted by the extraction processing means.
  • the calculation target may be either RGB color component data or YUV data.
  • the second filter coefficient determined by the second smoothing processing means may be determined based on the color signal C of the original pixel data. For example, when the source signal is obtained by the NTSC system, since the frequency of the luminance signal Y and the color signal C are different, the color component can be separated by providing a bandpass filter that removes the luminance component from the composite signal. However, since a luminance component cannot be completely removed by simply using a bandpass filter, a subtractor circuit that subtracts between the lines by paying attention to the fact that the phase of the color signal C is inverted for each line is required. It becomes. The correlation between the lines can be determined based on whether the difference between the color signals is larger or smaller than a predetermined threshold. Then, as shown in FIG. 32, by using the subtraction circuit also for determining whether or not there is a correlation at this time, there is an advantage that it is not necessary to provide a separate correlation determination circuit.
  • a comparison means for obtaining a luminance difference between a predetermined number of adjacent original pixel data arranged in the horizontal direction and determined based on a compression ratio, and video pixel data extracted immediately before
  • the compression processing means may be configured by including extraction processing means for extracting any of the adjacent pixel data as the next video pixel data based on the difference obtained by the comparison means.
  • the leftmost original pixel first arranged as the first video pixel is extracted, and the second and third original pixel data (these (C) is referred to as comparison pixel 1 and comparison pixel 2).
  • the pixel with the large difference is extracted as the next video pixel and used as the reference pixel.
  • comparison pixel 1 the next video pixel (the number 2 ⁇ enclosed in a circle is referred to as comparison pixel 1, that is, If the second pixel is extracted and the difference in luminance between the reference pixel and comparison pixel 2 is greater than the difference in luminance between the reference pixel and comparison pixel 1, the next video pixel (the number 2 ⁇ enclosed in circles is the comparison pixel).
  • the luminances of the reference pixel and a predetermined number of candidate original pixels are respectively compared, and when both are equal to or higher than the predetermined threshold, the above-described comparison step is performed. Then, the next image pixel is extracted, and when one comparison pixel is equal to or greater than a predetermined threshold and the other comparison pixel is less than the predetermined threshold as shown in FIG. As shown in FIG. 28 (c), when both are less than a predetermined threshold, the average value of the adjacent source pixel data is extracted as the next video pixel data. Can be configured.
  • a luminance difference is obtained between a predetermined number of adjacent source pixel data arranged in the horizontal direction and determined based on the compression rate, and the video pixel data extracted immediately before. If the obtained difference is less than a predetermined threshold, or if all the obtained differences are less than a predetermined threshold, the adjacent original pixel data and the video image Comparing means for obtaining the phase difference of the color difference signals (Cb, Cr) between the raw data, and extraction processing means for extracting the original pixel data that maximizes the phase difference obtained by the comparing means as video pixel data.
  • a compression processing means may be configured.
  • a color difference signal (C b, B) is generated between a predetermined number of adjacent original pixel data arranged in the horizontal direction and determined based on the compression rate, and video pixel data extracted immediately before.
  • a compression processing means comprising: a comparison means for obtaining a phase difference of Cr); and an extraction processing means for extracting any of the adjacent original pixel data as the next video pixel data based on the phase difference obtained by the comparison means. It may be configured. In this method, as shown in Fig. 29 (a), (b), (, it is possible to prevent missing portions where there is a change in the color of the original pixel. As in Fig. 27, 'and 3 are symbols indicating the image pixels extracted as a result of comparison.
  • any of the adjacent source pixel data for example, a pixel with high saturation may be extracted as the next video pixel data.
  • the color difference signal of the adjacent original pixel data when the mutual phase difference obtained from the color difference signal of the adjacent original pixel data is less than a predetermined threshold value, the color difference signal of the adjacent original pixel data It is also possible to configure such that any of the adjacent original pixel data is extracted as the next video pixel data based on the saturation obtained by the force determination.
  • a saturation difference obtained from the color difference signal power is obtained between a predetermined number of adjacent original pixel data arranged in the horizontal direction and determined based on the compression rate, and the video pixel data extracted immediately before.
  • the compression processing means may be composed of comparison means and extraction processing means for extracting any of the adjacent source pixel data as the next video pixel data based on the saturation difference obtained by the comparison means.
  • FIG. 30 (a) when the comparison pixel 1 has a small phase difference but a large saturation compared to the reference pixel, the comparison pixel 2 has a large phase difference but a low saturation. Comparison pixel 1 with high saturation can be extracted. As shown in FIG.
  • a saturation threshold may be provided to extract an original pixel that is equal to or higher than the threshold, or as shown in FIG. 30 (e), the saturation of the reference pixel and the comparison pixel Find the difference of the saturation difference of You may comprise so that the original pixel from which a value may become larger than a predetermined threshold value may be extracted.
  • any of the obtained saturations is less than a predetermined threshold, a luminance difference is obtained between the adjacent original pixel data and the video pixel data extracted immediately before,
  • any of the adjacent original pixel data may be extracted as the next video pixel data based on a luminance difference value.
  • a ROM or a division circuit as shown in Fig. 31 (a) is required.
  • the road scale is inconvenient and expensive. Therefore, as shown in Figs. 31 (b) and 31 (c), the quadrant of the phase is determined from the sign of the color difference signals Cb and Cr, and the whole is equally divided into 8 from the absolute values of Cb and Cr. Thus, it is possible to detect a rough phase. In this method, the circuit scale is greatly reduced and the cost is reduced.
  • the compression direction is the horizontal direction
  • the same processing is possible even if the compression direction is not limited to this and the compression direction is vertical.
  • the compression rate is set to 50% has been described.
  • the compression rate is not limited to this value, and can be applied to an appropriately set compression rate.
  • the force described in the case of using a liquid crystal panel as described in Japanese Patent Laid-Open No. 2004-206089 as a multi-view display device is not limited to this.
  • it can be applied in the same manner to multi-view display devices constructed using organic EL, plasma display, CRT, SED, etc. it can.
  • the multi-view display device mounted on the vehicle has been described.
  • the present invention is not limited to this and can be applied to a home display device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Liquid Crystal Display Device Control (AREA)

Abstract

 映像信号に基づいて複数の視方向に対する個別の映像を同一画面上に表示可能な表示部(7)と、映像ソース信号を構成する複数の元画素データに基づいて複数の新たな画素データを変換生成する変換処理手段(200)と、前記変換処理手段で変換処理された複数の新たな画素データから映像信号を生成するための所定数の画素データを抽出する抽出処理手段(200)とを備えてなり、前記変換処理手段(200)は、前記抽出処理手段(200)による画素データの抽出を考慮して、任意の元画素データ及び少なくともその隣接元画素データに基づいて新たな画素データを変換生成する。

Description

明 細 書
映像信号処理方法、映像信号処理装置、及び、表示装置
技術分野
[0001] 本発明は、単一の画面で複数の利用者各々に対して独立した異なる情報を実質 的に同時に提供することのできる表示装置に関し、詳述すると、画面を構成する画素 群が第一の画素群と第二の画素群に分散配置され、それらが互いに異なる映像信 号に基づ 、て各別に駆動されることにより、二方向に異なる映像が同時に表示可能 なマルチビュー表示装置に対して、ソース信号を構成する 1フレームの元画素データ を所定方向に圧縮処理して映像画素データを生成し、生成された前記映像画素デ ータで構成される映像信号に基づいて前記マルチビュー表示装置の第一または第 二の何れかの画素群を駆動する映像信号処理方法、映像信号処理装置、及び、表 示装置に関する。
背景技術
[0002] これまでの主なディスプレイの開発は、観察者がディスプレイをどの方向から観察し ても同じ良好な画質で見ることができるように、或いは、複数の観察者が同時に同じ 情報を得ることができるように最適化されてきた。しかし、個々の観察者が同じディス プレイ力もの異なる情報を見ることができることが望ましい用途が数多くある。例えば、 自動車の中で、ドライバ一はナビゲーシヨンデータを見ることを望み、隣席の同乗者 は映画を見ることを望むということがあり得る。この例において 2つのディスプレイが用 いられる場合には、余分な場所をとり、コストを増大させることになる。
[0003] そこで近年、特開平 6-186526号公報及び特開 2000-137443号公報が開示す るように、一台の液晶ディスプレイで二画面を同時に表示することができ、例えば、運 転席と助手席とから夫々異なる画面を見ることができる表示装置が考案されて 、る。 また、特開平 11-331876号公報及び特開平 09-46622号公報には、二種類の映 像を、同時に同一画面に表示することができる二画面表示装置が開示されている。
[0004] これらは、ディスプレイ画面は一つであるにもかかわらず、異なる方向から観察する ことにより、二人以上の異なる観察者が、少なくとも二つの異なる映像を同時に見るこ とが可能な表示装置である。
[0005] 上述の表示装置の第一または第二の何れかの画素群を駆動するに際しては、当 該画素群に対応させるベぐソース信号を構成する 1フレームの元画素データから所 定方向に圧縮または抽出処理した映像画素データを生成し、生成された前記映像 画素データで構成される映像信号に基づいて当該画素群を駆動する必要がある。 例えば、車載用の TFT液晶表示装置では画素が 800 X 480ドットに構成されたもの が主流であるが、このような表示装置の構成をベースとするマルチビュー表示装置で は、少なくとも 800 X 480ドットに対応する元画素データ力ら 400 X 480ドットに水平 方向に圧縮または抽出処理して映像画素データを生成する必要がある。
発明の開示
発明が解決しょうとする課題
[0006] しかし、ソース信号を構成する元画素データを圧縮率に基づ!/、て単に所定方向に 間弓 Iき処理して映像画素データを生成するような圧縮処理方法では、間弓 Iき処理さ れた元画像の情報が欠落する結果、画像情報の高域成分が欠落するのみならず画 素データの連続性も失われるため、そのような映像信号に基づいて表示された映像 はかなり見辛いものになるという虞があった。
[0007] 本発明の目的は、上述の問題点に鑑み、ソース信号力 映像信号を生成する際に 、高域成分の欠落を防ぐとともに、画素データの連続性を確保できる映像信号処理 方法、映像信号処理装置、及び、表示処理装置を提供する点にある。
課題を解決するための手段
[0008] 上述の目的を達成するため、本発明による映像信号処理方法の第一の特徴構成 は、画面を構成する画素群が第一の画素群と第二の画素群に分散配置され、それら が互いに異なる映像信号に基づいて各別に駆動されることにより、二方向に異なる 映像が同時に表示可能なマルチビュー表示装置に対して、ソース信号を構成する 1 フレームの元画素データを所定方向に圧縮処理して映像画素データを生成し、生成 された前記映像画素データで構成される映像信号に基づいて前記マルチビュー表 示装置の第一または第二の何れかの画素群を駆動する映像信号処理方法であって 、前記所定方向に配列された任意の元画素データをその隣接元画素データとの間 で所定のフィルタ演算を施して平滑ィヒ処理して新たな画素データを生成する平滑ィ匕 処理工程と、平滑化処理された画素データから圧縮率に基づ!/、た数の画素データを 前記映像画素データとして抽出する抽出処理工程とからなる点にある。
[0009] 上述の構成によれば、平滑化処理工程によって元画素データとその隣接元画素デ ータとの間で平滑ィヒ処理が行なわれるので、処理後の各画素データは隣接画素デ ータの成分が加味された値として生成される。そのように生成された新たな画素から 抽出処理工程において抽出された画素データには、それに対応する元画素に隣接 する画素データが加味されているため、或る程度の高域成分が確保され、大きく画質 が劣化するようなことが無ぐ或る程度の良好な視認性を確保することができるのであ る。ここに、画素データの演算は RGBの色成分データ、または YUVの輝度、色差デ ータに基づいて行なうことができる。
[0010] 同第二の特徴構成は、上述の第一特徴構成に加えて、前記抽出処理工程におい て、前記平滑ィ匕処理工程で生成された新たな画素データから、それに対応する元画 素データの隣接元画素データに対する輝度の差分に基づいて前記映像画素データ が抽出される点にあり、このように構成することにより、例えば、輝度の差分が大なる 画素群を抽出することにより高域成分を強く含む画素が選択され、鮮鋭度が保たれ、 良好な視認性を確保することができるようになる。
[0011] 同第三の特徴構成は、上述の第一または第二特徴構成に加えて、前記平滑化処 理工程において、元画素データの隣接元画素データに対する輝度の差分と色差信 号の位相差の何れかまたは双方に基づ 、てフィルタ演算を施す点にあり、このように 構成することにより、画像のエッジ部分を強調し、または鈍らすことができ、元画像の 特性に応じて圧縮処理後の画像の調子を整えることができるのである。例えば、輝度 の差分が大の画素は濃淡エッジと識別でき、色差信号の位相差が大の画素は色の 変化するエッジと認識でき、それらを強調するようにフィルタ係数を決定すると、抽出 後の画像の鮮鋭度を高めることが可能になる。輝度と色の何れを重視するかにより、 輝度の差分と色差信号の位相差の何れかまたは双方に基づいて決定することができ る。
[0012] 同第四の特徴構成は、上述の第一力も第三の何れかの特徴構成に加えて、前記 平滑ィ匕処理工程にぉ 、て、平滑処理の対象となる隣接元画素データの画素数が前 記圧縮率に基づいて決定される点にある。つまり、圧縮処理によって欠落する画素 成分を確保することが必要であるので、平滑処理の対象画素数を必要以上に多くし ても鮮鋭度が確保できず、少な過ぎても高域成分を確保できないのである。そこで、 圧縮率に基づいて対象画素数を決定することにより常に安定した結果が得られるよう になる。
[0013] 同第五の特徴構成は、画面を構成する画素群が第一の画素群と第二の画素群に 分散配置され、それらが互いに異なる映像信号に基づいて各別に駆動されることに より、二方向に異なる映像が同時に表示可能なマルチビュー表示装置に対して、ソ ース信号を構成する 1フレームの元画素データを所定方向に圧縮処理して映像画素 データを生成し、生成された前記映像画素データで構成される映像信号に基づ ヽて 前記マルチビュー表示装置の第一または第二の何れかの画素群を駆動する映像信 号処理方法であって、前記所定方向に配列され圧縮率に基づ 、て決定された所定 数の隣接元画素データと、直前に抽出された映像画素データの間で RGB成分毎に 差分を求める比較工程と、前記比較工程で求められた差分に基づいて前記隣接元 画素データの RGB成分の何れかを次の映像画素データの RGB成分の何れかとして 抽出する抽出処理工程とからなる点にある。
[0014] 上述の構成によれば、圧縮率に基づいて決定された所定数の隣接元画素データと 直前に抽出された映像画素データ (圧縮処理後の画素データ)とを RGB成分毎に比 較して、その結果に基づいて新たな映像画素データが生成される。例えば、各色成 分の差分の大なる成分を夫々選択して新たな映像画素データとすれば、色の大きく 変化する画素成分を取り込むことができるので、鮮鋭性を確保することができるように なる。ここに、所定数とは、例えば間引き処理の対象となる画素数で、圧縮率が 1Z2 のときは少なくとも隣接する 2画素が隣接元画素データとなる。
[0015] 同第六の特徴構成は、上述の第五特徴構成に加えて、前記抽出処理工程におい て、前記比較工程で求められた RGB成分毎の差分のうち、所定の閾値より小となる 成分につ!、ては、前記隣接元画素データの何れかの成分またはそれらの平均値が 次の映像画素データの成分として抽出される点にあり、閾値を設定することにより、大 きく変化する特異点に対して鮮鋭性を確保し、そうでない画素に対しては元画素をあ る程度忠実に再現することができるようになる。
[0016] 同第七の特徴構成は、画面を構成する画素群が第一の画素群と第二の画素群に 分散配置され、それらが互いに異なる映像信号に基づいて各別に駆動されることに より、二方向に異なる映像が同時に表示可能なマルチビュー表示装置に対して、ソ ース信号を構成する 1フレームの元画素データを所定方向に圧縮処理して映像画素 データを生成し、生成された前記映像画素データで構成される映像信号に基づ ヽて 前記マルチビュー表示装置の第一または第二の何れかの画素群を駆動する映像信 号処理方法であって、前記所定方向に配列され圧縮率に基づ 、て決定された所定 数の隣接元画素データと、直前に抽出された映像画素データの間で輝度の差分を 求める比較工程と、前記比較工程で求められた差分に基づいて前記隣接元画素デ ータの何れかを次の映像画素データとして抽出する抽出処理工程とからなる点にあ る。
[0017] 上述の構成によれば、例えば所定数の隣接元画素データの中から輝度変化の大 なる画素を映像画素として抽出する場合には、コントラストの効いた映像を得ることが でき、輝度変化の小なる画素を映像画素として抽出する場合には、柔らかい映像を 得ることがでさるよう〖こなる。
[0018] 同第八の特徴構成は、上述の第七特徴構成に加えて、前記抽出処理工程におい て、前記比較工程で求められた輝度の差分の何れもが所定の閾値未満であるときに は、前記隣接元画素データの平均値が次の映像画素データとして抽出される点にあ り、閾値を設定することにより、大きく変化する特異点に対してコントラストを確保し、そ うでない画素に対しては元画素をある程度忠実に再現することが出来るようになる。
[0019] 同第九の特徴構成は、上述の第七特徴構成に加えて、前記抽出処理工程におい て、前記比較工程で直前に抽出された映像画素データと比較される前記隣接元画 素データ間の輝度の差分の何れもが所定の閾値未満であるときには、前記隣接元 画素データの平均値が次の映像画素データとして抽出される点にあり、直前に抽出 された映像画素との輝度の差分にかかわらず、隣接元画素データ間の輝度の差分 の何れもが所定の閾値未満、つまり大きく変わるものでないときには、それらの平均 値を映像画素データとすることで滑らかな映像が得られるのである。
[0020] 同第十の特徴構成は、上述の第七特徴構成に加えて、前記抽出処理工程におい て、前記比較工程で求められた輝度の差分の差分が所定の閾値未満であるときには 、前記隣接元画素データの平均値が次の映像画素データとして抽出される点にあり 、輝度の差分の差分が閾値以上のとき、つまり元画素間の輝度が大きく変化している か否かが判別できるようになる。その結果に基づいてコントラストを確保し、或いは、 滑らかな映像を得ることができるようになる。
[0021] 同第十一の特徴構成は、画面を構成する画素群が第一の画素群と第二の画素群 に分散配置され、それらが互いに異なる映像信号に基づいて各別に駆動されること により、二方向に異なる映像が同時に表示可能なマルチビュー表示装置に対して、 ソース信号を構成する 1フレームの元画素データを所定方向に圧縮処理して映像画 素データを生成し、生成された前記映像画素データで構成される映像信号に基づ 、 て前記マルチビュー表示装置の第一または第二の何れかの画素群を駆動する映像 信号処理方法であって、前記所定方向に配列され圧縮率に基づ 、て決定された所 定数の隣接元画素データと、直前に抽出された映像画素データの間で輝度の差分 を求め、求めた差分が同一である力 求めた差分の何れもが所定の閾値未満である 力 求めた差分の差分の何れもが所定の閾値未満であるときには、前記隣接元画素 データと前記映像画素データの間で色差信号の位相差を求める比較工程と、前記 比較工程で求められた位相差が最大となる元画素データを映像画素データとして抽 出する抽出処理工程とからなる点にある。
[0022] 上述の構成によれば、輝度の変化が小さいときに、色の変化の大きな画素を新た な映像画素として抽出することにより、鮮鋭性の高い映像を確保することができるよう になる。
[0023] 同第十二の特徴構成は、画面を構成する画素群が第一の画素群と第二の画素群 に分散配置され、それらが互いに異なる映像信号に基づいて各別に駆動されること により、二方向に異なる映像が同時に表示可能なマルチビュー表示装置に対して、 ソース信号を構成する 1フレームの元画素データを所定方向に圧縮処理して映像画 素データを生成し、生成された前記映像画素データで構成される映像信号に基づ 、 て前記マルチビュー表示装置の第一または第二の何れかの画素群を駆動する映像 信号処理方法であって、前記所定方向に配列され圧縮率に基づ 、て決定された所 定数の隣接元画素データと、直前に抽出された映像画素データの間で色差信号の 位相差を求める比較工程と、前記比較工程で求められた位相差に基づいて前記隣 接元画素データの何れかを次の映像画素データとして抽出する抽出処理工程とから なる点にあり、これにより、色の変化する画素を抽出の判断対象とすることができ、映 像画素から色の変化の欠落を回避することもできるようになるのである。
[0024] 同第十三の特徴構成は、上述の第十二特徴構成に加えて、前記抽出処理工程に ぉ ヽて、前記比較工程で求められた位相差が何れも所定の閾値未満であるときに、 前記隣接元画素データの色差信号から求まる彩度に基づいて前記隣接元画素デー タの何れかが次の映像画素データとして抽出される点にあり、映像画素との色の変 化がそれほど顕著でないときに、彩度、つまり、色のパワーに基づいて映像画素デー タを抽出することにより、より好ましい映像が得られるようになる。
[0025] 同第十四の特徴構成は、上述の第十二特徴構成に加えて、前記抽出処理工程に ぉ ヽて、前記隣接元画素データの色差信号から求まる互!ヽの位相差が何れも所定 の閾値未満であるときに、前記隣接元画素データの色差信号から求まる彩度に基づ いて前記隣接元画素データの何れかが次の映像画素データとして抽出される点にあ り、抽出対象となる隣接元画素データ間の色の差が無いときには、彩度を抽出基準と することにより、より好ましい映像が得られるようになる。
[0026] 同第十五の特徴構成は、画面を構成する画素群が第一の画素群と第二の画素群 に分散配置され、それらが互いに異なる映像信号に基づいて各別に駆動されること により、二方向に異なる映像が同時に表示可能なマルチビュー表示装置に対して、 ソース信号を構成する 1フレームの元画素データを所定方向に圧縮処理して映像画 素データを生成し、生成された前記映像画素データで構成される映像信号に基づ 、 て前記マルチビュー表示装置の第一または第二の何れかの画素群を駆動する映像 信号処理方法であって、前記所定方向に配列され圧縮率に基づ 、て決定された所 定数の隣接元画素データと、直前に抽出された映像画素データの間で色差信号か ら求まる彩度の差分を求める比較工程と、前記比較工程で求められた彩度の差分に 基づいて前記隣接元画素データの何れかを次の映像画素データとして抽出する抽 出処理工程とからなる点にあり、直前の映像画素に対して彩度が大きく変化する力否 かを抽出基準にとることで、圧縮処理後の映像の鮮やかさを調整することができるよう になる。
[0027] 同第十六の特徴構成は、上述の第十三から第十五の何れかの特徴構成に加えて 、前記比較工程において、求められた彩度が何れも所定の閾値未何であるときに、 前記隣接元画素データと直前に抽出された映像画素データの間で輝度の差分が求 められ、前記抽出処理工程において、輝度の差分値に基づいて前記隣接元画素デ ータの何れかが次の映像画素データとして抽出される点にあり、これにより彩度を優 先しながらも、人間が敏感に反応する輝度返還に対しても補償することができるよう になる。
[0028] 同第十七の特徴構成は、上述の第一力も第六の何れかの特徴構成に加えて、前 記抽出処理工程で抽出された前記映像画素データのうち、前記所定方向と直交す る方向に隣接する所定数の映像画素データに対応する元画素データの相関の有無 を判別する相関判別工程と、前記相関判別工程で相関があると判別されたときに各 映像画素データに対して所定の第二フィルタ演算を施して平滑ィ匕処理して新たな映 像画素データを生成する第二平滑ィ匕処理工程を備える点にあり、このように構成する ことにより、圧縮方向と直交する方向における画素の相関を確保して鮮鋭且つ滑らか な映像を確保することができるようになる。
[0029] 同第十八の特徴構成は、上述の第十七特徴構成に加えて、前記相関判別工程に おいて、前記元画素データの輝度または色差に基づいて相関の有無が決定され、 前記第二平滑化処理工程にお ヽて、前記元画素データの輝度または色差の何れか または双方に基づいて第二フィルタ演算を施す点にあり、好みに合わせて輝度また は色差のエッジの処理を調整することができるようになる。たとえば、エッジ部で第二 フィルタ係数を大に設定すれば鮮鋭性の高 、映像が得られるようになる。
[0030] 同第十九の特徴構成は、上述の第十七特徴構成に加えて、前記相関判別工程に おいて、前記元画素データの輝度または色差に基づいて相関の有無が決定され、 前記第二平滑化処理工程にお 、て、前記元画素データの色信号に基づ!/、て第二フ ィルタ演算を施す点にある。
[0031] 同第二十の特徴構成は、映像ソース信号を構成する複数の元画素データに基づ Vヽて複数の新たな画素データを変換生成する変換処理工程と、前記変換処理工程 で変換処理された複数の新たな画素データ力 映像信号を生成するための所定数 の画素データを抽出する抽出処理工程とを備え、前記変換処理工程は、前記抽出 処理工程による画素データの抽出を考慮して、任意の元画素データ及び少なくとも その隣接元画素データに基づいて新たな画素データを変換生成する点にある。
[0032] 上述の構成によれば、変換処理工程によって元画素データとその隣接元画素デー タとの間で例えば平滑ィ匕処理のごとき所定の変換処理が行なわれるので、処理後の 各画素データは隣接画素データの成分が加味された値として生成される。そのように 生成された新たな画素力 抽出処理工程において抽出された画素データには、それ に対応する元画素に隣接する画素データが加味されているため、或る程度の高域成 分が確保され、大きく画質が劣化するようなことが無ぐ或る程度の良好な視認性を 確保することができるのである。ここに、画素データの演算は RGBの色成分データ、 または YUVの輝度、色差データに基づ!/、て行なうことができる。
[0033] 同第二十一の特徴構成は、上述の第二十特徴構成に加えて、前記抽出処理工程 は、前記変換処理工程で変換生成された新たな画素データに対応する元画素デー タとその隣接元画素データとの輝度の差分に基づいて、抽出すべき新たな画素デー タを決定する点にある。
[0034] 同第二十二の特徴構成は、上述の第二十または二十一特徴構成に加えて、前記 変換処理工程は、任意の元画素データと少なくともその隣接元画素データとの間で 所定のフィルタ演算による平滑ィ匕処理を行なって新たな画素データを生成する点に ある。
[0035] 同第二十三の特徴構成は、上述の第二十力も二十二の何れかの特徴構成に加え て、前記変換処理工程は、元画素データとその隣接元画素データとの輝度の差分と 色差信号の位相差の何れ力または双方に基づいて新たな画素データを生成する点 にある。
[0036] 同第二十四の特徴構成は、上述の第二十力も二十三の何れかの特徴構成に加え て、前記変換処理工程において、新たな画素データを変換生成する対象となる隣接 元画素データの数は、前記抽出処理工程における画素データの抽出数によって決 定される点にある。
[0037] 同第二十五の特徴構成は、映像ソース信号を構成する複数の画素データから映像 信号を生成するための所定数の元画素データを映像画素データとして抽出する抽 出処理工程を備え、前記抽出処理工程は、所定数の隣接元画素データと、直前に 抽出された映像画素データとの RGB成分毎の差分に基づき、前記隣接元画素デー タの RGB成分の何れかを次の映像画素データの RGB成分の何れかとして抽出する にめる。
[0038] 同第二十六の特徴構成は、上述の第二十五特徴構成に加えて、前記抽出処理ェ 程は、前記 RGB成分毎の差分のうち、所定の閾値より小となる成分については、前 記隣接元画素データの何れかの成分またはそれらの平均値が次の映像画素データ の成分として抽出される点にある。
[0039] 同第二十七の特徴構成は、映像ソース信号を構成する複数の元画素データ力 映 像信号を生成するための所定数の元画素データを映像画素データとして抽出する 抽出処理工程を備え、前記抽出処理工程は、所定数の隣接元画素データと、直前 に抽出された映像画素データとの輝度の差分に基づき、前記隣接元画素データの 何れかを抽出する点にある。
[0040] 同第二十八の特徴構成は、上述の第二十七特徴構成に加えて、前記抽出処理ェ 程は、前記輝度の差分の何れもが所定の閾値未満であるときには、前記隣接元画素 データの平均値を次の映像画素データとして抽出する点にある。
[0041] 同第二十九の特徴構成は、上述の第二十七特徴構成に加えて、前記抽出処理ェ 程は、直前に抽出された映像画素データと比較される前記隣接元画素データ間の 輝度の差分の何れもが所定の閾値未満であるときには、前記隣接元画素データの 平均値を次の映像画素データとして抽出する点にある。
[0042] 同第三十の特徴構成は、上述の第二十七特徴構成に加えて、前記抽出処理工程 は、前記輝度の差分の差分が所定の閾値未満であるときには、前記隣接元画素デ ータの平均値を次の映像画素データとして抽出する点にある。 [0043] 同第三十一の特徴構成は、映像ソース信号を構成する複数の元画素データ力 映 像信号を生成するための所定数の元画素データを映像画素データとして抽出する 抽出処理工程を備え、前記抽出処理工程は、所定数の隣接元画素データと、直前 に抽出された映像画素データとの色差信号の位相差に基づき、前記隣接元画素デ ータの何れかを抽出する点にある。
[0044] 同第三十二の特徴構成は、上述の第三十一特徴構成に加えて、前記抽出処理ェ 程は、前記色差信号の位相差の何れもが所定の閾値未満であるときには、前記隣接 元画素データの色差信号力 求まる彩度に基づいて該隣接画素データの何れかを 次の映像画素データとして抽出する点にある。
[0045] 同第三十三の特徴構成は、上述の第三十一特徴構成に加えて、前記抽出処理ェ 程は、前記色差信号の位相差の差分の何れもが所定の閾値未満であるときには、前 記隣接元画素データの色差信号から求まる彩度に基づいて前記隣接元画素データ の何れかを抽出する点にある。
[0046] 同第三十四の特徴構成は、映像ソース信号を構成する複数の元画素データから映 像信号を生成するための所定数の元画素データを映像画素データとして抽出する 抽出処理工程を備え、 前記抽出処理工程は、所定数の隣接元画素データと、直前 に抽出された映像画素データとの色差信号力も求まる彩度の差分に基づき、前記隣 接元画素データの何れかを抽出する点にある。
[0047] 同第三十五の特徴構成は、上述の第三十二から三十四の何れかの特徴構成に加 えて、前記抽出処理工程は、求められた彩度が何れも所定の閾値未満であるときに は、前記隣接元画素データと前記直前に抽出された画素データとの輝度の差分に 基づいて前記隣接元画素データの何れかを抽出する点にある。
[0048] 同第三十六の特徴構成は、上述の第二十から第二十五特徴構成に加えて、前記 元画素データと、前記元画素データに隣接する隣接元画素データの隣接方向に直 交する方向に隣接する所定数の直交隣接元画素データとの相関を判別し、相関が あると判別されたときは、抽出された新たな画素データに所定の演算を施して第 2の 新たな画素データを生成する演算処理工程を有する点にある。
[0049] 同第三十七の特徴構成は、上述の第三十六特徴構成に加えて、前記演算処理ェ 程は、前記元画素データと前記直交隣接元画素データとの輝度の差分または色差 信号の位相差に基づいて相関の有無を判別し、前記元画素データの輝度の差分ま たは色差信号の位相差に基づいて演算処理を施す点にある。
[0050] 同第三十八の特徴構成は、上述の第三十六特徴構成に加えて、前記演算処理ェ 程は、前記元画素データと前記直交隣接元画素データとの輝度の差分または色差 信号の位相差に基づいて相関の有無を判別し、前記元画素データの輝度の差分、 色差信号の位相差及び色信号の少なくとも 1つに基づ!ヽて演算処理を施す点にある
[0051] 本発明による映像信号処理装置の第一の特徴構成は、画面を構成する画素群が 第一の画素群と第二の画素群に分散配置され、それらが互いに異なる映像信号に 基づいて各別に駆動されることにより、二方向に異なる映像が同時に表示可能なマ ルチビュー表示装置に対して、ソース信号を構成する 1フレームの元画素データを所 定方向に圧縮処理して映像画素データを生成し、生成された前記映像画素データ で構成される映像信号に基づいて前記マルチビュー表示装置の第一または第二の 何れかの画素群を駆動する映像信号処理装置であって、前記所定方向に配列され た任意の元画素データをその隣接元画素データとの間で所定のフィルタ演算を施し て平滑化処理して新たな画素データを生成する平滑化処理手段と、平滑化処理され た画素データ力 圧縮率に基づいた数の画素データを前記映像画素データとして 抽出する抽出処理手段とを備えてなる点にある。
[0052] 同第二の特徴構成は、画面を構成する画素群が第一の画素群と第二の画素群に 分散配置され、それらが互いに異なる映像信号に基づいて各別に駆動されることに より、二方向に異なる映像が同時に表示可能なマルチビュー表示装置に対して、ソ ース信号を構成する 1フレームの元画素データを所定方向に圧縮処理して映像画素 データを生成し、生成された前記映像画素データで構成される映像信号に基づ ヽて 前記マルチビュー表示装置の第一または第二の何れかの画素群を駆動する映像信 号処理装置であって、前記所定方向に配列され圧縮率に基づ 、て決定された所定 数の隣接元画素データと、直前に抽出された映像画素データの間で RGB成分毎に 差分を求める比較手段と、前記比較手段で求められた差分に基づいて前記隣接元 画素データの RGB成分の何れかを次の映像画素データの RGB成分の何れかとして 抽出する抽出処理手段とを備えてなる点にある。
[0053] 同第三の特徴構成は、画面を構成する画素群が第一の画素群と第二の画素群に 分散配置され、それらが互いに異なる映像信号に基づいて各別に駆動されることに より、二方向に異なる映像が同時に表示可能なマルチビュー表示装置に対して、ソ ース信号を構成する 1フレームの元画素データを所定方向に圧縮処理して映像画素 データを生成し、生成された前記映像画素データで構成される映像信号に基づ ヽて 前記マルチビュー表示装置の第一または第二の何れかの画素群を駆動する映像信 号処理装置であって、前記所定方向に配列され圧縮率に基づ 、て決定された所定 数の隣接元画素データと、直前に抽出された映像画素データの間で輝度の差分を 求める比較手段と、前記比較手段で求められた差分に基づいて前記隣接元画素デ ータの何れかを次の映像画素データとして抽出する抽出処理手段とを備えてなる点 にある。
[0054] 同第四の特徴構成は、画面を構成する画素群が第一の画素群と第二の画素群に 分散配置され、それらが互いに異なる映像信号に基づいて各別に駆動されることに より、二方向に異なる映像が同時に表示可能なマルチビュー表示装置に対して、ソ ース信号を構成する 1フレームの元画素データを所定方向に圧縮処理して映像画素 データを生成し、生成された前記映像画素データで構成される映像信号に基づ ヽて 前記マルチビュー表示装置の第一または第二の何れかの画素群を駆動する映像信 号処理装置であって、前記所定方向に配列され圧縮率に基づ 、て決定された所定 数の隣接元画素データと、直前に抽出された映像画素データの間で輝度の差分を 求め、求めた差分が同一である力、求めた差分の何れもが所定の閾値未満であるか 、求めた差分の何れもが所定の閾値未満であるときには、前記隣接元画素データと 前記映像画素データの間で色差信号の位相差を求める比較手段と、前記比較手段 で求められた位相差が最大となる元画素データを映像画素データとして抽出する抽 出処理手段とを備えてなる点にある。
[0055] 同第五の特徴構成は、画面を構成する画素群が第一の画素群と第二の画素群に 分散配置され、それらが互いに異なる映像信号に基づいて各別に駆動されることに より、二方向に異なる映像が同時に表示可能なマルチビュー表示装置に対して、ソ ース信号を構成する 1フレームの元画素データを所定方向に圧縮処理して映像画素 データを生成し、生成された前記映像画素データで構成される映像信号に基づ ヽて 前記マルチビュー表示装置の第一または第二の何れかの画素群を駆動する映像信 号処理装置であって、前記所定方向に配列され圧縮率に基づ 、て決定された所定 数の隣接元画素データと、直前に抽出された映像画素データの間で色差信号の位 相差を求める比較手段と、前記比較手段で求められた位相差に基づいて前記隣接 元画素データの何れかを次の映像画素データとして抽出する抽出処理手段とを備え てなる^;にある。
[0056] 同第六の特徴構成は、画面を構成する画素群が第一の画素群と第二の画素群に 分散配置され、それらが互いに異なる映像信号に基づいて各別に駆動されることに より、二方向に異なる映像が同時に表示可能なマルチビュー表示装置に対して、ソ ース信号を構成する 1フレームの元画素データを所定方向に圧縮処理して映像画素 データを生成し、生成された前記映像画素データで構成される映像信号に基づ ヽて 前記マルチビュー表示装置の第一または第二の何れかの画素群を駆動する映像信 号処理装置であって、前記所定方向に配列され圧縮率に基づ 、て決定された所定 数の隣接元画素データと、直前に抽出された映像画素データの間で色差信号から 求まる彩度の差分を求める比較手段と、前記比較手段で求められた彩度の差分に 基づいて前記隣接元画素データの何れかを次の映像画素データとして抽出する抽 出処理手段とを備えてなる点にある。
[0057] 同第七の特徴構成は、映像ソース信号を構成する複数の元画素データに基づい て複数の新たな画素データを変換生成する変換処理手段と、前記変換処理手段で 変換処理された複数の新たな画素データ力 映像信号を生成するための所定数の 画素データを抽出する抽出処理手段とを備え、前記変換処理手段は、前記抽出処 理手段による画素データの抽出を考慮して、任意の元画素データ及び少なくともそ の隣接元画素データに基づいて新たな画素データを変換生成する点にある。
[0058] 同第八の特徴構成は、映像ソース信号を構成する複数の画素データから映像信号 を生成するための所定数画素データを映像画素データとして抽出する抽出処理手 段を備え、前記抽出処理手段は、所定数の隣接画素データと、直前に抽出された映 像画素データとの RGB成分毎の差分に基づき、前記隣接元画素データの RGB成 分の何れかを次の映像画素データの RGB成分の何れかとして抽出する点にある。
[0059] 同第九の特徴構成は、映像ソース信号を構成する複数の元画素データから映像信 号を生成するための所定数の元画素データを映像画素データとして抽出する抽出 処理手段を備え、前記抽出処理手段は、所定数の隣接元画素データと、直前に抽 出された映像画素データとの輝度の差分に基づき、前記隣接元画素データの何れ かを抽出する点にある。
[0060] 同第十の特徴構成は、映像ソース信号を構成する複数の元画素データから映像信 号を生成するための所定数の元画素データを映像画素データとして抽出する抽出 処理手段を備え、前記抽出処理手段は、所定数の隣接元画素データと、直前に抽 出された映像画素データとの色差信号の位相差に基づき、前記隣接元画素データ の何れかを抽出する点にある。
[0061] 同第十一の特徴構成は、映像ソース信号を構成する複数の元画素データ力 映像 信号を生成するための所定数の元画素データを映像画素データとして抽出する抽 出処理手段を備え、前記抽出処理手段は、所定数の隣接元画素データと、直前に 抽出された映像画素データとの色差信号力も求まる彩度の差分に基づき、前記隣接 元画素データの何れかを抽出する点にある。
[0062] 同第十二の特徴構成は、映像信号に基づいて複数の視方向に対する個別の映像 を同一画面上に表示可能な表示部と、映像ソース信号を構成する複数の元画素デ ータに基づいて複数の新たな画素データを変換生成する変換処理手段と、前記変 換処理手段で変換処理された複数の新たな画素データから映像信号を生成するた めの所定数の画素データを抽出する抽出処理手段とを備えてなる表示装置であって 、前記変換処理手段は、前記抽出処理工程による画素データの抽出を考慮して、任 意の元画素データ及び少なくともその隣接元画素データに基づ 、て新たな画素デ ータを変換生成する点にある。
[0063] 本発明による表示装置の特徴構成は、映像信号に基づ!/ヽて複数の視方向に対す る個別の映像を同一画面上に表示可能な表示部と、映像ソース信号を構成する複 数の元画素データから映像信号を生成するための所定数の元画素データを映像画 素データとして抽出する抽出処理手段を備え、前記抽出処理手段は、所定数の隣接 元画素データと、直前に抽出された映像画素データとの RGB成分毎の差分に基づ き、前記隣接元画素データの RGB成分の何れかを次の映像画素データの RGB成 分の何れかとして抽出する点にある。
[0064] 同第二の特徴構成は、映像信号に基づいて複数の視方向に対する個別の映像を 同一画面上に表示可能な表示部と、映像ソース信号を構成する複数の元画素デー タから映像信号を生成するための所定数の元画素データを映像画素データとして抽 出する抽出処理手段を備え、前記抽出処理手段は、所定数の隣接元画素データと、 直前に抽出された映像画素データとの輝度の差分に基づき、前記隣接元画素デー タの何れかを抽出する点にある。
[0065] 同第三の特徴構成は、映像信号に基づいて複数の視方向に対する個別の映像を 同一画面上に表示可能な表示部と、映像ソース信号を構成する複数の元画素デー タから映像信号を生成するための所定数の元画素データを映像画素データとして抽 出する抽出処理手段を備え、前記抽出処理手段は、所定数の隣接元画素データと、 直前に抽出された映像画素データとの色差信号の位相差に基づき、前記隣接元画 素データの何れかを抽出する点にある。
[0066] 同第四の特徴構成は、映像信号に基づいて複数の視方向に対する個別の映像を 同一画面上に表示可能な表示部と、映像ソース信号を構成する複数の元画素デー タから映像信号を生成するための所定数の元画素データを映像画素データとして抽 出する抽出処理手段を備え、 前記抽出処理手段は、所定数の隣接元画素データと 、直前に抽出された映像画素データとの色差信号力 求まる彩度の差分に基づき、 前記隣接元画素データの何れかを抽出する点にある。
発明の効果
[0067] 以上説明した通り、本発明によれば、ソース信号力 映像信号を生成する際に、高 域成分の欠落を防ぐとともに、画素データの連続性を確保できる映像信号処理方法 、映像信号処理装置、及び、表示装置を提供することができるようになった。
図面の簡単な説明 [図 1]図 1は、本発明の一実施の形態に係る表示装置の概念図である。
[図 2]図 2は、図 1に示した表示装置を車に搭載したことを示す斜視図である。
[図 3]図 3は、図 1に示した表示部の断面図である。
[図 4]図 4は、表示パネルを正面から見た構造の概略図である。
[図 5]図 5は、 TFT基板の概略を示す回路図である。
[図 6]図 6は、図 1に示した表示装置のブロック図である。
[図 7]図 7は、図 6に示した画像出力部 211のブロック図である。
[図 8]図 8は、図 6に示した制御部 200のブロック図である。
[図 9]図 9は、図 6に示したメモリ 218のブロック図である。
[図 10]図 10は、二系統の映像信号から表示部に表示される映像信号の生成手順を 示す説明図である。
[図 11]図 11は、本実施例 1による表示装置(映像信号処理装置)のブロック構成図で ある。
[図 12]図 12は、マルチビュー表示装置の説明図である。
[図 13]図 13は、液晶パネノレの説明図である。
[図 14]図 14は、本発明による映像信号処理方法の説明図である。
[図 15]図 15は、本実施例による映像信号処理方法の説明図である。
[図 16]図 16は、本実施例による映像信号処理方法の説明図である。
[図 17]図 17は、本実施例による映像信号処理装置の要部のブロック構成図である。
[図 18]図 18は、本実施例のフローチャートである。
[図 19]図 19は、別実施形態を示す映像信号処理方法の説明図である。
[図 20]図 20は、別実施形態のフローチャートである。
[図 21]図 21は、別実施形態を示すフローチャートである。
[図 22]図 22は、別実施形態を示す映像信号処理方法の説明図である。
[図 23]図 23は、別実施形態を示すフローチャートである。
[図 24]図 24は、別実施形態を示す映像信号処理方法の説明図である。
[図 25]図 25は、別実施形態を示す映像信号処理方法の説明図である。
[図 26]図 26は、別実施形態を示す映像信号処理方法の説明図である。 [図 27]図 27は、別実施形態を示す映像信号処理方法の説明図である。
[図 28]図 28は、別実施形態を示す映像信号処理方法の説明図である。
[図 29]図 29は、別実施形態を示す映像信号処理方法の説明図である。
[図 30]図 30は、別実施形態を示す映像信号処理方法の説明図である。
[図 31]図 31は、別実施形態を示す映像信号処理方法の説明図である。
[図 32]図 32は、別実施形態を示す映像信号処理方法の説明図である。
[図 33]図 33は、別実施形態を示す表示装置 (映像信号処理装置)のブロック構成図 である。
符号の説明
1:第 1の映像ソース、 2:第 2の映像ソース、 3:第 1の画像データ、 4:第 2の画像デー タ、 5:表示制御部、 6:表示データ、 7:表示部、 8:第 1の表示画像、 9:第 2の表示画 像、 10:観察者、 11:観察者、 12:助手席、 13:運転席、 14:ウィンドシールド、 15: 操作部、 16:スピーカ、 100:液晶パネル、 101:バックライト、 102:偏光板、 103:偏 光板、 104:TFT基板、 105:液晶層、 106:カラーフィルタ基板、 107:ガラス基板、 1 08:視差バリア、 109:左側 (助手席側)表示用の画素、 110:右側 (運転席側)表示 用の画素、 111:表示パネル駆動部、 112:走査線駆動回路、 113:データ線駆動回 路、 114:TFT素子、 115〜118:データ線、 119〜121:走査線、 122:画素電極、 123:サブピクセル、 124:タツチノ ネル、 200:制御部、 201 :CD,MD再生部、 20 2:ラジオ受信部、 203: TV受信部、 204:DVD再生部、 205 :HD (Hard Disk)再生 部、 206:ナビゲーシヨン部、 207:分配回路、 208:第 1の画像調整回路、 209:第 2 の画像調整回路、 210:音声調整回路、 211:画像出力部、 212:VICS情報受信部 、 213:GPS情報受信部、 214:セレクタ、 215:操作部、 216:リモコン送受信部、 21 7:リモコン、 218:メモリ、 219:外部音声 Z映像入力部、 220:カメラ、 221:明るさ検 知手段、 222:乗員検知手段、 223:リア表示部、 224: ETC車載器、 225:通信ュ- ット、 226:第 1の書込回路、 227:第 2の書込回路、 228: VRAM (Video RAM), 22 9:インターフェース、 230:CPU、 231:記憶部、 232:データ記憶部、 233:第 1の画 面 RAM、 234:第 2の画面 RAM234、 235:画質設定情報記憶手段、 236:対環境 調整値保持手段、 325:マルチビュー表示装置、 340:映像信号処理装置、 341:映 像信号出力手段、 342 :抽出処理手段、 343 :平滑化処理手段、 344 :ソース信号選 択出力手段、 345 :操作部 (モード切替手段)、 346 :圧縮処理手段
発明を実施するための最良の形態
[0070] 以下、本発明を具現化する表示装置の基本的な実施の形態を図面に従って説明 する。但し、本発明の技術的範囲は以下に記載する実施の形態に限定されず、特許 請求の範囲に記載された発明とその均等物に及ぶものである。
[0071] 図 1は、本発明に係わるマルチビュー表示装置 (以下、単に「表示装置」と記す。 ) の概念図である。図中、 1は第 1の映像ソース、 2は第 2の映像ソース、 3は第 1の映像 ソースからの第 1の画像データ、 4は第 2の映像ソース力もの第 2の画像データ、 5は 表示制御手段、 6は表示データ、 7は表示部(例えば液晶パネル等)、 8は第 1の映像 ソース 1に基づく第 1の表示画像、 9は第 2の映像ソース 2に基づく第 2の表示画像、 1 0は表示部 7に対して左側に位置する観察者 (利用者)、 11は表示部 7に対して右側 に位置する観察者 (利用者)である。
[0072] 図 1の概念図は、表示部 7に対する観察者 10、 11の相対的位置に応じて、換言す れば表示部 7に対する視野角に応じて、観察者 10は第 1の表示画像 8を、観察者 11 は第 2の表示画像 9を実質的に同時に見ることができ、しかも各々の表示画像 8、 9は 表示部 7の表示面全体に渡ってみることができることを概念的に示すものである。図 1 において、第 1の映像ソース 1は例えば DVDプレーヤの映画画像やテレビ受信機の 受信画像等、第 2の映像ソース 2は例えばカーナビゲーシヨン装置の地図やルート案 内画像等であり、それぞれの第 1の映像データ 3及び第 2の映像データ 4は表示制御 手段 5に供給され、それらが表示部 7で実質的に同時に表示できるように処理される
[0073] 表示制御手段 5から表示データ 6が供給される表示部 7は、後述する視差バリアを 備えた液晶パネル等で構成される。表示部 7の横方向の総画素の半数が第 1の映像 ソース 1に基づく第 1の表示画像 8の表示に、残りの半数の画素が第 2の映像ソース 2 に基づく第 2の表示画像 9の表示に使用される。表示部 7に対して左側に位置する観 察者 10には、第 1の表示画像 8に対応する画素のみが見え、第 2の表示画像 9は表 示部 7の表面に形成されている視差バリアによって遮られて実質的に見えない。一方 、表示部 7に対して右側に位置する観察者 11には、第 2の表示画像 9に対応する画 素のみが見え、第 1の表示画像 8は視差バリアにより遮られて実質的に見えない。尚
、視差バリアについては、例えば、特開平 10— 123461号公報、特開平 11— 8413
1号公報に開示された構成を応用できる。
[0074] このような構成により、単一の画面で左右の利用者に異なる情報やコンテンツを提 供することができる。もちろん、第 1、第 2の映像ソースが同じであれば、従来通り左右 の利用者が同じ画像を見ることもできる。
[0075] 図 2は、本発明に係る表示装置の車両への搭載例を示す斜視図である。図中、 12 は助手席、 13は運転席、 14はウィンドシールド、 15は操作部、 16はスピーカである
[0076] 図 1の表示装置の表示部 7は、例えば図 2に示すように、運転席 13と助手席 12との ほぼ中央のダッシュボード部分に配置される。表示装置に対する各種操作は、表示 部 7の表面に一体的に形成したタツチパネル(図示せず)や操作部 15又は、赤外線 又は無線リモートコントローラ(図示せず)の操作によって行われる。車両の各ドアに はスピーカ 16が配置され、表示画像に連動した音声や警告音等が出力される。
[0077] 運転席 13に図 1の観察者 11が、助手席 12には観察者 10が座る。表示部 7に対す る第 1視方向(運転席側)から見ることができる画像は例えばカーナビゲーシヨン装置 の地図等の画像であり、実質的に同時に第 2視方向(助手席側)から見ることができ る画像は例えばテレビ受信画像や DVDムービー画像である。従って、運転席 13の 運転者がカーナビゲーシヨンによる運転支援を受けるのと同時に助手席 12の同乗者 はテレビや DVDを楽しむことができる。し力もそれぞれの画像は例えば 7インチの画 面全体を使用して表示されるため、従来のマルチウィンドウ表示のように画面サイズ 力 S小さくなることもない。つまり、運転者、同乗者にとっては、あた力も各々に独立した 専用のディスプレイがあるかの如ぐそれぞれに最適な情報やコンテンツが提供され るのである。
[0078] 図 3は、表示部 7の断面構造の概略図である。図中、 100は液晶パネル、 101はバ ックライト、 102は液晶パネルのバックライト側に設置された偏光板、 103は液晶パネ ルの発光方向側の前面に配置された偏光板、 104は TFT(Thin Film Transistor)基 板、 105は液晶層、 106はカラーフィルタ基板、 107はガラス基板、 108は視差バリア である。液晶パネル 100は、 TFT基板 104とそれに対向して配置されるカラーフィル タ基板 106の間に液晶層 105を挟持した一対の基板と、その発光方向側の前面に 配置された視差バリア 108とガラス基板 107とを、 2枚の偏光板 102· 103の間に挟ん だ構成となっており、ノ ックライト 101からやや離隔して配設される。また、液晶パネル 100は、 RGB色(三原色)で構成される画素を有する。
[0079] 液晶パネル 100の各画素は、左側 (助手席側)表示用と、右側 (運転席側)表示用 に分けられて表示制御される。そして、左側 (助手席側)表示用画素は、視差バリア 1 08により右側(運転席側)への表示は遮断され、左側 (助手席側)からは見えるように なっている。また、右側 (運転席側)表示用画素は、視差バリア 108により左側 (助手 席側)への表示が遮断され、右側(運転席側)からは見えるようになつている。これに よって、運転者と同乗者に異なった表示を提供することが可能となる。つまり、運転者 にはナビゲーシヨンの地図情報を与え、同時に同乗者には DVDの映画等を見せる ことが可能となる。なお、視差バリア 108、前記液晶パネルの各画素の構成を変更す れば、 3方向等、複数方向に異なった画像を表示する構成も可能である。また、視差 ノリア自体を電気的に駆動可能な液晶シャツタ等で構成して視野角を可変するよう にしてもよい。
[0080] 図 4は、表示パネルを正面から見た構造の概略図であり、図 3は図 4中の A—
断面である。図中、 109は左側 (助手席側)表示用の画素、 110は右側(運転席側) 表示用の画素である。図 3及び図 4は、例えば横方向に 800画素、縦方向に 480画 素並べられた液晶パネル 100の一部を表す。左側 (助手席側)表示用の画素 109と 右側(運転席側)表示用の画素 110は縦方向にグループィ匕され、交互に並んで 、る 。視差バリア 108は、横方向にある間隔で配置され、縦方向には一様である。これに よって、左側力も表示パネルを見ると、視差バリア 108が右側用画素 110を覆い隠し て、左側用画素 109が見える。また同様に右側力も見ると、視差バリア 108が左側用 画素 109を覆い隠して、右側用画素 110が見える。さらに正面付近では、左側用画 素 109と右側用画素 110の両方が見えるため、左側表示画像と右側表示画像とが実 質的に重なって見える。ここで、図 4中の交互に並んだ左側用画素 109及び右側用 画素 110は、図 3のように RGB色を有している力 各グループ縦方向内は、 R列、 G 列、 B列のように単色で構成されていてもよいし、 RGBが複数混じった列として構成さ れていてもよい。
[0081] 具体的には、例えば、前記表示部 7において、右側 (運転席側)と左側 (助手席側) の 2方向に異なる映像を表示させるためには、夫々の映像に対応するソース信号を 構成する 800 X 480の画素を 400 X 480の画素に圧縮することで、前記表示部 7の 画素数である 800 X 480に対応した映像信号にするように構成できる。このとき、図 1 0に示すように、運転席側のソース信号については本来映像を表示すべきソース信 号のうち奇数列のソース信号を間引き、また、助手席側のソース信号については偶 数列のソース信号を間引く構成を採用できる。ただし、間引き方はこれに限定するも のではなぐ 1画素を構成する R, G, Bの各要素単位に奇数列、偶数列で間引き処 理してもよい。間引き処理により圧縮された夫々の映像ソースを列が交互になるよう に合成処理して最終の映像ソースが生成される。
[0082] このようにして表示部に表示された映像を右側(運転席側)または左側 (助手席側) 力 眺めると、間引き処理によって元画像の画像情報の高域成分が欠落し、画素デ ータの連続性も失われて 、るので、そのような映像信号に基づ 、て表示された映像 はかなり見辛いものになる。そこで、本発明では、制御手段(図 6に符号 200で示され る)によって、映像ソース信号を構成する複数の元画素データに基づいて複数の新 たな画素データを変換生成する変換処理工程と、前記変換処理工程で変換処理さ れた複数の新たな画素データ力 映像信号を生成するための所定数の画素データ を抽出する抽出処理工程が実行されるように構成されている。ここで、前記変換処理 工程は、前記抽出処理工程による画素データの抽出を考慮して、任意の元画素デ ータ及び少なくともその隣接元画素データに基づ!/、てフィルタ演算等を施すことによ つて新たな画素データを変換生成するように構成されて!、るので、処理後の各画素 データは隣接画素データの成分が加味された値として生成され、画質の劣化の程度 が改善される。
[0083] 図 5は TFT基板 104の概略を示す回路図である。 111は表示パネル駆動部、 112 は走査線駆動回路、 113はデータ線駆動回路、 114は TFT素子、 115〜118はデ ータ線、 119〜121は走査線、 122は画素電極、 123はサブピクセルである。
[0084] 図 5に示すように、サブピクセル 123は各データ線 115〜118及び各走査線 119〜 121によって囲まれた領域を一単位とし、複数形成される。各サブピクセルには、液 晶層 105に電圧を印加する画素電極 122とそれをスイッチング制御する TFT素子 1 14が形成されて 、る。表示パネル駆動部 111は走査線駆動回路 112及びデータ線 駆動回路 113の駆動タイミングを制御する。走査線駆動回路 112は TFT素子 114の 選択走査を行い、またデータ線駆動回路 113は画素電極 122への印加電圧を制御 する。
[0085] 前記複数のサブピクセルは、第 1の画像データと第 2の画像データの合成データも しくは、第 1と第 2の個々の画像データに基づいて、例えばデータ線 115と 117に第 1 の画素データ (左側画像表示用)を、またデータ線 116と 118に第 2の画素データ( 右側画像表示用)を送信することよって、第 1の画像を表示する第 1の画像データ群 と第 2の画像を表示する第 2の画像データ群が形成される。
[0086] 図 6は、本発明に係わる表示装置の概要を示すブロック図であり、いわゆる Audio Visual Navigation複合機への適用例である。図中、 124はタツチパネル、 200は制 御手段、 201は CDZMD再生部、 202はラジオ受信部、 203は TV受信部、 204は DVD再生、 205は HD (Hard Disk)再生部、 206はナビゲーシヨン部、 207は分配 回路、 208は第 1の画像調整回路、 209は第 2の画像調整回路、 210は音声調整回 路、 211は画像出力部、 212は¥1じ3情報受信部、 213は GPS情報受信部、 214は セレクタ、 215は操作部、 216はリモコン送受信部、 217はリモコン、 218はメモリ、 21 9は外部音声 Z映像入力部、 220はカメラ、 221は明るさ検知手段、 222は乗員検知 手段、 223はリア表示部、 224は ETC車載器、 225は通信ユニットである。
[0087] 表示部 7は、タツチパネル 124、液晶パネル 100及びバックライト 101から構成され る。表示部 7の液晶パネル 100は、これまでに述べてきたように、第 1視方向として運 転席側から見られる画像と、第 2視方向として助手席側カゝら見られる画像とを、実質 的に同時に表示することが可能となっている。尚、表示部 7には、液晶パネル以外の フラットパネルデイスレイ、例えば有機 ELディスプレイパネル、プラズマディスプレイ パネル、冷陰極フラットパネルディスプレイ等を用いることもできる。 [0088] 制御手段 200は、各種ソース(CDZMD再生部 201、ラジオ受信部 202、 TV受信 部 203、 DVD再生部 204、 HD再生部 205及びナビゲーシヨン部 206)力 の画像 や音声は、制御手段 200からの指示に基づき左用に指定された映像ソースを 208に 、右用に指定されたソースを 209に分配させる分配回路 207を介して、画像であれば 第 1の画像調整回路 208及び第 2の画像調整回路 209に、音声であれば音声調整 回路 210にそれぞれ分配される。そして、第 1及び第 2の画像調整回路 208、 209で は、輝度や色調、コントラストなどが調整され、調整された各画像を画像出力部 211 にて、表示部 7に表示させる。また音声調整回路 210では各スピーカへの分配や音 量、音声が調整され、調整された音声が、スピーカ 16から出力される。
[0089] 制御手段 200は、第一の画像調整回路 208、第二の画像調整回路 209、及び画 像出力部 211を制御して、例えば、前記変換処理工程においては、水平方向に配 列された元画素データに対して、任意の元画素データと少なくともその隣接元画素 データとの間で所定のフィルタ演算による平滑ィ匕処理を行なって新たな画素データ を生成する処理を全ての元画素データに対して施し、前記抽出処理工程にぉ 、て は、前記変換処理工程で変換生成された新たな画素データに対応する元画素デー タとその隣接元画素データとの輝度の差分に基づいて、映像信号を構成する新たな 画素データを抽出処理するのである。このような映像信号処理方法によれば、例えば 、変換された画素群力 元画素の輝度の差分が大となる画素群を抽出することにより 高域成分を強く含む画素を選択することができ、表示された映像の鮮鋭度を保ち、 良好な視認性を確保することができる。
[0090] 図 7は画像出力部 211の概略を示すブロック図である。図中、 226は第一の書込回 路、 227は第二の書込回路、 228は VRAM (Video RAM)である。
[0091] 画像出力部 211は、例えば図 7に示すように、第 1の書込回路 226と第 2の書込回 路 227と VRAM (Video RAM) 228と表示パネル駆動部 111とを備えて!/ヽる。例えば 、第 1の書込回路 226は、第 1の画像調整回路 208で調整された画像データのうち 奇数列に対応する画像データ (即ち、図 1の第 1の表示画像 8用の画像データ)を、 第 2の書込回路 227は、第 2の画像調整回路 209で調整された画像データのうち偶 数列に対応する画像データ (即ち、図 1の第 2の表示画像 9用の画像データ)をもとに し、それぞれ VRAM228における該当する領域に書き込む。また表示パネル駆動部 111は液晶パネル 100を駆動する回路であり、 VRAM228に保持されて!ヽる画像デ ータ(第 1の画像データと第 2の画像データの合成データ)に基づいて、液晶表示パ ネル 100の対応する画素を駆動する。尚、 VRAM228には第 1の画像データと第 2 の画像データの合成されたマルチビュー表示用の画像に対応するように画像データ の書き込みが行われているので、駆動回路は 1つでよぐその動作も通常の液晶表 示装置の駆動回路の動作と同じである。また別の構成として、第 1の画像データと第 2の画像データを合成せずに、それぞれの画像データに基づいて、液晶表示パネル の対応する画素を駆動する第 1の表示パネル駆動回路及び第 2の表示パネル駆動 回路を用いることも考えられる。
[0092] ここで、図 6で示した各種ソースの一例について説明をすると、 HD再生部 205を選 択した場合、ハードディスク (HD)に記憶された MP3ファイル等の音楽データや JPE Gファイル等の画像データ、ナビゲーシヨン用の地図データ等が読み出され、音楽デ ータを選択するためのメニュー表示や画像データを表示部 7に表示させることができ る。
[0093] ナビゲーシヨン部 206は、ナビゲーシヨンの為に利用される地図情報を記憶した地 図情報記憶部を備え、 VICS情報受信部 212、 GPS情報受信部 213から情報を入 手し、ナビゲーシヨン動作の為の画像を作成し、表示させることができる。また TV受 信部 203は、アンテナ力もセレクタ 214を介して、アナログ TV放送波及びデジタル T V放送波を受信する。
[0094] 図 8は制御手段 200の概略を示すブロック図である。図中、 229はインターフェース 、 230ίま CPU、 231【ま記'隐咅^ 232ίまデータ記'隐咅である。
[0095] 尚、制御手段 200は分配回路 207並びに各種ソースを制御し、選択された 2つのソ ースもしくは 1つのソースについて表示を行わせる。また制御手段 200は、これら各種 ソースをコントロールするための操作メニュー表示を表示部 7に表示させることも行つ ている。ここで、図 8で示すように、制御手段 200はマイクロプロセッサなどで構成され 、インターフェース 229を介して、表示装置内の各部や各回路を統括的に制御して いる CPU230を備えている。この CPU230には、表示装置の動作に必要な各種の プログラムを保持する ROM力もなるプログラム記憶部 231と、各種のデータを保持す る RAM力もなるデータ記憶部 232とが設けられている。なお、 ROMや RAM等は、 CPUに内蔵されたものでも、外部に設けたものでも使用することが可能である。又、 ROMはフラッシュメモリの様に電気的に書き換え可能な不揮発性メモリでもよい。
[0096] ユーザは、上記各種ソースのコントロールを、表示部 7の表面に取り付けられている タツチパネル 124や表示部 7の周囲に設けられたスィッチ、もしくは音声認識等の入 力操作や選択操作を操作部 215によって行うことができる。またリモコン送受信部 21 6を介して、リモコン 217により入力もしくは選択操作をしてもよい。制御手段 200は、 このタツチパネル 124や操作部 215の操作に従って、各種ソースを含めた制御を行 つている。また、制御手段 200は、図 2のように車両内に複数備え付けられたスピーカ 16の各音量等を、音声調整回路 210を用いて制御することができるように構成され ている。また制御手段 200は、メモリ 218に画質設定情報やプログラム、車両情報等 の各種設定情報を記憶させることも行って 、る。
[0097] 図 9はメモリ 218の概略を示すブロック図である。図中、 233は第 1の画面 RAM、 2 34は第 2の画面 RAM234、 235は画質設定情報記憶手段、 236は対環境調整値 保持手段である。
[0098] メモリ 218は、例えば図 9に示すように、使用者が設定した第 1の画像および第 2の 画像の画質の調整値がそれぞれ書き込み可能な第 1の画面 RAM233および第 2の 画面 RAM234を有する。また、第 1の画像及び第 2の画像の画質を調整する場合に 、読み出すことができるプリセット値として各画質調整用に予め複数段階の画質調整 値が記憶されている画質設定情報記憶手段 235も有する。さらに車外の明るさ変化 等の周囲環境変化に応じた画質を調整するために、周囲環境に対する第 1の映像 及び第 2の映像の画質の調整値を保持する対環境調整値保持手段 236を有してい る。ここで画質設定情報記憶手段 235及び対環境調整値保持手段 236は、フラッシ ュメモリなどの電気的書き換え可能不揮発性メモリ又はノ ッテリバックアップされた揮 発性メモリにより構成される。
[0099] 外部音声 Z画像入力部 219に接続された、例えば後方監視用のカメラ 220からの 画像を表示部 7に表示するようにしてもよい。なお、後方監視用カメラ 220以外に、ビ デォカメラ及びゲーム機等を外部音声 Z画像入力部 219に接続してもよい。
[0100] 制御手段 200は、明るさ検知手段 221 (例えば、車両のライトスィッチや光センサ) や乗員検知手段 222 (例えば、運転席や助手席に設けられる感圧センサ)により検知 された情報を元に、音声の定位位置等の設定を変更させることが可能である。
[0101] 223は車両の後席用に設けられたリア表示部であり、画像出力部 211を介して、表 示部 7に表示される画像と同じもの、もしくは運転席用の画像カゝ助手席用の画像の一 方が表示可能である。
[0102] 制御手段 200は、 ETC車載器 250からの料金表示等を表示させることを行ってい る。また制御手段 200は、携帯電話などと無線接続するための通信ユニット 225を制 御し、これに関する表示がされるようにしてもよい。
[0103] 以下に、上述した表示装置に具現化され、映像ソース信号力 映像信号を生成す る際に、高域成分の欠落を防ぐとともに、画素データの連続性を確保できる映像信号 処理方法、映像信号処理装置について詳述する。図 11に示すように、車両を目的 地に誘導するナビゲーシヨン装置 Nと、地上波デジタル放送を受信する電波受信装 置 302と、 DVDプレーヤ 330と、前記ナビゲーシヨン装置 N、前記電波受信装置 30 2、または前記 DVDプレーヤ 330の何れか二系統の映像ソース信号による表示画像 を同時に表示可能なマルチビュー表示装置 325と、前記マルチビュー表示部 325を 表示制御する映像信号処理装置 340等が車両に搭載されている。即ち、マルチビュ 一表示部 325と映像信号処理装置 340によって表示装置が構成されている。
[0104] 前記ナビゲーシヨン装置 Nは、道路地図データを記憶した地図データ記憶手段 30 5と、自車の位置情報を認識する GPS受信手段 306と、 GPSアンテナ 306aと、自車 の走行状態を管理する自律航法手段 307と、地図データに基づいて指定された目 的地までの経路を探索する経路探索手段 308と、地図上に自車の走行位置を表示 する走行状態表示処理手段 309と、各種の動作モードや動作条件を設定する操作 部 326等を備えて構成され、単一または複数の CPUとその動作プログラムが格納さ れた ROM及びワーキングエリアに使用される RAMを備えて各ブロックが制御される ように構成され、指定された地点に自車を誘導するナビゲーシヨン機能を有して ヽる [0105] 前記電波受信装置 2は、受信アンテナ 320と、前記受信アンテナ 320を介して受信 された伝送チャンネル (周波数帯域)を選局するチューナ 321と、選局された受信信 号力もデジタル信号を取り出して誤り訂正処理を行な 、TS (トランスポートストリーム) パケットを出力する OFDM復調部 322と、 TSパケットのうち映像 ·音声パケットから音 声信号を復号してスピーカ 324に出力するとともに、映像信号を復号して表示部 325 に出力するデコーダ 323を備えたデジタルテレビ受信機で構成されている。
[0106] 前記マルチビュー表示部 325は、画面を構成する画素群が第一の画素群と第二の 画素群に分散配置され、それらが互いに異なる映像信号に基づいて各別に駆動さ れることにより、二方向に異なる映像が同時に表示可能に構成され、図 12に示すよう に、 TFTアレイ 916を形成した TFT基板 912とそれに対向して配置される対向基板 914の間に液晶層 913を挟持した一対の基板を 2枚の偏光板 911の間に配置した 液晶パネルと、マイクロレンズと遮光スリットを形成した視差バリア層 915を形成した視 差バリア基板 917とを一体形成して構成されている。
[0107] 前記 TFTアレイ 916は、図 13に示すように、データ線 925と走査線 924によって囲 まれた領域を一単位とする複数の画素が形成され、各画素には液晶層 913に電圧を 印加する画素電極 923と、それをスイッチング制御する TFT素子 922が形成されて いる。走査線駆動回路 921は TFT素子 922の選択走査を行い、またデータ線駆動 回路 920は、画素電極 923への印加電圧を制御する。制御回路 926は走査線駆動 回路 921及びデータ線駆動回路 920の駆動タイミングを制御する。
[0108] 前記画素は全体として 800 X 480ドット設けられ、一列置き(一データ線置き)に配 列 (奇数列と偶数列に分類)された第一の画素群 (400 X 480ドット)と第二の画素群 の二つの画素群 (400 X 480ドット)で構成され、それぞれはソースの異なる映像信 号に基づいて各別に駆動される。前記二つの画素群を通過した光は、それぞれ視差 ノリア層 915によって異なる方向へ導かれ、或いは、特定方向の光は遮光されるた め、空間上の表示面 918近傍に限って、異なる方向へ異なる映像を表示することが 可能となっている。尚、二つの画素群は一列置きに配列するものに限られるのではな ぐ画面内において分散配置されていればよい。
[0109] 前記マルチビュー表示部 325は、運転席と助手席の中央部のフロントパネルに設 置され、運転席側から観察される映像と助手席側から観察される映像が異なるよう〖こ 表示することが可能な構成となっている。例えば、助手席側では前記電波受信装置
302からの映像情報が観察される一方で、運転者席側では前記ナビゲーシヨン装置 Nのディスプレイとして使用が可能である。
[0110] 前記映像信号処理装置 340は、図 10に示したように、ソース信号を構成する 1フレ 一ムの元画素データを所定方向(ここでは、水平方向)に抽出処理して映像画素デ ータを生成し、生成された映像画素データで構成される映像信号に基づ ヽて前記マ ルチビュー表示部 325の第一または第二の何れかの画素群を駆動する装置で、図 1 1に示すように、上述した複数の映像ソース信号 (以下、単に「ソース信号」とも記す。 )から各画素群へ供給するソース信号を選択するソース信号選択出力手段 344と、 選択された二系統のソース信号の夫々を構成する 1フレームの元画素データを表示 部 325の各画素群の画素に対応付けるべく水平方向に 50%の圧縮率で圧縮処理し て 1フレームの映像画素データに変換処理する圧縮処理手段 346と、圧縮処理後の 夫々の映像信号を出力して前記マルチビュー表示部 325を駆動する映像信号出力 手段 341と、前記ソース信号選択出力手段 344によるソース信号の選択基準を設定 するモード切替手段としての操作部 345等を備えて構成されている。
[0111] 前記操作部 345は、前記マルチビュー表示部 325の表示画面に設けられたタツチ パネルと前記表示画面に表示される選択キーにより入力部が具現化され、夫々の画 素群への映像の表示のオン Zオフ操作、ソース信号の選択操作等が行われる。尚、 操作部 345は、表示画面上に設けられる構成に限定されるものではない。
[0112] 前記圧縮処理手段 346は、前記ソース信号選択出力手段 344から供給される二系 統のソース信号に対して、所定方向(ここでは水平方向)に配列された任意の元画素 データとその隣接元画素データとの間で所定の画像変換処理、例えば、フィルタ演 算による平滑ィヒ処理等を行なって前記元画素データに対応する新たな画素データ を生成する変換処理手段の一例である平滑化処理手段 343と、平滑化処理された 画素データ力 圧縮率に基づいた所定数の画素データを前記映像画素データとし て抽出する抽出処理手段 342とを備えて構成されて 、る。
[0113] 前記平滑化処理手段 343は、図 14 (a) , (b)に示すように、ソース信号の 1フレーム を構成する元画素データのうち、水平方向に配列された任意の元画素とそれに隣接 する隣接元画素の 3画素単位で、 1 : 2 : 1のフィルタ係数を掛けて加算した値を係数 和 4で除すことにより新たな画素を生成するローパスフィルタ処理、つまり平滑処理ェ 程を実行する。即ち、中心画素を重視しながら左右の隣接画素の影響を加味した新 たな画素データが生成されるのである。ここに、第一番目の画素は元画素データが そのまま採用される。
[0114] 尚、元画素とはソース信号を構成する画素で、前記表示部 325の左側或いは右側 の何れか一方の視方向に表示される画素を指し、上述のフィルタ処理により隣接画 素の値を加味した映像画素の候補として変換処理される。実際に表示に使用される 画素数は元画素数の半分であるから、奇数画素或いは偶数画素が採用されることに なる。従って、図 14 (b)に示すように、本例では例えば、従来採用されなかった偶数 画素の成分データが反映された奇数画素が映像画素として選択される。
[0115] 前記抽出処理手段 342は、図 14 (b)に示すように、新たに生成された画素のうち、 偶数配列の画素または奇数配列の画素の何れかの画素群を 1フレームに亘つて抽 出することにより前記映像画素データを生成、つまり抽出工程を実行する。このように して生成された映像画素データは、図 15 (b)に示すように、単に元画素から偶数配 列の画素または奇数配列の画素の何れかの画素群を 1フレームに亘つて抽出するこ とによって表示部 325に表示された図 15 (a)に示すような映像に比べて、画素間の データの変化が大き ヽことを示す高周波成分が残されるので、大きく画質が劣化する ようなことが無ぐ或る程度の良好な視認性を確保することができるのである。ここに、 画素データの変換処理のための演算は RGBの色成分データ、または YUVの輝度、 色差データに基づいて行なうことができ、その何れを対象とするものであってもよい。 尚、図 15では実際に観察者が見たときの映像を模擬的に示すものであり、変換処理 を行なわない元画素データ力 抽出された映像画素データにより表示部に表示され た映像を示す図 15 (a)では、高周波成分が欠落するため、元の映像から重要なエツ ジ情報が欠落した状態として見える。図 15 (b)では、隣接画素の情報が抽出画素に 加味されるため、元映像の凡そを認識できるようになる。
[0116] また、前記抽出処理手段 342による偶数配列の画素または奇数配列の画素の何 れかの画素群の抽出処理に際しては、図 16に示すように、元画素データに隣接する 元画素データの輝度または輝度に相当する値 (RGBの平均値等)と元画素データの 輝度または輝度に相当する値 (RGBの平均値等)との差分に基づいて偶数または奇 数の何れかの画素群を選択することとしてもよ!、。
[0117] 即ち、水平方向に配列されている元画素とその左右に隣接する元画素との輝度の 差分を求める処理を 1フレームに亘つて行ない、偶数画素群と奇数画素群で差分を 加算し、その値が大なる方の画素群を選択するようにしてもよぐ偶数画素群と奇数 画素群で各差分が所定の閾値を超える画素 (特異点)数が多い方の画素群を抽出 するものであってもよい。このように構成することにより、輝度変化の大きな画素が選 択されることになり、高域成分を強く含む画素が選択され、鮮鋭度が保たれ、良好な 視認性を確保することができるようになる。このプロセスを実現するブロック回路を図 1 7に示す。このような抽出処理、つまり偶数画素群と奇数画素群の何れを選択するか の判断は毎フレーム行なう必要が無ぐ図 18に示すように、所定フレーム単位に行な つてもよい。
[0118] また、前記平滑ィ匕処理手段 343により採用されるフィルタ係数は固定されるものに 限らず、元画素に隣接する元画素の輝度と元画素の輝度の変化量に基づいて切り 替えるように構成してもよい。例えば、図 19 (a) , (b)に示すように、元画素と隣接元 画素の輝度の差分が何れも所定の閾値を超えるときには、 1: 2 : 2のフィルタ係数を 用いてローパスフィルタ処理を行ない、その他のときには、 1 : 2 : 1のフィルタ係数を用 いてローパスフィルタ処理を行なうことにより映像画素の候補画素を獲得するように構 成することができる。図 20は 1フレームの元画素の水平同期タイミングで行なわれる フィルタ処理のフローである。即ち、中心画素データが大きな山または谷となるときに は一方の隣接画素の影響を強めたフィルタ係数を採用し、そうでないときには通常の フィルタ係数を採用するものである。尚、フィルタ係数の具体的値はこれらの値に限 定されるものではなぐ適宜適切な値を可変設定することができる。
[0119] さらに、前記平滑化処理工程において、前記フィルタ係数が、元画素データに隣接 する元画素データの輝度 (Y信号)と元画素データの輝度 (Y信号)の差分と、それら 間の色差信号 (Cb, Cr信号)の位相差の何れかまたは双方に基づ ヽて決定されるよ うに構成することができ、これにより、輝度または色の大きな変化に基づいてその影響 を取り込んだ処理が可能になり、その結果、映像の鮮鋭性を確保することができるよう になる。例えば、図 21は、先ず輝度成分によってフィルタ係数が選択され、このとき に通常のフィルタ係数(1 : 2 : 1)が選択されても、色差信号の位相差が閾値より大と なるときにはフィルタ係数 ( 1 : 2 : 2)が選択されるように構成することができる。この場 合において輝度成分による選択と色差信号の位相差による選択の手順を入れ替え て構成するものであってもよ 、。
[0120] 同様に、水平方向に 3画素単位でフィルタ処理する際に、図 22 (a) , (b)、図 23に 示すように、フィルタ係数(a : 2 : j8 )の α ( α = lorO) , β ( β = lor2)の値を、任意 の元画素の左右に位置する画素を夫々中心としてその両隣の元画素との輝度 (Y信 号)の差分と色差信号 (Cb, Cr信号)の位相差の何れかまたは双方に基づ 、て決定 するように構成するものであってもよい。例えば 3番目力 5番目の 3画素に基づいて 4番目の元画素を変換処理する場合、 3番目の元画素に対するフィルタ係数 exを決 定する際には、 2番目の元画素と 3番目の元画素の輝度の差分及び 3番目と 4番目 の元画素の輝度の差分が共に所定の閾値よりも大であればフィルタ係数 aを 0に、 そうでないときにはノーマルの 1に決定し、 5番目の元画素に対するフィルタ係数 |8を 決定する際には、 4番目の元画素と 5番目の元画素の輝度の差分及び 5番目の元画 素と 6番目の元画素の輝度の差分が共に所定の閾値よりも大であればフィルタ係数 j8を 2に、そうでないときにはノーマルの 1に決定し、通常のフィルタ係数(1 : 2 : 1)に 決定されたときには、さらに対応する元画素について色差信号 (Cb, Cr信号)の位相 差が共に所定の閾値より大である力否かを判断してフィルタ係数 OC , βを決定するも のである。この場合も、輝度成分による選択と色差信号の位相差による選択の手順を 入れ替えて構成することができる。この場合も、変換された画素の奇数番目または偶 数番目の何れかの画素が映像画素として抽出される。
[0121] 上述した平滑ィ匕処理工程において、平滑処理の対象となる隣接元画素データの画 素数は左右の各 1画素に制限されるものではなぐ圧縮率に基づいて決定されるもの である。抽出処理によって欠落する画素成分を確保することが必要であるので、平滑 処理の対象画素数を必要以上に多くしても鮮鋭度が確保できず、少な過ぎても高域 成分を確保できないのである。そこで、圧縮率に基づいて対象画素数を決定すること により常に安定した結果が得られるようになるのである。
[0122] 以下、さらに、別実施形態を説明する。上述した実施形態では、圧縮処理手段 346 が平滑ィ匕処理手段 343と抽出処理手段 342とで構成されるものを説明した力 図 33 に示すように、圧縮処理手段 346が、所定方向に配列され圧縮率に基づいて決定さ れた所定数の隣接元画素データと、直前に抽出された映像画素データの間で RGB 成分毎に差分を求める比較手段 343'と、前記比較手段 343'で求められた差分に 基づいて前記隣接元画素データの RGB成分の何れかを次の映像画素データの RG B成分の何れかとして抽出する抽出処理手段 342とを備えて構成されるものであって ちょい。
[0123] 例えば、前記比較手段 343'で実行される比較工程において、図 24 (a) , (b)に示 すように、水平方向に配列され圧縮率に基づ!ヽて決定された所定数の隣接元画素 データ(ここでは 50%の圧縮率で 2画素を隣接画素データ数とする)と、前記抽出処 理手段 342により直前に抽出された映像画素データ (ここでは、最初の映像画素デ ータは 1番目の元画素データがそのまま抽出される)の間で RGB成分毎に夫々差分 を求め、抽出処理工程では、前記比較工程で求められた差分に基づいて前記隣接 元画素データのうちから R成分の差分の大なる値、 G成分の差分の大なる値、 B成分 の差分の大なる値を個別に抽出して新たな映像画素とするのである。各色成分のう ち差分の大なる成分を夫々選択して新たな映像画素データとするので、色の大きく 変化する画素成分を取り込むことができ、鮮鋭性を確保することができるのである。
[0124] 前記抽出処理工程において、前記比較工程で求められた RGB成分毎の差分のう ち、所定の閾値より小となる成分については、前記隣接元画素データの何れかの成 分またはそれらの平均値が次の映像画素データの成分として抽出されるように構成 することができ、これにより大きな変化を伴なう画素を特異点として抽出することが可 能となる。
[0125] 上述した何れかの圧縮処理手段 346において、前記抽出処理手段 342によって抽 出された映像画素データのうち、水平方向と直交する垂直方向に隣接する所定数の 映像画素データに対応する元画素データの相関の有無を判別する相関判別手段と 、前記相関判別手段で相関があると判別されたときに各映像画素データに対して所 定の第二フィルタ演算を施して平滑ィヒ処理して新たな映像画素データを生成する第 二平滑化処理手段を備えることにより、圧縮方向と直交する方向における画素の相 関を確保して鮮鋭且つ滑らかな映像を確保することができるようになる。
[0126] 例えば、図 25 (a)に示すように、水平方向に沿った nラインと n+ 1ラインに存在する 元画素データのうち、垂直方向に隣接する元画素間で輝度の差分を求め、その値が 相関の有無を判断する予め決定された所定の閾値よりも小であるときに相関有と判 断して、相関が認められるときには nラインと n+ 1ライン間の対応する映像画素間の 平均値を n+ 1ラインの新たな映像画素として変換処理し、相関が無いときには抽出 処理手段によって抽出された映像画素をそのまま出力することにより、映像画素の垂 直方向のスムージング処理を行なうことができる。同図(b)はその際の回路ブロック構 成図である。尚、変換処理は隣接する 2ライン間に限るものではなぐ 3ライン以上の 複数のライン間で行なうものであってもよ 、。
[0127] また、前記相関判別手段における相関の有無の判別は輝度のみならず、前記元画 素データの輝度または色差の位相差の何れかまたは双方に基づいて判別することが 可能で、前記第二平滑化処理手段において、前記第二フィルタ係数が、前記元画 素データの輝度または色差の何れかまたは双方に基づ 、て決定されるように構成す ることも可能である。このようにすれば好みに合わせて垂直方向における輝度または 色差のエッジの処理を調整することができるようになる。
[0128] 例えば、エッジ部で第二フィルタ係数を大に設定すれば鮮鋭性の高 、映像が得ら れるようになる。第二フィルタ係数は、図 26 (a)に示すように、 nラインを中心として垂 直方向に 1ラインずつの 3ラインにおける垂直方向に配列された映像画素に対応した 元画素の相関を例えば輝度の差分で判断し、相関があるときに垂直方向に配列され る 3つの映像画素を 1: 2 : 1のフィルタ係数で平滑ィ匕処理することで、滑らかな映像が 得られ、図 26 (b)に示すように、フィルタ係数(a、 β 0、 ω )を相関の有無によって 可変設定するものであってもよい。この場合、係数 α、 Θは相関有のとき 1に、相関無 しのときに 0に設定され、係数 |8は係数ひ、 Θの値に依存して決定される。尚、第二 平滑化処理の対象データは前記抽出処理手段によって抽出された映像画素データ であり、その演算対象は RGB色成分データ、 YUVデータの何れであってもよい。
[0129] さらに、前記第二平滑化処理手段において決定される第二フィルタ係数が、元画 素データの色信号 Cに基づいて決定されるものであってもよい。例えば、ソース信号 が NTSC方式で得られる場合、輝度信号 Yと色信号 Cの周波数が異なることからコン ポジット信号から輝度成分を除去するバンドパスフィルタを設けて色成分を分離する ことができる。しかし、単にバンドパスフィルタのみでは輝度成分を完全に除去できな いため、色信号 Cがライン毎に位相が反転していることに着目してライン間で減算し て平均値を求める減算回路が必要となる。この色信号の差分が所定の閾値より大で あるか小であるかによりライン間の相関を判別することができる。そして、図 32に示す ように、このときの相関の有無の判別にその減算回路を兼用することにより、別途の 相関判定回路を設ける必要が無くなるという利点が生じる。
[0130] またさらに、水平方向に配列され圧縮率に基づいて決定された所定数の隣接元画 素データと、直前に抽出された映像画素データの間で輝度の差分を求める比較手 段と、前記比較手段で求められた差分に基づいて前記隣接画素データの何れかを 次の映像画素データとして抽出する抽出処理手段を備えて圧縮処理手段を構成し てもよい。
[0131] 例えば、圧縮率に基づいて決定された隣接元画素データ数が 2のとき、図 27 (a) ,
(b) , (c)に示すように、最初の映像画素として最初に配列される左端の元画素を抽 出し、当該映像画素を基準画素として 2番目と 3番目の 2つの元画素データ (これらを 同図(c)では比較画素 1と比較画素 2と記す。)と夫々輝度を比較する。その差分が 大なる画素を次の映像画素として抽出するとともに基準画素とする。図 27 (b)では、 基準画素と比較画素 1の輝度の差分が基準画素と比較画素 2の輝度の差分より大で あれば次の映像画素(丸で囲まれた数字 2Ίとして比較画素 1つまり 2番目の画素が 抽出され、基準画素と比較画素 2の輝度の差分が基準画素と比較画素 1の輝度の差 分より大であれば次の映像画素(丸で囲まれた数字 2Ίとして比較画素 2つまり 3番 目の画素が抽出されることを示す。さらに、抽出された映像画素 (丸で囲まれた数字 2 Ίを基準画素として、 4番目と 5番目の画素(比較画素 1、比較画素 2とする)の輝度と 夫々比較して大なる方を 3番目の映像画素(丸で囲まれた数字 3Ίとして抽出するも ので、水平ラインに配列された元画素に沿って基準画素と次の 2つの元画素との輝 度の差分を求めるという処理を繰り返すのである。これによれば、基準画素に対する 輝度の差分が大なる元画素が選択されるので、コントラストの良好な映像が得られる ようになるのである。
[0132] 図 28 (a)に示すように、基準画素と候補とする所定数の元画素との輝度を夫々比 較し、何れもが所定の閾値以上であるときには、前述の比較工程を実施して次の映 像画素を抽出し、図 28 (b)に示すように、一方の比較画素が所定の閾値以上で他方 の比較画素が所定の閾値未満であるときには、一方の比較画素を次の映像画素とし て抽出し、図 28 (c)に示すように、何れもが所定の閾値未満であるときには、前記隣 接元画素データの平均値が次の映像画素データとして抽出されるように構成すること ができる。この場合、基準画素に対する輝度の差分が大となる元画素が選択される ので、コントラストの良好な映像が得られるようになるとともに、輝度がそれほど変化し ない元画素に対しては、平均処理を行なうことで滑らかな画像が得られるようになる。 また、図 28 (d)に示すように、比較工程で直前に抽出された映像データと比較される 前記隣接画素データ間の輝度の差分が所定の閾値未満であるときには、前記隣接 画素データの平均値が次の映像画素データとして抽出されるように構成し、図 28 (e) に示すように、比較工程で直前に抽出された映像画素データと比較される前記隣接 元画素データ間の輝度の差分が所定の閾値以上のときに比較するように構成しても よい。さらに、図 28 (f)に示すように、比較工程で求められた輝度の差分の差分が所 定の閾値未満であるときには、前記隣接元画素データの平均値が次の映像画素デ ータとして抽出されるように構成し、図 28 (g)に示すように、比較工程で求められた輝 度の差分の差分が所定の閾値未満であるときには、前記所定の閾値以上のときに比 較するように構成してもよい。何れの場合であっても、輝度がそれほど変化しない元 画素に対しては、平均処理を行なうことで滑らかな映像が得られる。
[0133] ここで、水平方向に配列され、圧縮率に基づいて決定された所定数の隣接元画素 データと、直前に抽出された映像画素データの間で輝度の差分を求め、求めた差分 が同一であるか、求めた差分の何れもが所定の閾値未満であるか、求めた差分の差 分の何れもが所定の閾値未満であるときには、前記隣接元画素データと前記映像画 素データの間で色差信号 (Cb, Cr)の位相差を求める比較手段と、前記比較手段で 求められた位相差が最大となる元画素データを映像画素データとして抽出する抽出 処理手段を備えて圧縮処理手段を構成してもよ ヽ。
[0134] さらに別の実施形態では、水平方向に配列され、圧縮率に基づいて決定された所 定数の隣接元画素データと、直前に抽出された映像画素データの間で色差信号 (C b, Cr)の位相差を求める比較手段と、前記比較手段で求められた位相差に基づい て前記隣接元画素データの何れかを次の映像画素データとして抽出する抽出処理 手段を備えて圧縮処理手段を構成してもよい。この方式では、図 29 (a) , (b) , ( に 示すように、元画素の色の変化がある部分の欠落を防止することができる。尚、図中 、丸で囲まれた数字 2'及び 3Ίま、図 27と同様、比較の結果、抽出された映像画素を 示す記号である。
[0135] この場合、図 30 (d)に示すように、求められた位相差が何れも所定の閾値未満であ るときに、前記隣接元画素データの色差信号から求まる彩度(= (Cb2 + Cr2) 1/2) に基づ!/、て前記隣接元画素データの何れか、例えば彩度の大なる画素が次の映像 画素データとして抽出されるように構成することもできる。
[0136] また、図 30 (c)に示すように、隣接元画素データの色差信号から求まる互!、の位相 差が何れも所定の閾値未満であるときに、前記隣接元画素データの色差信号力 求 まる彩度に基づいて前記隣接元画素データの何れかが次の映像画素データとして 抽出されるように構成することも可能である。
[0137] また、水平方向に配列され圧縮率に基づいて決定された所定数の隣接元画素デ ータと、直前に抽出された映像画素データの間で色差信号力 求まる彩度の差分を 求める比較手段と、前記比較手段で求められた彩度の差分に基づいて前記隣接元 画素データの何れかを次の映像画素データとして抽出する抽出処理手段とから圧縮 処理手段を構成してもよい。この場合には、図 30 (a)に示すように、基準画素に対し て比較画素 1は位相差が小さいが彩度が大きぐ比較画素 2は位相差が大きいが彩 度が小さい場合に、彩度の大きな比較画素 1を抽出することができるようになる。図 3 0 (b)に示すように、彩度に閾値を設けて閾値以上の元画素を抽出してもよいし、図 3 0 (e)に示すように、基準画素の彩度と比較画素の彩度の差分の差分を求め、その 値が所定の閾値より大となる元画素を抽出するように構成してもよい。
[0138] さらに、比較工程において、求められた彩度が何れも所定の閾値未満であるときに 、前記隣接元画素データと直前に抽出された映像画素データの間で輝度の差分が 求められ、前記抽出処理工程において、輝度の差分値に基づいて前記隣接元画素 データの何れかが次の映像画素データとして抽出されるものであってもよい。
[0139] 上述の何れかの実施形態において、基準画素と比較画素の位相を arc tanを用 いて求める場合には、図 31 (a)に示すような ROMや割り算回路が必要となる等、回 路規模だが大きくコストが嵩む不都合がある。そこで、図 31 (b) , (c)に示すように、 色差信号 Cb, Crの正負の符号から位相の象限を判定し、さらに Cb, Crの絶対値か ら全体を 8つに等分割することで、大まかな位相を検出することが可能になる。この方 法による場合には、回路規模が大幅に縮小され、コストが低減されるようになる。
[0140] 上述の実施形態では、何れも圧縮方向が水平方向のものを説明したが、これに限 定されるものではなぐ縦方向に圧縮されるものであっても同様の処理が可能である 。先の実施形態では、圧縮率が 50%に設定されたものを説明したが、圧縮率も同様 にこの値に限定されるものではなぐ適宜設定された圧縮率に対して適用できるもの である。
[0141] 上述の実施形態で示した夫々の装置及び方法は本発明の作用効果をそうする限り において適宜組み合わせて実現することができる。また、個々の具体的回路構成は 公知の技術を用いて適宜構成されるものである。
[0142] 上述した実施形態では、マルチビュー表示装置として、特開 2004— 206089号公 報に記載されたような液晶パネルを用いた場合について説明した力 これに限定さ れるものではなぐ特開 2003— 15535号公報に記載されたような構成を採用するも の等の他、有機 ELやプラズマディスプレイ、 CRT、 SED等を用いて構成されたマル チビユー表示装置一般に対しても同様に適用することができる。
[0143] 上述した実施形態では、車両に搭載されたマルチビュー表示装置について説明し たが、これに限定されるものではなぐ家庭用の表示装置に適用することもできる。
[0144] 尚、本例では二方向のマルチビューとした力 その他、三方向や四方向等複数の 方向のマルチビューとして適用することも可能である。その場合、画素群としてはその 方向の数だけ分散配置されることになる。

Claims

請求の範囲
[1] 映像ソース信号を構成する複数の元画素データに基づ 、て複数の新たな画素デ ータを変換生成する変換処理工程と、前記変換処理工程で変換処理された複数の 新たな画素データから映像信号を生成するための所定数の画素データを抽出する 抽出処理工程とを備え、
前記変換処理工程は、前記抽出処理工程による画素データの抽出を考慮して、任 意の元画素データ及び少なくともその隣接元画素データに基づ 、て新たな画素デ ータを変換生成する映像信号処理方法。
[2] 前記抽出処理工程は、前記変換処理工程で変換生成された新たな画素データに 対応する元画素データとその隣接元画素データとの輝度の差分に基づいて、抽出 すべき新たな画素データを決定する請求項 1記載の映像信号処理方法。
[3] 前記変換処理工程は、任意の元画素データと少なくともその隣接元画素データと の間で所定のフィルタ演算による平滑ィ匕処理を行なって新たな画素データを生成す る請求項 1記載の映像信号処理方法。
[4] 前記変換処理工程は、元画素データとその隣接元画素データとの輝度の差分と色 差信号の位相差の何れ力または双方に基づいて新たな画素データを生成する請求 項 1記載の映像信号処理方法。
[5] 前記変換処理工程において、新たな画素データを変換生成する対象となる隣接元 画素データの数は、前記抽出処理工程における画素データの抽出数によって決定 される請求項 1記載の映像信号処理方法。
[6] 映像ソース信号を構成する複数の画素データから映像信号を生成するための所定 数の元画素データを映像画素データとして抽出する抽出処理工程を備え、前記抽 出処理工程は、所定数の隣接元画素データと、直前に抽出された映像画素データと の RGB成分毎の差分に基づき、前記隣接元画素データの RGB成分の何れかを次 の映像画素データの RGB成分の何れかとして抽出する映像信号処理方法。
[7] 前記抽出処理工程は、前記 RGB成分毎の差分のうち、所定の閾値より小となる成 分につ!、ては、前記隣接元画素データの何れかの成分またはそれらの平均値が次 の映像画素データの成分として抽出される請求項 6記載の映像信号処理方法。
[8] 映像ソース信号を構成する複数の元画素データから映像信号を生成するための所 定数の元画素データを映像画素データとして抽出する抽出処理工程を備え、前記 抽出処理工程は、所定数の隣接元画素データと、直前に抽出された映像画素デー タとの輝度の差分に基づき、前記隣接元画素データの何れかを抽出する映像信号 処理方法。
[9] 前記抽出処理工程は、前記輝度の差分の何れもが所定の閾値未満であるときには 、前記隣接元画素データの平均値を次の映像画素データとして抽出する請求項 8記 載の映像信号処理方法。
[10] 前記抽出処理工程は、直前に抽出された映像画素データと比較される前記隣接元 画素データ間の輝度の差分の何れもが所定の閾値未満であるときには、前記隣接 元画素データの平均値を次の映像画素データとして抽出する請求項 8記載の映像 信号処理方法。
[11] 前記抽出処理工程は、前記輝度の差分の差分が所定の閾値未満であるときには、 前記隣接元画素データの平均値を次の映像画素データとして抽出する請求項 8記 載の映像信号処理方法。
[12] 映像ソース信号を構成する複数の元画素データから映像信号を生成するための所 定数の元画素データを映像画素データとして抽出する抽出処理工程を備え、前記 抽出処理工程は、所定数の隣接元画素データと、直前に抽出された映像画素デー タとの色差信号の位相差、直前に抽出された映像画素データとの色差信号から求ま る彩度の差分の少なくとも 1つに基づき、前記隣接元画素データの何れかを抽出す る映像信号処理方法。
[13] 前記元画素データと、前記元画素データに隣接する隣接元画素データの隣接方 向に直交する方向に隣接する所定数の直交隣接元画素データとの相関を判別し、 相関があると判別されたときは、抽出された新たな画素データに所定の演算を施して 第 2の新たな画素データを生成する演算処理工程を有する請求項 12記載の映像信 号処理方法。
[14] 前記演算処理工程は、前記元画素データと前記直交隣接元画素データとの輝度 の差分または色差信号の位相差に基づいて相関の有無を判別し、前記元画素デー タの輝度の差分、色差信号の位相差及び色信号の少なくとも 1つに基づいて演算処 理を施す請求項 13記載の映像信号処理方法。
[15] 映像ソース信号を構成する複数の元画素データに基づ!、て複数の新たな画素デ ータを変換生成する変換処理手段と、前記変換処理手段で変換処理された複数の 新たな画素データから映像信号を生成するための所定数の画素データを抽出する 抽出処理手段とを備え、
前記変換処理手段は、前記抽出処理手段による画素データの抽出を考慮して、任 意の元画素データ及び少なくともその隣接元画素データに基づ 、て新たな画素デ ータを変換生成する映像信号処理装置。
[16] 映像ソース信号を構成する複数の画素データから映像信号を生成するための所定 数画素データを映像画素データとして抽出する抽出処理手段を備え、前記抽出処 理手段は、所定数の隣接画素データと、直前に抽出された映像画素データとの RG B成分毎の差分に基づき、前記隣接元画素データの RGB成分の何れかを次の映像 画素データの RGB成分の何れかとして抽出する映像信号処理装置。
[17] 映像ソース信号を構成する複数の元画素データから映像信号を生成するための所 定数の元画素データを映像画素データとして抽出する抽出処理手段を備え、前記 抽出処理手段は、所定数の隣接元画素データと、直前に抽出された映像画素デー タとの輝度の差分、直前に抽出された映像画素データとの色差信号の位相差、直前 に抽出された色差信号力 求まる彩度の差分の少なくとも何れかに基づき、前記隣 接元画素データの何れかを抽出する映像信号処理装置。
[18] 映像信号に基づいて複数の視方向に対する個別の映像を同一画面上に表示可能 な表示部と、映像ソース信号を構成する複数の元画素データに基づ 、て複数の新た な画素データを変換生成する変換処理手段と、前記変換処理手段で変換処理され た複数の新たな画素データ力 映像信号を生成するための所定数の画素データを 抽出する抽出処理手段とを備えてなる表示装置であって、
前記変換処理手段は、前記抽出処理手段による画素データの抽出を考慮して、任 意の元画素データ及び少なくともその隣接元画素データに基づ 、て新たな画素デ ータを変換生成する表示装置。
[19] 映像信号に基づいて複数の視方向に対する個別の映像を同一画面上に表示可能 な表示部と、映像ソース信号を構成する複数の元画素データ力 映像信号を生成す るための所定数の元画素データを映像画素データとして抽出する抽出処理手段を 備え、
前記抽出処理手段は、所定数の隣接元画素データと、直前に抽出された映像画 素データとの RGB成分毎の差分に基づき、前記隣接元画素データの RGB成分の何 れかを次の映像画素データの RGB成分の何れ力として抽出する表示装置。
[20] 映像信号に基づいて複数の視方向に対する個別の映像を同一画面上に表示可能 な表示部と、映像ソース信号を構成する複数の元画素データ力 映像信号を生成す るための所定数の元画素データを映像画素データとして抽出する抽出処理手段を 備え、
前記抽出処理手段は、所定数の隣接元画素データと、直前に抽出された映像画 素データとの輝度の差分、直前に抽出された映像画素データとの色差信号の位相 差、直前に抽出された色差信号力も求まる彩度の差分の少なくとも何れかに基づき、 前記隣接元画素データの何れかを抽出する表示装置。
PCT/JP2005/020219 2004-11-02 2005-11-02 映像信号処理方法、映像信号処理装置、及び、表示装置 WO2006049213A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US11/666,332 US20070296865A1 (en) 2004-11-02 2005-11-02 Video-Signal Processing Method, Video-Signal Processing Apparatus, and Display Apparatus
EP05805511A EP1808842A4 (en) 2004-11-02 2005-11-02 Method for processing video signals, device for processing video signals and display device

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2004-318834 2004-11-02
JP2004318834 2004-11-02
JP2005253880A JP2006154756A (ja) 2004-11-02 2005-09-01 映像信号処理方法、映像信号処理装置、及び、表示装置
JP2005-253880 2005-09-01

Publications (1)

Publication Number Publication Date
WO2006049213A1 true WO2006049213A1 (ja) 2006-05-11

Family

ID=36319218

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/020219 WO2006049213A1 (ja) 2004-11-02 2005-11-02 映像信号処理方法、映像信号処理装置、及び、表示装置

Country Status (5)

Country Link
US (1) US20070296865A1 (ja)
EP (1) EP1808842A4 (ja)
JP (1) JP2006154756A (ja)
KR (1) KR100854646B1 (ja)
WO (1) WO2006049213A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008091005A1 (en) * 2007-01-24 2008-07-31 Sharp Kabushiki Kaisha Method of and apparatus for processing image data for display by a multiple-view display device
JP2012506065A (ja) * 2008-10-20 2012-03-08 シャープ株式会社 表示デバイスによって表示するために、画像データを処理する方法および装置
JP6374625B1 (ja) * 2018-02-02 2018-08-15 株式会社ドワンゴ 表示媒体、表示支援媒体、処理装置および処理プログラム
JP2019133124A (ja) * 2018-07-19 2019-08-08 株式会社ドワンゴ 表示媒体、表示支援媒体、処理装置および処理プログラム
WO2020137031A1 (ja) * 2018-12-27 2020-07-02 株式会社ドワンゴ 処理装置、プログラムおよび表示媒体
US11915617B2 (en) 2019-08-21 2024-02-27 Dwango Co., Ltd. Display medium, processing device, and processing program

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4628199B2 (ja) * 2005-07-01 2011-02-09 アルパイン株式会社 表示装置
JP2008203486A (ja) 2007-02-20 2008-09-04 Epson Imaging Devices Corp 画像表示装置及び電子機器
JP4255032B2 (ja) * 2007-03-15 2009-04-15 富士通テン株式会社 表示装置及び表示方法
JP2008241730A (ja) * 2007-03-23 2008-10-09 Fujitsu Ten Ltd 表示制御装置、表示装置及び表示制御方法
US8339333B2 (en) * 2008-01-02 2012-12-25 3M Innovative Properties Company Methods of reducing perceived image crosstalk in a multiview display
JP2009069838A (ja) * 2008-09-29 2009-04-02 Fujitsu Ten Ltd 表示装置及び表示方法
KR101290013B1 (ko) 2008-10-07 2013-07-30 엘지디스플레이 주식회사 다중 뷰 영상표시장치
EP2382768A1 (en) * 2008-12-22 2011-11-02 Koninklijke Philips Electronics N.V. Method for changing an image data signal, device for changing an image data signal, display device
US8358812B2 (en) * 2010-01-25 2013-01-22 Apple Inc. Image Preprocessing
US8244004B2 (en) * 2010-01-25 2012-08-14 Apple Inc. Image preprocessing
US8244003B2 (en) * 2010-01-25 2012-08-14 Apple Inc. Image preprocessing
US8254646B2 (en) * 2010-01-25 2012-08-28 Apple Inc. Image preprocessing
WO2011163480A2 (en) * 2010-06-24 2011-12-29 Tk Holdings Inc. Vehicle display enhancements
JP5924943B2 (ja) * 2012-01-06 2016-05-25 キヤノン株式会社 撮像装置および撮像装置の制御方法
US9854259B2 (en) * 2012-07-09 2017-12-26 Qualcomm Incorporated Smoothing of difference reference picture
US20150070586A1 (en) * 2013-09-09 2015-03-12 Sony Network Entertainment International Llc System and method to view properly oriented closed captioning directly and through reflections
KR102135451B1 (ko) * 2014-01-14 2020-07-17 삼성전자주식회사 전자 장치, 디스플레이 장치의 드라이버, 이를 포함하는 통신 장치 및 디스플레이 시스템
JP6566271B2 (ja) * 2014-08-19 2019-08-28 パナソニックIpマネジメント株式会社 伝送方法及び再生装置
MA37488B1 (fr) * 2014-11-04 2017-01-31 Bouazzaoui Majid El Dispositif permettant d'afficher plusieurs sources video en simultane sur un meme ecran
KR102353522B1 (ko) * 2015-06-26 2022-01-20 엘지디스플레이 주식회사 다중 시각 표시 장치
CN113936614B (zh) * 2020-06-29 2022-10-04 京东方科技集团股份有限公司 显示面板的驱动方法、驱动装置、显示装置和存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08179751A (ja) * 1994-12-22 1996-07-12 Sony Corp 映像信号処理装置
JPH0990895A (ja) * 1995-04-21 1997-04-04 Canon Inc 表示装置
WO1997047142A2 (en) * 1996-06-07 1997-12-11 Philips Electronics N.V. Stereoscopic image display driver apparatus
JP2001197300A (ja) * 1999-11-05 2001-07-19 Seiko Epson Corp 画像処理プログラムを記録した媒体、画像処理装置および画像処理方法
JP2002141778A (ja) * 2000-11-01 2002-05-17 Rikogaku Shinkokai ディジタルフィルタ
JP2003319416A (ja) * 2002-04-25 2003-11-07 Sharp Corp 立体画像符号化装置および立体画像復号装置

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2802378B2 (ja) * 1992-03-16 1998-09-24 大日本スクリーン製造株式会社 圧縮画像デ−タの伸長方法
US5748167A (en) * 1995-04-21 1998-05-05 Canon Kabushiki Kaisha Display device for sampling input image signals
JPH09102968A (ja) * 1995-10-03 1997-04-15 Canon Inc 立体画像表示装置
JP3452472B2 (ja) * 1996-09-12 2003-09-29 シャープ株式会社 パララックスバリヤおよびディスプレイ
GB2321815A (en) * 1997-02-04 1998-08-05 Sharp Kk Autostereoscopic display with viewer position indicator
GB2317291A (en) * 1996-09-12 1998-03-18 Sharp Kk Observer tracking directional display
US5963262A (en) * 1997-06-30 1999-10-05 Cirrus Logic, Inc. System and method for scaling images and reducing flicker in interlaced television images converted from non-interlaced computer graphics data
US6624863B1 (en) * 1997-06-28 2003-09-23 Sharp Kabushiki Kaisha Method of making a patterned retarder, patterned retarder and illumination source
GB2336963A (en) * 1998-05-02 1999-11-03 Sharp Kk Controller for three dimensional display and method of reducing crosstalk
JP3803950B2 (ja) * 1999-03-04 2006-08-02 株式会社リコー 画像合成処理方法、画像合成処理装置及び記録媒体
JP4626007B2 (ja) * 1999-06-14 2011-02-02 株式会社ニコン 画像処理方法、画像処理プログラムを記録した機械読み取り可能な記録媒体、および画像処理装置
US6487304B1 (en) * 1999-06-16 2002-11-26 Microsoft Corporation Multi-view approach to motion and stereo
JP2002099249A (ja) * 2000-09-21 2002-04-05 Advanced Display Inc 表示装置および表示装置の駆動方法
JP4312944B2 (ja) * 2000-10-20 2009-08-12 パナソニック株式会社 画像処理装置
JP4691812B2 (ja) * 2001-03-29 2011-06-01 ソニー株式会社 係数データの生成装置および生成方法、それを使用した情報信号の処理装置および処理方法
US7277121B2 (en) * 2001-08-29 2007-10-02 Sanyo Electric Co., Ltd. Stereoscopic image processing and display system
US6437615B1 (en) * 2001-09-13 2002-08-20 Lsi Logic Corporation Loop filter and method for generating a control signal in phase-locked loop circuits
JP3673257B2 (ja) * 2002-06-14 2005-07-20 三菱電機株式会社 画像データ処理装置、画像データ処理方法、及び液晶ディスプレイ装置
JP2004104368A (ja) * 2002-09-06 2004-04-02 Sony Corp 画像データ処理方法、画像データ処理プログラム及び立体画像表示装置
JPWO2004046800A1 (ja) * 2002-11-20 2006-03-16 富田 誠次郎 画像表示装置用光源装置
JP3703806B2 (ja) * 2003-02-13 2005-10-05 三菱電機株式会社 画像処理装置、画像処理方法、および画像表示装置
JP4291021B2 (ja) * 2003-03-17 2009-07-08 株式会社ソフィア 画像表示装置
US7129987B1 (en) * 2003-07-02 2006-10-31 Raymond John Westwater Method for converting the resolution and frame rate of video data using Discrete Cosine Transforms
JP4536402B2 (ja) * 2004-03-05 2010-09-01 ソニー株式会社 映像再生装置、映像再生方法及びその方法をコンピュータに実行させるためのプログラム
US7813589B2 (en) * 2004-04-01 2010-10-12 Hewlett-Packard Development Company, L.P. System and method for blending images into a single image
KR101071258B1 (ko) * 2004-10-29 2011-10-10 삼성전자주식회사 액정 표시 장치 및 영상 신호 보정 방법
JP4462036B2 (ja) * 2005-01-06 2010-05-12 株式会社デンソー 液晶表示装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08179751A (ja) * 1994-12-22 1996-07-12 Sony Corp 映像信号処理装置
JPH0990895A (ja) * 1995-04-21 1997-04-04 Canon Inc 表示装置
WO1997047142A2 (en) * 1996-06-07 1997-12-11 Philips Electronics N.V. Stereoscopic image display driver apparatus
JP2001197300A (ja) * 1999-11-05 2001-07-19 Seiko Epson Corp 画像処理プログラムを記録した媒体、画像処理装置および画像処理方法
JP2002141778A (ja) * 2000-11-01 2002-05-17 Rikogaku Shinkokai ディジタルフィルタ
JP2003319416A (ja) * 2002-04-25 2003-11-07 Sharp Corp 立体画像符号化装置および立体画像復号装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1808842A4 *

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2620938A3 (en) * 2007-01-24 2014-10-08 Sharp Kabushiki Kaisha Method of and apparatus for processing image data for display by a multiple-view display device
EP2620938A2 (en) * 2007-01-24 2013-07-31 Sharp Kabushiki Kaisha Method of and apparatus for processing image data for display by a multiple-view display device
WO2008091005A1 (en) * 2007-01-24 2008-07-31 Sharp Kabushiki Kaisha Method of and apparatus for processing image data for display by a multiple-view display device
CN102036092A (zh) * 2007-01-24 2011-04-27 夏普株式会社 多画面显示装置显示用图像数据的处理方法和设备
CN102036091A (zh) * 2007-01-24 2011-04-27 夏普株式会社 多画面显示装置显示用图像数据的处理方法和设备
EP2122605A1 (en) * 2007-01-24 2009-11-25 Sharp Kabushiki Kaisha Method of and apparatus for processing image data for display by a multiple-view display device
EP2122605A4 (en) * 2007-01-24 2013-02-27 Sharp Kk METHOD AND APPARATUS FOR PROCESSING IMAGE DATA FOR DISPLAYS BY A MULTI-VIEW DISPLAY DEVICE
US9756318B2 (en) 2007-01-24 2017-09-05 Sharp Kabushiki Kaisha Method of and apparatus for processing image data for display by a multiple-view display device
JP2010503003A (ja) * 2007-01-24 2010-01-28 シャープ株式会社 マルチビュー表示装置による表示用の画像データを処理する方法および装置
JP2012506065A (ja) * 2008-10-20 2012-03-08 シャープ株式会社 表示デバイスによって表示するために、画像データを処理する方法および装置
US11094233B2 (en) 2018-02-02 2021-08-17 DWANGO, Co., Ltd. Display medium, display-support medium, processing apparatus and processing program
WO2019150652A1 (ja) * 2018-02-02 2019-08-08 株式会社ドワンゴ 表示媒体、表示支援媒体、処理装置および処理プログラム
JP6374625B1 (ja) * 2018-02-02 2018-08-15 株式会社ドワンゴ 表示媒体、表示支援媒体、処理装置および処理プログラム
JP2019133124A (ja) * 2018-07-19 2019-08-08 株式会社ドワンゴ 表示媒体、表示支援媒体、処理装置および処理プログラム
JP7051628B2 (ja) 2018-07-19 2022-04-11 株式会社ドワンゴ 表示媒体、表示支援媒体、処理装置および処理プログラム
WO2020137031A1 (ja) * 2018-12-27 2020-07-02 株式会社ドワンゴ 処理装置、プログラムおよび表示媒体
CN112740305A (zh) * 2018-12-27 2021-04-30 多玩国株式会社 处理装置、程序以及显示介质
US11460728B2 (en) 2018-12-27 2022-10-04 Dwango Co, Ltd Processing device, program, and display medium
US11915617B2 (en) 2019-08-21 2024-02-27 Dwango Co., Ltd. Display medium, processing device, and processing program

Also Published As

Publication number Publication date
JP2006154756A (ja) 2006-06-15
EP1808842A1 (en) 2007-07-18
EP1808842A4 (en) 2009-09-09
US20070296865A1 (en) 2007-12-27
KR100854646B1 (ko) 2008-08-27
KR20070072528A (ko) 2007-07-04

Similar Documents

Publication Publication Date Title
WO2006049213A1 (ja) 映像信号処理方法、映像信号処理装置、及び、表示装置
JP2006154756A5 (ja)
JP4255032B2 (ja) 表示装置及び表示方法
JP2006195415A (ja) 表示装置及び表示方法
KR100869673B1 (ko) 표시제어장치 및 표시장치
US20070291172A1 (en) Display Control Apparatus and Display Apparatus
JP2006154759A (ja) 画像補間装置、および表示装置
JP2006184859A (ja) 表示制御装置、及び表示装置
JP2010113269A (ja) 液晶表示装置、液晶表示制御装置、電子機器、および液晶表示装置の駆動方法
JP2006154754A (ja) 表示制御装置、及び、表示装置
JP5201989B2 (ja) 表示装置及び表示装置の取付方法
JP2008241730A (ja) 表示制御装置、表示装置及び表示制御方法
JP2007013534A (ja) 映像信号処理方法及びマルチビュー表示装置
JP2006197551A (ja) 表示装置及び出力制御装置
JP2006301573A (ja) 表示装置および表示方法
JP2009204862A (ja) 映像信号処理装置、表示装置、及び、映像信号処理方法
JP2006259761A (ja) 車両用表示装置および表示方法
JP4236115B2 (ja) 映像信号処理方法及び映像信号処理装置
JP4023815B2 (ja) 表示装置
JP2006293350A (ja) 表示装置及び表示方法
JP2009069838A (ja) 表示装置及び表示方法
JP2008175845A (ja) 表示制御装置及び表示装置
JP2006163412A (ja) 表示制御装置
JP2007293139A (ja) 表示装置及び車載用表示装置
JP2007025617A (ja) コントラスト調整装置、コントラスト調整方法、及び表示装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KM KN KP KR KZ LC LK LR LS LT LU LV LY MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 1020077008889

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 11666332

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 200580037789.7

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2005805511

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

WWP Wipo information: published in national office

Ref document number: 2005805511

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 11666332

Country of ref document: US