JP5583679B2 - Method and apparatus for processing image data for display by a display device - Google Patents

Method and apparatus for processing image data for display by a display device Download PDF

Info

Publication number
JP5583679B2
JP5583679B2 JP2011531757A JP2011531757A JP5583679B2 JP 5583679 B2 JP5583679 B2 JP 5583679B2 JP 2011531757 A JP2011531757 A JP 2011531757A JP 2011531757 A JP2011531757 A JP 2011531757A JP 5583679 B2 JP5583679 B2 JP 5583679B2
Authority
JP
Japan
Prior art keywords
pixel
pixel data
image
pattern
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011531757A
Other languages
Japanese (ja)
Other versions
JP2012506065A (en
Inventor
ジョン ブロウトン ベンジャミン
カイ アンドリュー
ロジャー ジョーンズ グラハム
ポール セルヴェ マーク
健次 前田
辰雄 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Publication of JP2012506065A publication Critical patent/JP2012506065A/en
Application granted granted Critical
Publication of JP5583679B2 publication Critical patent/JP5583679B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/36Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source using liquid crystals
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/36Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source using liquid crystals
    • G09G3/3611Control of matrices with row and column drivers
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F1/00Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
    • G02F1/01Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour 
    • G02F1/13Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on liquid crystals, e.g. single liquid crystal display cells
    • G02F1/133Constructional arrangements; Operation of liquid crystal cells; Circuit arrangements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2300/00Aspects of the constitution of display devices
    • G09G2300/04Structural and physical details of display devices
    • G09G2300/0439Pixel structures
    • G09G2300/0452Details of colour pixel setup, e.g. pixel composed of a red, a blue and two green components
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0242Compensation of deficiencies in the appearance of colours
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0271Adjustment of the gradation levels within the range of the gradation scale, e.g. by redistribution or clipping
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/068Adjustment of display parameters for control of viewing angle adjustment
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2358/00Arrangements for display data security
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/16Calculation or use of calculated indices related to luminance levels in display data
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2003Display of colours
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N2013/40Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene
    • H04N2013/403Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene the images being monoscopic

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Nonlinear Science (AREA)
  • Mathematical Physics (AREA)
  • Optics & Photonics (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Image Processing (AREA)
  • Liquid Crystal (AREA)
  • Liquid Crystal Display Device Control (AREA)

Description

本発明は、表示デバイスによって表示するために、画像データ処理するための方法および装置に関する。   The present invention relates to a method and apparatus for processing image data for display by a display device.

公知のアクティブマトリクス型液晶表示デバイスとしては、パブリック表示モードとプライベート表示モードとの間で切り替え可能なものや、異なる観察者に対して異なる複数の画像を導くことができるものがある。第1のモード(パブリックモード)では、このような表示が一般に標準的な表示として設定されている。単一の画像が、表示デバイスによって、すべての観察者にとって最適な明るさ、画像のコントラスト、および解像度をもって、できるだけ広い視野角の範囲に表示される。第2のモード(プライベートモード)では、主画像が、通常表示面の法線を中心とする、狭められた視野角の範囲内でのみ視認可能である。この狭められた角度の範囲の外側から表示を見ている観察者は、主画像がぼやけて見えるようにする第2の画像(マスキング画像)か、視認できないほど劣化した主画像かのいずれかを知覚する。   Known active matrix liquid crystal display devices include those that can be switched between a public display mode and a private display mode, and those that can guide different images to different observers. In the first mode (public mode), such a display is generally set as a standard display. A single image is displayed by the display device in the widest possible viewing angle range with optimal brightness, image contrast, and resolution for all viewers. In the second mode (private mode), the main image is visible only within a narrow viewing angle range centered on the normal line of the normal display surface. An observer viewing the display from outside this narrowed range of angles will either see the second image (masking image) that makes the main image appear blurry or the main image that has deteriorated so that it cannot be seen. Perceive.

英国特許第2413394号明細書(シャープ社)では、切り替え可能なプライバシー保護機能を有する表示デバイスが、1つ以上の液晶層および偏光板を表示パネルに追加することによって、製作される。これらの追加された素子が持つ本来の視野角依存性は、公知の方法で液晶を電気的に切り替えることによって変更可能である。この技術を採用する表示デバイスとしては、シャープ社製Sh851iやSh902i型携帯電話があげられる。   In GB 2413394 (Sharp), a display device with a switchable privacy protection function is produced by adding one or more liquid crystal layers and a polarizing plate to the display panel. The original viewing angle dependency of these added elements can be changed by electrically switching the liquid crystal by a known method. Examples of display devices that employ this technology include Sh851i and Sh902i type mobile phones manufactured by Sharp Corporation.

ただし、これらの種類の表示デバイスは、狭められた視野の外側にいる観察者に対して、主画像の明るさを選択的に低下させることしかできず、再構成可能なカラービデオ画像を該観察者に対して表示することができない。この機能を有する、視差バリア技術に基づくマルチビュー表示デバイスは、米国特許出願公開第2007/0296874号明細書および米国特許第7154653号明細書に記載されている。   However, these types of display devices can only selectively reduce the brightness of the main image to an observer outside the narrowed field of view, and the reconstructable color video image can be Cannot be displayed to a person. Multi-view display devices based on parallax barrier technology with this function are described in US 2007/0296874 and US Pat. No. 7,154,653.

上記の方法は、どの方法も、視野角の範囲を電気的に切り替える機能性を提供するために、余分な装置を表示デバイスに追加しなければならないという短所を有する。この結果、表示デバイスのコストおよび特に嵩が増加するが、これは特に携帯電話やラップトップコンピュータなどの携帯型表示デバイス搭載機器では、非常に望ましくない。視差バリアに基づく表示デバイスも、たとえパブリックモードであっても、各視認領域に対して表示デバイスの画素の半分を表示できるにすぎず、実質的な画像の解像度はベースとなるパネルの半分である。   Each of the above methods has the disadvantage that extra devices must be added to the display device in order to provide the functionality of electrically switching the range of viewing angles. As a result, the cost and especially the bulk of the display device increase, which is very undesirable particularly in equipment equipped with a portable display device such as a mobile phone or a laptop computer. A display device based on a parallax barrier, even in public mode, can only display half of the display device's pixels for each viewing area, and the actual image resolution is half that of the underlying panel. .

表示デバイスのハードウェア規模を増加させずにプライバシーモード機能を有する表示デバイスの1つの例が、シャープ社製Sh702iS型携帯電話である。この携帯電話は、そのLCD上に表示される画像データの処理を、表示デバイスで使用される液晶モードが本来有する角度データ/輝度特性とともに利用して、中心から外れた位置から表示デバイスを観察している観察者には表示される情報が視認できないプライベートモードを作り出す。ただし、プライベートモードにおいて、軸上に位置している正規の観察者(軸上の観察者)に対して表示される画像の品位は、ある程度劣化する。   One example of a display device having a privacy mode function without increasing the hardware scale of the display device is a SH702iS mobile phone manufactured by Sharp Corporation. This mobile phone uses the processing of the image data displayed on the LCD together with the angle data / luminance characteristics inherent in the liquid crystal mode used in the display device to observe the display device from a position off the center. Create a private mode where the displayed information is not visible to the viewer. However, in the private mode, the quality of an image displayed for a regular observer (an observer on the axis) located on the axis is deteriorated to some extent.

表示パネルに対して別途光学的装置を設けなくともプライベートモードにおいて詳細で再構成可能なサイド画像が提供できる、画像処理技術だけに基づくマルチビュー表示デバイスが、英国特許出願公開第2428152A1号明細書および英国特許出願第0804022.2号明細書に記載されている。これらの表示デバイスでは、主画像データが第2の画像(マスキング画像)に依存した様態で処理され、その結果、修正済み画像データがパネル上に表示されると、そのマスキング画像が、軸上に位置していない観察者(軸外の観察者)によって知覚される。   A multi-view display device based solely on image processing technology, which can provide detailed and reconfigurable side images in private mode without the need for a separate optical device for the display panel, is disclosed in GB-A-2428152A1 and It is described in British Patent Application No. 0804022.2. In these display devices, the main image data is processed in a manner dependent on the second image (masking image). As a result, when the corrected image data is displayed on the panel, the masking image is displayed on the axis. Perceived by a non-positioned observer (off-axis observer).

英国特許出願第0804022.2号明細書に記載されているように、マルチビューを生成するために主画像に対して適用される高空間周波数変調によって、主画像中にある画像の特徴が存在する場所において、所望しない色のアーティファクトが目立つようになる。該特許出願第明細書によると、主画像中の微細な特徴をぼやけさせるために、主画像に対して画像処理フィルタ(例えば、英国特許出願第0701325.3号明細書(公開番号GB−A−2445982)に記載されている画像処理フィルタ)を適用すれば、これらのアーティファクトの見かけが大幅に改善される。しかしながら、標準的な画像ぼかしフィルタは、上記開示のようにマルチビュー表示デバイスとともに使用すると記載されているものを含めて、画像データを処理するマルチビューのためのプロセスに関連する特定の色のアーティファクトに特化して解決するようには、設計されていない。その結果、すべての種類の画像について、主画像のぼやけを最小限に抑えつつ色のアーティファクトを除去するには、これらのフィルタの効果が不十分であることが示されている。特に、これらのフィルタは、黒字のテキストおよび白字のテキストの周囲に発生する色のアーティファクトを、同一のパラメータセットを用いて補正することができない。   Due to the high spatial frequency modulation applied to the main image to generate a multi-view, there are image features present in the main image, as described in UK patent application 0804022.2 Unwanted color artifacts become noticeable at the location. According to the patent application, an image processing filter (e.g. UK patent application No. 0701325.3 (publication number GB-A-) is applied to the main image in order to blur fine features in the main image. The appearance of these artifacts is greatly improved by applying the image processing filter described in 2445982). However, standard image blur filters include certain color artifacts associated with the process for multiview processing image data, including those described for use with multiview display devices as disclosed above. It is not designed to solve specifically. As a result, it has been shown that these filters are not effective enough to remove color artifacts for all types of images while minimizing blurring of the main image. In particular, these filters cannot correct color artifacts that occur around black and white text using the same parameter set.

したがって、パブリックモードをほとんど変えることなく、つまり、相当する標準的な表示パネルに比べて相対的に明るさ、解像度、コントラスト、視野などに遜色がないマルチビュー表示デバイスであって、マルチビュー画像プロセスによって生成される種類の色のアーティファクトに特化して補正する画像処理ステップを含めることによって、主観察者によって観察される主画像の品位が最適化される、画像処理方法に基づいてマルチビューまたはプライバシーモードを実現する機能を有する、マルチビュー表示デバイスを提供することが望まれる。   Therefore, a multi-view display device with almost no change in public mode, that is, relative to the corresponding standard display panel, brightness, resolution, contrast, field of view, etc. Multi-view or privacy based on image processing method, which optimizes the quality of the main image viewed by the main observer by including an image processing step that specifically corrects for the type of color artifacts generated by It would be desirable to provide a multi-view display device that has the ability to implement modes.

本発明の第1の態様によれば、表示デバイスの表示パネルによって表示するために画像データを処理する方法であって、画像を表わす画像の画素データを取得し、第1の処理ステップでは、該画素データを処理して、観察者に対してマルチビュー効果を創出し、第2の処理ステップでは、該画素データの複数のサブセットのそれぞれが同数の画素群を備え、かつ、各画素群が少なくとも1つの画素を備えた各サブセットについて、該サブセットの複数の画素群のうちの少なくとも1つの画素群に対して、該サブセットの複数の画素群における画素データのパターンに依存して、少なくとも1つのこのようなパターンをその反転パターンから区別できる様態で新しい画素データを導出する、方法が提供される。   According to a first aspect of the present invention, there is provided a method for processing image data for display by a display panel of a display device, wherein pixel data of an image representing an image is obtained, and in a first processing step, Processing the pixel data to create a multi-view effect for the observer, and in the second processing step, each of the plurality of subsets of pixel data comprises the same number of pixel groups, and each pixel group is at least For each subset with one pixel, for at least one pixel group of the plurality of pixel groups of the subset, depending on the pattern of pixel data in the plurality of pixel groups of the subset, at least one of this A method is provided for deriving new pixel data in such a way that such a pattern can be distinguished from its inverted pattern.

上記第1の処理ステップは、軸上においては、軸上に位置している軸上の観察者に対し空間的平均化によって局所的にバランスをとる傾向を有し、これにより、軸上の観察者にとって知覚不能な輝度のばらつきを導入し、軸上以外においては、軸上に位置していない軸外の観察者に対し空間的平均化によって局所的にバランスをとらず、これにより、軸外の観察者にとって知覚可能な輝度のばらつきを導入できるように、表示パネルの特性を考慮して実施されてもよい。   The first processing step, on the axis, has a tendency to locally balance the observer on the axis located on the axis by spatial averaging, whereby the on-axis observation Introduce non-perceptible brightness variations, and other than on-axis, off-axis observers that are not on-axis are not locally balanced by spatial averaging, which It may be implemented in consideration of the characteristics of the display panel so as to introduce a variation in luminance perceivable by the viewer.

本発明の第2の態様によれば、表示デバイスの表示パネルによって表示するために画像データを処理する方法であって、画像を表わす画像の画素データを取得し、第1の処理ステップでは、軸上においては、軸上に位置している軸上の観察者に対し空間的平均化によって局所的にバランスをとる傾向を有し、これにより、軸上の観察者にとって知覚不能な輝度のばらつきを導入し、軸上以外においては、軸上に位置していない軸外の観察者に対し空間的平均化によって局所的にバランスをとらず、これにより、軸外の観察者にとって知覚可能な輝度のばらつきを導入できるように、表示パネルの特性を考慮して該画素データを処理し、第2の処理ステップでは、該画素データの複数のサブセットのそれぞれが同数の画素群を備え、かつ、各画素群が少なくとも1つの画素を備えた各サブセットについて、該サブセットの複数の画素群のうちの少なくとも1つの画素群に対して、該サブセットの複数の画素群における画素データのパターンに依存して、新しい画素データを導出する、方法が提供される。   According to a second aspect of the present invention, there is provided a method for processing image data for display by a display panel of a display device, wherein pixel data of an image representing an image is obtained, and in a first processing step, an axis Above, there is a tendency to balance locally by spatial averaging with respect to the on-axis observer located on the axis, which results in brightness variations that are not perceptible to the on-axis observer. In other than on-axis, off-axis observers that are not located on-axis are not locally balanced by spatial averaging, which results in a perceivable brightness for off-axis observers. The pixel data is processed in consideration of the characteristics of the display panel so that variation can be introduced. In the second processing step, each of the plurality of subsets of the pixel data includes the same number of pixel groups, and each image For each subset in which the group comprises at least one pixel, new to at least one pixel group of the subset of pixel groups, depending on the pattern of pixel data in the plurality of pixel groups of the subset A method is provided for deriving pixel data.

上記第1の処理ステップでは、空間的平均化によって観察者が単一の輝度を有していると知覚する1対の画素群のうちの一方の画素群に対する、軸上において導入される輝度の任意の増加が、この1対の画素群のうちのもう一方の画素群に対する、輝度のほぼ等価な減少にほぼ一致してもよい。   In the first processing step, the luminance introduced on the axis for one pixel group of a pair of pixel groups perceived by the observer as having a single luminance by spatial averaging. Any increase may substantially coincide with an approximately equivalent decrease in luminance for the other of the pair of pixels.

上記方法は、上記1対の画素群のうちの一方の画素群の結果的に得られる輝度が最高輝度の近傍にあるか、または、上記1対の画素群のうちのもう一方の画素群の結果的に得られる輝度が最低輝度の近傍にあるかのいずれかであるように、構成されてもよい。   In the above method, the luminance obtained as a result of one pixel group of the pair of pixel groups is in the vicinity of the maximum luminance, or the other pixel group of the pair of pixel groups It may be configured such that the resulting luminance is either in the vicinity of the lowest luminance.

上記新しい画素データの導出において、画素データのパターンに依存してフィルタを選択し、選択されたフィルタを、上記サブセットの複数の画素群のうちの少なくとも一部の画素群に対して適用して新しい画素データを導出してもよい。   In the derivation of the new pixel data, a filter is selected depending on the pattern of the pixel data, and the selected filter is applied to at least a part of the plurality of pixel groups of the subset to obtain a new one. Pixel data may be derived.

上記方法は、上記画素データのパターンを複数の所定のパターンと比較し、この比較ステップの結果に依存して新しい画素データを導出してもよい。   The method may compare the pattern of the pixel data with a plurality of predetermined patterns and derive new pixel data depending on the result of the comparison step.

上記方法は、上記複数の所定のパターンのそれぞれが、対応するフィルタに関連付けられ、上記比較ステップにおいて一致するパターンを決定し、そのパターンに関連付けられたフィルタを、上記新しい画素データを導出する際に使用するために選択してもよい。   In the method, each of the plurality of predetermined patterns is associated with a corresponding filter, a matching pattern is determined in the comparison step, and the filter associated with the pattern is derived in deriving the new pixel data. You may choose to use it.

上記比較ステップにおいて、新しい画素データを導出中である上記少なくとも1つの各画素群の、すぐ隣の少なくとも1つの画素群に比べた相対的な明るさを示し、比較的高い明るさと比較的低い明るさとを区別する尺度を決定してもよい。   In the comparison step, the relative brightness of the at least one pixel group for which new pixel data is being derived is compared with at least one adjacent pixel group, and a relatively high brightness and a relatively low brightness. A measure for distinguishing between the two may be determined.

上記方法は、上記サブセット内の各画素群を、その画素データにしたがって、所定のセットをなす複数のレベルのうちの1つに割り当て、上記比較ステップにおいて、割り当てられたレベルのパターンを、上記複数の所定のパターンと比較してもよい。   The method assigns each pixel group in the subset to one of a plurality of levels forming a predetermined set according to the pixel data, and assigns a pattern of the assigned level in the comparing step to the plurality of levels. It may be compared with a predetermined pattern.

上記方法は、上記サブセットの複数の画素群のうちの少なくとも一部の画素群の画素データに基づいて尺度を算出し、上記所定の複数のレベルのうちの1つに画素群を割り当てる上記ステップが、算出された尺度に依存して実施されてもよい。   The method includes the step of calculating a scale based on pixel data of at least some of the plurality of pixel groups of the subset and assigning the pixel group to one of the predetermined plurality of levels. Depending on the calculated scale, it may be implemented.

本発明の第3の態様によれば、表示デバイスの表示パネルによって表示するために画像データを処理する方法であって、画像を表わす画像の画素データを取得し、第1の処理ステップでは、該画素データを処理して、観察者に対してマルチビュー効果を創出し、第2の処理ステップでは、該画素データの複数のサブセットのそれぞれが同数の画素群を備え、かつ、各画素群が少なくとも1つの画素を備えた各サブセットについて、このサブセットの複数の画素群のうちの少なくとも一部の画素群の画素データに基づいて尺度を算出し、上記サブセット内の各画素群を、その画素データにしたがって、かつ、算出された尺度に依存して、所定のセットをなす複数のレベルのうちの1つに割り当て、割り当てられたレベルのパターンを、複数の所定のパターンと比較し、この比較ステップの結果に依存して、上記サブセットの複数の画素群のうちの少なくとも1つの画素群について新しい画素データを導出する、方法が提供される。   According to a third aspect of the present invention, there is provided a method of processing image data for display by a display panel of a display device, wherein pixel data of an image representing an image is obtained, and in a first processing step, Processing the pixel data to create a multi-view effect for the observer, and in the second processing step, each of the plurality of subsets of pixel data comprises the same number of pixel groups, and each pixel group is at least For each subset having one pixel, a scale is calculated based on the pixel data of at least some of the plurality of pixel groups of the subset, and each pixel group in the subset is used as its pixel data. Therefore, depending on the calculated scale, it is assigned to one of a plurality of levels in a predetermined set, and the pattern of assigned levels is assigned to a plurality of places. Compared with the pattern, depending on the result of the comparison step, to derive the new pixel data for at least one pixel group of the plurality of pixel groups of the subset, a method is provided.

上記尺度は平均値であってもよい。   The scale may be an average value.

上記方法は、画素群を、例えば上記算出された尺度を閾値として用いて、その画素データと上記算出された尺度との比較に基づいて、所定のセットをなす複数のレベルのうちの1つに割り当ててもよい。   In the method, the pixel group is set to one of a plurality of levels forming a predetermined set based on a comparison between the pixel data and the calculated scale, for example, using the calculated scale as a threshold. It may be assigned.

上記方法は、上記画素データを、上記導出ステップにおいて使用するために、例えばガンマべき乗関数に基づいて、見かけの輝度値に変換してもよい。   The method may convert the pixel data into an apparent luminance value, for example based on a gamma power function, for use in the derivation step.

上記方法は、上記サブセットの画素群のパターンに依存して決定された少なくとも1つの変換パラメータを用いてもよい。   The method may use at least one conversion parameter determined depending on a pattern of the pixel group of the subset.

上記サブセットの画素群が連続的であり、ほぼ1次元に延びてもよい。   The subset of pixels may be continuous and may extend substantially in one dimension.

上記サブセットの画素群が、連続的な二次元構成を備えていてもよい。   The subset of pixels may have a continuous two-dimensional configuration.

上記各サブセットが、その他のサブセットから1つの画素群によって隔てられていてもよい。   Each of the subsets may be separated from the other subsets by one pixel group.

新しい画素データを導出する上記ステップが、第1の処理ステップにおいて実施された処理によって得られた知見を使用してもよい。   The above step of deriving new pixel data may use knowledge obtained by the processing performed in the first processing step.

上記新しい画素データが、第1の処理ステップにおいて実施される処理の結果アーティファクトを引き起こしやすい、画像の特徴を表わす画素データのパターンが生成できるように導出されてもよい。   The new pixel data may be derived so that a pattern of pixel data representing image features can be generated that is likely to cause artifacts as a result of the processing performed in the first processing step.

上記導出ステップにおいて、新しい画素データを導出中である上記少なくとも1つの各画素群が、第1の処理ステップにおいて実施される処理の結果アーティファクトを引き起こしやすい、画像の特徴を表わす画素データのパターンの一部を形成するかどうかを決定してもよい。   In the derivation step, the at least one pixel group from which new pixel data is being derived is a pixel data pattern representing image characteristics that is likely to cause artifacts as a result of the processing performed in the first processing step. It may be determined whether to form a part.

上記導出ステップにおいて、比較的暗い背景上の明るい特徴を表わす画素データのパターンが、比較的明るい背景上の暗い特徴を表わす画素データのパターンとは別に扱われてもよい。   In the deriving step, a pattern of pixel data representing a bright feature on a relatively dark background may be treated separately from a pattern of pixel data representing a dark feature on a relatively light background.

上記導出ステップにおいて、新しい画素データを導出中である上記少なくとも1つの各画素群が、1つの画素群の幅を有する暗いまたは明るい線、1つの画素群の幅を有する暗いまたは明るい線に隣接する画素群、2つの画素群の幅を有する暗いまたは明るい線の左側の縁、1つまたは2つの画素群のピッチを有する明暗からなる市松模様のパターン、および斜線からなる画像の特徴のうちの少なくとも1つの特徴の一部を形成するかどうかを、上記画素データのパターンから決定してもよい。   In the deriving step, each of the at least one pixel group from which new pixel data is being derived is adjacent to a dark or bright line having a width of one pixel group, and a dark or bright line having a width of one pixel group. At least of the left edge of a dark or bright line having a width of two pixel groups, a checkered pattern consisting of light and dark having a pitch of one or two pixel groups, and an image feature consisting of diagonal lines Whether or not to form a part of one feature may be determined from the pattern of the pixel data.

上記第2の処理ステップが第1の処理ステップの前に実施されてもよい。   The second processing step may be performed before the first processing step.

上記第2の処理ステップが第1の処理ステップの後に実施されてもよい。   The second processing step may be performed after the first processing step.

上記新しい画素データが、上記サブセットの画素群のうちの1つの画素群に対してのみ導出されてもよい。   The new pixel data may be derived only for one pixel group of the subset of pixel groups.

各画素群が複数の色成分画素からなる合成色の画素群を備え、上記方法が各色成分画素に順に適用されてもよい。   Each pixel group may include a composite color pixel group including a plurality of color component pixels, and the above method may be applied to each color component pixel in order.

上記合成色画素群が赤色、緑色、および青色の色成分画素を備えていてもよい。   The composite color pixel group may include red, green, and blue color component pixels.

上記第1の処理ステップが、互いに異なる画像をそれぞれ表わす受信された複数の画素データをインターリーブし、これらの互いに異なる画像を、それぞれ互いに異なる視認位置にいる複数の観察者に提示するために実施されてもよい。   The first processing step is performed to interleave received pixel data representing different images, and to present the different images to a plurality of viewers at different viewing positions. May be.

本発明の第4の態様によれば、本発明の第1〜第3の態様のうちのいずれか1つに係る方法を実施するように構成された装置が提供される。   According to a fourth aspect of the present invention there is provided an apparatus configured to perform a method according to any one of the first to third aspects of the present invention.

本発明の第5の態様によれば、本発明の第4の態様に係る装置を備えた表示デバイスが提供される。   According to a fifth aspect of the present invention, there is provided a display device comprising the apparatus according to the fourth aspect of the present invention.

本発明の第6の態様によれば、本発明の第1〜第3の態様のうちのいずれか1つに係る方法を実施するように装置を制御するためのプログラムが提供される。このプログラムは、搬送媒体によって搬送されてもよい。この搬送媒体は、記憶媒体または伝送媒体であってもよい。   According to a sixth aspect of the present invention, there is provided a program for controlling an apparatus to perform a method according to any one of the first to third aspects of the present invention. This program may be conveyed by a conveyance medium. The carrier medium may be a storage medium or a transmission medium.

上記考慮される表示パネルの特性は、軸上において導入された輝度のばらつきが、空間的平均化によって観察者について局所的にバランスをとる傾向を有し、したがって、軸上の観察者にとって知覚不可能であるように構成された状態における、表示パネルの持つ信号電圧に対する軸上の輝度の応答性であってもよい。この場合、該パネルの軸外の輝度と軸上の輝度との関係が非線形になり、その結果、軸外において導入された輝度のばらつきは、空間的平均化によって観察者について局所的にバランスをとらず、したがって、軸上の観察者にとって知覚可能である。   The characteristics of the display panel considered above are that the variation in brightness introduced on the axis tends to balance locally for the observer by spatial averaging and is therefore not perceptible to the observer on the axis. It may be the responsiveness of the on-axis luminance to the signal voltage of the display panel in a state where it is configured to be possible. In this case, the relationship between the off-axis luminance and the on-axis luminance of the panel becomes nonlinear, and as a result, the variation in luminance introduced off-axis is locally balanced for the observer by spatial averaging. Rather, it is perceptible to the on-axis observer.

本発明の一実施形態は、上記マルチビューデータ処理プロセスによって不所望の画像アーティファクトを導入せずに軸上で視認される高い画像品位を維持するために、画像データ処理と複数の画像を複数の観察者にとって視認可能にするLCDパネルの持つ本来の視野角依存性とを利用する種類の、プライバシー表示およびマルチビュー表示を可能にする、これらの表示を実現するために改善された画像処理方法を提供する。   One embodiment of the present invention provides image data processing and multiple images to multiple images in order to maintain high image quality viewed on-axis without introducing unwanted image artifacts by the multi-view data processing process. An improved image processing method for realizing these types of display that enables privacy display and multi-view display of the kind that utilizes the inherent viewing angle dependency of the LCD panel that can be viewed by an observer. provide.

本発明の第1の実施形態では、表示デバイスに入力された複数の画像データセットのうちの少なくとも1つは、マルチビュー画像プロセスが実施される際に、画像アーティファクトの原因となることが知られている特定の画像の特徴を検出するために、フィルタを用いて処理される。そして、これらの特定の画像の特徴は、その種類に合わせて、もとの画像の詳細を最大限保存しつつアーティファクトが導入されることを防止する方法で処理される。   In the first embodiment of the present invention, it is known that at least one of the plurality of image data sets input to the display device causes image artifacts when the multi-view image process is performed. In order to detect the characteristics of the particular image being processed, it is processed using a filter. These particular image features are then processed in a way that prevents the introduction of artifacts while preserving the maximum details of the original image, depending on the type.

本発明の第2の実施形態では、上記マルチビュー画像プロセスによって生成される出力画像内の局在化した画素群が、複数の入力画像のうちの少なくとも1つ入力画像の同一領域に対応する画素群と比較される。そして、不一致が検出され、例えば、不一致を補正するまたは不一致を画像の広い領域にわたって拡散させて目立たないようにする方法で、マルチビュー出力画像が変更される。   In the second embodiment of the present invention, the localized pixel group in the output image generated by the multi-view image process corresponds to the same region of at least one input image of the plurality of input images. Compare with group. A mismatch is then detected, and the multi-view output image is changed, for example, in a way that corrects the mismatch or diffuses the mismatch over a large area of the image to make it inconspicuous.

液晶表示デバイスのための制御用エレクトロニクスの標準的な配置の概略図である。FIG. 2 is a schematic diagram of a standard arrangement of control electronics for a liquid crystal display device. 標準的なシングルビューLCDにおけるデータプロセスの流れを示す図である。It is a figure which shows the flow of the data process in a standard single view LCD. プライベートまたはマルチビューモードにおける公知の種類のマルチビューLCDにおけるデータプロセスの流れを示す図である。FIG. 5 is a diagram showing a data process flow in a known type of multi-view LCD in a private or multi-view mode. 一様な主入力画像データおよびサイド入力画像データの領域を対象として作用する公知のマルチビュー表示プロセスによって得られる、出力画素データを示す概略図である。FIG. 6 is a schematic diagram showing output pixel data obtained by a known multi-view display process that operates on uniform main input image data and side input image data regions. 主入力画像の斜線領域およびサイド入力画像の一様な領域を対象として作用する公知のマルチビュー表示プロセスによって得られる、出力画素データを示す概略図である。FIG. 6 is a schematic diagram showing output pixel data obtained by a known multi-view display process that operates on a shaded area of a main input image and a uniform area of a side input image. 主入力画像およびサイド入力画像のために別途追加された事前処理フィルタを用いた、公知のマルチビュー表示デバイスにおける画像データプロセスの流れの概略図である。FIG. 3 is a schematic diagram of a flow of an image data process in a known multi-view display device using a preprocessing filter added separately for a main input image and a side input image. 第1の実施形態の第1のステップ(分類ステップ)において、主入力画像の4×1の画素サンプリングウィンドウにおいて、画素を、その画像データ値に基づいて、「高」(1)または「低」(0)に分類する好ましい方法を示す図である。In the first step (classification step) of the first embodiment, in the 4 × 1 pixel sampling window of the main input image, the pixel is set to “high” (1) or “low” based on its image data value. It is a figure which shows the preferable method classified into (0). 第1の実施形態の第2のステップにおいて特定される10個の異なる場合に、第3のステップにおいて実施される互いに異なる演算を示す表である。It is a table | surface which shows the mutually different calculation implemented in a 3rd step in the case of ten different specified in the 2nd step of 1st Embodiment. 第1の実施形態のハードウェアによる実施態様の一例を示す図である。It is a figure which shows an example of the implementation aspect by the hardware of 1st Embodiment. 第1の実施形態の第2の例の第3の(演算)ステップにおいて使用される算出方法を示す図である。It is a figure which shows the calculation method used in the 3rd (calculation) step of the 2nd example of 1st Embodiment. 異なる「ガンマ」パラメータを使用してデータ値を非線形に事前変換および事後変換し、2つの入力データセット(a)および(b)を対象として作用する、図10の算出の結果を示す図である。FIG. 11 shows the result of the calculation of FIG. 10 using non-linear pre- and post-transformation of data values using different “gamma” parameters and acting on two input data sets (a) and (b). . 第1の実施形態の第3の例の第2のステップにおいて特定される6つの異なる場合のそれぞれの例を示す図である。It is a figure which shows each example of the six different cases specified in the 2nd step of the 3rd example of 1st Embodiment. 図12の実施形態において特定される各場合において、第3のステップにおいて入力主画像データに対して実施される演算の一例を示す図である。It is a figure which shows an example of the calculation implemented with respect to input main image data in a 3rd step in each case specified in embodiment of FIG. 第1の実施形態のハードウェアによる実施態様の一例を示す図である。It is a figure which shows an example of the implementation aspect by the hardware of 1st Embodiment. 第2の実施形態のLCD表示デバイスにおける画像データプロセスの流れを示す図である。It is a figure which shows the flow of the image data process in the LCD display device of 2nd Embodiment. 第2の実施形態において使用される算出方法を示す図である。It is a figure which shows the calculation method used in 2nd Embodiment. 入力主画像が一様であっても、出力マルチビュー画像において、カーネル位置に応じて異なる結果を生成する、図16の算出方法の能力を示す図である。FIG. 17 is a diagram illustrating the ability of the calculation method of FIG. 16 to generate different results depending on the kernel position in the output multi-view image even when the input main image is uniform.

好適な実施形態では、表示デバイスは、変更を加えられた制御用エレクトロニクスを有する標準的なLCD表示デバイスからなる。LCD表示デバイスは、一般に、以下に列挙するものを含めた複数の部品パーツからなる。   In a preferred embodiment, the display device consists of a standard LCD display device with modified control electronics. An LCD display device is generally composed of a plurality of component parts including those listed below.

1.一様な、広角度の照明光をパネルに供給するための、バックライトユニット。   1. A backlight unit for supplying uniform, wide-angle illumination light to the panel.

2.デジタル画像データ受信し、各画素についてアナログ信号電圧を出力し、さらにすべての画素の対向電極についてタイミングパルスおよび共通電圧を出力するための、制御用エレクトロニクス。LCD制御用エレクトロニクスの標準的な配置の概略図を、図1に示す(Ernst Lueder、液晶表示デバイス、Wiley and sons Ltd, 2001)。   2. Control electronics for receiving digital image data, outputting an analog signal voltage for each pixel, and outputting a timing pulse and a common voltage for the counter electrode of all pixels. A schematic diagram of a standard arrangement of LCD control electronics is shown in FIG. 1 (Ernst Lueder, Liquid Crystal Display Device, Wiley and Sons Ltd, 2001).

3.互いに向かい合った2つのガラス基板からなり、一方のガラス基板上には画素電極アレイと、電子信号を制御用エレクトロニクスから受信して画素電極まで導くアクティブマトリクスアレイとが設置された、空間的な光の変調によって画像を表示するためのLCパネル。もう一方の基板には、通常、一様な共通電極および色フィルタアレイの膜が設置される。ガラス基板とガラス基板との間には、任意の厚さ(通常2μm〜6μm)の液晶層が挟持されており、この液晶層は、配列層がガラス基板の内側の面上に存在することによって配列していてもよい。上記ガラス基板は、一般に、電気的に誘起される配列変化をLC層の各画素領域内で引き起こし、バックライトユニットおよび周囲から来る光の所望の光学的変調を実現し、こうすることによって画像を生成するために、直行する向きに配置された複数の偏光膜およびその他の光学的補償膜の間に配置される。   3. It consists of two glass substrates facing each other. On one glass substrate, a pixel electrode array and an active matrix array that receives electronic signals from the control electronics and guides them to the pixel electrodes are installed. LC panel for displaying images by modulation. The other substrate is usually provided with a uniform common electrode and color filter array film. A liquid crystal layer having an arbitrary thickness (usually 2 μm to 6 μm) is sandwiched between the glass substrate and the liquid crystal layer because the alignment layer exists on the inner surface of the glass substrate. It may be arranged. The glass substrate generally causes an electrically induced alignment change in each pixel region of the LC layer to achieve the desired optical modulation of light coming from the backlight unit and the surroundings, and thereby image In order to produce, it arrange | positions between the some polarizing film and other optical compensation film | membrane arrange | positioned in the orthogonal direction.

英国特許出願第0804022.2号明細書において開示される本発明の一実施形態が、パブリック表示モードで動作している様子を、図2に概略的に示す。一般に、LCD制御用エレクトロニクス(ここでは制御用エレクトロニクスとも呼称する)1は、入力画像データに依存する信号電圧を出力するために、表示面の法線方向から観察している(軸上の)主観察者3に対して、表示される画像の知覚される品位、つまり解像度、コントラスト、明るさ、応答時間などを最適化するように、LCパネル2の電気光学的特性に特に合わせて構成されている。ある任意の画素に対する入力画像データ値と観察される輝度との間の、表示デバイスが原因となって生じる関係(ガンマ曲線)は、表示ドライバのデータ値と信号電圧との間のマッピングおよびLCパネルの持つ信号電圧に対する輝度の応答性を組み合わせた効果によって決定される。   FIG. 2 schematically illustrates one embodiment of the invention disclosed in UK patent application No. 0804022.2 operating in a public display mode. In general, the LCD control electronics (also referred to as control electronics here) 1 is observed from the normal direction of the display surface (on the axis) in order to output a signal voltage depending on input image data. It is specifically adapted to the electro-optical characteristics of the LC panel 2 so as to optimize the perceived quality of the displayed image, ie, resolution, contrast, brightness, response time, etc. for the observer 3. Yes. The relationship caused by the display device (gamma curve) between the input image data value for a given pixel and the observed luminance (gamma curve) is the mapping between the display driver data value and the signal voltage and the LC panel. It is determined by the effect of combining the responsiveness of the luminance with respect to the signal voltage.

LCパネル2は、一般に、表示デバイスのガンマ曲線をすべての視野角について可能な限り軸上における応答性に近い状態に保持するために、1画素当たり複数のLCドメインおよび/または受動的光学補償膜を含んで構成される。こうすることによって、LCパネル2は、広い視認領域5に対してほぼ同じ高品位の画像を提供する。ただし、液晶表示デバイスの電気視覚的応答性が角度に依存するものであって、軸外におけるガンマ曲線が軸上におけるガンマ曲線と異なることは、液晶表示デバイスの本来の特性である。このことは、コントラストの反転、大きな色のシフト、またはコントラストの減少を引き起こさない限り、一般には、軸外の観察者4にとって、観察される画像において目立つ知覚されるような欠陥にはならない。   The LC panel 2 generally has a plurality of LC domains and / or passive optical compensation films per pixel in order to keep the gamma curve of the display device as close to the on-axis responsiveness as possible for all viewing angles. It is comprised including. By doing so, the LC panel 2 provides substantially the same high-quality image with respect to the wide viewing area 5. However, the electrovisual response of the liquid crystal display device depends on the angle, and the fact that the off-axis gamma curve is different from the on-axis gamma curve is an inherent characteristic of the liquid crystal display device. This will generally not be a noticeable defect that is noticeable in the viewed image for off-axis observers 4 unless it causes contrast reversal, large color shifts, or contrast reduction.

上記表示デバイスがパブリックモードで作動している場合、単一の画像を構成する1セットの主画像データ6が、各フレーム期間中に、通常シリアルビットストリームの形態で、制御用エレクトロニクス1に入力される。そして、制御用エレクトロニクスは、1セットの信号データ電圧をLCパネル2に出力する。これらの各信号電圧は、LCパネルのアクティブマトリクスアレイによって、対応する画素電極に導かれる。この結果生じる、LC層内の画素の集合的な電気光学的応答性が、画像を生成する。そして、ほぼ同じ画像が、軸上の観察者3と軸外の観察者4とによって知覚される。このとき、表示デバイスは広視野角モードで動作していると言うこともできる。この状況を図2に図示するが、これをLCDの標準的な動作方法であると言うことができる。   When the display device is operating in the public mode, a set of main image data 6 constituting a single image is input to the control electronics 1 in the form of a serial bit stream, usually during each frame period. The Then, the control electronics outputs a set of signal data voltages to the LC panel 2. Each of these signal voltages is guided to the corresponding pixel electrode by the active matrix array of the LC panel. The resulting collective electro-optic responsiveness of the pixels in the LC layer produces an image. Then, almost the same image is perceived by the on-axis observer 3 and the off-axis observer 4. At this time, it can be said that the display device is operating in the wide viewing angle mode. This situation is illustrated in FIG. 2, which can be said to be the standard operating method of an LCD.

英国特許出願第0804022.2号明細書に記載された種類のマルチビュー表示デバイス(図3にも概略的に図示)において、プライベートモードでは、主画像を構成する主画像データ7とサイド画像8を構成するサイド画像データ8との2つの画像データセットが、各フレーム期間中に、制御用エレクトロニクス1に入力される。そして、制御用エレクトロニクスは、先述のように、LCパネル内の各画素について1つのデータ電圧からなる、1セットの信号データ電圧を出力する。ただし、ここでは、制御用エレクトロニクス(表示コントローラ)は、拡張ルックアップテーブル(LUT)を使用し、また、全体として一枚の画像を形成するLCパネル内の各画素について出力される上記信号データ電圧は、主画像7およびサイド画像8の両方において(画像中の空間的な位置に関して)対応する画素のデータ値に依存する。各画素について出力されるデータ電圧は、表示デバイス内の画素の空間的な位置によって決定される第3のパラメータにも依存する。   In a multi-view display device of the kind described in UK patent application No. 0804022.2 (also schematically shown in FIG. 3), in private mode, main image data 7 and side images 8 constituting the main image are displayed. Two image data sets with the constituting side image data 8 are input to the control electronics 1 during each frame period. Then, as described above, the control electronics outputs a set of signal data voltages including one data voltage for each pixel in the LC panel. However, here, the control electronics (display controller) uses an extended look-up table (LUT), and the signal data voltage output for each pixel in the LC panel forming one image as a whole. Depends on the data value of the corresponding pixel in both the main image 7 and the side image 8 (with respect to the spatial position in the image). The data voltage output for each pixel also depends on a third parameter determined by the spatial position of the pixel in the display device.

そして、制御用エレクトロニクス1からの上記出力電圧は、LCパネル2に画素の組み合わせからなる画像を表示させる。この画像が、主観察者3によって観察されると、主画像となる。しかし、軸外の観察者4にとってはガンマ曲線が異なるので(これがLCパネルの1つの特徴である)、軸外の観察は、主画像をぼやけさせるおよび/または劣化させるサイド画像を、もっともはっきりと知覚する。こうすることによって、表示デバイスの法線を中心とする限定された円錐角9の内側に位置している観察者にだけ、主画像情報を提示することができる。この状況を図3に図示する。さらなる詳細については、英国特許出願第0804022.2号明細書に記載されている。   The output voltage from the control electronics 1 causes the LC panel 2 to display an image composed of a combination of pixels. When this image is observed by the main observer 3, it becomes the main image. However, because the gamma curve is different for off-axis observer 4 (this is one feature of the LC panel), off-axis observations most clearly show side images that blur and / or degrade the main image. Perceive. By doing so, main image information can be presented only to an observer located inside a limited cone angle 9 centered on the normal of the display device. This situation is illustrated in FIG. Further details are described in British Patent Application No. 0804022.2.

英国特許出願第0804022.2号明細書のマルチビュープロセスに記載された、画像データ圧縮および組み合わせプロセス、ならびにパラメータは、軸上の観察者3にとっては目立つ、わずかな色のアーティファクトを発生させる。このことは、特に、入力主画像内の、1画素の幅を有する斜線からなる領域の場合に当てはまる。これは、下記の事実に起因している。すなわち、このようなプロセスによって、カラーサブ画素が1つおきに黒に設定される出力画像がしばしば生成され、この結果、1画素の幅を有する黒色の斜線がこのパターン上に重ねられ、これにより、該斜線の片側にある画素のラインは、当該ラインに含まれる1つまたは2つのカラーサブ画素が、当該ラインの長さ全体にわたってオンのまま残り得る。この場合、この色の付いた線が眼で認識できるようになる。   The image data compression and combination process and parameters described in the multi-view process of UK Patent Application No. 0804022.2 generate subtle color artifacts that are noticeable to the on-axis observer 3. This is particularly true in the case of an area consisting of diagonal lines having a width of one pixel in the input main image. This is due to the following facts. That is, such a process often produces an output image in which every other color subpixel is set to black, so that a black diagonal line with a width of one pixel is superimposed on the pattern, thereby , A line of pixels on one side of the diagonal can leave one or two color sub-pixels included in the line on for the entire length of the line. In this case, the colored line can be recognized by the eyes.

この問題を図4および図5に図示する。図4は、マルチビュー画像プロセスが、典型的なRGBのストライプ表示において、一様な主画像およびサイド画像の中の2×2個の画素からなる画素群の輝度値を対象として作用した結果を示している。このことから、マルチビュープロセスが画像データを出力しても、この出力はサブ画素レベルで変更されるが、マルチビュープロセスによって、2×2個の画素からなる画素群について全体的な輝度および色のバランスは維持されることがわかる。そして、出力画素のセットは、画素群の平均化された画素輝度だけが見えるように十分な距離で離れて位置する観察者には、入力主画像と同じに見える。   This problem is illustrated in FIGS. FIG. 4 shows the result of the multi-view image process acting on the luminance value of a pixel group consisting of 2 × 2 pixels in a uniform main image and side image in a typical RGB stripe display. Show. Therefore, even if the multi-view process outputs image data, this output is changed at the sub-pixel level. However, the multi-view process changes the overall luminance and color for a pixel group composed of 2 × 2 pixels. It can be seen that the balance is maintained. The set of output pixels then looks the same as the input main image to an observer located at a sufficient distance so that only the averaged pixel brightness of the pixel group is visible.

図5は、入力されるサイド画像は一様であるが、入力される主画像の領域は暗い斜線からなっている状態で、上記と同じマルチビュープロセスが、この一様なサイド画像中の2×2個の画素からなる画素群を対象として作用する様子を示している。マルチビュープロセスの結果、全体的な輝度および色のバランスの両方において大きく異なる出力画像データが生成されることがわかるであろう。この不一致は、軸上の観察者には視認可能であり、この実例では、はっきりとした緑色のアーティファクトが見える。   In FIG. 5, the input side image is uniform, but the input main image region is formed by dark diagonal lines, and the same multi-view process as described above is performed in the uniform side image. A state in which a pixel group composed of × 2 pixels is operated is shown. It will be appreciated that the multi-view process results in output image data that varies significantly in both overall brightness and color balance. This discrepancy is visible to the on-axis observer, and in this example, a clear green artifact is visible.

明るいサブ画素および暗いサブ画素のパターンに対する、斜線の相対的な位置に応じて、画像アーティファクトの見かけは変化する。例えば、図5に示した例とは反対の傾きを有する、入力主画像中の暗い斜線の場合であれば、出力される画素のサブセットでは、全体的にマゼンタ色がかかって見える。英国特許出願第0804022.2号明細書にも記載されているように、サブ画素のレベルでパターン形成するのではなく、マルチビュー画像プロセスによって、複数の合成白色の画素内のすべてのカラーサブ画素について輝度を増加させ、さらに、これに合わせて、隣接する合成白色の画素のすべての色成分の輝度を減少させると、斜線をすべて消滅させることができる。   Depending on the relative position of the diagonal lines for the bright and dark subpixel patterns, the appearance of the image artifacts will change. For example, in the case of a dark diagonal line in the input main image having a slope opposite to that in the example shown in FIG. 5, the output pixel subset appears to be magenta as a whole. All color subpixels within a plurality of composite white pixels are processed by a multi-view image process rather than patterning at the subpixel level as described in UK patent application 0804022.2. If the luminance is increased and the luminance of all the color components of the adjacent composite white pixels is decreased accordingly, all the oblique lines can be eliminated.

英国特許出願第0804022.2号明細書には、上記マルチビュー画像を組み合わせるプロセスにおいて、それぞれ入力される主画像データセットおよびサイド画像データセットを対象として作用する事前処理ステップ10、11を加えることが記載されている。この事前処理ステップ10、11は、画像ぼかしフィルタからなり、これらの画像アーティファクトの発生を防止する。表示プロセスに加えるこの変更を、添付の図面の図6に示す(英国特許出願第0804022.2号明細書の図17に対応する)。   British Patent Application No. 0804022.2 adds preprocessing steps 10 and 11 that operate on the input main image data set and side image data set, respectively, in the process of combining the multi-view images. Have been described. These pre-processing steps 10 and 11 consist of image blur filters to prevent the occurrence of these image artifacts. This change to the display process is shown in FIG. 6 of the accompanying drawings (corresponding to FIG. 17 of UK patent application No. 0804022.2).

本発明の好適な実施形態においては、マルチビュー画像処理方法によって実施される画像データ処理およびこの処理によって生成される画像アーティファクトの知見を使用して、入力画像に加える変更および演算リソースの最も効率的な使用に加える変更は最小限に抑えながら(例えば、より少ないゲート、データをバッファリングするためのより小さいメモリ容量、より緩やかなタイミング、より短い待ち時間、およびより少ない消費電力のうちのいずれか1つ以上を用いて実施される処理)、出力画像内におけるアーティファクトの出現を防止するように、入力画像データセットを変更する、改善された画像事前処理方法が提供される。   In a preferred embodiment of the present invention, using the image data processing performed by the multi-view image processing method and the knowledge of the image artifacts generated by this processing, the most efficient change and computational resources to make to the input image With minimal changes to use (for example, one of fewer gates, less memory capacity to buffer data, slower timing, shorter latency, and less power consumption) An improved image pre-processing method is provided that modifies the input image data set to prevent the appearance of artifacts in the output image.

好ましい方法では、入力画像の画素データは、追加された画像処理デバイス10または11によって受信されると、複数の画素によってバッファされる。こうすることによって、隣接する画素データ値のサブセットをすべて画像上の「ウィンドウ」または「カーネル」内でサンプリングすることが可能になる。このような各ウィンドウまたはカーネルは、画素データのサブセットがそれぞれ同数の画素群を備え、かつ、各画素群が少なくとも1つの画素を備えた、画素データのサブセットを備えていると考えればよい。例えば、各画素群が単一の画素を備えていてもよく、あるいは赤色、緑色、および青色の画素を備えた合成色画素群であってもよい。記述を簡単にするために、ここでは、画素群を単純に画素と呼称することもある。   In a preferred method, pixel data of the input image is buffered by a plurality of pixels when received by the added image processing device 10 or 11. This makes it possible to sample all subsets of adjacent pixel data values within a “window” or “kernel” on the image. Each such window or kernel may be considered to comprise a subset of pixel data, each subset of pixel data comprising the same number of pixel groups, and each pixel group comprising at least one pixel. For example, each pixel group may include a single pixel, or may be a composite color pixel group including red, green, and blue pixels. In order to simplify the description, the pixel group may be simply referred to as a pixel here.

そして、以下に説明する3つのステップからなるプロセスが、各サブセットに対して適用される。   A process consisting of the three steps described below is then applied to each subset.

第1のステップ(分類ステップ)は、上記サブセット内の画素を、「高」い値を有する画素または「低」い値を有する画素として分類表記するために使用される。この分類ステップは、明るさに基づいて、所定のセットをなす複数のレベル(この場合、レベルは、「高」と「低」との2つ)の1つに、画素を割り当てるステップであると考えてもよい。画素値が単一のモノクロム画素または単一の白黒画素に関連する場合、隣り合う画素の画素値が処理される。ただし、合成色画素群の場合、各合成色画素群が赤色、緑色、および青色の画素を備えているので、プロセスは、隣り合う合成画素群の各色成分画素値に対して順に適用される。   The first step (classification step) is used to classify the pixels in the subset as pixels having a “high” value or pixels having a “low” value. This classification step is a step of assigning pixels to one of a plurality of levels (in this case, two levels of “high” and “low”) that form a predetermined set based on brightness. You may think. If the pixel value is associated with a single monochrome pixel or a single black and white pixel, the pixel values of adjacent pixels are processed. However, in the case of the composite color pixel group, since each composite color pixel group includes red, green, and blue pixels, the process is sequentially applied to each color component pixel value of the adjacent composite pixel group.

第2のステップ(比較ステップ、またはケース検出ステップ)では、上記の結果得られた高/低からなるパターンが、1セットの既知のパターンと比較される。   In the second step (comparison step or case detection step), the resulting high / low pattern is compared with a set of known patterns.

一致するパターンが見つかった場合、第3のステップ(演算ステップ)が、上記サブセット内の画素のうちの少なくとも1つに対して実施される。次に、サンプリングウィンドウが画像内で移動して、新しい画素のセットをサンプリングする。一致するパターンが見つからなかった場合、画素値は変更されず、サンプリングウィンドウは次に移動する(一致するパターンが見つからなければ、少なくとも概念としては、単純に既存の画像の画素データを受け取って、それを変化させずに新しい画素データとして使用するフィルタが適用されたと考えてもよい)。ウィンドウがすべての主入力画像を走査し、任意の必要な変更を画像データ値に加え終わると、調節済み画像データが、事前処理回路からマルチビュー回路へ出力される。   If a matching pattern is found, a third step (calculation step) is performed on at least one of the pixels in the subset. The sampling window is then moved in the image to sample a new set of pixels. If no matching pattern is found, the pixel value is not changed and the sampling window moves to the next (if no matching pattern is found, at least conceptually, it simply receives the pixel data of the existing image and It may be considered that a filter that is used as new pixel data without changing is applied). When the window has scanned all the main input images and made any necessary changes to the image data values, the adjusted image data is output from the pre-processing circuit to the multi-view circuit.

一例としての実施態様において、上記サンプリングウィンドウ、つまり「カーネル」は、4×1個の画素からなる水平ブロックである。分類ステップにおいては、すべての画素のデータ値を平均して、この平均値より高いデータ値を有するカーネル内の画素を、高い値を有していると規定し、これを「1」と表記し、また、平均より低いデータ値を有する画素を、低い値を有している、つまり「0」であると規定する。このプロセスを、1行の画素値を一例として用いて、図7に示す。   In an exemplary embodiment, the sampling window, or “kernel”, is a horizontal block of 4 × 1 pixels. In the classification step, the data values of all the pixels are averaged, and a pixel in the kernel having a data value higher than this average value is defined as having a high value, which is denoted as “1”. In addition, a pixel having a data value lower than the average is defined as having a low value, that is, “0”. This process is illustrated in FIG. 7, using pixel values in one row as an example.

そして、0値および1値からなる上記4×1パターンが、1セットの既知のパターンと比較され、さらに、現在のパターンに対応する演算が、カーネルの左から二つ目の画素(P)に対して実施される。そして、4×1のウィンドウが、画像内で右へ画素1つ分移動し、高/低の分類、パターン比較、および二つ目の画素に対する演算が繰り返される。このプロセスは、カーネルが画像内のすべての行にわたって走査を終了するまで継続する。先のステップから得られる変更されたデータ値が、後続のステップで使用されてもかまわない。あるいは、もとのデータ値が使用されてもかまわない。例えば、第1の段階では、4×1ウィンドウの画素2(左から二つ目の画素)が変更されてもよく、この場合、第2の段階では、その画素が4×1のウィンドウ内の画素1になる。第1の実施態様では、画素1の新しい値が、第2の段階での算出において使用される。一方で、第2の実施態様では、画素1のもとの値が使用される。ビデオ表示の場合、このプロセスはリアルタイムで発生し、ビデオ列の各フレームをフレーム時間内にフィルタリングし、補正済み画像を表示デバイスに出力する。 Then, the 4 × 1 pattern composed of 0 value and 1 value is compared with a set of known patterns, and the operation corresponding to the current pattern is the second pixel (P x ) from the left of the kernel. To be implemented. Then, the 4 × 1 window moves to the right by one pixel in the image, and the high / low classification, the pattern comparison, and the operation for the second pixel are repeated. This process continues until the kernel finishes scanning across all rows in the image. The modified data value obtained from the previous step may be used in subsequent steps. Alternatively, the original data value may be used. For example, in the first stage, the pixel 2 (second pixel from the left) of the 4 × 1 window may be changed. In this case, in the second stage, the pixel is in the 4 × 1 window. Pixel 1 is reached. In the first embodiment, the new value of pixel 1 is used in the calculation in the second stage. On the other hand, in the second embodiment, the original value of pixel 1 is used. For video display, this process occurs in real time, filtering each frame of the video sequence within the frame time, and outputting the corrected image to the display device.

上述のように、各画素群が個々の色成分画素によって形成されている場合、上記プロセスは、各色成分ごとに繰り返される。例えば、図7のイラストは、4×1のウィンドウ内で隣り合う4つの画素の赤色成分だけのそれぞれの値を表わすと考えてもよく、緑色成分だけのそれぞれの値、または青色成分だけのそれぞれの値を表わすと考えてもよい。別の一実施形態では、ウィンドウが複数の色成分からの値を一度に検討し、処理することが可能であり、その結果、より複雑な色パターンが生成できるようになる。   As described above, when each pixel group is formed by individual color component pixels, the above process is repeated for each color component. For example, the illustration of FIG. 7 may be considered to represent the respective values of only the red component of four adjacent pixels in a 4 × 1 window, or the respective values of only the green component or only the blue component. You may think that it represents the value of. In another embodiment, the window can consider and process values from multiple color components at once, thereby allowing more complex color patterns to be generated.

一例としての実施形態において、16個の可能なカーネルパターンのうち10個については、左から二つ目の画素に対して演算を実施しなければマルチビュー画像においてアーティファクトが発生するので、画像の特徴を補正するために、左から二つ目の画素に対して演算を実施する必要があることがわかった。これらのパターンおよび対応する演算を、図8に示す。なお、P’、つまり、カーネル内の左から二つ目の画素の新しい値を算出するために使用される画素値は、画素Pおよびその隣の画素Px−1およびPx+1のもとのデータ値であって、本プロセスの第1のステップにおいて高い値/低い値を表記するために使用された0または1の値ではない。また、カーネルが異なる位置にある先のステップから得られる、新しい補正済み画素値でもない。図8の表において、本発明の一実施形態は、各パターンをその反転パターンから区別できることにも留意すべきである。例えば、パターン1は、パターン1の反転パターン(パターン2)から区別される。また、パターン3は、パターン3の反転パターン(パターン4)から区別される。異なるフィルタまたは演算が、各パターンおよびそのパターンに対応するそれぞれの反転パターンに対して適用される。本発明の一実施形態は、画素データから導出される絶対的な差におけるパターンではなく、画素データにおけるパターンを見ることによって、こうした適用を実施可能である(GB−A−2445982において同様に実施されている)。ただし、個々のパターンをすべてその反転パターンから区別することは不要である。同じフィルタまたは演算が、特定のパターンおよびその反転パターンに適用されることもあり、このような状況では、両者を区別することは一切不要である。また、特定のパターンをその反転パターンから(例えば1101を0010から)区別することが必要ではあるが、フィルタは2つのうちの一方(例えば1101)だけに適用し、もう一方のパターン(例えば0010)にはフィルタが適用されなくてもかまわないこともある。この場合には、一方のパターンの存在を検出すればいいのであって、両方のパターンの存在を検出する必要はない。この文脈では、画素データの反転パターンとは、組み合わせられると、ほぼ一様な画像を生成するパターンであると考えてよい。例えば、「明」は「暗」の反転であり、逆もまた同様である。 In an exemplary embodiment, for 10 of the 16 possible kernel patterns, artifacts will occur in the multi-view image unless the operation is performed on the second pixel from the left. In order to correct this, it has been found that it is necessary to perform an operation on the second pixel from the left. These patterns and the corresponding operations are shown in FIG. Note that P x ′, that is, the pixel value used to calculate the new value of the second pixel from the left in the kernel is the value of the pixel P x and its neighboring pixels P x−1 and P x + 1 . And not the 0 or 1 value used to represent the high / low values in the first step of the process. It is also not a new corrected pixel value obtained from a previous step where the kernel is at a different position. It should also be noted in the table of FIG. 8 that one embodiment of the present invention can distinguish each pattern from its inverted pattern. For example, pattern 1 is distinguished from an inverted pattern (pattern 2) of pattern 1. Pattern 3 is distinguished from the inverted pattern (pattern 4) of pattern 3. Different filters or operations are applied to each pattern and the respective inversion pattern corresponding to that pattern. One embodiment of the present invention can implement such an application by looking at patterns in pixel data rather than patterns in absolute differences derived from pixel data (also implemented in GB-A-2445982). ing). However, it is not necessary to distinguish all individual patterns from their inverted patterns. The same filter or operation may be applied to a particular pattern and its inverse pattern, and in such a situation, it is not necessary to distinguish between them. It is also necessary to distinguish a particular pattern from its inversion pattern (eg, 1101 from 0010), but the filter applies only to one of the two (eg, 1101) and the other pattern (eg, 0010). May not need to be filtered. In this case, it is only necessary to detect the presence of one pattern, and it is not necessary to detect the presence of both patterns. In this context, the inverted pattern of pixel data may be considered a pattern that, when combined, generates a substantially uniform image. For example, “bright” is the reversal of “dark” and vice versa.

’(BN、WN、BL、WL、BE、WE、WC、およびBC)を算出する際に使用されるパラメータには、任意の値0〜1が割り当てられてもよい。特定の演算が実施される際には、これらのパラメータが、Pのデータ値が隣接画素のデータ値に向かってシフトされる量を決定する。画像に適用される変更量を最小限に抑えながら、マルチビュー画像において、どんな画像アーティファクトも出現しないようにするためには、これらのパラメータは、表示デバイスの光学的特性(明るさ、コントラスト、ガンマ曲線など)に合わせて精度よく設定される必要がある。フィルタリングプロセスの効率を最適化するためには、分割ステップが単純なビットシフトになるように、パラメータが、nおよびmを正の整数とすると、整数を2でわった分数(つまりm/16またはm/32)であることが望ましい。 Arbitrary values 0 to 1 may be assigned to parameters used in calculating P x ′ (BN, WN, BL, WL, BE, WE, WC, and BC). When a particular operation is carried out, these parameters, determines the amount of data values of P x is shifted toward the data values of adjacent pixels. In order to minimize the amount of change applied to the image and to prevent any image artifacts from appearing in the multi-view image, these parameters are used to determine the optical characteristics (brightness, contrast, gamma) of the display device. It needs to be set accurately according to the curve. In order to optimize the efficiency of the filtering process, the parameter is a fraction of the integer divided by 2 n (ie m / 16), where n and m are positive integers, so that the division step is a simple bit shift. Or m / 32).

先行技術の画像ぼかしフィルタに対して本実施形態が有する長所の1つは、上記複数ケース検出ステップによって、演算の対象となる画素が、1画素の幅を有する暗いまたは明るい線の一部であるかどうか、1画素の幅を有する暗いまたは明るい線に隣接する画素であるかどうか、2画素の幅を有する暗いまたは明るい線の左側の縁であるかどうか、または2画素のピッチを有する明暗からなる市松模様のパターンの一部であるかどうかを決定することが可能になることである。ここにあげたものが、マルチビュー画像プロセスでアーティファクトを引き起こす主な画像の特徴である。また、補正しなければ出現するアーティファクトを最適に補正するためには、各特徴が、個々の場合において、異なる演算が実施されることを必要とする。特に、白い特徴は、黒い特徴とは別に扱われてもよい。また、幅の狭い特徴に隣り合う画素は、特徴自身を構成している画素とは、変更量が異なっていてもよい。こうすることによって、白線および黒線の両方の見かけを、同じフィルタを用いて改善することができるようになる。つまり、マルチビュープロセスを経た画像の知覚される品位を大幅に高める能力が実現される。パターンに一致するそれぞれの場合について、個別に調整されたパラメータを用いた異なる演算を使用することによって、これが実現可能になる。   One of the advantages of this embodiment over the prior art image blur filter is that the pixel to be computed is part of a dark or bright line having a width of one pixel by the multiple case detection step. Whether it is a pixel adjacent to a dark or bright line with a width of 1 pixel, whether it is the left edge of a dark or bright line with a width of 2 pixels, or light and dark with a pitch of 2 pixels It is possible to determine if it is part of a checkered pattern. These are the main image features that cause artifacts in the multi-view image process. Also, in order to optimally correct the artifacts that appear if they are not corrected, each feature requires that different operations be performed in each case. In particular, white features may be treated separately from black features. In addition, a pixel adjacent to a narrow feature may have a different amount of change from a pixel constituting the feature itself. By doing so, the appearance of both white and black lines can be improved using the same filter. That is, the ability to significantly improve the perceived quality of an image that has undergone a multi-view process is realized. For each case that matches the pattern, this can be achieved by using different operations with individually adjusted parameters.

なお、上記においては、プロセスは、カーネルを画像全体にわたって左から右に走らせるものとして記載したが、プロセスの持つ全体的な性能は変えずに、カーネルを逆方向、または鉛直方向に走らせることも可能であり、この場合、対応する変更を、各ステップでデータ値を変更されるカーネル内の画素に加えればよい。   In the above, the process is described as running the kernel from left to right over the entire image, but the kernel is run in the reverse direction or the vertical direction without changing the overall performance of the process. In this case, corresponding changes may be made to the pixels in the kernel whose data values are changed at each step.

上述の分類ステップが効果的な結果を生むことが示されたが、特定のケースのパターンと比較するために、入力画像の画素データ値を0状態/1状態に割り当てる方法は、この他にも同等に効果的な方法や、より効果的である可能性のある方法も多数あることにも留意すべきである。データ値が閾値未満であれば画素を「低」に分類し、データ値が閾値を超えれば画素を「高」に分類する、単純な閾値データ値を適用してもよい。データ値が所定のバンドの中にある画素には、「高」のステータスも「低」のステータスもいずれも割り当てない、バンドを有する閾値を適用してもよい。サブセット内の画素に、その隣接する画素に対する相対的なデータ値に合わせて、「高」または「低」を割り当ててもよい。この方法に対して、隣接する画素との差が所定の量に満たなければ画素を「高」にも「低」にも分類しない、「拡散」を適用してもかまわない。これらの方法、その組み合わせ、および同じ分類機能を果たすその他の方法も、本発明の技術的範囲内である。   Although the above classification steps have been shown to produce effective results, there are other ways to assign pixel data values of the input image to the 0 state / 1 state for comparison with a particular case pattern. It should also be noted that there are many methods that are equally effective and that may be more effective. A simple threshold data value may be applied in which a pixel is classified as “low” if the data value is less than the threshold, and a pixel is classified as “high” if the data value exceeds the threshold. A pixel having a data value in a predetermined band may be applied with a threshold having a band to which neither a “high” status nor a “low” status is assigned. A pixel in the subset may be assigned a “high” or “low” to match the relative data values for its neighboring pixels. For this method, “diffusion” may be applied, in which a pixel is not classified as “high” or “low” unless the difference between adjacent pixels is less than a predetermined amount. These methods, combinations thereof, and other methods that perform the same classification function are also within the scope of the present invention.

さらに、独立した分類ステップを設けずに、例えば、ケース検出ステップが、画像データを直接処理してもかまわない。この場合、ケース検出ステップは、例えば、(事前処理された分類値ではなく)画像データを入力とする所定のケース検出アルゴリズムによって、画像データ自身に基づいて、もし必要であればとのような変更が必要であるのかを決定する。この場合、第1のステップおよび第2のステップが組み合わせられて、分類およびケース検出が1つのステップとして実施されると考えることもできる。本質的には、このステップは、画素データを、それぞれが関連付けられたフィルタを有する複数のカテゴリーのうちの1つに分類する。3つのステップをすべて1つに組み合わせることも可能である。この場合、サブセットの画素の明るさのパターンに基づいて、新しい画素データを何らかの方法で導出するだけでよく、これを、どのような方法またはいくつのステップを用いて実現してもかまわない。もう一つの可能性としては、第1のステップにおいて、ある既知の画像の特徴に関連した1つ以上の対応する尺度をそれぞれ反映する1つ以上の「特徴インジケータ」を、画素のサブセットのデータから算出してもよい。特徴インジケータとしては、例えば、特徴インジケータは、画素の見かけが、どの程度「市松模様」であるのかを反映してもよい。例えば、高い値が、程度の非常に高い市松模様状の見かけを反映し、低い値が、あまり程度の高くない市松模様状の見かけを反映せばよい。この場合、これらの「特徴インジケータ」を使用して、第2のステップにおいて、どんな画像の特徴が実際に存在するのか(またはどんな特徴がもっとも優勢であるのか)、および第3のステップでどんなフィルタを使用することがもっとも適切であるのかを決定してもよい。   Further, without providing an independent classification step, for example, the case detection step may directly process the image data. In this case, the case detection step may be modified, for example, if necessary, based on the image data itself by a predetermined case detection algorithm that takes image data as input (rather than pre-processed classification values). Determine what is needed. In this case, it can be considered that the first step and the second step are combined, and classification and case detection are performed as one step. In essence, this step classifies the pixel data into one of a plurality of categories each having an associated filter. It is also possible to combine all three steps into one. In this case, new pixel data need only be derived in some way based on the brightness pattern of the subset of pixels, and this may be achieved using any method or any number of steps. Another possibility is that in the first step, one or more “feature indicators”, each reflecting one or more corresponding measures associated with certain known image features, are derived from the data of the subset of pixels. It may be calculated. As the feature indicator, for example, the feature indicator may reflect how much the pixel appearance is “checkerboard”. For example, a high value may reflect a very high checkered pattern appearance, and a low value may reflect a less high checkered pattern appearance. In this case, these “feature indicators” are used to determine what image features actually exist in the second step (or what features are most prevalent) and what filters in the third step. May be determined to be most appropriate.

上述の実施形態を備えた画像処理方法を、表示デバイスにデータを提供する処理ユニット上で走るソフトウェアの形態で実行してもかまわないことは、当業者であれば自ずから理解できるはずである。また、このプロセスを、既存の表示制御エレクトロニクスに集積された、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、またはその他の電子回路において、ハードウェアの形態で実行してもかまわない。本実施形態の演算リソースをあまり使わない実施態様の長所の1つは、必要とされる回路を、画素のトランジスタデバイスとともに、表示デバイスのガラス基板上に積層してもかまわないことである。こうすることによって、コストが節約でき、回路を、実装する各表示デバイスに容易に適応させられるようになる。   It should be understood by those skilled in the art that the image processing method including the above-described embodiments may be executed in the form of software running on a processing unit that provides data to a display device. The process may also be performed in the form of hardware in an application specific integrated circuit (ASIC), field programmable gate array (FPGA), or other electronic circuit integrated in existing display control electronics. Absent. One of the advantages of the embodiment that does not use the computational resources of this embodiment is that the required circuit may be stacked on the glass substrate of the display device together with the transistor device of the pixel. This saves cost and allows the circuit to be easily adapted to each display device to be implemented.

必要とされるプロセスを実施する回路設計の一例を、図9に示す。図9では、上述のプロセスが、以下のような態様で実施されることがわかる。すなわち、カーネルの現在の位置に対応する画像の画素データ値が、バッファメモリに記憶される。これらの値は高/低検出器、および第1のステップ(分類ステップ)のために平均値算出器、さらに第3のステップ(演算ステップ)のためにパラメータ増数プロセスに入力される。高/低検出器の出力は、レジスタブロックから入力された利用可能なパラメータのうちのどれをバッファからの画素値に適用して、第3のステップ(演算ステップ)において正しい出力値を算出するのかを選択するために、第2のステップ(ケース検出ステップ)において、パターン一致セレクタによって使用される。利用可能なパラメータは、図中では、WN0/1、BN0/1、WL0/1、BL0/1、WE0/1、BE0/1、WC0/1、およびBC0/1として示されている。なお、0/1という添え字部分は、そのパラメータが、Pに適用するためのパラメータであるのかどうか、現在変更中の画素であるのかどうか、またはそのすぐ隣りの画素なのかどうかによって変化する。
(例えば、図8に与えられた値を使用するためには、WN1は1−WN0に等しい)。
An example of a circuit design that implements the required process is shown in FIG. In FIG. 9, it can be seen that the process described above is implemented in the following manner. That is, the pixel data value of the image corresponding to the current position of the kernel is stored in the buffer memory. These values are input to a high / low detector and an average value calculator for the first step (classification step) and a parameter multiplication process for the third step (calculation step). The output of the high / low detector determines which of the available parameters input from the register block is applied to the pixel value from the buffer to calculate the correct output value in the third step (calculation step). Is used by the pattern match selector in the second step (case detection step). Available parameters are shown in the figure as WN0 / 1, BN0 / 1, WL0 / 1, BL0 / 1, WE0 / 1, BE0 / 1, WC0 / 1, and BC0 / 1. Incidentally, shaped portion subscript of 0/1, the parameters, whether a parameter for application to P x, varies depending on whether whether a pixel currently being changed, or the pixel of the immediately adjacent .
(For example, to use the values given in FIG. 8, WN1 is equal to 1-WN0).

なお、図9は、入力画像データのビット深度が6ビット/色チャンネル(つまり1画素当たり18b)であるとして示しているが、同図は実施態様の一例に過ぎず、同図に示された機能的プロセスは、任意のビット深度の画像に対して適用できる。   Although FIG. 9 shows that the bit depth of the input image data is 6 bits / color channel (that is, 18b per pixel), this figure is only an example of the embodiment and is shown in FIG. Functional processes can be applied to images of any bit depth.

記載された実施態様であれば、さらに、第1のステップ(分類ステップ)において、単純な閾値を用いた手法が使用できるようになる。この場合、さらに、BT値およびWT値を入力して、高の状態および低の状態を区別するデータレベルの閾値を決定することも可能である。さらに、これらの値をカーネル平均値とともに用いて、カーネル平均値の上下にバンドを規定し、画素データ値が高または低に分類されるためには、必ずこのバンドの外側になければならないとしてもよい。   In the described embodiment, a technique using a simple threshold value can be used in the first step (classification step). In this case, it is also possible to input a BT value and a WT value to determine a data level threshold that distinguishes between a high state and a low state. In addition, these values are used in conjunction with the kernel average value to define bands above and below the kernel average value, so that pixel data values must always be outside this band in order to be classified as high or low. Good.

上述のプロセスによってマルチビュープロセスを経る画像の知覚される品位が大幅に増加し、かつ、このプロセスが大した演算リソースを要求しない一方で、より多くの演算リソースを使ってでもより優れた性能を達成することのできるプロセスの変形も可能であることにも留意すべきである。先述のように、入力画像中の斜線は、通常、マルチビュー画像中にもっとも目立つ画像アーティファクトを発生させる特徴である。したがって、より大きな全体的な画像の明瞭さを保持するために斜線以外の線は比較的小さな変更を加えるだけにしなから、斜線を水平方向の線および鉛直方向の線から区別できる処理方法を使用して、必要とされる補正を適用することが望ましい。これは、1本の線からなるカーネルでは不可能であるが、カーネルの面積を2行以上をカバーするように増加させ、さらに、どの演算を適用するかを比較して決定するために使用される特定のパターンの個数と、利用可能な演算の個数とを増加させれば、上記プロセスは、基本的には上述のままであっても、斜線を優先的に処理するようにされ得る。こうすることによって、出力マルチビュー画像においてより優れた画像品位が提供される。したがって、使用される画像走査カーネルの形状は、4×2画素、5×2画素、3×3画素、または本発明の技術的範囲から逸脱することなく最適な性能を提供するとわかっている任意の形状であってもよい。   The process described above significantly increases the perceived quality of images that undergo a multi-view process, and this process does not require significant computational resources, while providing better performance with more computational resources. It should also be noted that the process variations that can be achieved are possible. As described above, diagonal lines in the input image are characteristics that usually generate the most noticeable image artifact in the multi-view image. Therefore, use a processing method that can distinguish diagonal lines from horizontal and vertical lines, since only non-hatched lines need to be relatively small to preserve larger overall image clarity. Thus, it is desirable to apply the necessary corrections. This is not possible with a single-line kernel, but is used to increase the area of the kernel to cover more than one row and to compare and determine which operation to apply. If the number of specific patterns and the number of available operations are increased, the process can be preferentially processed even if the above-mentioned process remains basically the same. This provides better image quality in the output multiview image. Thus, the shape of the image scan kernel used may be 4 × 2 pixels, 5 × 2 pixels, 3 × 3 pixels, or any that is known to provide optimal performance without departing from the scope of the present invention. It may be a shape.

実施形態の一例としての第2の実施態様では、第1のステップ(分類ステップ)において主画像の各画素およびその周囲の画素をサンプリングするために、4×3画素からなるウィンドウが使用される。前記と同様に、非線形データ値を「画素の見かけ」に変換するステップ(例えば「ガンマ」べき乗変換)とともに、第2のステップ(ケース検出ステップ)において、あり得る複数のケースがウィンドウ内の画素構成と比較され、第3のステップ(演算ステップ)において、3×3画素に基づいてぼやけさせるメカニズムが使用される。前記と同様に、合成色画素群のケース、各合成色画素群が赤色、緑色、および青色の画素を備えているので、プロセスは、画像の各色成分画素値に対して順に適用される。画素値が単一のモノクロム画素または単一の白黒画素に関連するケース、8つの隣り合う画素の画素値が処理される。この例では、第3のステップにおいて使用されるように、例えば3×3ウィンドウの替わりに、4×3のウィンドウが第1のステップにおいて使用される。なぜならば、4×3ウィンドウの方が、白字のテキストを黒字のテキストから区別する際に、より高い信頼性を提供するはずであるからである。ただし、任意のサイズのウィンドウを使用してもかまわないことは理解されよう。また、記憶する目的には、いずれのウィンドウも小さければ小さほど、より良好である。   In a second embodiment as an example embodiment, a window of 4 × 3 pixels is used to sample each pixel of the main image and surrounding pixels in the first step (classification step). In the same manner as described above, in the second step (case detection step), a plurality of possible cases include the pixel configuration in the window together with the step of converting the non-linear data value into the “pixel appearance” (eg, “gamma” power conversion). In the third step (calculation step), a blurring mechanism based on 3 × 3 pixels is used. As above, the case of a composite color pixel group, since each composite color pixel group comprises red, green, and blue pixels, the process is applied sequentially to each color component pixel value of the image. In the case where the pixel value is associated with a single monochrome pixel or a single black and white pixel, the pixel values of eight adjacent pixels are processed. In this example, a 4 × 3 window is used in the first step, for example instead of a 3 × 3 window, as used in the third step. This is because a 4 × 3 window should provide higher reliability in distinguishing white text from black text. However, it will be understood that any size window may be used. Also, for storage purposes, the smaller the window, the better.

本実施態様の第1のステップ(分類ステップ)は、先述の方法の場合と同じであってもよいが、4×3画素のウィンドウに使用するために拡張されてもよい。つまり、サブセットの平均画素データ値が算出され、この平均値より大きいデータ値を有する画素は「1」画素と表記され、平均値より小さいデータ値を有する画素は「0」画素と表記される。   The first step (classification step) of this embodiment may be the same as in the previous method, but may be extended for use in a 4 × 3 pixel window. That is, an average pixel data value of the subset is calculated, pixels having a data value larger than the average value are denoted as “1” pixels, and pixels having a data value smaller than the average value are denoted as “0” pixels.

第2のステップ(ケース検出ステップ)では、3×3画素のカーネルが、水平または鉛直線からなる特徴より、斜線からなる特徴に対してより程度の大きな変更を自動的に適用するための、より大きな機能性を有しているということは、検出して、特有な演算を適用しなければならない個々のケースがより少ないことを意味している。3つの一般的なケースだけが、検出および3×3画素に基づく、それぞれのケースに特有なフィルタリング演算の適用を必要とすることがわかっている。これらのケースは、暗い背景上の明るい幅の狭い特徴、明るい背景上の暗い幅の狭い特徴、およびピッチが画素1つである市松模様のパターンであると説明することもできる。   In the second step (case detection step), the 3 × 3 pixel kernel automatically applies a greater degree of change to the diagonal feature than the horizontal or vertical feature. Having great functionality means that there are fewer individual cases that must be detected and specific operations applied. It has been found that only three general cases require the application of filtering operations specific to each case based on detection and 3 × 3 pixels. These cases can also be described as light narrow features on a dark background, dark narrow features on a light background, and checkered patterns with a single pixel pitch.

2つの微細な特徴のケースを決定する比較的単純な方法では、4×3のウィンドウにおいて「1」の種類の画素の個数を合計する。12個の画素ウィンドウが、6つ以上の「1」の種類の画素を含むのであれば、このケースは、明るい背景上の暗い特徴であると規定されてもよい。上記12個の画素ウィンドウが6つ未満の「1」の種類の画素を含むのであれば、このケースは、暗い背景上の明るい特徴であると規定されてもよい。   A relatively simple method of determining the case of two fine features sums the number of “1” type pixels in a 4 × 3 window. If the 12 pixel window contains 6 or more “1” type pixels, this case may be defined as a dark feature on a light background. If the 12 pixel window contains less than 6 “1” type pixels, this case may be defined as a bright feature on a dark background.

ピッチが画素1つである市松模様のパターンが存在するケースは、4×3ウィンドウのうち中央の水平なラインにおける4つの画素のうち左側3つの画素では、画素を分類した種類が交互に現れ(例えば101、または010)、かつ、上記左側の3つの画素の上方または下方のいずれかの3つの画素では、反転したパターンが交互に現れる(例えば010または101)ことによって決定されてもよい。   In the case where there is a checkered pattern with a pitch of one pixel, in the 4 pixels on the left side of the 4 pixels in the central horizontal line in the 4 × 3 window, the types of classified pixels appear alternately ( For example, 101 or 010), and the inverted pattern may alternately appear (for example, 010 or 101) in any of the three pixels above or below the left three pixels.

第3のステップ(演算ステップ)では、新しいデータ値が、4×3画素のサブセットの中央の行の左から二つ目の画素に、この画素のもとのデータ値およびこの画素の周囲の上記8つの画素のデータ値(つまり、第2のステップにおいて使用される4×3のサブセット中の12個の画素のうちもっとも左側の9つの画素のデータ値)に基づいて書き込まれてもよい。使用される3×3画素の演算は、英国特許出願第0701325.3号明細書の開示に記載されたものであってもよい。簡潔に説明すると、各画素の見かけの全体的な尺度が、主画像における該画素のデータ値およびそのすぐ隣の8つの画素のデータ値の加重合計値に基づいて算出される。   In the third step (calculation step), the new data value is transferred to the second pixel from the left in the center row of the 4 × 3 pixel subset, and the original data value of this pixel and It may be written based on the data values of 8 pixels (ie, the data values of the leftmost 9 pixels of the 12 pixels in the 4 × 3 subset used in the second step). The 3 × 3 pixel operation used may be that described in the disclosure of UK patent application No. 0701325.3. Briefly described, an overall measure of the appearance of each pixel is calculated based on the weighted sum of the data value of the pixel in the main image and the data values of the 8 pixels immediately adjacent thereto.

次に、画素サブセットに対するマルチビュープロセスの効果を近似する際に、第2の全体的な見かけ値が、画素の同じサブセットに対して、ただし、すぐ横に位置する隣接画素を0にセットした状態で算出される。加重合計値は、正規化され、必要であれば、中央の画素データ値、P’(x、y)の新しい値を算出することによって互いに等しい値にセットされる。この等式で現される関係を図10に示す。したがって、中央の画素P’(x、y)の新しいデータ値を求める等式は次式で与えられる、   Next, in approximating the effect of the multi-view process on a pixel subset, the second overall apparent value is set to 0 for the same subset of pixels, but immediately next to adjacent pixels. Is calculated by The weighted sum values are normalized and, if necessary, set equal to each other by calculating a new value for the central pixel data value, P '(x, y). The relationship expressed by this equation is shown in FIG. Thus, the equation for finding a new data value for the central pixel P ′ (x, y) is given by:

Figure 0005583679
Figure 0005583679

ここで、ω、ω、およびωは、使用される重み付けパラメータであり、P(x、y)などは、主画像内のそれぞれの座標における画素のデータ値である。先述の例と同様、3×3ウィンドウの中央の画素の新しい値が算出されると、この値が、マルチビュー画像プロセスに入力する準備の整った出力画像に書き込まれ、3つのステップからなるプロセス全体が、入力主画像内の次の画素について、全体の画像がウィンドウによって走査され、処理されるまで繰り返される。 Here, ω 1 , ω 2 , and ω 3 are weighting parameters used, and P (x, y) and the like are pixel data values at respective coordinates in the main image. Similar to the previous example, when a new value for the pixel in the middle of the 3x3 window is calculated, this value is written to the output image ready to be input to the multi-view image process, and the process consists of three steps. The whole is repeated for the next pixel in the input main image until the entire image is scanned and processed by the window.

この方法は、画像中の水平および鉛直線からなる特徴より斜線からなる特徴に対してより程度の大きな変更を自動的に適用するように、画素の重み付けパラメータを選択することによって最適化可能である。こうすることによって、第2のステップ(ケース検出ステップ)において考慮が必要な特定の場合の個数が低減される。また、上述のように、暗い背景上の明るい特徴、白い背景上の暗い特徴、およびピッチが画素1つである市松模様のパターンの3つのケースにおいて、わずか3つの異なる3×3画素に基づく演算を適用することによって、画像の見かけを改善することができることがわかっている。   This method can be optimized by selecting pixel weighting parameters so that a greater degree of change is automatically applied to features consisting of diagonal lines than features consisting of horizontal and vertical lines in the image. . By doing so, the number of specific cases that need to be considered in the second step (case detection step) is reduced. Also, as described above, in the three cases of a bright feature on a dark background, a dark feature on a white background, and a checkered pattern with a single pixel, an operation based on only three different 3 × 3 pixels It has been found that the appearance of the image can be improved by applying.

3つのケースにおいて、式(1)のプロセスの重み付けパラメータは、英国特許出願第0701325.3号明細書に記載されているように、3×3サブセット内の画素の見かけの明るさが、その中心からの距離の関数として、二次元ガウス分布にしたがうと仮定し、これに基づいて、中央の画素に対する周囲の画素からの影響を数量化することによって決定されてもよい。例えば、0.5画素幅の標準偏差を有する二次元ガウス分布を仮定すると、重み付けパラメータω=0.0240、ω=0.1070、およびω=0.4759が得られる。 In the three cases, the weighting parameter of the process of equation (1) is the center of the apparent brightness of the pixels in the 3 × 3 subset as described in UK patent application No. 0701325.3. Assuming that it follows a two-dimensional Gaussian distribution as a function of distance from, it may be determined by quantifying the influence of surrounding pixels on the center pixel. For example, assuming a two-dimensional Gaussian distribution with a standard deviation of 0.5 pixel width, the weighting parameters ω 1 = 0.0240, ω 2 = 0.1070, and ω 3 = 0.4759 are obtained.

これらの同じ重み付けパラメータが、第3のステップ(演算ステップ)において、暗い背景上の明るい特徴および白い背景上の暗い特徴の両方のケースで使用されてもよい。ただし、変更の程度、および幅の狭い(単一の画素)暗い特徴、幅の狭い明るい特徴、または両方の見え方を強調するプロセスの全体的な傾向は、まず主画像データ値を見かけの輝度値に、例えば、次式で現されるガンマべき乗機能を用いて変換することによって制御されてもよい。   These same weighting parameters may be used in the third step (calculation step) in the case of both light features on a dark background and dark features on a white background. However, the degree of change and the overall trend of the process that emphasizes the appearance of narrow (single pixel) dark features, narrow bright features, or both, is the primary image data value apparent brightness The value may be controlled, for example, by converting using a gamma power function expressed by the following equation.

Figure 0005583679
Figure 0005583679

ここで、Lは見かけの輝度、Dはデータ値(0〜255)、ガンマはべき乗係数であり、どれも、得られた値を3×3画素に基づく演算で処理する前の値である。 Here, L is an apparent luminance, D is a data value (0 to 255), gamma is a power coefficient, and each is a value before the obtained value is processed by a calculation based on 3 × 3 pixels.

この変換で使用するガンマ値(変換パラメータ)が、表示デバイス自身における画素のデータ値に対する輝度の応答性を精度よく反映する、データ値と輝度との関係を生成するのであれば、3×3画素に基づく演算が、画像の急峻な特徴に対して十分な平滑化効果を依然発揮し、マルチビュープロセスによる色のアーティファクトの導入を防止しながら、表示デバイス上で観察される、主画像内の暗いおよび明るい特徴の全般的な輝度を維持する。   If the gamma value (conversion parameter) used in this conversion generates a relationship between the data value and the luminance that accurately reflects the responsiveness of the luminance to the pixel data value in the display device itself, 3 × 3 pixels Based on the darkness in the main image observed on the display device while still providing sufficient smoothing effect on the steep features of the image and preventing the introduction of color artifacts by the multi-view process And maintain the overall brightness of bright features.

使用されるガンマ値が、表示デバイス自身が持つ、データ値に対する輝度の応答性を表わすガンマ値より低ければ、式(1)に記載された3×3画素に基づく演算の全体的な傾向は、主画像内の暗い特徴の見え方を強調する。これは、プロセスにかけた後、明るい画素に隣接する暗い画素は暗いままで残るが、暗い画素に隣接する明るい画素は大幅に暗くなることに起因している。   If the gamma value used is lower than the gamma value representing the brightness responsiveness to the data value of the display device itself, the overall tendency of the calculation based on 3 × 3 pixels described in Equation (1) is as follows: Emphasize the appearance of dark features in the main image. This is due to the fact that after processing, the dark pixels adjacent to the bright pixels remain dark, while the bright pixels adjacent to the dark pixels are significantly darker.

使用されるガンマ値が、表示デバイス自身が持つ、データ値に対する輝度の応答性を表わすガンマ値より高ければ、式(1)に記載された3×3画素に基づく演算の全体的な傾向は、主画像内の明るい特徴の見え方を強調する。これは、プロセスにかけた後、暗い画素に隣接する明るい画素は明るいままで残るが、明るい画素に隣接する暗い画素は大幅にほぼ明るくなることに起因している。   If the gamma value used is higher than the gamma value representing the responsiveness of the luminance to the data value of the display device itself, the overall tendency of the calculation based on 3 × 3 pixels described in Equation (1) is Emphasize the appearance of bright features in the main image. This is due to the fact that after going through the process, the bright pixels adjacent to the dark pixels remain bright, while the dark pixels adjacent to the bright pixels are significantly brighter.

3×3画素に基づくフィルタプロセスによって、明るいおよび暗い幅の狭い特徴が見え方が両方とも強調されるのであれば、マルチビュープロセスが適用された後の主画像の全体的な見かけが、改善しているのかもしれない。この場合、3×3のウィンドウが暗い背景上の明るい特徴を含む画像領域からなることを、第2のステップ(ケース検出ステップ)が示唆しているのであれば、より高いガンマ値をフィルタ演算において使用可能である。一方で、3×3のウィンドウが明るい背景上の幅の狭い暗い特徴を含む画像領域からなることを、第2のステップ(ケース検出ステップ)が示唆しているのであれば、より低いガンマ値をフィルタ演算において使用可能であり、こうすることによって、どちらの場合にも必要な効果が実現される。   If the 3x3 pixel based filter process enhances both the appearance of light and dark narrow features, the overall appearance of the main image after the multiview process has been applied is improved. It may be. In this case, if the second step (case detection step) suggests that the 3 × 3 window consists of image areas containing bright features on a dark background, a higher gamma value is used in the filter operation. It can be used. On the other hand, if the second step (case detection step) suggests that the 3 × 3 window consists of an image area containing a narrow dark feature on a light background, a lower gamma value is used. It can be used in filter operations, and in this way, the necessary effect is realized in either case.

3×3画素に基づくフィルタプロセスがガンマ変換済み画素データ値に適用された後、得られた出力値が、式(3)に示す、等式(2)の逆を用いて変換され、等価の新しいデータ値に戻されてもよい。   After the 3 × 3 pixel based filter process is applied to the gamma transformed pixel data value, the resulting output value is transformed using the inverse of equation (2) shown in equation (3) to obtain an equivalent New data values may be returned.

Figure 0005583679
Figure 0005583679

ここで、D’は新しい等価のデータ値、L’は3×3画素に基づくフィルタによる処理後の新しい見かけの輝度値、およびガンマは式(2)で使用されるのと同じべき乗係数である。 Where D ′ is the new equivalent data value, L ′ is the new apparent luminance value after processing by the filter based on 3 × 3 pixels, and gamma is the same power factor used in equation (2). .

式(1)に記載の、3×3画素に基づくフィルタ演算の、(a)黒い斜線および(b)白い斜線を含む2つの入力主画像領域に対する効果を、図11に示す。なお、図11に示す画素データ値は、それぞれ1および2.4のガンマ値を用いて、式(2)および(3)にしたがって事前および事後変換を行った画素データ値である。ガンマ値の選択が、明るいおよび暗い線の異なる変化の仕方に対してどのように影響するのか、また、画像内の明るいおよび暗い幅の狭い特徴の見え方をどちらも強調するためには、算出において使用されるガンマ値を、先行するケース検出ステップの結果にしたがって選択することがなぜ望ましいのかが、図11から読み取れる。   FIG. 11 shows the effect of the filter operation based on 3 × 3 pixels described in Expression (1) on two input main image regions including (a) black diagonal lines and (b) white diagonal lines. Note that the pixel data values shown in FIG. 11 are pixel data values that have been pre- and post-transformed according to equations (2) and (3) using gamma values of 1 and 2.4, respectively. To enhance how the selection of the gamma affects different ways of changing the bright and dark lines, and to emphasize both the appearance of light and dark narrow features in the image, calculate It can be seen from FIG. 11 why it is desirable to select the gamma value used in, according to the results of the previous case detection step.

第2のステップ(ケース検出ステップ)における4×3のウィンドウのサンプリング対象である主画像の領域内に、ピッチが画素1つである市松模様のパターンが存在することを、第2のステップの結果が示唆している場合、第3のステップ(演算ステップ)において、中央の画素およびすぐ隣の4つの画素の合計値に割り当てられた等しい重み付けを次式のように変更し、さらに単純な3×3画素に基づく加重合計値値の演算が実施されてもよい。   The result of the second step is that a checkerboard pattern having a pitch of one pixel exists in the region of the main image that is the sampling target of the 4 × 3 window in the second step (case detection step). Suggests that in the third step (calculation step), the equal weight assigned to the sum of the central pixel and the four neighboring pixels is changed to: An operation of a weighted total value value based on three pixels may be performed.

Figure 0005583679
Figure 0005583679

ここでも、画素データ値P(x、y)などは、上記演算が適用される前に、非線形法(例えば上述のガンマに依存するプロセス)によって変換されてもよい。 Again, the pixel data value P (x, y) etc. may be transformed by a non-linear method (e.g. the above-described gamma-dependent process) before the operation is applied.

こうすることによって、この第2の例は、入力主画像に加えられる不必要な変更の量が低減されるという点において第1の例より精度よく、マルチビュープロセスが原因となって生じる画像から任意の不所望の色のアーティファクトを除去する手段を提供する。なお、゜この不必要な変更の量の低減は、4×3ブロック(4×1ブロックではない)の画素データ値をバッファするために必要とされるメモリ、および必要な画素データ変更演算を実施する処理電力の両方について、表示デバイスの演算リソースに対する要求が増加することと引き換えに発生する。   By doing this, this second example is more accurate than the first example in that the amount of unnecessary changes made to the input main image is reduced, and from the image that results from the multiview process. Provide a means to remove any unwanted color artifacts. Note that this reduction in the amount of unnecessary change is performed by performing memory necessary for buffering pixel data values of 4 × 3 blocks (not 4 × 1 blocks) and necessary pixel data change operations. Both of the processing powers to be generated occur in exchange for an increase in demands on the computing resources of the display device.

第1の実施形態の第3の実施態様の一例では、4×3画素ウィンドウが、ここでも、第1のステップ(分類ステップ)および第2のステップ(ケース検出ステップ)において使用されてもよい。また、3×3画素ウィンドウが、ここでも、第3の演算において用されてもよい。ただし、最終的なマルチビュー画像から色のアーティファクトを除去することについては匹敵する性能を維持し、主画像をぼやけさせる効果を最小限に抑えながら、第3のステップにおいて実施される演算を大幅に簡素化可能にして、表示デバイスの演算リソースに対する要求を低減するために、第2のステップで検出されるケースの個数が、先の例に比べて、3つから6つに増加してもよい。検出されるケースの個数がこのように増加することによって、6つのケースすべてにおいて実施されるぼかし演算を、3×3画素のサブセットの標準的な正規化済み加重合計値に簡素化することが可能になる。なお、この簡素化において、使用される画素の重み付けは、すべて整数を32でわった分数であって、また、任意の点で画素データ値を見かけの輝度値に非線形変換することは不必要である。   In an example of the third implementation of the first embodiment, a 4 × 3 pixel window may again be used in the first step (classification step) and the second step (case detection step). Again, a 3 × 3 pixel window may be used in the third operation. However, removing the color artifacts from the final multiview image maintains comparable performance and minimizes the effect of blurring the main image while significantly reducing the computations performed in the third step. The number of cases detected in the second step may be increased from 3 to 6 compared to the previous example in order to be able to simplify and reduce the demand for computing resources of the display device. . This increase in the number of cases detected can simplify the blurring operation performed in all six cases to a standard normalized weighted sum of a 3x3 pixel subset. become. In this simplification, the weights of the pixels used are all fractions obtained by dividing the integer by 32, and it is not necessary to nonlinearly convert the pixel data value to an apparent luminance value at an arbitrary point. is there.

第1のステップ(分類ステップ)では、実施態様は、先述の例の場合と同じであってもよい。つまり、サブセットの平均画素データ値が算出され、この平均値より大きいデータ値を有する画素は「1」画素と表記され、平均値より小さいデータ値を有する画素は「0」画素と表記される。   In the first step (classification step), the embodiment may be the same as in the previous example. That is, an average pixel data value of the subset is calculated, pixels having a data value larger than the average value are denoted as “1” pixels, and pixels having a data value smaller than the average value are denoted as “0” pixels.

第2のステップ(ケース検出ステップ)では、特定のケースの個数を3つから6つに倍増させるために、先述の例の3つの主要なケース(市松模様のパターン、明るい背景上の暗い幅の狭い特徴、および暗い背景上の明るい幅の狭い特徴)を先述のプロセスと同じプロセス(市松模様のケースについては既知のパターンとの比較、その他のパターンについては「1」の種類の画素の個数の合計)によって検出することに加えて、第3のステップ(演算ステップ)において使用される3×3サブセットの中央の画素の分類をも考慮する。例えば、中央の画素の種類が「0」である市松模様のパターンは別のケースとなり、種類が「1」である中央の画素を有する市松模様のパターンに適用される演算ステップとは異なる特定の演算ステップが適用される。6つの検出されるケースの例を図12に示す(画素分類における「?」は、サブセット内のこの位置の画素の種類が、決定されるケースとは無関係であることを示唆している)。   In the second step (case detection step), in order to double the number of specific cases from 3 to 6, the three main cases of the previous example (checkered pattern, dark width on a light background) Narrow features and light narrow features on a dark background) are the same as the previous process (compared to known patterns for checkered cases, the number of pixels of type “1” for other patterns) In addition to detecting by summation, the classification of the central pixel of the 3 × 3 subset used in the third step (calculation step) is also considered. For example, a checkerboard pattern with a central pixel type of “0” is a different case, which is different from a calculation step applied to a checkered pattern with a central pixel of type “1”. Arithmetic steps are applied. An example of six detected cases is shown in FIG. 12 ("?" In the pixel classification suggests that the type of pixel at this position in the subset is independent of the case determined).

第3のステップ(演算ステップ)では、正規化済み加重合計値の演算を使用して、第2のステップ(ケース検出ステップ)によって区別された6つの異なる各ケースについて異なる重み付けパラメータを用いて、3×3サブセットの中央の画素の新しい値が算出される。各演算において、重み付けパラメータは整数を32でわった分数にしてもよく、画素データ値の非線形変換は不必要であって、こうすることによって、算出方法が簡素化される。このプロセスを図13に示す。なお、図13に示す重み付けパラメータは、それぞれのケースについて、最終的なマルチビュー画像において良好な結果を生むことがわかっている重み付けパラメータである。図13からわかるように、6つの各演算は、角部の画素に対して負の重み付けパラメータが使用される「白字のテキストである隣接画素」の場合を除けば、単純な正規化済み加重合計値である。こうすることによって、中央の画素が斜線に隣接している場合、色アーティファクトを最終的なマルチビュー画像のこれらの領域から除去するために必要な、程度の大きな変更が、中央の画素に対して加えられる。   In the third step (calculation step), using the normalized weighted sum calculation, using different weighting parameters for each of the six different cases distinguished by the second step (case detection step), 3 A new value for the center pixel of the x3 subset is calculated. In each calculation, the weighting parameter may be a fraction obtained by dividing the integer by 32, and non-linear conversion of the pixel data value is unnecessary, and this simplifies the calculation method. This process is illustrated in FIG. Note that the weighting parameters shown in FIG. 13 are weighting parameters that are known to produce good results in the final multi-view image for each case. As can be seen from FIG. 13, each of the six operations is a simple normalized weighted sum, except in the case of “adjacent pixels that are white text” where a negative weighting parameter is used for the corner pixels. Value. By doing this, if the central pixel is adjacent to the diagonal line, the major change required to remove color artifacts from these regions of the final multiview image is Added.

必要なプロセスを実行するための回路設計の一例を、図14に示す。この図面では、画素バッファステップおよび演算ステップのプロセスが拡張されて、それぞれ4×3および3×3画素のウィンドウが組み込まれていることを除けば、上述のプロセスが、図9に示した態様と同様の態様で動作することがわかる。図14では、レジスタブロックから入力されるパラメータが、第2のステップにおいて検出される6つの異なるケースについて、AからFで示されている。また、0、1、または2の添え字を付けて、パラメータが、第3のステップ(演算ステップ)において中央の画素に適用可能であるのか、横方向に隣接する画素のうちの1つに適用可能であるのか、または斜め方向に隣接する画素のうちの1つに適用可能であるのかを示している。例えば、図13に詳細に示すケースを考えて、ケース=白字のテキストの隣接する画素を「F」と表記すると、F0=4、F1=9、F2=−2である。   An example of a circuit design for executing a necessary process is shown in FIG. In this figure, the process described above is similar to that shown in FIG. 9, except that the pixel buffer step and operation step processes have been expanded to incorporate windows of 4 × 3 and 3 × 3 pixels, respectively. It can be seen that it operates in a similar manner. In FIG. 14, the parameters input from the register block are indicated by A to F for the six different cases detected in the second step. Also, a subscript of 0, 1, or 2 is added, and the parameter can be applied to the central pixel in the third step (calculation step) or applied to one of the pixels adjacent in the horizontal direction. Whether it is possible or applicable to one of the pixels adjacent in the diagonal direction. For example, considering the case shown in detail in FIG. 13, if an adjacent pixel of a case = white text is expressed as “F”, F0 = 4, F1 = 9, and F2 = −2.

なお、この場合、上述のいずれのプロセスを実行しても、通常の範囲(例えば0〜255)から外れた新しい画素値を生成する画像領域が存在する可能性がある。これらの範囲外の新しい値は、単純に外れた部分を切り捨てて、その範囲の端の値に等しくなるようにしてもよい。   In this case, even if any of the processes described above is executed, there is a possibility that there is an image area that generates a new pixel value outside the normal range (for example, 0 to 255). New values outside these ranges may simply be trimmed off so that they are equal to the end values of the range.

負の重み付けパラメータを含めることが、プロセスの特定の実施態様にとって望ましくなければ、代替となる方法として、特有の場合において特に大きな変更を入力画像データに適用する、他の方法(例えば、フィルタリング演算に加えて演算対象の画素値に一定の大きさのデータを足すまたは引く)を使用してもよく、あるいは、プロセスの第1のステップ(分類ステップ)において算出される4×3カーネルの平均画素データ値を、第3のステップ(演算ステップ)においてパラメータとして使用して、この平均値に合わせて変更の程度を調節できるようにしてもよい。   If the inclusion of negative weighting parameters is not desired for a particular implementation of the process, an alternative method is to apply other significant methods to the input image data in specific cases (e.g. in filtering operations). In addition, a certain amount of data may be added to or subtracted from the pixel value to be calculated), or the average pixel data of 4 × 3 kernels calculated in the first step (classification step) of the process The value may be used as a parameter in the third step (calculation step) so that the degree of change can be adjusted to this average value.

なお、図14は、入力画像データのビット深度が6ビット/色チャンネル(つまり1画素当たり18b)であるとして示しているが、同図は実施態様の一例に過ぎず、同図に示された機能的プロセスは、任意のビット深度の画像に対して適用できる。   FIG. 14 shows that the bit depth of the input image data is 6 bits / color channel (that is, 18b per pixel), but this figure is only an example of the embodiment and is shown in FIG. Functional processes can be applied to images of any bit depth.

最適な結果を得るためには、暗い背景上の明るい特徴からなる画像領域とその反対の画像領域が、第3のステップ(演算ステップ)において、互いに異なるパラメータが適用されることを必要とすることがわかったのであるから、上記の例から、第2のステップ(ケース検出ステップ)の主要な目的が、これらの異なる領域同士を区別することであることは、明らかであろう。使用されるLCDの種類はこの情報を有しており、これらのケースの主要な例について利用可能である。つまり、画像が白い背景上の黒字のテキストを含むのであれば、この画像がこういうケースであるという情報が、例えば、入力画像データに埋め込まれた「フラグ」の形態で、またはユーザによる表示モードの選択肢の一部として、LCDに入力されてもよい。この場合、第1の分類ステップおよび正しいパラメータの自動的選択を実行しなくてもいいように、この情報をケース検出プロセスに入力してもかまわない。   In order to obtain optimal results, the image area consisting of bright features on a dark background and the opposite image area need to have different parameters applied in the third step (calculation step). From the above example, it will be clear that the main purpose of the second step (case detection step) is to distinguish these different regions. The type of LCD used has this information and is available for the main examples of these cases. In other words, if the image contains black text on a white background, the information that this image is such a case is displayed in the form of a “flag” embedded in the input image data or in the display mode by the user. As part of the options, it may be entered on the LCD. In this case, this information may be entered into the case detection process so that the first classification step and automatic selection of the correct parameters need not be performed.

本発明の第2の実施形態では、マルチビュープロセスが、入力画像になにも変更を加えずに、LCD制御用エレクトロニクス1において主画像7のデータセットおよびサイド画像8のデータセットに対して実施される。そして、出力マルチビュー画像の輝度値を、追加の画像処理デバイス13においてマルチビュープロセス12の第1の段階によって圧縮された後の入力主画像の輝度値と比較することによって、このプロセスから生じる任意の所望しない画像アーティファクトが検出される。次に、追加の画像処理デバイス13は、何らかの補正をマルチビュー画像に対して実施して、アーティファクトが視認されないようにし、さらに補正後のマルチビュー画像データセットを表示デバイスに出力する。この演算のプロセスの流れを、図15に示す。   In the second embodiment of the present invention, a multi-view process is performed on the data set of the main image 7 and the data set of the side image 8 in the LCD control electronics 1 without making any changes to the input image. Is done. Any luminance resulting from this process is then compared by comparing the luminance value of the output multiview image with the luminance value of the input main image after being compressed by the first stage of the multiview process 12 in the additional image processing device 13. Undesired image artifacts are detected. Next, the additional image processing device 13 performs some correction on the multi-view image so that the artifact is not visually recognized, and further outputs the corrected multi-view image data set to the display device. The flow of this calculation process is shown in FIG.

この第2の実施形態の方法の一例において、マルチビュー画像およびもとの画像7のデータが追加の画像処理デバイス12に入力されると、どちらの画像においても、3×3カーネルが使用されて、各画素およびそのすぐ隣の8つの画素すべてがサンプリングされる。画素値が単一のモノクロム画素または単一の白黒画素に関連する場合、8つの隣り合う画素の画素値が処理される。合成色画素群の場合、各合成色画素群が赤色、緑色、および青色の画素を備えているので、プロセスは、画像の各色成分画素値に対して順に適用される。   In an example of the method of the second embodiment, when the multi-view image and the original image 7 data are input to the additional image processing device 12, a 3 × 3 kernel is used in both images. , Each pixel and all eight pixels immediately adjacent to it are sampled. If the pixel value is associated with a single monochrome pixel or a single black and white pixel, the pixel values of eight adjacent pixels are processed. In the case of a composite color pixel group, since each composite color pixel group comprises red, green, and blue pixels, the process is applied sequentially to each color component pixel value of the image.

そして、各画像のカーネルにおける、画素データ値の正規化済み加重合計値「A」が、画像の位置に応じてカーネル中の各画素に対して重みを適用して、図10に図示されたプロセスと同様のプロセスにおいて、演算される。3つの異なる重み係数ω、ω、およびωを用いる、この種類の構成を図16に示す。各画像の対応する画素群の、これらの正規化後の加重済み「画素の見かけ値」は比較されて、不一致が見つかれば、マルチビュー画像中のカーネルの中央の画素が、各画像のカーネルから得られる加重合計値を等しくするように、必要な量に応じて変更される。Amvが、マルチビュー画像から得られる正規化後の加重済みカーネルの合計値であって、Aicが、圧縮済み入力主画像から得られる正規化後の加重済みカーネルの合計値であれば、マルチビュー画像中のカーネルの中央の画素の新しい値P(x、y)’は、次式によって与えられる。 Then, the normalized weighted sum “A” of the pixel data values in the kernel of each image applies a weight to each pixel in the kernel according to the position of the image, and the process illustrated in FIG. It is calculated in the same process. This type of configuration using three different weighting factors ω 1 , ω 2 and ω 3 is shown in FIG. These normalized weighted “pixel apparent values” of the corresponding pixels in each image are compared, and if a discrepancy is found, the center pixel of the kernel in the multiview image is taken from each image's kernel. It is changed according to the required amount so as to make the obtained weighted sum equal. If A mv is the sum of the normalized weighted kernels obtained from the multi-view image and A ic is the sum of the normalized weighted kernels obtained from the compressed input main image, The new value P (x, y) ′ of the center pixel of the kernel in the multiview image is given by:

Figure 0005583679
Figure 0005583679

ここで、ωは、カーネルの中央の画素のための重み係数である。 Here, ω 3 is a weighting factor for the central pixel of the kernel.

新しい中央の画素値がマルチビュー画像に書き込まれると、カーネルは1画素分移動して、新しいカーネルにおいて隣接する画素値を提供する先のステップから得られる、新しい画素値を用いて演算が繰り返される。このようにして、マルチビュー画像の画素値に対する補正が次の演算において考慮され、画像は過度に補正されることがない。プロセスは、カーネルの中央の画素によって、画像のすべての画素が走査されつくすまで、繰り返される。   When the new center pixel value is written to the multi-view image, the kernel moves one pixel and the operation is repeated with the new pixel value obtained from the previous step that provides adjacent pixel values in the new kernel. . In this way, the correction for the pixel value of the multi-view image is considered in the next calculation, and the image is not corrected excessively. The process is repeated until all pixels of the image have been scanned by the center pixel of the kernel.

出力画像内の画像アーティファクトも最小化しながら、このプロセスによって生じる出力マルチビュー画像の変化を最小化するためには、主画像が一様な画像である領域では変更が不必要であることが望ましい。これらの理由によって、加重済みカーネルの合計値が、一様な主画像領域において、マルチビュープロセスによってマルチビュー画像に生じるパターン形成によってステップごとにばらつくことがないことも望ましい。圧縮済み主画像の輝度値の一様な領域の一例、および英国特許出願第0804022.2号明細書に記載されたプロセスによって生じると考えられる、出力マルチビュー画像の等価な領域を、図17に示す。この図から、もとの画像は一様であっても、ステップ(n)における3×3カーネル14が、ステップ(n+1)におけるカーネル15とは異なる加重合計値を有していてもよいことがわかる。したがって、画素に対する重み値を、入力主画像における一様な領域に対応するマルチビュー画像の複数の領域について、等しい加重済みカーネルの合計値を生成するカーネル内で選択することが望ましい。このような重み付けの一例としては、ω=1、ω=2、およびω=4とすればよい。 In order to minimize the change in the output multi-view image caused by this process, while also minimizing image artifacts in the output image, it is desirable that no change is necessary in regions where the main image is a uniform image. For these reasons, it is also desirable that the sum of the weighted kernels does not vary from step to step due to the patterning that occurs in the multiview image by the multiview process in a uniform main image region. An example of a uniform region of luminance values of the compressed main image and the equivalent region of the output multi-view image, which would be caused by the process described in UK patent application No. 0804022.2, is shown in FIG. Show. From this figure it can be seen that even though the original image is uniform, the 3 × 3 kernel 14 in step (n) may have a different weighted sum than the kernel 15 in step (n + 1). Recognize. Therefore, it is desirable to select a weight value for the pixel within the kernel that produces a total value of equal weighted kernels for multiple regions of the multi-view image corresponding to a uniform region in the input main image. As an example of such weighting, ω 1 = 1, ω 2 = 2 and ω 3 = 4 may be used.

マルチビュー表示デバイスに表示される画像の知覚される品位を改善する画像処理方法が、このようにして提供される。この品位の改善は、入力画像に生じる変更の程度、特に微細な特徴をぼやけさせることを最小限に抑えながら、他の画像処理方法であればマルチビュープロセスによって生じる色のアーティファクトを除去することによって達成される。知覚される出力マルチビュー画像の全体的な品位と、プロセスの実行に必要とされる演算リソースとのバランスをとるさまざまな選択肢を提供する、各種実施形態が記載される。なお、ここに記載した実施形態は、特定の表示デバイスに対してさまざまなリソースの仕様の場合に良好な結果を生むことがわかっているプロセスの特定の例を含むものであるが、任意の特定の利用可能リソースの仕様の場合に最適なプロセスには、適用事例によってばらつきがある。したがって、実施形態の特定の態様(例えば第1のステップにおいて使用される画素を分類する具体的な方法、第2のステップにおいて検出される特定の画素パターンのケースの個数および種類、または第1の実施形態の第3のステップにおいて画像データを変更するために実施される具体的な算出方法)には、実施態様によってばらつきがあり、このようなばらつきは、特定の適用事例の詳細な仕様がわかれば当業者にとって自明であって、したがって、本発明の技術的範囲内から逸脱するものではないことは当然である。   An image processing method that improves the perceived quality of an image displayed on a multi-view display device is thus provided. This improvement in quality is achieved by minimizing the degree of change that occurs in the input image, especially blurring of fine features, while removing color artifacts caused by multi-view processes in other image processing methods. Achieved. Various embodiments are described that provide various options that balance the overall quality of the perceived output multi-view image with the computational resources required to perform the process. It should be noted that the embodiments described herein include specific examples of processes that have been found to produce good results in the case of various resource specifications for specific display devices, but any specific use The optimal process for possible resource specifications varies from application to application. Accordingly, certain aspects of the embodiment (eg, a specific method for classifying the pixels used in the first step, the number and types of cases of the particular pixel pattern detected in the second step, or the first The specific calculation method performed to change the image data in the third step of the embodiment varies depending on the embodiment, and such variation indicates a detailed specification of a specific application example. It will be obvious to those skilled in the art and thus does not depart from the scope of the present invention.

本発明の一実施形態は、英国特許出願公開第2428152A号明細書および英国特許出願第0804022.2号明細書に記載されたプロセスが原因となって生じる色のアーティファクトを除去するために特に有用な画像処理フィルタを提供する。GB−A−2445982および英国以外の国における対応出願には、色のアーティファクトを処理するために2画像表示デバイスにおいて使用するための、ぼかしフィルタが記載されている。しかし、本発明の一実施形態は、ソフトウェアプライバシープロセスが原因となって生じる色のアーティファクトに対処するために特別に設計された第1のぼかしフィルタを提供し、その結果、主画像に導入されるぼかし量を最小化する。   One embodiment of the present invention is particularly useful for removing color artifacts caused by the processes described in UK Patent Application No. 2428152A and UK Patent Application No. 0804022.2. An image processing filter is provided. GB-A-2445882 and corresponding applications in countries other than the UK describe blur filters for use in two-image display devices to process color artifacts. However, one embodiment of the present invention provides a first blur filter specifically designed to deal with color artifacts caused by the software privacy process, and as a result is introduced into the main image. Minimize the amount of blur.

ただし、本発明が、ソフトウェアプライバシーに限定されることを意図したものではなく、受信された画素データがマルチビュー効果を観察者に対して創出するために処理される、任意の画像処理ステップによって導入されるアーティファクトの補正に適用可能てであることは理解されよう。例えば、GB−A−2445982においては、本発明の一実施形態に係る手法を用いて実施される処理ステップが、互いに異なるそれぞれに対応する画像を表わす受信された画素データの複数のセットがインターリーブされ、互いに異なる画像を互いに異なるそれぞれに対応する視認位置にいる複数の観察者に提示するステップとなり、本発明は、GB−A−2445982に記載された、この文脈において適用可能である。   However, the present invention is not intended to be limited to software privacy, but is introduced by an optional image processing step in which the received pixel data is processed to create a multi-view effect for the viewer. It will be understood that it is applicable to the correction of artifacts that are made. For example, in GB-A-2445982, the processing steps performed using the technique according to one embodiment of the present invention involve interleaving a plurality of sets of received pixel data representing different images corresponding to each other. This is a step of presenting different images to a plurality of viewers at different viewing positions corresponding to different images, and the present invention is applicable in this context as described in GB-A-2445882.

2つの主な実施形態を上述した。第1の主な実施形態では、主画像を、主画像自身を参照するだけでぼやけさせて、その後に主画像に対してマルチビュープロセスが実施される。また、第2の主な実施形態では、マルチビュー処理された画像が入力主画像と比較され、比較結果に応じて補正される。   Two main embodiments have been described above. In the first main embodiment, the main image is blurred only by referring to the main image itself, and then a multi-view process is performed on the main image. In the second main embodiment, the multi-view processed image is compared with the input main image and corrected according to the comparison result.

第1の実施形態では3つの例を示した。どの例も、入力データの分類、パターン一致、および適切なぼかし演算の適用という3つのステップをともなう。これら3つの変形例は、性能と実施の容易さ/リソース要件との間のバランスがすべて異なる。   In the first embodiment, three examples are shown. Each example involves three steps: classification of input data, pattern matching, and application of an appropriate blurring operation. These three variants all differ in the balance between performance and ease of implementation / resource requirements.

本発明を具現化する方法と、GB−A−2445982および英国以外の国における対応出願に記載の方法との間の違いの一部を、次に列挙する。   Some of the differences between the method embodying the present invention and the methods described in GB-A-2445882 and corresponding applications in countries other than the UK are listed below.

GB−A−2445982および英国以外の国における対応出願に記載のケース検出フィルタは、単一方向性を有する。つまり、ぼやけさせる過程は、処理中の画素およびその右側の画素の画素値にのみ依存する。本発明の一実施形態に係るフィルタは、右側、左側、または両方の画素を使用して新しい値を決定する。   Case detection filters described in GB-A-2445882 and corresponding applications in countries other than the UK have unidirectionality. That is, the process of blurring depends only on the pixel value of the pixel being processed and the pixel on the right side thereof. A filter according to an embodiment of the present invention uses the right side, left side, or both pixels to determine a new value.

本発明の一実施形態に係るフィルタは、黒線、白線、縁、および市松模様に対してすべて異なる扱いができる。GB−A−2445982および英国以外の国における対応出願に記載のフィルタは、特定のケースを1つ扱えるだけである。   The filter according to an embodiment of the present invention can be handled differently for black lines, white lines, edges, and checkered patterns. The filters described in GB-A-2445882 and corresponding applications in countries other than the UK can only handle one specific case.

GB−A−2445982および英国以外の国における対応出願は、分類法を用いて、カーネル内の画素が処理済み画素とは同様の画像であるのか、または大幅に異なる画像であるのかを分類する。隣接する画素が演算を実施する対象である考察中の画素に比べて高い値を有しているのか、または低い値を有しているのかということが大切なのであって、これらの画素値が近いかまたは異なるかということが問われているわけではないので、これでは、本発明の一実施形態としては不十分である。この点について、本発明の一実施形態では、新しい画素データが、画素データの少なくとも1つのパターンと、対応する反転パターンとの区別ができる様態で、画素に対して導出されるが、GB−A−2445982の手法はこの区別ができない。   GB-A-2445982 and corresponding applications in countries other than the UK use classification methods to classify whether the pixels in the kernel are images that are similar to or significantly different from the processed pixels. It is important that adjacent pixels have a higher or lower value than the pixel under consideration for which the operation is performed, and these pixel values are close. This is not sufficient as an embodiment of the present invention because it is not questioned whether it is different or different. In this regard, in one embodiment of the present invention, new pixel data is derived for a pixel in such a way that at least one pattern of pixel data and a corresponding inversion pattern can be distinguished, but GB-A The -2455982 method cannot make this distinction.

ここで説明した第2の実施形態と、GB−A−2445982および英国以外の国における対応出願の第2の方法との間の違いの一部を、次に列挙する。   Some of the differences between the second embodiment described here and GB-A-2445982 and the second method of corresponding applications in countries other than the UK are listed below.

この第2の実施形態は、実際の出力マルチビュー画像を使用して、仮定した視差バリアの構成ではなく、画素の見かけ合計値を比較する。画素はつねに0にセットされているわけではなく、値が2倍にされる画素もあり、高/低画素のパターンは、カーネルの移動にともなって反転する。   This second embodiment uses the actual output multi-view image to compare the apparent total values of the pixels rather than the assumed parallax barrier configuration. Pixels are not always set to 0, and some pixels are doubled in value, and the pattern of high / low pixels is inverted as the kernel moves.

この第2の実施形態は、補正を画像に書き込み、カーネルを移動させ、そして、先のステップから得られる補正済み画素値を使用して、新しい加重合計値を算出する。こうすることによって、GB−A−2445982および英国以外の国における対応出願の記載とは異なり、補正が「搬送」される。   This second embodiment writes the correction to the image, moves the kernel, and uses the corrected pixel values obtained from the previous step to calculate a new weighted sum. In this way, the amendment is “carried”, unlike GB-A-2445882 and the corresponding application in countries other than the UK.

先に説明した部材のうちの1つ以上の部材の動作が、表示デバイスまたは装置上で動作するプログラムによって制御可能であることは理解できるであろう。このような動作プログラムは、コンピュータで読み取り可能な媒体に記憶されても、または、例えば、インターネット上のウェブサイトから提供されるダウンロード可能なデータ信号などの信号において具現化されてもかまわない。添付の請求項は、動作プログラム自身をカバーしている、または動作プログラムを記録として、搬送波に載せて、信号として、またはその他の任意の形態でカバーしていると解釈すべきものである。   It will be appreciated that the operation of one or more of the previously described members can be controlled by a program running on the display device or apparatus. Such an operation program may be stored in a computer-readable medium, or may be embodied in a signal such as a downloadable data signal provided from a website on the Internet. The appended claims should be construed as covering the operating program itself, or covering the operating program as a record, on a carrier wave, as a signal, or in any other form.

本発明の特性および効果をより完全に理解するには、添付の図面とともに、下記の詳細な説明を参照すべきである。   For a more complete understanding of the nature and advantages of the present invention, reference should be made to the following detailed description taken together with the accompanying figures.

本発明は上述のように記述されてはいるが、様々に変更可能であることは明らかである。そのような変更は本発明の意図および範囲から逸脱するものではなく、当業者にとって明らかであるそのような全ての変更は、以下の請求項の範囲に含まれる。   Although the present invention has been described above, it is obvious that various modifications can be made. Such modifications do not depart from the spirit and scope of the present invention, and all such modifications that will be apparent to those skilled in the art are included within the scope of the following claims.

Claims (33)

表示デバイスの表示パネルによるマルチビュー表示ために画像データを処理する方法であって、
1つの画像を表す画素データのセット複数セット取得し、
第1の処理ステップでは、観察者に対して上記マルチビュー効果を創出するために、上記複数セットの画素データを処理し
第2の処理ステップでは、上記画素データにおける複数のサブセットのそれぞれが同数の画素群を備え、かつ、各画素群が少なくとも1つの画素を備えた各サブセットについて、該サブセットにおける複数の画素群のうちの少なくとも1つの画素群に関して当該画素群における画素データのパターンに依存して、新しい画素データを導出し、該導出は、少なくとも1つの上記パターンとその反転パターンとで異なる画像ぼかしフィルタにより行われる方法。
A method of processing image data for multi-view display according to the display panel of the display device,
One image set of tables to picture element data is acquired a plurality of sets,
In a first process step, in order to create the effect of the multi-view to the viewer, to process pixel data of said plurality of sets,
In a second process step, each of the plurality of subsets in the pixel data comprises the same number of pixel groups, and for each subset each pixel group comprises at least one pixel among the plurality of pixel groups in said subset at least regarding one pixel group, depending on the pattern of the pixel data in the pixel group, to derive the new pixel data, conductor unloading the image blur filters having different in at least one of the pattern and its inverted pattern of The method performed by .
上記第1の処理ステップでは
上記表示パネルの表示面の法線方向から観察している軸上の観察者に関する軸上のガンマ曲線と、上記法線方向以外の方向から観察している軸外の観察者に関する軸外のガンマ曲線とが異なるという上記表示パネルの特性に基づき、上記複数セットのうち或るセットの画素データを、別のセットの画素データに基づいて変調し、これにより、上記軸上の観察者にとっては、上記変調による輝度のばらつきが局所的に平均化されて知覚不能となる一方上記軸外の観察者にとっては、上記変調による輝度のばらつきが局所的に平均化されずに知覚可能となる、請求項1に記載の方法。
In the first process step,
An on-axis gamma curve related to an on-axis observer observing from the normal direction of the display surface of the display panel, and an off-axis gamma related to an off-axis observer observing from a direction other than the normal direction. Based on the characteristic of the display panel that is different from a curve , one set of pixel data among the plurality of sets is modulated based on another set of pixel data, and thus for an observer on the axis , while variations in luminance due to the modulation is imperceptible are locally averaged, for the above off-axis observer, variation in luminance due to the modulation becomes perceptible without being locally averaged, wherein Item 2. The method according to Item 1.
上記第1の処理ステップでは、上記軸上の観察者が、上記変調による輝度のばらつきが平均化されて知覚不能となることによって単一の輝度を有していると知覚する1対の画素群について、一方の画素群における輝度の増加分と他方の画素群における輝度の減少分とを一致させる、請求項2に記載の方法。 In the first process step, the observer on the axis by variation in luminance due to the modulation is imperceptible are averaged, a pair of perceived as having a single luminance pixel for the group, minutes increased luminance in one pixel group, make consistent and decrease in luminance of the other pixel group, the method of claim 2. 上記1対の画素群について、上記一方の画素群の輝度が最高輝度であるか、または、上記他方の画素群の輝度が最低輝度であるかのいずれかである、請求項に記載の方法。 The pixel groups of the pair, or Brightness of one pixel group above the highest luminance, or is Kano either bright degree of the other pixel group is the lowest brightness, according to claim 3 the method of. 上記新しい画素データの導出において、上記画素データのパターンに依存して上記フィルタを選択し、選択されたフィルタを、上記サブセットにおける複数の画素群のうちの少なくとも一部の画素群に対して適用して新しい画素データを導出する、請求項1〜のいずれか一項に記載の方法。 In the derivation of the new pixel data, depending on the pattern of the pixel data to select the filter, and apply the selected filter to at least a portion of the pixel group of the plurality of pixel groups in the subset and deriving the new pixel data, the method according to any one of claims 1-4. 上記画素データのパターンを複数の所定のパターンと比較し、
この比較ステップの結果に依存して新しい画素データを導出する、請求項1〜のいずれか一項に記載の方法。
Comparing the pattern of the pixel data with a plurality of predetermined patterns;
Deriving a new pixel data in dependence on the result of the comparison step, the method according to any one of claims 1-5.
上記新しい画素データの導出において、上記画素データのパターンに依存して上記フィルタを選択し、選択されたフィルタを、上記サブセットにおける複数の画素群のうちの少なくとも一部の画素群に対して適用して新しい画素データを導出しており、
上記複数の所定のパターンのそれぞれが、対応する上記フィルタに関連付けられ、
上記比較ステップにおいて一致するパターンを決定し、
そのパターンに関連付けられた上記フィルタを、上記新しい画素データを導出する際に使用するために選択する、請求項に記載の方法。
In the derivation of the new pixel data, depending on the pattern of the pixel data to select the filter, and apply the selected filter to at least a portion of the pixel group of the plurality of pixel groups in the subset New pixel data is derived,
Each of said plurality of predetermined patterns, associated with a corresponding said filter,
Determine the matching pattern in the comparison step,
The filter associated with that pattern is selected for use in deriving the new pixel data, The method of claim 6.
上記比較ステップにおいて、新しい画素データを導出中である上記少なくとも1つの各画素群の、すぐ隣の少なくとも1つの画素群に対する明るさの尺度であって明るさの高低を区別する尺度を決定する、請求項またはに記載の方法。 In the comparison step, a brightness measure for at least one pixel group immediately adjacent to each of the at least one pixel group for which new pixel data is being derived is determined, and a measure for distinguishing between brightness levels is determined. The method according to claim 6 or 7 . 上記サブセット内の各画素群を、その画素データにしたがって、所定の複数のレベルのうちの1つに割り当て、
上記比較ステップにおいて、割り当てられたレベルのパターンを、上記複数の所定のパターンと比較する、請求項、またはに記載の方法。
Each pixel group in the subset, in accordance with the pixel data is assigned to one of the predetermined multiple levels,
In the comparing step, the level of patterns assigned, is compared with the plurality of predetermined pattern, the method according to claim 6, 7 or 8,.
上記所定の複数のレベルのうちの1つに画素群を割り当てるための尺度を、上記サブセットの複数の画素群のうちの少なくとも一部の画素群の画素データに基づいて算出する、請求項に記載の方法。 A measure for allocating the pixel group to one of the predetermined plurality of levels, calculated on the basis of at least a portion of the pixel group of the pixel data of the plurality of pixel groups of the subset, to claim 9 The method described. 表示デバイスの表示パネルによるマルチビュー表示ために画像データを処理する方法であって、
1つの画像を表す画素データのセット複数セット取得し、
第1の処理ステップでは、観察者に対して上記マルチビュー効果を創出するために、上記複数セットの画素データを処理し
第2の処理ステップでは、上記画素データにおける複数のサブセットのそれぞれが同数の画素群を備え、かつ、各画素群が少なくとも1つの画素を備えた各サブセットについて、上記サブセット内の各画素群を、その画素データにしたがって、所の複数のレベルのうちの1つに割り当て、
割り当てられたレベルのパターンを、複数の所定のパターンと比較し、
この比較ステップの結果に依存して、上記サブセットの複数の画素群のうちの少なくとも1つの画素群について新しい画素データを導出し、
上記所定の複数のレベルのうちの1つに画素群を割り当てるための尺度を、上記サブセットの複数の画素群のうちの少なくとも一部の画素群の画素データに基づいて算出する、画像データ処理方法。
A method of processing image data for multi-view display according to the display panel of the display device,
One image set of tables to picture element data is acquired a plurality of sets,
In a first process step, in order to create the effect of the multi-view to the viewer, to process pixel data of said plurality of sets,
In a second process step, each of the plurality of subsets in the pixel data comprises the same number of pixel groups, and for each subset each pixel group comprises at least one pixel, each pixel group in the above Symbol subset in accordance with the pixel data is assigned to one of Jo Tokoro of multiple levels,
Compare the assigned level pattern to multiple predetermined patterns,
Depending on the result of this comparison step, new pixel data is derived for at least one pixel group of the plurality of pixel groups of the subset ,
An image data processing method for calculating a scale for assigning a pixel group to one of the plurality of predetermined levels based on pixel data of at least a part of the plurality of pixel groups of the subset .
上記尺度が平均値である、請求項10または11に記載の方法。 The method according to claim 10 or 11 , wherein the scale is an average value. 画素群を、その画素データと上記算出された尺度との比較に基づいて、所定の複数のレベルのうちの1つに割り当てる、請求項1011、または12に記載の方法。 The pixel group, based on a comparison between its pixel data and the calculated measure is assigned to one of the predetermined multiple levels, the method according to claim 10, 11 or 12,. 上記画素データを、上記導出ステップにおいて使用するために、ガンマべき乗関数に基づいて、見かけの輝度値に変換する、請求項1〜13のいずれか一項に記載の方法。 The pixel data, for use in the step of the derivation, based on the gamma power function to convert the luminance value of the apparent A method according to any one of claims 1 to 13. 上記サブセットの画素群のパターンに依存して決定された少なくとも1つの変換パラメータを用いて、上記画素データを上記見かけの輝度値に変換する、請求項14に記載の方法。 The method of claim 14 , wherein the pixel data is converted to the apparent luminance value using at least one conversion parameter determined depending on a pattern of the subset of pixel groups. 上記サブセットの画素群が連続的であり、ほぼ1次元に延びる、請求項1〜15のいずれか一項に記載の方法。 16. A method according to any one of the preceding claims, wherein the subset of pixels is continuous and extends substantially in one dimension. 上記サブセットの画素群が、連続的であり、二次元に延びる構成を備えている、請求項1〜16のいずれか一項に記載の方法。 Pixel groups of the subset, is continuous, has a configuration extending in two dimensions, the method according to any one of claims 1-16. 上記各サブセットが、その他のサブセットから1つの画素群によって隔てられている、請求項1〜17のいずれか一項に記載の方法。 Each subset are separated by one pixel group from the other subsets, the method according to any one of claims 1 to 17. 新しい画素データを導出する上記ステップが、第1の処理ステップにおいて実施された処理についての情報を使用する、請求項1〜18のいずれか一項に記載の方法。 It said step of deriving new pixel data is to use information about the process that is performed in the first processing step, the method according to any one of claims 1 to 18. 上記新しい画素データが、画像の特徴を表わす画素データのパターンであって、第1の処理ステップにおいて実施される処理により所望しない色が発生するアーティファクトを引き起こしやすい画素データのパターンに基づいて導出される、請求項1〜19のいずれか一項に記載の方法。 The new pixel data, a pattern of the pixel data representing the characteristics of the image, derived based on the pattern of ease Ige element data causes artifacts undesired color is generated by processing performed in the first process step 20. The method according to any one of claims 1 to 19 , wherein: 上記導出ステップにおいて、新しい画素データを導出中である上記少なくとも1つの各画素群が、画像の特徴を表わす画素データのパターンであって、第1の処理ステップにおいて実施される処理により所望しない色が発生するアーティファクトを引き起こしやすい画素データのパターンの一部を形成するかどうかを判断し、該パターンの一部を形成すると判断した場合、該パターンの一部に依存して、新しい画素データを導出する、請求項1〜20のいずれか一項に記載の方法。 In step above derivation, is being derive new pixel data said at least one respective pixel group is a pattern of pixel data representing the characteristics of the image, not desired processing performed in the first processing step color If it is determined whether to form a part of the pattern of pixel data that is likely to cause an artifact, and if it is determined to form part of the pattern, new pixel data is derived depending on the part of the pattern to process according to any one of claims 1 to 20. FIG. 上記導出ステップにおいて、比較的暗い背景上の明るい特徴を表わす画素データのパターンが、比較的明るい背景上の暗い特徴を表わす画素データのパターンとは別に扱われる、請求項1〜21のいずれか一項に記載の方法。 In steps described above derivation, the pattern of pixel data representing bright features on a relatively dark background, separately treated from the pattern of pixel data representing dark features on a relatively bright background, claim 1-21 The method according to one item. 上記導出ステップにおいて、新しい画素データを導出中である上記少なくとも1つの各画素群が、1つの画素群の幅を有する暗いまたは明るい線、1つの画素群の幅を有する暗いまたは明るい線に隣接する画素群、2つの画素群の幅を有する暗いまたは明るい線の左側の縁、1つまたは2つの画素群のピッチを有する明暗からなる市松模様のパターン、および斜線からなる画像の特徴のうちの少なくとも1つの特徴の一部を形成するかどうかを、上記画素データのパターンから決定する、請求項1〜22のいずれか一項に記載の方法。 In step above derivation, is being derive new pixel data said at least one respective group of pixels is a dark or bright line having a width of one pixel group, adjacent to a dark or bright line having a width of one pixel group Of the left side of a dark or bright line having a width of two pixel groups, a checkered pattern consisting of light and dark having a pitch of one or two pixel groups, and an image feature consisting of diagonal lines whether forming part of at least one characteristic is determined from the pattern of the pixel data, the method according to any one of claims 1 to 22. 上記第2の処理ステップが第1の処理ステップの前に実施される、請求項1〜23のいずれか一項に記載の方法。 24. The method according to any one of claims 1 to 23 , wherein the second processing step is performed before the first processing step. 上記第2の処理ステップが第1の処理ステップの後に実施される、請求項1〜23のいずれか一項に記載の方法。 The second process step is performed after the first processing step, the method according to any one of claims 1 to 23. 上記新しい画素データが、上記サブセットの画素群のうちの1つの画素群に対してのみ導出される、請求項1〜25のいずれか一項に記載の方法。 26. The method according to any one of claims 1 to 25 , wherein the new pixel data is derived only for one pixel group of the subset of pixel groups. 各画素群が色成分画素の合成色画素群を備え、
各色成分画素に順に適用される、請求項1〜26のいずれか一項に記載の方法。
Each pixel group comprises a composite color pixel group of color component pixels,
Is applied sequentially to each color component pixels, the method according to any one of claims 1 to 26.
上記合成色画素群が赤色、緑色、および青色の色成分画素を備えている、請求項27に記載の方法。 28. The method of claim 27 , wherein the composite color pixel group comprises red, green, and blue color component pixels. 上記第1の処理ステップが、互いに異なる画像をそれぞれ表わす受信された複数の画素データをインターリーブし、これらの互いに異なる画像を、それぞれ互いに異なる視認位置にいる複数の観察者に提示するために実施される、請求項1〜28のいずれか一項に記載の方法。 The first processing step is performed to interleave received pixel data representing different images, and to present the different images to a plurality of viewers at different viewing positions. The method according to any one of claims 1 to 28 . 請求項1〜29のいずれか一項に記載の方法を実施するように構成された装置。 30. An apparatus configured to perform the method of any one of claims 1 to 29 . 請求項30に記載の装置を備えた表示デバイス。 A display device comprising the apparatus according to claim 30 . 請求項1〜29のいずれか一項に記載の方法を実施するように装置を制御するためのプログラム。 30. A program for controlling an apparatus to carry out the method according to any one of claims 1 to 29 . 搬送媒体によって搬送され、
該搬送媒体が記憶媒体または伝送媒体である、請求項32に記載のプログラム。
Transported by a transport medium,
The program according to claim 32 , wherein the carrier medium is a storage medium or a transmission medium.
JP2011531757A 2008-10-20 2009-10-16 Method and apparatus for processing image data for display by a display device Expired - Fee Related JP5583679B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB0819179.3 2008-10-20
GB0819179A GB2464521A (en) 2008-10-20 2008-10-20 Processing image data for multiple view displays
PCT/JP2009/068221 WO2010047379A1 (en) 2008-10-20 2009-10-16 Method of and apparatus for processing image data for display by a display device

Publications (2)

Publication Number Publication Date
JP2012506065A JP2012506065A (en) 2012-03-08
JP5583679B2 true JP5583679B2 (en) 2014-09-03

Family

ID=40097685

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011531757A Expired - Fee Related JP5583679B2 (en) 2008-10-20 2009-10-16 Method and apparatus for processing image data for display by a display device

Country Status (6)

Country Link
JP (1) JP5583679B2 (en)
KR (1) KR101231332B1 (en)
CN (1) CN102187267B (en)
GB (1) GB2464521A (en)
TW (1) TWI420417B (en)
WO (1) WO2010047379A1 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2476027A (en) 2009-09-16 2011-06-15 Sharp Kk Display privacy image processing method to emphasise features of a secondary image
GB2473615A (en) 2009-09-16 2011-03-23 Sharp Kk Display privacy image processing method with main image compression depending on off-axis luminance
GB2496114A (en) * 2011-10-28 2013-05-08 Sharp Kk Adaptive luminance sharing for implementing private display mode
US10241707B2 (en) 2013-05-23 2019-03-26 Intel Corporation Techniques for organizing three-dimensional array data
CN104505010B (en) 2014-12-17 2017-02-22 深圳市华星光电技术有限公司 Image displaying method, image displaying device and display device
GB2537822A (en) * 2015-04-21 2016-11-02 Sharp Kk Liquid crystal display device and a method of driving thereof
US10152812B2 (en) * 2015-10-23 2018-12-11 Sharp Kabushiki Kaisha Odd-even veil view for FFS
CN108062940B (en) * 2017-12-15 2019-10-11 武汉华星光电半导体显示技术有限公司 Brightness of image acquisition methods in external optical compensation
CN109472078B (en) * 2018-10-31 2023-05-09 天津大学 3D image sensor defect detection and repair method based on 2X 2 pixel subarray
CN113936614B (en) 2020-06-29 2022-10-04 京东方科技集团股份有限公司 Driving method and driving device for display panel, display device and storage medium
CN112614468B (en) * 2020-12-23 2022-05-24 天马微电子股份有限公司 Brightness compensation method and system of display panel

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3493321B2 (en) * 1999-07-21 2004-02-03 シャープ株式会社 Liquid crystal display
JP2001283215A (en) * 2000-01-24 2001-10-12 Hitachi Medical Corp Image processor
JP4056326B2 (en) * 2002-08-30 2008-03-05 シャープ株式会社 Liquid crystal display
EP1587329B1 (en) * 2003-01-20 2015-04-15 Sanyo Electric Co., Ltd. Three-dimensional video providing method and three-dimensional video display device
GB2399653A (en) * 2003-03-21 2004-09-22 Sharp Kk Parallax barrier for multiple view display
GB2403367A (en) * 2003-06-28 2004-12-29 Sharp Kk Multiple view display
GB2414882A (en) * 2004-06-02 2005-12-07 Sharp Kk Interlacing/deinterlacing by mapping pixels according to a pattern
KR100555866B1 (en) * 2004-06-08 2006-03-03 삼성전자주식회사 Apparatus and method for smoothing signal by pattern adaptive filtering
JP2006033128A (en) * 2004-07-13 2006-02-02 Matsushita Electric Ind Co Ltd Contour correction system
GB2418315A (en) * 2004-09-21 2006-03-22 Sharp Kk Multiple view display
KR100896030B1 (en) * 2004-10-20 2009-05-11 후지쓰 텐 가부시키가이샤 Display device for being mounted in a car
JP2006154756A (en) * 2004-11-02 2006-06-15 Fujitsu Ten Ltd Video signal processing method, video signal processing device and display device
US7965268B2 (en) * 2005-07-08 2011-06-21 Sharp Kabushiki Kaisha Display device and liquid crystal display panel
GB2445982A (en) * 2007-01-24 2008-07-30 Sharp Kk Image data processing method and apparatus for a multiview display device
GB2457106A (en) * 2008-03-04 2009-08-05 Sharp Kk LCD device with luminance variations perceivable only by off-axis viewers

Also Published As

Publication number Publication date
CN102187267A (en) 2011-09-14
CN102187267B (en) 2014-06-11
JP2012506065A (en) 2012-03-08
WO2010047379A1 (en) 2010-04-29
GB2464521A (en) 2010-04-21
KR101231332B1 (en) 2013-02-07
GB0819179D0 (en) 2008-11-26
TW201027457A (en) 2010-07-16
KR20110069879A (en) 2011-06-23
TWI420417B (en) 2013-12-21

Similar Documents

Publication Publication Date Title
JP5583679B2 (en) Method and apparatus for processing image data for display by a display device
JP5436647B2 (en) Display device and control method
RU2491655C2 (en) Method and apparatus for adaptive image processing for reducing colour shift in liquid crystal displays
US8681148B2 (en) Method for correcting stereoscopic image, stereoscopic display device, and stereoscopic image generating device
KR101369639B1 (en) Method, apparatus and program for processing image data for display by a display panel of a display device, and a display device
JP5208924B2 (en) Method for processing image data for display by a multi-view display device
JP5439589B2 (en) Display device and control method
KR101384166B1 (en) Apparatus, display device and method thereof for processing image data for display by a display panel
US20070257944A1 (en) Color display system with improved apparent resolution
TW201331922A (en) A method of processing image data for display on a display device, which comprising a multi-primary image display panel
JP2013502603A5 (en)
TWI478141B (en) A method of processing image data for an image display panel
TWI542189B (en) Image display apparatus, method of driving image display apparatus, grayscale conversion conputer program product, and grayscale conversion apparatus
JP5843566B2 (en) Multi-primary color display device
JP6134858B2 (en) Image data processing apparatus and method for privacy and wide viewing angle using error diffusion
JP6873965B2 (en) Liquid crystal display device and video signal processing method
JP2022077097A (en) Display unevenness correction method, display unevenness correction device and liquid crystal display device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130604

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140624

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140716

R150 Certificate of patent or registration of utility model

Ref document number: 5583679

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees