JPH06295168A - Method for detecting color unevenness on display element - Google Patents

Method for detecting color unevenness on display element

Info

Publication number
JPH06295168A
JPH06295168A JP5083331A JP8333193A JPH06295168A JP H06295168 A JPH06295168 A JP H06295168A JP 5083331 A JP5083331 A JP 5083331A JP 8333193 A JP8333193 A JP 8333193A JP H06295168 A JPH06295168 A JP H06295168A
Authority
JP
Japan
Prior art keywords
color
display element
area
image
areas
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5083331A
Other languages
Japanese (ja)
Inventor
Atsushi Mochizuki
望月  淳
Toshiro Asano
敏郎 浅野
Daisuke Katsuta
大輔 勝田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP5083331A priority Critical patent/JPH06295168A/en
Publication of JPH06295168A publication Critical patent/JPH06295168A/en
Pending legal-status Critical Current

Links

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Video Image Reproduction Devices For Color Tv Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PURPOSE:To stably detect only the color unevenness part on a display element in a picture by using a color information processing system close to a human visual sense characteristic. CONSTITUTION:An inspected display element 1 is image picked up by a color camera 2, and red R, green G, blue B of three primary colors are converted into a luminance signal R+G+B=L and chrominance signals G-R=P, B-(R +G)=Q by a chrominance conversion circuit 3. After the L, P, G are converted to the digital data, are divided to the area with a uniform value related into L, P, G images by histogram process/area division processors 10, 11, 12 through image memories 7, 8, 9 to be stored in an integration division result memories 13, 14, 15. The division area is integrated by an area integration processor 16 to be stored in an area integration result 17. The divided areas are integrated by an area integration processor 16 to be stored in an area integration memory 17. A neural network making the integrated areas (uniform areas of L, P, Q) nodes is formed, and the color unevenness part is detected by an extraction processor 18.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、カラーブラウン管、液
晶表示素子などの色むらを検出する方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for detecting color unevenness in a color cathode ray tube, a liquid crystal display device or the like.

【0002】[0002]

【従来の技術】液晶表示素子の色むらを検出する方法と
して、特開平2−193271号公報に記載の「むら状
態検査方法」が挙げられる。この方法は表示素子をカメ
ラなどで撮像した画像に対して上下左右ならびに斜め方
向にずらした画像の差を算出することにより、色むら部
分を強調して検出する方法である。
2. Description of the Related Art As a method for detecting color unevenness of a liquid crystal display element, there is a "uniformity state inspection method" described in JP-A-2-1932271. This method is a method in which the color unevenness portion is emphasized and detected by calculating the difference between the image obtained by shifting the display element vertically, horizontally, and diagonally with respect to the image captured by a camera or the like.

【0003】[0003]

【発明が解決しようとする課題】上記従来技術では表示
素子をカメラなどで撮像した画像に対して上下左右なら
びに斜め方向にずらした画像の差を算出することによ
り、色むら部分を強調して検出するため、ずらし量およ
び方向により色むら部分の強調度合いが変化するため安
定した色むら抽出を実現することが困難であった。ま
た、ずらした部分に別の色むらが存在する場合には、色
むら部分の強調ができないという問題もあった。 本発
明は、カラーブラウン管や液晶などの表示素子の色むら
検出を目的としており、更に人間の視覚特性に近くしか
も安定した色むら検出方法を提供することである。
In the above-mentioned conventional technique, the color unevenness portion is emphasized and detected by calculating the difference between the image obtained by shifting the display element vertically, horizontally, and diagonally with respect to the image taken by the camera or the like. Therefore, it is difficult to realize stable color unevenness extraction because the degree of emphasis of the color unevenness portion changes depending on the shift amount and the direction. In addition, there is a problem in that the uneven color portion cannot be emphasized when another uneven color portion exists in the shifted portion. An object of the present invention is to provide a method for detecting color unevenness of a display device such as a color cathode ray tube or a liquid crystal, and further to provide a method for detecting color unevenness which is close to and stable to human visual characteristics.

【0004】[0004]

【課題を解決するための手段】上記目的を達成するため
に、本発明によれば、色表示素子により表示画面上に画
像を表示する表示装置に対し、前記表示画面を色センサ
で撮像し、当該色センサにより得られる3原色出力であ
る赤(R)、緑(G)、青(B)の3つの出力を、1つ
の明暗信号R+G+Bと2つの色信号G−R,B−(R
+G)に変換し、該3つの信号を3種類のディジタルデ
ータに変換し、該3種類のディジタルデータを各々画像
メモリに格納し、該3種類のディジタルデータを用いて
表示素子の色むらを検出する際に、前記各画像メモリを
該画像メモリに格納されたデータの値が所定の範囲内に
ある領域に分割する手段と、これらの領域に基づいて前
記3種類のデータの値が各々所定の範囲内にある領域に
分割された画像メモリ上の領域を考え、該領域を一つの
ノードとし、本来あるべき色である基準色からのずれが
大きいノードほどノード出力が大きくなるようなホップ
フィールド型ニューラルネットワークを構成する手段
と、該ネットワーク状態の更新を前記基準色からのずれ
に係る反復計算により実行する手段と、ネットワークが
安定な平衡状態に達した時点で、出力が大きいノードを
抽出することにより、色むら部分だけを検出する手段と
を備えることができる。
In order to achieve the above object, according to the present invention, a display device for displaying an image on a display screen by a color display element, the display screen is imaged by a color sensor, Three outputs of three primary colors, red (R), green (G), and blue (B), which are obtained by the color sensor, are output as one light / dark signal R + G + B and two color signals G-R, B- (R).
+ G), the three signals are converted into three types of digital data, the three types of digital data are stored in image memories, respectively, and the color unevenness of the display element is detected using the three types of digital data. In doing so, means for dividing each of the image memories into areas in which the value of the data stored in the image memory is within a predetermined range, and the values of the three types of data are respectively determined based on these areas. A hop field type in which an area on the image memory divided into areas within the range is considered as one node, and the node output increases as the node deviates from the reference color that should be the original color. Means for constructing a neural network, means for updating the network state by iterative calculation relating to the deviation from the reference color, and the network reaching a stable equilibrium state. Once the by extracting the output is large nodes may comprise means for detecting only the color unevenness portion.

【0005】[0005]

【作用】カラーカメラなどの色センサで被検査表示素子
を撮像し、色センサの3原色出力、すなわち赤(R)、
緑(G)、青(B)を明暗信号R+G+Bと2つの色信
号G−R,B−(R+G)に変換することにより、色に
関係せず、しかも人間の視覚では最も重要な役割を果た
す明暗信号R+G+Bと、人間の色弁別能力の高い補色
の関係になっている2つの色信号G−R(緑と赤の
差),B−(R+G)(青と黄の差)を得ることができ
るため、人間の視覚特性に近い色彩情報処理系を構築す
ることができる。人間の視覚特性に関しては、“生物の
目とセンサ”(清水嘉重郎編著、情報調査会)に詳述さ
れている。
Function: An image of a display element to be inspected is picked up by a color sensor such as a color camera, and the three primary color outputs of the color sensor, that is, red (R),
By converting green (G) and blue (B) into a light / dark signal R + G + B and two color signals G-R and B- (R + G), they have no relation to colors and play the most important role in human vision. It is possible to obtain two color signals G-R (difference between green and red) and B- (R + G) (difference between blue and yellow), which are in a complementary color relationship that has a high human color discrimination ability. Therefore, it is possible to construct a color information processing system that is close to human visual characteristics. The human visual characteristics are described in detail in "Eyes and Sensors of Living Things" (edited by Yoshishige Shimizu, Information Research Society).

【0006】また、ある基準の色に点灯した表示素子の
撮像画像においては、前記R+G+B,G−R,B−
(R+G)の値が均一な領域のうち、基準色(本来ある
べき色)からのずれが大きい領域のみをホップフィール
ド型ニューラルネットワークの安定平衡状態で抽出でき
るので、色むら部分だけを安定して検出することができ
る。
Further, in the picked-up image of the display element which is turned on in a certain standard color, the R + G + B, GR, B-
Of the areas where the value of (R + G) is uniform, only the area where the deviation from the reference color (the original color) is large can be extracted in the stable equilibrium state of the Hopfield neural network, so that only the uneven color areas can be stably extracted. Can be detected.

【0007】[0007]

【実施例】以下、本発明の一実施例を図1から図8に基
づいて説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to FIGS.

【0008】図1は、本発明を実現するための表示素子
の色むら検出装置のシステム構成を示した図である。被
検査表示素子1は、ブラウン管一面を白色あるいは基準
となる色(基準色)で一様に表示した状態で、カラーカ
メラ2により撮像される。カラーカメラ2の3原色出
力、すなわち赤(R)、緑(G)、青(B)は演算増幅
器を用いた加算器・減算器で構成される色変換回路3に
より、明暗信号R+G+Bと2つの色信号G−R,B−
(R+G)に変換される。以下、R+G+B,G−R,
B−(R+G)をL,P,Qと呼ぶことにする。
FIG. 1 is a diagram showing a system configuration of a color unevenness detecting device for a display element for realizing the present invention. The display element 1 to be inspected is imaged by the color camera 2 in a state where one surface of the CRT is uniformly displayed in white or in a reference color (reference color). The three primary color outputs of the color camera 2, that is, red (R), green (G), and blue (B) are output by the color conversion circuit 3 composed of an adder / subtractor using an operational amplifier, and a bright / dark signal R + G + B and two signals. Color signals GR, B-
Converted to (R + G). Hereinafter, R + G + B, GR,
B- (R + G) will be called L, P, and Q.

【0009】L,P,QはA/D変換器4、5、6によ
りディジタルデータに変換され、画像メモリ7、8、9
に格納される。A/D変換後のディジタルデータをL,
P,Qに変換して画像メモリに格納する構成も可能であ
る。この場合の色変換回路3としては米国 Brooktree社
のProgr-ammable Color Space Converter Bt281 などが
使用できる。
L, P and Q are converted into digital data by A / D converters 4, 5 and 6, and image memories 7, 8 and 9 are obtained.
Stored in. The digital data after A / D conversion is L,
A configuration in which P and Q are converted and stored in the image memory is also possible. As the color conversion circuit 3 in this case, a Progr-ammable Color Space Converter Bt281 manufactured by Brooktree, USA can be used.

【0010】画像メモリ7、8、9のデータは、ヒスト
グラム処理・領域分割プロセッサ10、11、12によ
り、L,P,Q画像各々について均一な値をもつ領域に
分割され、結果が領域分割結果メモリ13、14、15
に格納される。領域統合プロセッサ16により、L,
P,Qの分割領域は統合され、結果が領域統合結果メモ
リ17に格納される。統合した領域は、各々L,P,Q
が均一な領域であり、色むら部分の抽出をするために、
色むら抽出プロセッサ18を装備する。
The data in the image memories 7, 8 and 9 are divided by the histogram processing / region division processors 10, 11 and 12 into regions having uniform values for each of the L, P and Q images, and the result is the region division result. Memories 13, 14, 15
Stored in. By the area integration processor 16, L,
The P and Q divided areas are integrated and the result is stored in the area integration result memory 17. The integrated areas are L, P, and Q, respectively.
Is a uniform area, and in order to extract uneven color areas,
The uneven color extraction processor 18 is provided.

【0011】図2は、本発明の色むら検出処理の処理手
順を示すフローチャートである。処理手順の概要を以下
に示す。
FIG. 2 is a flowchart showing the processing procedure of the color unevenness detection processing of the present invention. The outline of the processing procedure is shown below.

【0012】カラーカメラなどの色センサで取り込んだ
被検査表示画像を、色変換回路3により、L,P,Q画
像に変換し、画像メモリ7、8、9に格納する(ステッ
プS1)。
The display image to be inspected taken in by a color sensor such as a color camera is converted into L, P and Q images by the color conversion circuit 3 and stored in the image memories 7, 8 and 9 (step S1).

【0013】L,P,Q画像について、ヒストグラム処
理・領域分割プロセッサ10、11、12により、ヒス
トグラム(画像の値の頻度分布)を生成する(ステップ
S2)。
For the L, P, and Q images, the histogram processing / region dividing processors 10, 11, and 12 generate histograms (frequency distribution of image values) (step S2).

【0014】ヒストグラム処理・領域分割プロセッサ1
0、11、12により、ヒストグラムを均等分割する
(ステップS3)。
Histogram processing / region division processor 1
The histogram is evenly divided by 0, 11, and 12 (step S3).

【0015】ステップS3に基づき、ヒストグラム処理
・領域分割プロセッサ10、11、12により、L,
P,Q画像を個別に領域分割する。分割された領域(セ
グメント)は、各々、L画像ではLの値が均一、P画像
ではPの値が均一、Q画像ではQの値が均一、と考える
ことができる(ステップS4)。
Based on step S3, the histogram processing / region division processors 10, 11, 12 cause L,
The P and Q images are individually divided into regions. It can be considered that the divided regions (segments) have uniform L values in the L image, uniform P values in the P image, and uniform Q values in the Q image (step S4).

【0016】領域統合プロセッサ16により、L,P,
Q画像の分割されたセグメントの統合処理を行う。統合
処理とは、画素aとbについて以下の条件1〜3を満足
するとき、画素aとbが同一セグメントに属するように
することである。
By the area integration processor 16, L, P,
Integration processing of the divided segments of the Q image is performed. The integration processing is to make the pixels a and b belong to the same segment when the following conditions 1 to 3 are satisfied for the pixels a and b.

【0017】条件1:画素aの属するLセグメント=画
素bの属するLセグメント 条件2:画素aの属するPセグメント=画素bの属する
Pセグメント 条件3:画素aの属するQセグメント=画素bの属する
Qセグメント 得られる1つ1つのセグメントのL,P,Qの値は均
一、と考えることができる(ステップS5)。
Condition 1: L segment to which pixel a belongs = L segment to which pixel b belongs Condition 2: P segment to which pixel a belongs = P segment to which pixel b belongs Condition 3: Q segment to which pixel a belongs = Q to which pixel b belongs It can be considered that the values of L, P, and Q of each obtained segment are uniform (step S5).

【0018】ステップS5で得られたセグメントについ
て、色むら抽出プロセッサ18により、主成分分析を用
いて等価楕円を算出する(ステップS6)。
With respect to the segment obtained in step S5, the color unevenness extraction processor 18 calculates an equivalent ellipse using the principal component analysis (step S6).

【0019】色むら抽出プロセッサ18により、セグメ
ントをノードとし、ノードの入力が、L,P,Qのノー
ドでの値と基準色(本来あるべき色)での値との差に比
例し、ノード間の統合が、ステップS6の等価楕円から
算出される近接度と、L,P,Qの値のノード間の差か
ら定義されるホップフィールド型ニューラルネットワー
クを形成する(ステップS7)。ホップフィールド型ニ
ューラルネットワークに関しては、“ニューラルネット
ワーク情報処理”(麻生英樹著、産業図書)に詳述され
ている。
The color shading extraction processor 18 makes the segment a node, and the input of the node is proportional to the difference between the value at the L, P, and Q nodes and the value at the reference color (the original color), The integration between the two forms a Hopfield neural network defined by the proximity calculated from the equivalent ellipse in step S6 and the difference between the nodes of the L, P, and Q values (step S7). The Hopfield neural network is described in detail in "Neural Network Information Processing" (Hideki Aso, Sangyo Tosho).

【0020】色むら抽出プロセッサ18により、適当な
初期値からネットワーク計算を反復し、収束した段階
で、出力が大きいノードのみを抽出する。抽出したノー
ドに対応するセグメントが色むら部に相当する(ステッ
プS8)。
The color shading extraction processor 18 repeats the network calculation from an appropriate initial value, and at the stage of convergence, only the node having a large output is extracted. The segment corresponding to the extracted node corresponds to the uneven color portion (step S8).

【0021】以下、各処理の詳細について述べる。The details of each process will be described below.

【0022】図3により、ヒストグラム均等分割による
領域抽出を説明する。図のように、ヒストグラムの山を
またぎ谷で終了するように、均等間隔△でヒストグラム
を分割する。谷で終了するため、厳密には均等ではなく
なるが、山、すなわち、出現頻度の大きい画像の値の近
傍では均等になる。図3は、ヒストグラムの最大の山付
近の画像の値をもつ領域(斜線部)を抽出した例を示し
ている。
Area extraction by histogram uniform division will be described with reference to FIG. As shown in the figure, the histogram is divided at equal intervals Δ so as to end at the valley that crosses the peaks of the histogram. Since it ends in a valley, it is not strictly equal, but becomes equal in the vicinity of a mountain, that is, the value of an image with a high appearance frequency. FIG. 3 shows an example in which a region (hatched portion) having a value of an image near the maximum mountain in the histogram is extracted.

【0023】図4は、L,P,Q画像をヒストグラム均
等分割に基づき、領域分割した例を示す。この例では、
L,P,Q画像は、各々、7個、5個、5個のセグメン
トに分割されている。さらに同図では、前記したセグメ
ント統合処理を行い、39個のセグメントが生成されて
いる。得られた39個のセグメントは、L,P,Qの値
が前記した△程度のばらつきの均一領域になる。
FIG. 4 shows an example in which the L, P, and Q images are divided into regions based on the histogram equal division. In this example,
The L, P, and Q images are divided into 7, 5, and 5 segments, respectively. Further, in the figure, 39 segments are generated by performing the above-mentioned segment integration processing. The obtained 39 segments become a uniform region in which the values of L, P, and Q have a variation of about Δ described above.

【0024】図5は、セグメントの等価楕円近似を説明
する図である。セグメントに属する画素の座標値を(x
1,y1)、……、(x0,y0)とし、(数1)の座標に
関する分散共分散行列Bを求める。
FIG. 5 is a diagram for explaining the equivalent elliptic approximation of a segment. The coordinate value of the pixel belonging to the segment is (x
1, y 1), ......, and (x 0, y 0), obtaining the variance-covariance matrix B regarding the coordinates of (Equation 1).

【0025】[0025]

【数1】 [Equation 1]

【0026】行列Bの固有ベクトルの方向が等価楕円の
軸方向、固有値の平方根が軸長となる。この手法は主成
分分析と呼ばれ、等価楕円の軸が主成分軸に相当する。
主成分分析に関しては、“続多変量解析”(奥野忠一他
著、日本科学技術連合会)等を参照されたい。
The direction of the eigenvector of the matrix B is the axial direction of the equivalent ellipse, and the square root of the eigenvalue is the axial length. This method is called principal component analysis, and the axis of the equivalent ellipse corresponds to the principal component axis.
For more information on principal component analysis, please refer to "Sequential multivariate analysis" (Tadakazu Okuno et al., Japan Science and Technology Federation).

【0027】セグメントの近接度Pxは、図6のよう
に、等価楕円中心を結ぶ直線上で定義される。等価楕円
中心間距離|P12|に対する、等価楕円中心を結ぶ直
線と楕円の交点間の距離|O12|の比率を近接度とす
る。セグメントが接近しているほど、近接度は小さな値
になる。
The proximity P x of the segment is defined on the straight line connecting the centers of the equivalent ellipses as shown in FIG. The ratio of the distance | O 1 O 2 | between the intersections of the straight line connecting the centers of the equivalent ellipses and the ellipse to the distance between the centers of the equivalent ellipses | P 1 P 2 | The closer the segments are, the smaller the proximity is.

【0028】図7は、図4で得られた39個のセグメン
トをノードとする色むら抽出ホップフィールド型ニュー
ラルネットワークの構成例を示す図である。ノードの入
力は、(数2)のように基準色(本来あるべき色)の
L,P,Qの値とノードのもつL,P,Qの平均値の差
に関する一次関数とする。
FIG. 7 is a diagram showing an example of the construction of the color spot extraction Hopfield neural network having 39 segments as nodes obtained in FIG. The input of the node is a linear function relating to the difference between the L, P, Q values of the reference color (the original color) and the average value of the L, P, Q of the node as in (Equation 2).

【0029】[0029]

【数2】 [Equation 2]

【0030】ノード間の結合につける重み係数は、前出
の近接度Pxが近接度しきい値Pthより大きい場合は結
合なし、Pth以下では(数3)により算出する。
The weighting factor to be applied to the connection between nodes is calculated by the above equation (Equation 3) when there is no connection when the proximity P x is larger than the proximity threshold P th and when it is P th or less.

【0031】[0031]

【数3】 [Equation 3]

【0032】ノードの出力の更新則は、(数4)の一階
微分方程式を離散化した(数5)に従い行う。
The updating rule of the output of the node is performed in accordance with (Equation 5) in which the first-order differential equation of (Equation 4) is discretized.

【0033】[0033]

【数4】 [Equation 4]

【0034】[0034]

【数5】 [Equation 5]

【0035】図8は以下の条件で構成したネットワーク
の初期状態で、(数5)による反復計算後に、出力が大
きいノードに対応するセグメントを示す図である。図8
のセグメントは基準色からのずれが大きい部分、すなわ
ち、色むら部分に対応する。
FIG. 8 is a diagram showing a segment corresponding to a node having a large output after iterative calculation according to (Equation 5) in the initial state of the network constructed under the following conditions. Figure 8
The segment of corresponds to a portion having a large deviation from the reference color, that is, an uneven color portion.

【0036】K´/K=0.5 L,P,Qのしきい値はフルスケールの7%、3%、3
% 近接度しきい値Pth=50% τ=10 ノードの初期出力=0 ノードの初期幕ポテンシャル=0 以上のように本実施例によれば、カラーブラウン管、液
晶などの表示素子を対象に、人間の視覚特性近い色彩情
報処理系を用いてしかも色むら部分だけを強調して抽出
できるので、色むら検出を安定して行えるという効果が
ある。
K '/ K = 0.5 L, P, Q thresholds are 7%, 3%, 3% of full scale.
% Proximity threshold P th = 50% τ = 10 Initial output of node = 0 Initial curtain potential of node = 0 As described above, according to the present embodiment, a display device such as a color cathode ray tube or a liquid crystal is targeted. Since a color information processing system that is close to human visual characteristics can be used and only the uneven color portion can be emphasized and extracted, there is an effect that the uneven color detection can be performed stably.

【0037】[0037]

【発明の効果】本発明によれば、カラーブラウン管や液
晶などの表示素子の色むら検出において、人間の視覚特
性に近い色彩情報処理系を構築することができるので、
人間の感覚的な評価を定量化できる効果がある。また、
前記ホップフィールド型ニューラルネットワーク処理に
より色むら部分の強調ができるため、微妙な色むらでも
安定して検出できる効果がある。
According to the present invention, it is possible to construct a color information processing system close to human visual characteristics in detecting color unevenness of a display device such as a color CRT or liquid crystal.
There is an effect that human sensory evaluation can be quantified. Also,
Since the uneven color portion can be emphasized by the Hopfield type neural network processing, there is an effect that even a slight uneven color can be stably detected.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例である、表示素子の色むら検
出装置のシステム構成図である。
FIG. 1 is a system configuration diagram of an apparatus for detecting color unevenness of a display element, which is an embodiment of the present invention.

【図2】本発明の色むら検出処理のフローを示す図であ
る。
FIG. 2 is a diagram showing a flow of color unevenness detection processing of the present invention.

【図3】ヒストグラム均等分割による領域抽出を説明す
る図である。
FIG. 3 is a diagram illustrating region extraction by histogram uniform division.

【図4】領域分割とセグメントの統合処理を説明する図
である。
FIG. 4 is a diagram illustrating region division and segment integration processing.

【図5】セグメントの等価楕円近似を説明する図であ
る。
FIG. 5 is a diagram illustrating an equivalent elliptic approximation of a segment.

【図6】セグメントの近接度を定義する図である。FIG. 6 is a diagram that defines the proximity of segments.

【図7】セグメントをノードとする色むら抽出ホップフ
ィールドネットワークの構成例を示す図である。
FIG. 7 is a diagram showing a configuration example of a color shading extraction Hopfield network having segments as nodes.

【図8】抽出された色むら部を示す図である。FIG. 8 is a diagram showing an extracted uneven color portion.

【符号の簡単な説明】[Simple explanation of symbols]

1…被検査表示素子、2…カラーカメラ、3…色変換回
路、4〜6…A/D変換器、7〜9…画像メモリ、10
〜12…ヒストグラム処理・領域分割プロセッサ、13
〜15…領域分割結果メモリ、16…領域統合プロセッ
サ、17…領域統合結果メモリ、18…色むら抽出プロ
セッサ。
DESCRIPTION OF SYMBOLS 1 ... Inspected display element, 2 ... Color camera, 3 ... Color conversion circuit, 4-6 ... A / D converter, 7-9 ... Image memory, 10
... 12 ... Histogram processing / region division processor, 13
-15 ... Area division result memory, 16 ... Area integration processor, 17 ... Area integration result memory, 18 ... Color spot extraction processor.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.5 識別記号 庁内整理番号 FI 技術表示箇所 H04N 9/12 A 9187−5C 17/04 C 6942−5C ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 5 Identification code Internal reference number FI Technical display location H04N 9/12 A 9187-5C 17/04 C 6942-5C

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 色表示素子により表示画面上に画像を表
示する表示装置に対し、前記表示画面を色センサで撮像
し、当該色センサにより得られる3原色出力である赤
(R)、緑(G)、青(B)の3つの出力を、1つの明
暗信号R+G+Bと2つの色信号G−R,B−(R+
G)に変換し、該3つの信号を3種類のディジタルデー
タに変換し、該3種類のディジタルデータを各々画像メ
モリに格納し、該3種類のディジタルデータを用いて表
示素子の色むらを検出する際に、 前記各画像メモリを該画像メモリに格納されたデータの
値が所定の範囲内にある領域に分割し、これらの領域に
基づいて前記3種類のデータの値が各々所定の範囲内に
ある領域に分割された画像メモリ上の領域を考え、該領
域を一つのノードとし、本来あるべき色である基準色か
らのずれが大きいノードほどノード出力が大きくなるよ
うなホップフィールド型ニューラルネットワークを構成
し、該ネットワーク状態の更新を前記基準色からのずれ
に係る反復計算により実行し、ネットワークが安定な平
衡状態に達した時点で、出力が大きいノードを抽出する
ことにより、色むら部分だけを検出することを特徴とす
る表示素子の色むら検出方法。
1. A display device for displaying an image on a display screen by means of a color display element, wherein the display screen is imaged by a color sensor, and three primary color outputs, red (R) and green (, are obtained by the color sensor. G) and three outputs of blue (B), one light / dark signal R + G + B and two color signals GR, B- (R +
G), the three signals are converted into three types of digital data, the three types of digital data are stored in image memories, respectively, and the color unevenness of the display element is detected using the three types of digital data. In doing so, each of the image memories is divided into areas in which the value of the data stored in the image memory is within a predetermined range, and based on these areas, the values of the three types of data are each within the predetermined range. Hopfield neural network that considers a region on the image memory divided into certain regions, defines the region as one node, and has a larger node output as the node deviates from the reference color that should be the original color. And the network state is updated by iterative calculation related to the deviation from the reference color, and when the network reaches a stable equilibrium state, the output is large. A method for detecting color unevenness in a display element, which comprises detecting only a color unevenness portion by extracting a color code.
JP5083331A 1993-04-09 1993-04-09 Method for detecting color unevenness on display element Pending JPH06295168A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5083331A JPH06295168A (en) 1993-04-09 1993-04-09 Method for detecting color unevenness on display element

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5083331A JPH06295168A (en) 1993-04-09 1993-04-09 Method for detecting color unevenness on display element

Publications (1)

Publication Number Publication Date
JPH06295168A true JPH06295168A (en) 1994-10-21

Family

ID=13799454

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5083331A Pending JPH06295168A (en) 1993-04-09 1993-04-09 Method for detecting color unevenness on display element

Country Status (1)

Country Link
JP (1) JPH06295168A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020110224A1 (en) * 2018-11-28 2020-06-04 Eizo株式会社 Information processing method and computer program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020110224A1 (en) * 2018-11-28 2020-06-04 Eizo株式会社 Information processing method and computer program
WO2020110629A1 (en) * 2018-11-28 2020-06-04 Eizo株式会社 Information processing method and computer program
JPWO2020110629A1 (en) * 2018-11-28 2021-10-21 Eizo株式会社 Information processing method and computer program
US11776114B2 (en) 2018-11-28 2023-10-03 Eizo Corporation Information processing method and computer program

Similar Documents

Publication Publication Date Title
JP4054184B2 (en) Defective pixel correction device
TWI777536B (en) Enhanced training method and device for image recognition model
TWI547169B (en) Image processing method and module
WO2019210707A1 (en) Image sharpness evaluation method, device and electronic device
CN112730251A (en) Device and method for detecting color defects of screen
JP2021189527A (en) Information processing device, information processing method, and program
CN110310341B (en) Method, device, equipment and storage medium for generating default parameters in color algorithm
JPH06295168A (en) Method for detecting color unevenness on display element
JP3216385B2 (en) Target detection and tracking device
JPH06113139A (en) Picture binarization device
US8068145B1 (en) Method, systems, and computer program product for demosaicing images
CN114858301A (en) Object surface temperature measuring system, measuring method, intelligent terminal and storage medium
JP2936599B2 (en) Color image processing equipment
CN111242087A (en) Object recognition method and device
JP3461143B2 (en) Color image target position detection device
EP2015250B1 (en) Image processing program product and image processing apparatus
EP0430246B1 (en) Method for evaluating color image signals
JP2006053801A (en) Object detecting device and object detecting method
CN115511781A (en) Building change detection method based on multi-scale twin network
JP3109237B2 (en) Line segment constituent pixel extraction method and line segment judgment method in image
JP2948291B2 (en) Evaluation device for color image signal
JPH08202871A (en) Picture information processor
JP3143291B2 (en) Image target detection device
CN117392031A (en) Multi-aperture optical panoramic image view enhancement method
JPH04273587A (en) Object detector