JP2008064686A - Inspection image acquisition method - Google Patents

Inspection image acquisition method Download PDF

Info

Publication number
JP2008064686A
JP2008064686A JP2006244610A JP2006244610A JP2008064686A JP 2008064686 A JP2008064686 A JP 2008064686A JP 2006244610 A JP2006244610 A JP 2006244610A JP 2006244610 A JP2006244610 A JP 2006244610A JP 2008064686 A JP2008064686 A JP 2008064686A
Authority
JP
Japan
Prior art keywords
image
luminance
inspection
correction
correction range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006244610A
Other languages
Japanese (ja)
Other versions
JP4876803B2 (en
Inventor
Atsushi Okazawa
敦司 岡沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2006244610A priority Critical patent/JP4876803B2/en
Publication of JP2008064686A publication Critical patent/JP2008064686A/en
Application granted granted Critical
Publication of JP4876803B2 publication Critical patent/JP4876803B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Testing Of Optical Devices Or Fibers (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an inspection image acquisition method capable of inspecting accurately the ununiformity of an optical characteristic, even using a plurality of cameras. <P>SOLUTION: A duplicated overlapped area 6 is imaged to be picked up when imaging fixed areas 4, 5 different respectively of one inspection object, using the plurality of cameras 2, 3, a correction range to be corrected is determined based on respective brightnesses in a position separated by a fixed distance from a junction part that is the center axis of the overlapped area out of one of picked-up images, and in a position separated by a fixed distance from the junction part out of the other of the picked-up images, the correction range is corrected to make the brightness get near to the brightness of the one picked-up image stepwisely along a direction distant from the junction part, assuming that the correction range is chosen from the junction part, in the one picked-up image, and the correction range is corrected to make the brightness get near to the brightness of the other picked-up image stepwisely along a direction distant from the junction part, assuming that the correction range is chosen from the junction part, in the other picked-up image. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、液晶ディスプレイ(LCD)等に用いられているフィルタ等の検査対象物の検査画像取得方法に関する。   The present invention relates to an inspection image acquisition method for an inspection object such as a filter used in a liquid crystal display (LCD) or the like.

近年、フラットディスプレイとして、液晶ディスプレイ(LCD)が注目されており、その薄型、軽量、小消費電力、フリッカーレスといった特徴から、ノート型のパーソナルコンピューター(PC)、PC用のモニターを中心に市場が急速に拡大した。また、最近では、従来からCRTが主流であったTV向けにも大型のLCDが利用されるようになっている。ここで、従来LCD等に用いられているフィルタ等の検査対象物の光学特性が均一であるか否か(不均一性)の検査を行うためには、1台のカメラにより検査対象物の画像を撮像し、その画像を用いて検査対象物の不均一性の検査が行われていた。しかし、最近利用されているLCDは大型であるため、従来のようにカメラ1台では大型のLCDに用いられているフィルタ等の検査対象物の全領域を撮像することができない。よって、このような検査対象物を撮像する際には、複数のカメラを並べてそれぞれのカメラにより検査対象物のそれぞれ異なる一定の領域を撮像し、各々のカメラによって撮像された画像を後に合成することによって検査対象物の全領域の画像を取得する方法がとられている。その後、このように合成された画像を用いて光学特性の不均一性等の検査を行っていた。   In recent years, liquid crystal displays (LCDs) have attracted attention as flat displays, and due to their thinness, light weight, small power consumption, and flickerless characteristics, the market is rapidly growing mainly for notebook personal computers (PCs) and PC monitors. Expanded. Recently, large LCDs have also been used for TVs for which CRT has been the mainstream. Here, in order to inspect whether or not the optical characteristics of an inspection object such as a filter conventionally used in an LCD or the like are uniform (non-uniformity), an image of the inspection object is obtained by one camera. And inspecting the non-uniformity of the inspection object using the image. However, recently used LCDs are large in size, so that a single camera cannot capture the entire region of an inspection object such as a filter used in a large LCD as in the prior art. Therefore, when such an inspection object is imaged, a plurality of cameras are arranged side by side, each of the cameras captures a different area of the inspection object, and the images captured by each camera are combined later Thus, a method of acquiring an image of the entire region of the inspection object is taken. After that, inspections such as non-uniformity of optical characteristics were performed using the images synthesized in this way.

特開平8−254499号公報JP-A-8-254499

しかしながら、上記方法に用いられる各々のカメラは光学特性が異なることにより、各々のカメラで得られる画像の光学特性(輝度)は異なる。その状態で、各々の画像を合成し、1枚の検査画像を作成すると、画像の継ぎ目がはっきり表れてしまい、そのような検査画像を用いて光学特性の不均一性の検査を行うと、画像の継ぎ目を光学特性の不均一と誤認識してしまうといった問題が生じていた。しかし、画像をつなげずに、各々の画像において単独に検査を行ってしまうと、画像間にまたがって存在する光学特性の不均一を検査できないといった問題が生じていた。   However, each camera used in the above method has different optical characteristics, so that the optical characteristics (brightness) of images obtained by each camera are different. In this state, when each image is synthesized and one inspection image is created, the seam of the image appears clearly. When such inspection image is used to inspect the optical characteristics for nonuniformity, There has been a problem in that the joints are misrecognized as non-uniform optical characteristics. However, if the individual inspection is performed on each image without connecting the images, there has been a problem that nonuniformity in optical characteristics existing between the images cannot be inspected.

本発明は、このような問題に鑑みなされたものであり、複数のカメラを用いて撮像された画像を用いた場合であっても正確に光学特性の不均一性を検査することができる検査対象物の検査画像取得方法を提供することを目的とする。   The present invention has been made in view of such a problem, and is an inspection object capable of accurately inspecting non-uniformity in optical characteristics even when images captured using a plurality of cameras are used. It is an object to provide a method for acquiring an inspection image of an object.

上記課題を解決するための請求項1に記載の発明は、複数のカメラを用いて1つの検査対象物の検査画像を取得する検査画像取得方法において、前記各カメラにおいて前記検査対象物のそれぞれ異なる一定の領域を撮像する際に、それぞれ隣り合う前記カメラにより撮像される画像には、重複したオーバーラップ領域が撮像されるよう前記検査対象物を撮像する撮像工程と、前記隣り合うカメラにより撮像された一方の画像のうち前記オーバーラップ領域の中心軸である接合部から一定距離離れた位置と、前記隣り合うカメラにより撮像された他方の画像のうち前記接合部から一定の距離離れた位置のそれぞれの輝度に基づいて、補正を行うべき補正範囲を決定する補正範囲決定工程と、前記一方の画像において前記接合部から前記補正範囲をとるものとし、当該補正範囲は前記接合部から遠ざかる方向に段階的に前記一方の画像の輝度に近づくように補正がなされ、前記他方の画像において前記接合部から前記補正範囲をとるものとし、当該補正範囲は前記接合部から遠ざかる方向に段階的に前記他方の画像の輝度に近づくように補正がなされる補正工程と、を有することを特徴とする。   The invention according to claim 1 for solving the above-described problem is an inspection image acquisition method for acquiring an inspection image of one inspection object using a plurality of cameras, and the inspection object is different in each camera. When imaging a certain area, each of the images captured by the adjacent cameras is imaged by the imaging process of imaging the inspection object so that an overlapping overlap area is imaged, and the adjacent camera. Each of a position apart from the joint which is the central axis of the overlap region in one image and a position away from the joint in the other image captured by the adjacent camera. A correction range determination step for determining a correction range to be corrected based on the luminance of the image, and the correction range from the joint portion in the one image The correction range is corrected so as to gradually approach the luminance of the one image in a direction away from the joint, and the correction range is taken from the joint in the other image, The correction range includes a correction step in which correction is performed so as to gradually approach the luminance of the other image in a direction away from the joint.

これによれば、このように画像Aと画像Bの補正がなされることにより、2台のカメラを用いて撮像された画像Aと画像Bを合成し、1つの検査対象物の検査画像を取得する際に、画像の継ぎ目を滑らかに合成することができる。その際に、画像Aと画像Bのそれぞれ接合部から一定距離離れた位置の輝度の差に応じて補正範囲を決定するため、各々のカメラにより撮像された画像の輝度の差に応じて、言い換えれば、画像が撮像されたカメラの光学特性の差に応じてそれぞれの画像を滑らかに合成することができることになる。よって、2台のカメラによって撮像された継ぎ目の部分のムラを排除することができ、光学特性の不均一性を検査する際に、当該ムラによって光学特性が不均一とみなされる等の誤認識を排除することができ、検査画像を用いて光学特性の不均一性の検査を確実に行うことができる。   According to this, by correcting the image A and the image B in this way, the image A and the image B captured using two cameras are combined to obtain an inspection image of one inspection object. When doing so, the seam of the image can be synthesized smoothly. At that time, in order to determine the correction range according to the difference in luminance at a certain distance from the joint between the image A and the image B, in other words, according to the difference in luminance of the images captured by the respective cameras. For example, the respective images can be smoothly synthesized in accordance with the difference in optical characteristics of the cameras from which the images are captured. Therefore, it is possible to eliminate the unevenness of the seam imaged by the two cameras, and when inspecting the nonuniformity of the optical characteristics, erroneous recognition such as the optical characteristics being considered nonuniform due to the unevenness. It is possible to eliminate this, and it is possible to reliably inspect the non-uniformity of the optical characteristics using the inspection image.

上記課題を解決するための請求項2に記載の発明は、請求項1に記載の検査対象物の検査画像撮像方法において、前記一方の画像のオーバーラップ領域の輝度の平均値と、前記他方の画像のオーバーラップ領域の輝度の平均値が同じになるように、前記一方の画像の輝度と前記他方の画像の輝度の補正を行う輝度補正工程を更に有することを特徴とする。   The invention according to claim 2 for solving the above-described problem is the inspection image capturing method for an inspection object according to claim 1, wherein the average brightness value of the overlap region of the one image and the other The method further includes a luminance correction step of correcting the luminance of the one image and the luminance of the other image so that the average value of the luminance of the overlap region of the images becomes the same.

これによれば、オーバーラップ領域について大まかな補正を行い、更に微細な補正を行う2段階の補正を行うことにより、無理なく補正を行うことができ、2台のカメラを用いて撮像された画像Aと画像Bを合成し、1つの検査対象物の検査画像を取得する際に、画像の継ぎ目を滑らかに合成することができる。よって、2台のカメラによって撮像された継ぎ目の部分のムラを排除することができ、光学特性の不均一性を検査する際に、当該ムラによって光学特性が不均一とみなされる等の誤認識を排除することができ、検査画像を用いて光学特性の不均一性の検査を確実に行うことができる。   According to this, it is possible to perform the correction without difficulty by performing a rough correction for the overlap region, and further performing a two-stage correction for performing a fine correction, and an image captured using two cameras. When A and the image B are combined and an inspection image of one inspection object is acquired, the seam of the image can be combined smoothly. Therefore, it is possible to eliminate the unevenness of the seam imaged by the two cameras, and when inspecting the nonuniformity of the optical characteristics, erroneous recognition such as the optical characteristics being considered nonuniform due to the unevenness. It is possible to eliminate this, and it is possible to reliably inspect the non-uniformity of the optical characteristics using the inspection image.

上記課題を解決するための請求項3に記載の発明は、請求項1又は請求項2に記載の検査画像取得方法において、前記検査対象物を移動させる移動工程を有し、前記撮像工程は、ラインセンサカメラを利用して前記検査対象物を撮像することを特徴とする。   Invention of Claim 3 for solving the said subject has the movement process which moves the said test target object in the inspection image acquisition method of Claim 1 or Claim 2, The said imaging process, The inspection object is imaged using a line sensor camera.

これによれば、検査対象物が移動する場合においてもこのように2台のラインセンサカメラを用いて撮像された画像Aと画像Bに補正がなされることにより、両者画像を合成し、1つの検査対象物の検査画像を取得する際に、画像の継ぎ目を滑らかに合成することができる。よって、2台のカメラによって撮像された継ぎ目の部分のムラを排除することができ、光学特性の不均一性を検査する際に、当該ムラによって光学特性が不均一とみなされる等の誤認識を排除することができ、検査画像を用いて光学特性の不均一性の検査を確実に行うことができる。   According to this, even when the inspection object moves, the image A and the image B captured using the two line sensor cameras are corrected in this way, so that both images are combined and When acquiring the inspection image of the inspection object, the seam of the image can be smoothly synthesized. Therefore, it is possible to eliminate the unevenness of the seam imaged by the two cameras, and when inspecting the nonuniformity of the optical characteristics, erroneous recognition such as the optical characteristics being considered nonuniform due to the unevenness. It is possible to eliminate this, and it is possible to reliably inspect the non-uniformity of the optical characteristics using the inspection image.

本発明によれば、このように画像Aと画像Bの補正がなされることにより、2台のカメラを用いて撮像された画像Aと画像Bを合成し、1つの検査対象物の検査画像を取得する際に、画像の継ぎ目を滑らかに合成することができる。よって、2台のカメラによって撮像された継ぎ目の部分のムラを排除することができ、光学特性の不均一性を検査する際に、当該ムラによって光学特性が不均一とみなされる等の誤認識を排除することができ、検査画像を用いて光学特性の不均一性の検査を確実に行うことができる。   According to the present invention, by correcting the images A and B in this way, the images A and B captured using two cameras are combined, and an inspection image of one inspection object is obtained. When acquiring, the seam of the image can be smoothly synthesized. Therefore, it is possible to eliminate the unevenness of the seam imaged by the two cameras, and when inspecting the nonuniformity of the optical characteristics, erroneous recognition such as the optical characteristics being considered nonuniform due to the unevenness. It is possible to eliminate this, and it is possible to reliably inspect the non-uniformity of the optical characteristics using the inspection image.

(I)第1の実施形態
本発明の検査画像取得方法の第1の実施形態について図面を用いて説明する。
(I) First Embodiment A first embodiment of the inspection image acquisition method of the present invention will be described with reference to the drawings.

まず、本実施形態に係る検査画像取得方法に用いられる検査画像取得装置について図1を用いて概念的に説明する。なお、本実施形態においては2台のカメラを用いて検査対象物を撮像し、検査画像を取得する場合について説明する。   First, an inspection image acquisition apparatus used in the inspection image acquisition method according to the present embodiment will be conceptually described with reference to FIG. In the present embodiment, a case where an inspection object is imaged using two cameras and an inspection image is acquired will be described.

図1は、検査画像取得装置の概念図であり、図2は、カメラ2、カメラ3によって撮像された画像を示す概念図である。   FIG. 1 is a conceptual diagram of an inspection image acquisition apparatus, and FIG. 2 is a conceptual diagram illustrating images captured by the camera 2 and the camera 3.

図1に示すように検査画像取得装置は、検査対象物1、カメラ2、カメラ3、カメラ2による撮像範囲4、カメラ3による撮像範囲5、オーバーラップ領域6により構成されている。   As shown in FIG. 1, the inspection image acquisition apparatus includes an inspection object 1, a camera 2, a camera 3, an imaging range 4 by the camera 2, an imaging range 5 by the camera 3, and an overlap region 6.

検査対象物1は、液晶ディスプレイ等に用いられるフィルタ等であり、図示しないガラス基板上に着色層やブラックマトリックス等が形成されているものである。   The inspection object 1 is a filter or the like used for a liquid crystal display or the like, and has a colored layer, a black matrix, or the like formed on a glass substrate (not shown).

カメラ2、カメラ3は、検査対象物1を撮像するためのものであり、特に限定されることはなく、エリアセンサカメラ等が挙げられる。   The camera 2 and the camera 3 are for imaging the inspection object 1 and are not particularly limited, and examples include an area sensor camera.

カメラ2による撮像範囲4は、カメラ2によって撮像される領域であり、例えば、図1に示すように検査対象物1の左側領域である。   The imaging range 4 by the camera 2 is an area imaged by the camera 2 and is, for example, a left area of the inspection object 1 as shown in FIG.

カメラ3による撮像範囲5は、カメラ3によって撮像される領域であり、例えば、図1に示すように検査対象物1の右側領域である。   An imaging range 5 by the camera 3 is an area imaged by the camera 3, and is, for example, a right area of the inspection object 1 as shown in FIG. 1.

オーバーラップ領域6は、カメラ2とカメラ3とにより重複して撮像される部分である。   The overlap region 6 is a portion that is imaged by the camera 2 and the camera 3 in an overlapping manner.

このような構成からなる検査画像取得装置において、カメラ2、カメラ3においてそれぞれ検査対象物1の異なる一定の領域を撮像する。その際に、カメラ2とカメラ3により重複して撮像される部分であるオーバーラップ領域6を両者カメラによって撮像する。次に、補正1として、画像Aのオーバーラップ領域6の輝度の平均値と、画像Bのオーバーラップ領域6の輝度の平均値が同じになるように、画像Aの輝度と画像Bの輝度の補正を行う。その後、補正2を行う。詳細には後述するが、まず、画像Aにおいて接合部7から一定距離(m=1)離れた位置の輝度a1と、画像Bにおいて接合部7から一定の距離(m=1)離れた位置の輝度b2のそれぞれの輝度に基づいて、補正を行うべき補正範囲を決定する。その後この補正範囲を用いて画像Aと画像Bを補正し、画像Aと画像Bを合成する。   In the inspection image acquisition apparatus having such a configuration, the camera 2 and the camera 3 respectively capture different areas of the inspection object 1. At that time, an overlap region 6 which is a portion that is overlapped and captured by the camera 2 and the camera 3 is captured by both cameras. Next, as correction 1, the brightness of image A and the brightness of image B are set so that the average value of the brightness of overlap area 6 of image A and the average value of the brightness of overlap area 6 of image B are the same. Make corrections. Thereafter, correction 2 is performed. As will be described in detail later, first, the luminance a1 at a position away from the joint 7 in the image A and the position at a distance (m = 1) away from the joint 7 in the image B. A correction range to be corrected is determined based on each luminance b2. Thereafter, the image A and the image B are corrected using the correction range, and the image A and the image B are synthesized.

このように画像Aと画像Bの補正がなされることにより、2台のカメラを用いて撮像された画像Aと画像Bを合成し、1つの検査対象物の検査画像を取得する際に、画像の継ぎ目を滑らかに合成することができる。よって、2台のカメラによって撮像された継ぎ目の部分のムラを排除することができ、光学特性の不均一性を検査する際に、当該ムラによって光学特性が不均一とみなされる等の誤認識を排除することができ、検査画像を用いて光学特性の不均一性の検査を確実に行うことができる。   By correcting the images A and B in this way, the image A and the image B captured using two cameras are combined to obtain an inspection image of one inspection object. Can be synthesized smoothly. Therefore, it is possible to eliminate the unevenness of the seam imaged by the two cameras, and when inspecting the nonuniformity of the optical characteristics, erroneous recognition such as the optical characteristics being considered nonuniform due to the unevenness. It is possible to eliminate this, and it is possible to reliably inspect the non-uniformity of the optical characteristics using the inspection image.

以下、検査画像取得方法について工程順に説明する。   Hereinafter, the inspection image acquisition method will be described in the order of steps.

まず、カメラ2、カメラ3においてそれぞれ検査対象物1の異なる一定の領域を撮像する。   First, the camera 2 and the camera 3 respectively image different fixed areas of the inspection object 1.

具体的には、図1に示すように、カメラ2を用いて検査対象物1の左側領域(カメラ2による撮像範囲4)を撮像し、カメラ3を用いて検査対象物1の右側領域(カメラ3による撮像範囲5)を撮像する。その際に、カメラ2とカメラ3により重複して撮像される部分であるオーバーラップ領域6が設けられるように両者カメラによって撮像する。図2(a)は、上述するようにカメラ2により検査対象物1の左側領域を撮像した画像(画像A)、図2(b)は、カメラ3により検査対象物1の右側領域を撮像した画像(画像B)をそれぞれ示すものである。   Specifically, as shown in FIG. 1, the camera 2 is used to image the left side area of the inspection object 1 (imaging range 4 by the camera 2), and the camera 3 is used to capture the right side area (camera). 3 is imaged. At that time, imaging is performed by both cameras so as to provide an overlap region 6 that is a portion that is overlapped by the camera 2 and the camera 3. 2A is an image (image A) obtained by imaging the left area of the inspection object 1 with the camera 2 as described above, and FIG. 2B is an image of the right area of the inspection object 1 with the camera 3. Each of the images (image B) is shown.

次に、第1段階の補正として補正1が行われる。   Next, correction 1 is performed as the first stage correction.

カメラ2とカメラ3とはカメラの光学特性が異なるため、カメラAとカメラBによって撮像されたそれぞれの画像Aと画像Bの輝度は異なる。よって、画像Aと画像Bを合成して継ぎ目の滑らかな1つの検査画像を取得するために、第1段階の補正(補正1)が行われる。   Since the camera 2 and the camera 3 have different camera optical characteristics, the brightness of the images A and B taken by the camera A and the camera B are different. Therefore, the first-stage correction (correction 1) is performed in order to synthesize the image A and the image B to obtain one smooth inspection image.

具体的には、画像Aのオーバーラップ領域6の輝度の平均値と、画像Bのオーバーラップ領域6の輝度の平均値が同じになるように、画像Aの輝度と画像Bの輝度の補正を行う。   Specifically, the luminance of the image A and the luminance of the image B are corrected so that the average value of the luminance of the overlap region 6 of the image A and the average value of the luminance of the overlap region 6 of the image B are the same. Do.

図3は、補正1が行われた後の画像Aと画像Bを示す図である。   FIG. 3 is a diagram illustrating the image A and the image B after the correction 1 is performed.

補正1により、画像Aのオーバーラップ領域6の輝度の平均値と、画像Bのオーバーラップ領域6の輝度の平均値が同じになるように、画像Aの輝度と画像Bの輝度の補正が行われた後は、図3に示すように、画像Aのオーバーラップ領域6の輝度の平均値と画像Bのオーバーラップ領域6の輝度の平均値が合わせられた状態になっている。なお、以下接合部7から左側領域を画像A、接合部7から右側領域を画像Bとする。   Correction 1 corrects the luminance of image A and the luminance of image B so that the average value of the luminance of overlap region 6 of image A and the average value of the luminance of overlap region 6 of image B are the same. After being broken, as shown in FIG. 3, the average value of the luminance of the overlap region 6 of the image A is matched with the average value of the luminance of the overlap region 6 of the image B. Hereinafter, the left region from the joint 7 is referred to as an image A, and the right region from the joint 7 is referred to as an image B.

次に、第2段階の補正として補正2が行われる。   Next, correction 2 is performed as a second-stage correction.

上述したように補正1により画像Aのオーバーラップ領域6の輝度の平均値と、画像Bのオーバーラップ領域6の輝度の平均値が同じになるように、画像Aの輝度と画像Bの輝度の補正が行われ、その後更に、より微細な第2段階の補正として補正2が行われる。   As described above, the luminance of image A and the luminance of image B are adjusted so that the average value of the luminance of overlap region 6 of image A and the average value of the luminance of overlap region 6 of image B are the same by correction 1. Correction is performed, and then correction 2 is further performed as a finer second-stage correction.

[補正範囲について]
まず、図3に示すように画像Aにおいて、オーバーラップ領域6の中心となる軸である接合部7から一定距離(m=1)離れた位置の輝度a1と、画像Bにおいて接合部7から一定の距離(m=1)離れた位置の輝度b2のそれぞれの輝度に基づいて、補正を行うべき補正範囲を決定する。
[About correction range]
First, as shown in FIG. 3, in the image A, the brightness a1 at a position away from the joint 7 which is the axis of the overlap region 6 by a certain distance (m = 1), and in the image B, constant from the joint 7 A correction range to be corrected is determined based on the respective luminances b2 at positions separated by a distance (m = 1).

ここで補正範囲とは、カメラ2とカメラ3とによって撮像された画像A、画像Bを1つの検査画像とすべく合成する際に、両者画像の継ぎ目を滑らかに合成するために補正が行われる範囲をいう。   Here, the correction range means that when the images A and B captured by the camera 2 and the camera 3 are combined into one inspection image, correction is performed to smoothly combine the joints of the images. A range.

(パラメータ設定)
図2に示すようにカメラ2、カメラ3によって撮像された画像A、Bの画像サイズをそれぞれ横の長さX、縦の長さYとする。ここで、補正範囲Rを求めるために必要な補正範囲係数RKと、補正範囲限界RMAXとを予め設定する。補正範囲係数RKとは、補正範囲Rを決定するための指数であり、補正範囲限界RMAXとは、補正範囲を行うべき最大の領域を示す値である。具体的には、RK=3、RMAX=20と設定したものとして以下説明する。
(parameter settings)
As shown in FIG. 2, the image sizes of the images A and B captured by the camera 2 and the camera 3 are a horizontal length X and a vertical length Y, respectively. Here, a correction range coefficient RK and a correction range limit R MAX necessary for obtaining the correction range R are set in advance. The correction range coefficient RK is an index for determining the correction range R, and the correction range limit R MAX is a value indicating the maximum area in which the correction range should be performed. Specifically, the following description will be made assuming that RK = 3 and R MAX = 20.

ここで、画像Aの輝度は、
(数式1)F1{m,n}、m=1〜X、n=1〜Yで表され、
一方、画像Bの輝度は、
(数式2)F2{m,n}、m=1〜X、n=1〜Yで表される。
Here, the brightness of the image A is
(Expression 1) F1 {m, n}, m = 1 to X, n = 1 to Y,
On the other hand, the brightness of the image B is
(Expression 2) F2 {m, n}, m = 1 to X, and n = 1 to Y.

(補正範囲の決定)
上記パラメータを用いて補正範囲Rを求める。補正範囲Rは、以下の数式3で表される。
(Determination of correction range)
The correction range R is obtained using the above parameters. The correction range R is expressed by Equation 3 below.

(数式3)補正範囲R=|a1−b2|×RK (Formula 3) Correction range R = | a1-b2 | × RK

画像Aにおいて接合部7から一定距離(m=1)離れた位置の輝度a1は数式1より、
a1=F1{1,n}で表され、
画像Bにおいて接合部7から一定の距離(m=1)離れた位置の輝度b2は数式2より、
b2=F2{1,n}で表される。
The luminance a1 at a position away from the joint 7 in the image A by a certain distance (m = 1)
a1 = F1 {1, n},
In the image B, the luminance b2 at a position away from the joint 7 by a certain distance (m = 1) is expressed by Equation 2.
It is represented by b2 = F2 {1, n}.

具体的には、接合部7から一定の距離(m=1)離れた位置の輝度がa1=3、b2=2であった場合には、上記数式1のa1=3、b2=2、RK=3を代入することにより、補正範囲R=3と決定することができる。   Specifically, when the luminance at a position away from the joint 7 by a certain distance (m = 1) is a1 = 3 and b2 = 2, a1 = 3, b2 = 2, and RK in the above formula 1. By substituting = 3, the correction range R = 3 can be determined.

ここで、補正範囲Rの値が補正範囲限界RMAXの値を超えていた場合には、補正範囲限界RMAXの値を補正範囲Rとして以下補正するものとする。具体的には、上記数式3によって求められた補正範囲はR=3であり、予め設定していた補正範囲限界はRMAX=20であるため、上記数式3によって求めた補正範囲Rの値が補正範囲限界RMAXの値を超えていないため、補正範囲をR=3と決定する。 Here, when the value of the correction range R exceeds the value of the correction range limit R MAX , the value of the correction range limit R MAX is corrected as the correction range R below. Specifically, since the correction range obtained by the above equation 3 is R = 3 and the preset correction range limit is R MAX = 20, the value of the correction range R obtained by the above equation 3 is Since the value of the correction range limit R MAX is not exceeded, the correction range is determined as R = 3.

次に、上述のように決定された補正範囲Rは、図4に示すように、画像Aにおいて接合部7からその範囲をとるものとし、画像Bにおいて接合部7からその範囲をとるものとする。   Next, as shown in FIG. 4, the correction range R determined as described above takes the range from the joint portion 7 in the image A, and takes the range from the joint portion 7 in the image B. .

具体的には、上記方法において、補正範囲R=3と決定されたため、画像Aにおいて接合部7から補正範囲(R=3)をとるものとし、画像Bにおいて接合部7から補正範囲(R=3)をとるものとする。なお、図4に示すように接合部7からの距離をm=1〜Rとする。   Specifically, in the above method, since the correction range R = 3 is determined, the correction range (R = 3) is taken from the joint portion 7 in the image A, and the correction range (R = 3) is taken from the joint portion 7 in the image B. 3) shall be taken. In addition, as shown in FIG. 4, let the distance from the junction part 7 be m = 1-R.

ここで、補正範囲Rは数式3より、画像Aにおいて接合部7から一定距離(m=1)離れた位置の輝度a1と、画像Bにおいて接合部7から一定距離(m=1)離れた位置の輝度b2との差に基づいて決定されるため、画像Aの輝度a1と画像Bの輝度b2の差が大きい場合には、補正範囲Rの値も大きくなる。よって、補正範囲Rは画像Aの輝度a1と画像Bの輝度b2の差が大きい場合には、広い範囲にわたって輝度の補正がなされる。一方、画像Aの輝度a1と画像Bの輝度b2の差が小さい場合には、補正範囲Rの値も小さくなる。よって、画像Aの輝度a1と画像Bの輝度b2の差が小さい場合には、狭い範囲で輝度の補正がなされる。このように画像Aと画像Bのそれぞれ接合部7から一定距離(m=1)離れた位置の輝度の差に応じて補正範囲Rを決定するため、各々のカメラにより撮像された画像の輝度の差に応じて、言い換えれば、画像が撮像されたカメラの光学特性の差に応じてそれぞれの画像を滑らかに合成することができることになる。   Here, the correction range R is represented by the numerical formula 3, the luminance a1 at a position away from the joint portion 7 in the image A by a certain distance (m = 1), and the position at a distance from the joint portion 7 in the image B by a certain distance (m = 1). Therefore, when the difference between the luminance a1 of the image A and the luminance b2 of the image B is large, the value of the correction range R is also large. Therefore, in the correction range R, when the difference between the luminance a1 of the image A and the luminance b2 of the image B is large, the luminance is corrected over a wide range. On the other hand, when the difference between the luminance a1 of the image A and the luminance b2 of the image B is small, the value of the correction range R is also small. Therefore, when the difference between the luminance a1 of the image A and the luminance b2 of the image B is small, the luminance is corrected within a narrow range. In this way, the correction range R is determined according to the difference in luminance at a position away from the joint portion 7 between the image A and the image B by a certain distance (m = 1), so that the luminance of the image captured by each camera is determined. Depending on the difference, in other words, the respective images can be smoothly synthesized in accordance with the difference in the optical characteristics of the cameras from which the images were taken.

次に、このように補正範囲がR=3と決定された後、画像A、画像Bにおいてそれぞれ接合部7からm=1、2、3の距離の領域の補正がなされる。具体的には、画像Aにおいては、接合部7からm=1、m=2、m=3と遠ざかる方向に段階的に画像Aの輝度に近づくように補正が行われ、画像Bにおいては、接合部7からm=1、m=2、m=3と遠ざかる方向に段階的に画像Bの輝度に近づくように補正が行わる。   Next, after the correction range is determined as R = 3 in this way, in the image A and the image B, correction is performed on the areas at the distances of m = 1, 2, and 3 from the joint portion 7, respectively. Specifically, in the image A, correction is performed so as to gradually approach the luminance of the image A in a direction away from the joint 7 such that m = 1, m = 2, and m = 3, and in the image B, Correction is performed so as to gradually approach the brightness of the image B in a direction away from the joint 7 such as m = 1, m = 2, and m = 3.

[画像Aの補正について]
ここで、補正範囲内における画像Aの輝度は以下の式において求められる。
(数式4)F1(x,y)=W1(m)×F1{m,n}+W2(m)×F2{−m,n}
ここで、画像Aに対する輝度の重み係数W1は、
W1(m)=0.5+Δ×(m−1)、接合部からの距離:m=1〜R
であり、画像Bに対する輝度の重み係数W2は、
W2(m)=0.5−Δ×(m−1)、接合部からの距離:m=1〜R
で表される。
[Image A correction]
Here, the brightness of the image A within the correction range is obtained by the following equation.
(Formula 4) F1 (x, y) = W1 (m) × F1 {m, n} + W2 (m) × F2 {−m, n}
Here, the luminance weight coefficient W1 for the image A is
W1 (m) = 0.5 + Δ × (m−1), distance from the joint: m = 1 to R
And the luminance weighting factor W2 for the image B is
W2 (m) = 0.5−Δ × (m−1), distance from the joint: m = 1 to R
It is represented by

更に、上記ΔはΔ=0.4/(R−1)と定め、W1(m)+W2(m)=1.0と定める。ここで、数式3において補正範囲Rが1と決定された場合にはW1=W2=0.5とする。   Furthermore, Δ is defined as Δ = 0.4 / (R−1), and W1 (m) + W2 (m) = 1.0. Here, when the correction range R is determined to be 1 in Equation 3, W1 = W2 = 0.5.

このように、上記式により、画像Aにおける接合部7からm=1離れた位置の輝度を、接合部7からm=1離れた位置の画像Aの輝度a1、画像Bの輝度a2に基づいて求めることができる。同様にして、画像Aにおける接合部7からm=2離れた位置の輝度を、接合部7からm=2離れた位置の画像Aの輝度c1、画像Bの輝度c2に基づいて求めることができ、画像Aにおける接合部7からm=3離れた位置の輝度を、接合部7からm=3離れた位置の画像Aの輝度e1、画像Bの輝度e2に基づいて求めることができる(図5参照)。よって、接合部7から段階的に画像Aの輝度に近づける補正を行うことができる。   In this way, according to the above formula, the luminance at a position m = 1 away from the joint portion 7 in the image A is based on the luminance a1 of the image A and the luminance a2 of the image B at a position m = 1 away from the joint portion 7. Can be sought. Similarly, the luminance at a position m = 2 away from the junction 7 in the image A can be obtained based on the luminance c1 of the image A and the luminance c2 of the image B at a position m = 2 away from the junction 7. The luminance at a position m = 3 away from the joint 7 in the image A can be obtained based on the luminance e1 of the image A and the luminance e2 of the image B at a position m = 3 away from the joint 7 (FIG. 5). reference). Therefore, it is possible to perform correction that gradually approaches the luminance of the image A from the joint portion 7.

なお、補正範囲が0(a1=b2)の場合はカメラ2によって撮像された画像Aの輝度と、カメラ3によって撮像された画像Bの輝度が同じであるため、画像Aと画像Bの画像を合成する際に輝度の補正は行わない。   When the correction range is 0 (a1 = b2), the brightness of the image A captured by the camera 2 and the brightness of the image B captured by the camera 3 are the same. Luminance correction is not performed when combining.

[画像Bの補正について]
次に、画像Aと同様にして画像Bの補正が行われる。
[Image B correction]
Next, the image B is corrected in the same manner as the image A.

ここで、補正範囲内における画像Bの輝度は以下の式において求められる。
(数式5)F2(x,y)=W1(m)×F1{−m,n}+W2(m)×F2{m,n}
ここで、画像Aに対する輝度の重み係数W1は、
W1(m)=0.5−Δ×(m−1)、接合部からの距離:m=1〜R
であり、画像Bに対する輝度の重み係数W2は、
W2(m)=0.5+Δ×(m−1)、接合部からの距離:m=1〜R
で表される。その他の値については画像Aの補正において説明したものと同様である。
Here, the brightness of the image B within the correction range is obtained by the following equation.
(Formula 5) F2 (x, y) = W1 (m) × F1 {−m, n} + W2 (m) × F2 {m, n}
Here, the luminance weight coefficient W1 for the image A is
W1 (m) = 0.5−Δ × (m−1), distance from the joint: m = 1 to R
And the luminance weighting factor W2 for the image B is
W2 (m) = 0.5 + Δ × (m−1), distance from joint: m = 1 to R
It is represented by Other values are the same as those described in the correction of the image A.

このように、上記式により、画像Bにおける接合部7からm=1離れた位置の輝度を、接合部7からm=1離れた位置の画像Aの輝度b1、画像Bの輝度b2に基づいて求めることができる。同様にして、画像Bにおける接合部7からm=2離れた位置の輝度を、接合部7からm=2離れた位置の画像Aの輝度d1、画像Bの輝度d2に基づいて求めることができ、画像Bにおける接合部7からm=3離れた位置の輝度を、接合部7からm=3離れた位置の画像Aの輝度f1、画像Bの輝度f2に基づいて求めることができる(図5参照)。よって、接合部7から段階的に画像Bの輝度に近づける補正を行うことができる。   Thus, based on the above formula, the luminance at a position m = 1 away from the joint 7 in the image B is based on the luminance b1 of the image A and the luminance b2 of the image B at a position m = 1 away from the joint 7. Can be sought. Similarly, the brightness at a position m = 2 away from the joint 7 in the image B can be obtained based on the brightness d1 of the image A and the brightness d2 of the image B at a position m = 2 away from the joint 7. The luminance at a position m = 3 away from the joint portion 7 in the image B can be obtained based on the luminance f1 of the image A and the luminance f2 of the image B at a position m = 3 away from the joint portion 7 (FIG. 5). reference). Therefore, it is possible to perform correction that gradually approaches the luminance of the image B from the joint portion 7.

以上より、このように画像Aと画像Bの補正がなされることにより、2台のカメラを用いて撮像された画像Aと画像Bを合成し、1つの検査対象物の検査画像を取得する際に、画像の継ぎ目を滑らかに合成することができる(図6参照)。よって、2台のカメラによって撮像された継ぎ目の部分のムラを排除することができ、光学特性の不均一性を検査する際に、当該ムラによって光学特性が不均一とみなされる等の誤認識を排除することができ、検査画像を用いて光学特性の不均一性の検査を確実に行うことができる。   As described above, when the image A and the image B are corrected as described above, the image A and the image B captured using the two cameras are combined to obtain an inspection image of one inspection object. In addition, the seam of the image can be synthesized smoothly (see FIG. 6). Therefore, it is possible to eliminate the unevenness of the seam imaged by the two cameras, and when inspecting the nonuniformity of the optical characteristics, erroneous recognition such as the optical characteristics being considered nonuniform due to the unevenness. It is possible to eliminate this, and it is possible to reliably inspect the non-uniformity of the optical characteristics using the inspection image.

(II)第2の実施形態
以下、本発明の検査画像取得方法の第2の実施形態について図面を用いて説明する。上述した第1の実施形態では、検査対象物を静止させた状態でカメラ2、カメラ3により画像A、画像Bを撮像したが、本実施形態は、検査対象物を移動工程により移動(紙面では上方)させながら画像A、画像Bを撮像する場合について説明する。なお、第1実施形態、及び図1乃至図6に共通する部材等は共通の名称及び符号を使用し、説明を省略する。
(II) Second Embodiment Hereinafter, a second embodiment of the inspection image acquisition method of the present invention will be described with reference to the drawings. In the first embodiment described above, images A and B are captured by the camera 2 and the camera 3 while the inspection object is stationary. However, in the present embodiment, the inspection object is moved by a moving process (on the paper surface). A case where the image A and the image B are captured while being moved upward will be described. In addition, the common name and code | symbol are used for the member etc. which are common in 1st Embodiment and FIG. 1 thru | or FIG.

図1に示す検査画像取得装置は、第1の実施形態において説明したものと同様であるが、カメラ2、カメラ3は、検査対象物を移動させながら画像A、画像Bを撮像するためのものであり、ラインセンサカメラ等が挙げられる。   The inspection image acquisition apparatus shown in FIG. 1 is the same as that described in the first embodiment, but the cameras 2 and 3 are for capturing images A and B while moving the inspection object. And a line sensor camera or the like.

検査画像取得方法については第1の実施形態にて説明したものと同様であり、補正1、補正2を行うことにより、画像Aと画像Bの補正を行い、1つの検査画像に合成する。   The inspection image acquisition method is the same as that described in the first embodiment, and correction 1 and correction 2 are performed to correct image A and image B and combine them into one inspection image.

ここで、第1の実施形態とは異なり、ラインセンサカメラによって画像を撮像する際に、検査対象物1の進行方向(紙面では上下方向)によっても画像の輝度が異なるため、第1の実施形態にて説明した補正2において、画像Aの補正範囲内における輝度を求める際に、y(n)をn=1〜Y、画像Bの補正範囲内における輝度を求める際にy(n)をn=1〜Yについて補正を行う。これにより、ラインセンサカメラにおいて撮像した画像Aと画像Bの画像のY軸方向の輝度の差までも考慮した滑らかな1つの検査対象物の検査画像を取得することができる。   Here, unlike the first embodiment, when the image is captured by the line sensor camera, the brightness of the image varies depending on the traveling direction of the inspection object 1 (vertical direction on the paper surface). In the correction 2 described in the above, when obtaining the luminance within the correction range of the image A, y (n) is n = 1 to Y, and when obtaining the luminance within the correction range of the image B, y (n) is n. = 1 to Y is corrected. Accordingly, it is possible to acquire a smooth inspection image of one inspection object in consideration of the luminance difference in the Y-axis direction between the image A and the image B captured by the line sensor camera.

このように画像Aと画像Bの補正がなされることにより、2台のカメラを用いて撮像された画像Aと画像Bを合成し、1つの検査対象物の検査画像を取得する際に、画像の継ぎ目を滑らかに合成することができる。よって、2台のカメラによって撮像された継ぎ目の部分のムラを排除することができ、光学特性の不均一性を検査する際に、当該ムラによって光学特性が不均一とみなされる等の誤認識を排除することができ、検査画像を用いて光学特性の不均一性の検査を確実に行うことができる。   By correcting the images A and B in this way, the image A and the image B captured using two cameras are combined to obtain an inspection image of one inspection object. Can be synthesized smoothly. Therefore, it is possible to eliminate the unevenness of the seam imaged by the two cameras, and when inspecting the nonuniformity of the optical characteristics, erroneous recognition such as the optical characteristics being considered nonuniform due to the unevenness. It is possible to eliminate this, and it is possible to reliably inspect the non-uniformity of the optical characteristics using the inspection image.

検査画像撮像装置の概念図である。It is a conceptual diagram of a test | inspection image imaging device. カメラ2、カメラ3によって撮像されたそれぞれの画像を示す概念図である。It is a conceptual diagram which shows each image imaged with the camera 2 and the camera 3. FIG. 補正1が行われた後の画像Aと画像Bを示す図である。It is a figure which shows the image A and the image B after correction 1 was performed. 画像Aと画像Bのそれぞれの補正範囲を説明するための図である。It is a figure for demonstrating each correction range of the image A and the image B. FIG. 画像Aと画像Bの補正範囲における補正2を説明するための図である。It is a figure for demonstrating the correction 2 in the correction range of the image A and the image B. FIG. 画像Aと画像Bが合成された後の図である。It is a figure after the image A and the image B were synthesize | combined.

符号の説明Explanation of symbols

1・・・検査対象物
2・・・カメラ
3・・・カメラ
4・・・カメラ2によって撮像される撮像範囲
5・・・カメラ3によって撮像される撮像範囲
6・・・オーバーラップ領域
7・・・接合部
X・・・画像の横の長さ
Y・・・画像の縦の長さ
DESCRIPTION OF SYMBOLS 1 ... Inspection object 2 ... Camera 3 ... Camera 4 ... Imaging range imaged with camera 2 5 ... Imaging range imaged with camera 3 6 ... Overlapping area 7. ..Junction X: Horizontal length of image Y: Vertical length of image

Claims (3)

複数のカメラを用いて1つの検査対象物の検査画像を取得する検査画像取得方法において、
前記各カメラにおいて前記検査対象物のそれぞれ異なる一定の領域を撮像する際に、それぞれ隣り合う前記カメラにより撮像される画像には、重複したオーバーラップ領域が撮像されるよう前記検査対象物を撮像する撮像工程と、
前記隣り合うカメラにより撮像された一方の画像のうち前記オーバーラップ領域の中心軸である接合部から一定距離離れた位置と、前記隣り合うカメラにより撮像された他方の画像のうち前記接合部から一定の距離離れた位置のそれぞれの輝度に基づいて、補正を行うべき補正範囲を決定する補正範囲決定工程と、
前記一方の画像において前記接合部から前記補正範囲をとるものとし、当該補正範囲は前記接合部から遠ざかる方向に段階的に前記一方の画像の輝度に近づくように補正がなされ、前記他方の画像において前記接合部から前記補正範囲をとるものとし、当該補正範囲は前記接合部から遠ざかる方向に段階的に前記他方の画像の輝度に近づくように補正がなされる補正工程と、
を有することを特徴とする検査画像取得方法。
In an inspection image acquisition method for acquiring an inspection image of one inspection object using a plurality of cameras,
When each of the cameras captures different areas of the inspection object, the inspection object is imaged so that overlapping images are captured in the images captured by the adjacent cameras. Imaging process;
Of the one image captured by the adjacent camera, a position that is a fixed distance away from the joint that is the central axis of the overlap region, and the other image captured by the adjacent camera is constant from the joint A correction range determination step for determining a correction range to be corrected based on the respective luminances at positions separated by
In the one image, the correction range is taken from the joint, and the correction range is corrected so as to gradually approach the luminance of the one image in a direction away from the joint, and in the other image The correction step is to take the correction range from the joint, and the correction range is corrected so as to gradually approach the brightness of the other image in a direction away from the joint,
An inspection image acquisition method characterized by comprising:
請求項1に記載の検査対象物の検査画像撮像方法において、
前記一方の画像のオーバーラップ領域の輝度の平均値と、前記他方の画像のオーバーラップ領域の輝度の平均値が同じになるように、前記一方の画像の輝度と前記他方の画像の輝度の補正を行う輝度補正工程を更に有することを特徴とする検査画像取得方法。
The inspection image capturing method for an inspection object according to claim 1,
Correction of the luminance of the one image and the luminance of the other image so that the average value of the luminance of the overlap region of the one image and the average value of the luminance of the overlap region of the other image are the same. A method for acquiring an inspection image, further comprising: a luminance correction step for performing the step.
請求項1又は請求項2に記載の検査画像取得方法において、
前記検査対象物を移動させる移動工程を有し、
前記撮像工程は、ラインセンサカメラを利用して前記検査対象物を撮像することを特徴とする検査画像取得方法。
In the inspection image acquisition method according to claim 1 or 2,
A moving step of moving the inspection object;
The said imaging process images the said test target object using a line sensor camera, The inspection image acquisition method characterized by the above-mentioned.
JP2006244610A 2006-09-08 2006-09-08 Inspection image acquisition method Expired - Fee Related JP4876803B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006244610A JP4876803B2 (en) 2006-09-08 2006-09-08 Inspection image acquisition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006244610A JP4876803B2 (en) 2006-09-08 2006-09-08 Inspection image acquisition method

Publications (2)

Publication Number Publication Date
JP2008064686A true JP2008064686A (en) 2008-03-21
JP4876803B2 JP4876803B2 (en) 2012-02-15

Family

ID=39287517

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006244610A Expired - Fee Related JP4876803B2 (en) 2006-09-08 2006-09-08 Inspection image acquisition method

Country Status (1)

Country Link
JP (1) JP4876803B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018104838A (en) * 2016-12-26 2018-07-05 株式会社PSM International Quality measurement method and quality measurement device for long-length sheet material
CN109490311A (en) * 2018-10-25 2019-03-19 武汉精立电子技术有限公司 Backlight panel defect detecting system and method based on multi-angled shooting
WO2019229919A1 (en) * 2018-05-31 2019-12-05 株式会社PSM International Quality measuring method and quality measuring device for long sheet material
KR102197724B1 (en) * 2019-07-15 2021-01-04 현대자동차주식회사 Apparatus for crashworthiness prediction and method thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08254499A (en) * 1995-03-17 1996-10-01 Sharp Corp Displaying/appearance inspection device
JPH09321972A (en) * 1996-05-28 1997-12-12 Canon Inc Image synthesis device and method
JPH1013769A (en) * 1996-06-19 1998-01-16 Olympus Optical Co Ltd Image processing unit
JPH11313309A (en) * 1998-04-28 1999-11-09 Nkk Corp Video signal synthesis device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08254499A (en) * 1995-03-17 1996-10-01 Sharp Corp Displaying/appearance inspection device
JPH09321972A (en) * 1996-05-28 1997-12-12 Canon Inc Image synthesis device and method
JPH1013769A (en) * 1996-06-19 1998-01-16 Olympus Optical Co Ltd Image processing unit
JPH11313309A (en) * 1998-04-28 1999-11-09 Nkk Corp Video signal synthesis device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018104838A (en) * 2016-12-26 2018-07-05 株式会社PSM International Quality measurement method and quality measurement device for long-length sheet material
WO2019229919A1 (en) * 2018-05-31 2019-12-05 株式会社PSM International Quality measuring method and quality measuring device for long sheet material
US11231363B2 (en) 2018-05-31 2022-01-25 Psm International, Inc. Quality measurement method and quality measurement device for long sheet material
CN109490311A (en) * 2018-10-25 2019-03-19 武汉精立电子技术有限公司 Backlight panel defect detecting system and method based on multi-angled shooting
KR102197724B1 (en) * 2019-07-15 2021-01-04 현대자동차주식회사 Apparatus for crashworthiness prediction and method thereof

Also Published As

Publication number Publication date
JP4876803B2 (en) 2012-02-15

Similar Documents

Publication Publication Date Title
US8917320B2 (en) Digital optical comparator
JP4436810B2 (en) Display multi-angle measuring system and method
CN102413354A (en) Automatic optical detection method, device and system of mobile phone camera module
US20090046922A1 (en) Surface Inspecting Apparatus
WO2013094273A1 (en) Image processing device, imaging device, microscope system, image processing method, and image processing program
CN104931421B (en) The positioning focusing method of liquid crystal panel vision detection system
CN112885289B (en) Display screen calibration method and device
CN103955080A (en) Multi-camera liquid crystal screen defect detection and image collection device
US11321811B2 (en) Imaging apparatus and driving method of the same
JP4876803B2 (en) Inspection image acquisition method
JP2009229197A (en) Linear defect detecting method and device
CN110097516A (en) Inner hole wall surface pattern distortion correcting method, system and medium
JP2014164221A (en) Defect detection method for display panel and defect detection device for display panel
CN108508022B (en) Multi-camera splicing imaging detection method
JP2008180602A (en) Inspection apparatus, testing method, inspection program, and computer readable medium
CN108489989A (en) The two-sided appearance detecting instrument of photovoltaic module based on the detection of polyphaser joining image-forming
JP4521858B2 (en) Image processing device
CN103630542A (en) Defect detecting apparatus, defect correction device and defect detecting method
JP6142655B2 (en) Appearance inspection apparatus and appearance inspection method
JPH09318487A (en) Device for testing liquid crystal display panel
JP2009270947A (en) Display inspection apparatus and method
JP2011027907A (en) Method and device for creating correction data for correcting luminance unevenness
JPH0979946A (en) Inspection device for display device
JP2009060460A (en) Device, method and program for calculating optical axis adjustment value, and computer-readable recording medium
JP4893938B2 (en) Defect inspection equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090728

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110809

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111101

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111114

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141209

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees