WO2018110089A1 - スジ状領域検出装置、スジ状領域検出方法、プログラム - Google Patents

スジ状領域検出装置、スジ状領域検出方法、プログラム Download PDF

Info

Publication number
WO2018110089A1
WO2018110089A1 PCT/JP2017/038324 JP2017038324W WO2018110089A1 WO 2018110089 A1 WO2018110089 A1 WO 2018110089A1 JP 2017038324 W JP2017038324 W JP 2017038324W WO 2018110089 A1 WO2018110089 A1 WO 2018110089A1
Authority
WO
WIPO (PCT)
Prior art keywords
filter
region
image
value
streak
Prior art date
Application number
PCT/JP2017/038324
Other languages
English (en)
French (fr)
Inventor
嘉典 小西
Original Assignee
オムロン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オムロン株式会社 filed Critical オムロン株式会社
Priority to US16/340,153 priority Critical patent/US10846869B2/en
Priority to CN201780059575.2A priority patent/CN109791691B/zh
Priority to KR1020197008961A priority patent/KR20190040067A/ko
Priority to EP17880750.9A priority patent/EP3557526B1/en
Publication of WO2018110089A1 publication Critical patent/WO2018110089A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M11/00Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30121CRT, LCD or plasma display

Definitions

  • the present invention relates to a technique for detecting streaky areas in an image.
  • An edge-lit type surface light source device is used as a backlight of a liquid crystal display device.
  • the edge light type is a light source such as LED (Light Emitting Diode) arranged along the edge of the light emitting surface of the surface light source device, and the light emitted from the light source is a plate-shaped light guide (with a light guide plate). This is a structure that leads to the light emitting surface.
  • the edge light type surface light source device is widely used in small electronic devices such as smartphones because it is relatively easy to reduce the size and thickness.
  • a defect related to uneven brightness may occur due to various causes such as a mold of a light guide plate, a molding defect, and a deviation during assembly.
  • One such problem is the appearance of streaky bright or dark areas extending linearly along a certain direction.
  • the bright region is a region having a relatively high luminance compared to the surroundings
  • the dark region is a region having a relatively low luminance compared to the surroundings.
  • this type of defect is referred to as a “streaky region” or “streaky defect”.
  • Patent Document 1 proposes a method of automatically inspecting a streak-like defect in a display device such as a liquid crystal panel or a projector as an application product thereof by image processing.
  • a streak defect is detected by scanning a filter having a kernel that matches the luminance change pattern of the streak defect with respect to an image obtained by photographing the inspection object.
  • Patent Document 1 can accurately detect a streak-like defect having a luminance change pattern that matches the kernel, other streak-like defects (for example, streak-like defects having different widths) cannot be detected. There is a possibility that the detection accuracy is significantly lowered. Therefore, when the width of streak-like defects that must be detected is indefinite (that is, when streak-like defects of various widths must be detected), prepare many filters according to the expected width. There is a problem of increased cost due to an increase in memory capacity. In addition, when scanning with a large number of filters, there is a problem that the processing time required for defect detection becomes long.
  • the present invention has been made in view of the above circumstances, and an object thereof is to provide a filtering technique capable of detecting a streak-shaped area having an arbitrary width from an image.
  • the present invention proposes an algorithm that uses two types of filters and detects streaky regions based on an integrated value obtained by combining response values of the respective filters.
  • an image acquisition unit that acquires an image and a first filter that reacts to an increase in luminance along the first direction are applied to the image, and the application position of the first filter Applying to the image a first filter computing unit that obtains a first response value that is a response value of the first filter in the image, and a second filter that reacts to a decrease in luminance along the first direction, Based on an integrated value obtained by integrating the first response value and the second response value, a second filter operation unit that obtains a second response value, which is a response value of the second filter at the application position of the filter, A detection unit for detecting a streaky region having a width corresponding to the distance along the first direction between the application position of the first filter and the application position of the second filter, and information obtained by the detection unit An output unit for outputting It provides an area detector.
  • detection is performed by setting a distance along the first direction between the application position of the first filter and the application position of the second filter (hereinafter referred to as “filter interval”) to a desired value.
  • the width of the stripe region can be changed. Therefore, it is possible to detect a streak-shaped region having an arbitrary width using only two filters. Therefore, the number of filter designing steps and the filter memory capacity can be greatly reduced.
  • “responds to an increase in luminance along the first direction” means that the response value of the filter is when the luminance of the image tends to increase along the first direction in the local region to which the filter is applied. It means that it becomes a positive value.
  • “responds to a decrease in luminance along the first direction” means that the response value of the filter is positive when the luminance of the image tends to decrease along the first direction in the local region to which the filter is applied. It means that it becomes the value of.
  • the “first direction” may be the horizontal direction of the image, the vertical direction, or the oblique direction.
  • the first filter calculation unit obtains a plurality of first response values by changing an application position of the first filter, and the second filter calculation unit changes a plurality of application positions of the second filter,
  • the second response value is acquired, and the detection unit is configured to change the combination of the first response value and the second response value selected from the plurality of first response values and the plurality of second response values. It is possible to detect a plurality of types of streak-like regions having different values.
  • the amount of filter calculation necessary to detect a plurality of types of streak-like regions having different widths is greatly reduced compared to the conventional method (a method using a plurality of filters for each detected width). be able to. Therefore, the method of the present invention has an advantageous effect that the processing time can be significantly shortened compared to the conventional method when two or more types of stripe-shaped regions are to be detected or when the width of the stripe-shaped regions is indefinite. Play.
  • the first filter calculation unit acquires a plurality of first response values while shifting the application position of the first filter in the first direction, and the second filter calculation unit is applied to the application position of the second filter.
  • the plurality of second response values are acquired while shifting the first response value in the first direction, and the detection unit determines that the integrated value is the maximum from the plurality of first response values and the plurality of second response values.
  • a combination of the first response value and the second response value may be selected, and the presence / absence of the streak region may be determined based on the maximum integrated value.
  • the streak-shaped region is a region extending along a second direction orthogonal to the first direction
  • the first filter calculation unit is configured to shift a plurality of application positions of the first filter in the second direction.
  • the second filter calculation unit acquires a plurality of second response values while shifting the application position of the second filter in the second direction, and the detection unit An integrated value obtained by integrating a plurality of first response values and the plurality of second response values may be calculated, and the presence or absence of a streaky region extending along the second direction may be determined based on the integrated value.
  • the output unit may output the evaluation value and a determination result of the presence or absence of the streak-like region.
  • the user can immediately determine the presence / absence of the streak-like region by viewing the output of the determination result.
  • the evaluation value is also output, the basis of the determination result can be confirmed, and the satisfaction and objectivity of the determination result are improved.
  • the output unit may output an image in which information indicating a position where the streak-like region is detected is superimposed on the image or an image obtained by processing the image.
  • the output unit may output a one-dimensional luminance profile indicating a change in luminance value along the first direction. By outputting the luminance profile, it is possible to grasp the state of the streaky region (the difference in luminance from the surroundings).
  • the image acquired by the image acquisition unit is an image obtained by photographing a light emitting surface of a surface light source device
  • the detection unit is a streak-like bright region or dark region that appears due to uneven luminance in the light emitting surface. An area may be detected. That is, you may utilize this invention for the test
  • the present invention can be understood as a streaky region detection device, a streaky region quantification device, or a streak region inspection device having at least a part of the above-described configuration or function.
  • the present invention also includes a streaky region detection method, a streaky region quantification method, a streaky region inspection method, a program for causing a computer to execute these methods, including at least a part of the above processing, or It can also be understood as a computer-readable recording medium in which such a program is recorded non-temporarily.
  • FIG. 1 is a perspective view illustrating a basic configuration of a surface light source device.
  • FIG. 2 is a diagram illustrating an example of a streaky region.
  • FIG. 3 is a diagram illustrating a hardware configuration of the inspection apparatus.
  • FIG. 4 is a block diagram showing functions related to the streaky area detection processing of the inspection apparatus.
  • 5A to 5D are diagrams showing filters used in the conventional method.
  • 6A to 6D are diagrams showing filters used in the embodiment of the present invention.
  • 7A is a diagram showing a filter for detecting vertical stripes
  • FIG. 7B is a diagram showing a filter for detecting horizontal stripes
  • FIG. 7C is a diagram showing a filter for detecting diagonal stripes.
  • FIG. 8 is a flowchart of the vertical stripe inspection process according to the first embodiment.
  • FIG. 9A is a diagram illustrating an example of an input image
  • FIG. 9B is a diagram illustrating an example of a light-emitting surface image extracted from the input image.
  • FIG. 10 is a flowchart of the process of the first filter calculation unit.
  • FIG. 11 is a diagram showing an example of an inspection result output screen.
  • FIG. 12 is a flowchart of the vertical stripe inspection process according to the second embodiment.
  • FIG. 13 is a flowchart of the vertical stripe inspection process in the second embodiment.
  • the present invention relates to a technique for detecting streaky regions from an image using a filter.
  • This technique can be applied to general image recognition and image analysis.
  • this inspection can be applied to, for example, an in-line inspection in a final process in a surface light source device production line, or an acceptance inspection of a part (surface light source device) in a manufacturer that manufactures a product incorporating the surface light source device.
  • an example of a surface light source device used as a backlight of a liquid crystal display device will be described.
  • the inspection technique of the present invention is a surface light source device used for other applications such as an illumination device and digital signage. It can also be applied to inspection.
  • FIG. 1 is a perspective view illustrating the basic configuration of the surface light source device 1.
  • the surface light source device 1 includes a light guide plate (light guide) 10, a plurality of light sources 11, a flexible printed circuit board (hereinafter also referred to as “FPC”) 12, a frame 13, and a fixing member 14. Further, the surface light source device 1 includes a reflection sheet 15 disposed on the lower surface side of the light guide plate 10. Furthermore, the surface light source device 1 includes a diffusion sheet 16, prism sheets 17 a and 17 b, and a light shielding sheet 18 that are sequentially stacked on the upper surface side of the light guide plate 10.
  • FPC flexible printed circuit board
  • the light guide plate 10 has a substantially plate shape and is formed of a light-transmitting material such as polycarbonate resin or polymethyl methacrylate resin.
  • the upper surface of the light guide plate 10 is a light emitting surface from which light is emitted (also referred to as a light emitting surface).
  • the light guide plate 10 guides light introduced from the light source 11 into the light guide plate 10 to the light emitting surface using total reflection so that the entire light emitting surface shines substantially uniformly.
  • the light source 11 is, for example, an LED light source that emits white light. However, LED light sources other than white and light sources other than LED light sources may be used, and light sources of multiple colors (for example, RGB) may be used.
  • the light source 11 is mounted on the FPC 12 and is driven by receiving power from the FPC 12. In the present embodiment, eight light sources 11 are arranged in a line at equal intervals along one short side (referred to as “first side”) of the light emitting surface of the light guide plate 10.
  • the frame 13 is a frame-shaped member having an opening and having four sides.
  • the frame 13 is molded from a polycarbonate resin containing titanium oxide or the like.
  • the light guide plate 10 is fitted into the frame 13, and the inner peripheral surface of the frame 13 surrounds the side surface forming the outer peripheral surface of the light guide plate 10.
  • the frame 13 has a high reflectance, and reflects light so that light in the light guide plate 10 does not leak from the outer peripheral surface of the light guide plate 10.
  • a housing part that houses the light source 11 is provided on one side of the frame 13, and a reflecting wall that reflects light from the light source 11 is provided in the housing part.
  • the fixing member 14 is disposed on the lower surface of the FPC 12 and fixes the FPC 12, the frame 13, and the light guide plate 10.
  • the fixing member 14 is, for example, a double-sided adhesive tape whose upper and lower surfaces are adhesive surfaces, but is not limited to a double-sided adhesive tape.
  • the reflection sheet 15 is a smooth sheet made of a highly reflective white resin sheet, metal foil, or the like, and reflects light so that light in the light guide plate 10 does not leak from the lower surface of the light guide plate 10.
  • the diffusion sheet 16 is a translucent resin film, and diffuses the light emitted from the light emitting surface of the light guide plate 10 to widen the directional characteristics of the light.
  • the prism sheets 17a and 17b are transparent resin films having a triangular prism-like fine pattern formed on the upper surface, condensing the light diffused by the diffusion sheet 16, and viewing the surface light source device 1 from the upper surface side. Increase the brightness.
  • the light shielding sheet 18 is a black pressure-sensitive adhesive sheet whose upper and lower surfaces are adhesive surfaces. The light shielding sheet 18 has a frame shape and suppresses light from leaking out.
  • FIG. 2 schematically shows an example of the streaky region.
  • the streak-shaped region includes a bright region (20, 21) having a relatively high luminance compared to the surroundings and a dark region (22, 23) having a relatively low luminance compared to the surroundings.
  • a vertical stripe (22) extending parallel to the long side of the light emitting surface of the light guide plate 10
  • a horizontal stripe (21, 22) extending parallel to the short side of the light emitting surface of the light guide plate 10
  • an oblique stripe (23) extending obliquely.
  • FIG. 3 is a diagram illustrating a hardware configuration of the inspection apparatus 3.
  • This inspection device 3 is a device that quantitatively evaluates the degree of occurrence of streak-like regions in the surface light source device 1 and automatically determines the presence or absence of streak-like regions to be excluded as defective products.
  • the inspection device 3 generally includes an information processing device (computer) 30, an imaging device 31, a stage 32, and a constant current power source 33.
  • the information processing apparatus 30 includes a CPU (central processing unit) that is a hardware processor, a memory that is a main memory, a storage device (such as a hard disk and a flash memory) that temporarily stores programs and data, and an input device (such as a mouse, Keyboard, touch panel, and the like), a display device, an interface with the imaging device 31, a network interface, and the like.
  • a CPU central processing unit
  • the information processing apparatus 30 includes a CPU (central processing unit) that is a hardware processor, a memory that is a main memory, a storage device (such as a hard disk and a flash memory) that temporarily stores programs and data, and an input device (such as a mouse, Keyboard, touch panel, and the like), a display device, an interface with the imaging device 31, a network interface, and the like.
  • the imaging device 31 is a device that photographs the surface light source device 1 placed on the stage 32 and outputs a digital image.
  • a digital camera having an optical system, an imaging device, an interface with the information processing device 30, and the like can be used.
  • a monochrome camera may be used if the surface light source device 1 is a monochromatic light source, and a color camera is preferable if the surface light source device 1 is a light source of multiple colors.
  • the stage 32 is a table on which the surface light source device 1 to be inspected is placed.
  • the constant current power source 33 is a device that supplies power to the surface light source device 1.
  • the imaging device 31 and the stage 32 may be provided in a clean bench.
  • the size of the light emitting surface (vertical and horizontal dimensions) and light emission luminance may be different. Therefore, by adjusting the distance between the stage 32 and the imaging device 31 or the zoom of the imaging device 31 according to the size of the light emitting surface to be inspected, light emission from one pixel of the image obtained by the imaging device 31 is performed. It is also preferable to calibrate the correspondence with the actual size on the surface. It is also preferable to calibrate the average luminance of the image obtained by the imaging device 31 by adjusting the exposure time of the imaging device 31 according to the emission luminance of the inspection target. These calibrations may be automatically executed by the information processing apparatus 30 or manually performed by an operator.
  • FIG. 4 is a block diagram showing functions related to the streaky area detection processing of the inspection apparatus 3.
  • the inspection apparatus 3 includes an image acquisition unit 40, a first filter calculation unit 41, a second filter calculation unit 42, a detection unit 43, an output unit 44, and a storage unit 45.
  • the image acquisition unit 40 has a function of acquiring image data obtained by photographing the surface light source device 1 to be inspected from the imaging device 31.
  • the 1st filter calculating part 41 and the 2nd filter calculating part 42 are functions which perform a filter calculation.
  • the detection unit 43 has a function of detecting a streak region using the filter response values obtained by the first filter calculation unit 41 and the second filter calculation unit 42, respectively.
  • the output unit 44 has a function of outputting information such as image data and detection results to the display device.
  • the storage unit 45 has a function of storing data such as a filter, a determination threshold value, a response value, and an evaluation value used for detection processing. Details of these functions will be described later.
  • the function shown in FIG. 4 is basically realized by loading a program required by the CPU of the information processing device 30 from the storage device and executing it. However, some or all of these functions may be replaced with a circuit such as an ASIC or FPGA. Also, by using cloud computing or distributed computing technology, some or all of these functions may be executed by another computer.
  • FIGS. 5A to 5D show a conventional method
  • FIGS. 6A to 6D show a filter of this embodiment.
  • FIG. 5A schematically shows a kernel 55 for detecting a light area 50 having a narrow width
  • FIG. 5B schematically shows a kernel 56 for detecting a light area 51 having a wide width
  • the black area in the kernel represents a negative coefficient (for example, “ ⁇ 1”)
  • the white area represents a positive coefficient (for example, “+1”).
  • 5C and 5D show dark regions 52 and 53 and kernels 57 and 58 corresponding to the respective widths.
  • the dark area kernels 57 and 58 have the same sign of the coefficient as that of the bright area kernels 55 and 56.
  • the streak area is detected by combining two filters.
  • the streaky region extends along the X direction (right direction in FIG. 6A) of the image.
  • two filters are used: a first filter 61 that responds to an increase in luminance along the Y direction (downward in FIG. 6A) and a second filter 62 that responds to a decrease in luminance along the Y direction.
  • the first filter 61 reacts only to one edge of the streak-shaped region (the edge whose luminance is darker to brighter in the Y direction), and the second filter 62 reacts to the other edge of the streak-shaped region (the Y direction It reacts only to the edge that becomes brighter ⁇ darker). Therefore, if an integrated value obtained by integrating the response value of the first filter 61 and the response value of the second filter 62 (for example, the total value or the average value of the two response values) is used, it is between the two filters 61 and 62.
  • a streak-like area having a width corresponding to the Y-direction distance (referred to as “filter interval”) can be detected.
  • the filter interval when detecting a light region 50 having a narrow width, the filter interval may be narrowed as shown in FIG. 6A, and when detecting a light region 51 having a wide width, the filter interval is increased as shown in FIG. 6B. do it. Furthermore, as shown in FIGS. 6C and 6D, it is possible to detect the dark regions 52 and 53 only by exchanging the positional relationship between the first filter 61 and the second filter 62.
  • the two filters 61 and 62 are prepared. Can be used to detect light and dark regions of any width.
  • FIG. 7A is an example of a filter for detecting vertical stripes, and has a size of vertical (X direction): 30 mm ⁇ horizontal (Y direction): 10 mm.
  • the kernel size is 300 pix ⁇ 100 pix.
  • the upper half coefficient is a negative value (eg, “ ⁇ 1”), and the lower half coefficient is a positive value (eg, “+1”).
  • the second filter 72 is a vertically inverted version of the first filter 71, with the upper half coefficient being a positive value and the lower half coefficient being a negative value.
  • the coefficients in the white and black areas do not need to be constant values, and may have a gradient.
  • FIG. 7B is an example of the first filter 73 and the second filter 74 for detecting horizontal stripes
  • FIG. 7C is an example of the first filter 75 and the second filter 76 for detecting oblique stripes.
  • the inspector arranges the surface light source device 1 at a predetermined position on the stage 32 and the light emitting surface facing the imaging device 31 side. And the surface light source device 1 is connected to the constant current power supply 33, the light source 11 is driven, and the surface light source device 1 is made into a lighting state.
  • the inspection object is manually set, but introduction, positioning, connection to and discharge from the power supply, and the like may be automated.
  • step S80 the imaging device 31 captures the illuminated surface light source device 1, and the image acquisition unit 40 captures image data from the imaging device 31.
  • the resolution of the image is arbitrary, but in the present embodiment, an image having a resolution of about 0.1 mm (actual size on the light emitting surface) for one pixel is used.
  • step S81 the image acquisition unit 40 extracts only the area of the light emitting surface from the input image captured in step S80.
  • the image of the light emitting surface area extracted here is hereinafter referred to as a light emitting surface image.
  • 9A is an example of the input image 90
  • FIG. 9B is an example of the light emitting surface image 91 extracted from the input image 90.
  • the light emitting surface image 91 is generated so that the long side of the light emitting surface is parallel to the X axis of the image.
  • Reference numeral 92 denotes a vertical stripe (bright area).
  • the image acquisition unit 40 (1) binarizes the original image, (2) removes noise in the background region (region other than the light emitting surface) by closing processing, and (3) extracts the contour of the light emitting surface. May be. Further, when the contour of the light emitting surface is tilted with respect to the image coordinate system, tilt correction (rotation correction) may be performed. Alternatively, when the positioning accuracy on the stage to be inspected is sufficiently high, only a predetermined range in the original image may be cut out.
  • step S83 the first filter calculation unit 41 scans the first filter 71 in the Y direction, and calculates a response value (referred to as a first response value) of the first filter 71 at each Y direction position.
  • step S83 The detailed flow of step S83 is shown in FIG.
  • the first filter calculation unit 41 applies the first filter 71 to the image region centered on the set X-direction position and Y-direction position, and calculates the first response value of the first filter 71 (Ste S101).
  • the first response value is a result of the product-sum operation of the pixel value corresponding to the coefficient of the first filter 71. If the result of the product-sum operation is a negative value, the response value may be set to zero.
  • the calculated first response value is held in the storage unit 45 together with information on the application position (X direction position and Y direction position) of the first filter 71 (step S102). Thereafter, while shifting the position of the filter in the Y direction pixel by pixel (step S103), the processing of steps S101 to S102 is repeated until the filter reaches the end of the inspection range in the Y direction (step S104).
  • the inspection range may be the entire light emitting surface image 91 or a part of the light emitting surface image 91 (for example, when an area where vertical stripes may appear is known in advance).
  • step S84 the second filter calculation unit 42 scans the second filter 72 in the Y direction, and calculates a response value (referred to as a second response value) of the second filter 72 at each Y direction position.
  • the process of step S84 is the same as the process of step S83, except that the filters used are different.
  • the second response value calculated in step S84 is held in the storage unit 45 together with information on the application position of the second filter 72.
  • the detection unit 43 calculates the maximum value R (x) of the integrated values of the first response value and the second response value, for example, using the following equation.
  • the value of R (x) is a value obtained by quantifying the degree of occurrence of the streaky region at the X-direction position: x, and is hereinafter referred to as a “streaky region evaluation value”.
  • R 1 (x, i) is the first response value at the X direction position: x, Y direction position: i
  • R 2 (x, j) is at the X direction position: x, Y direction position: j.
  • is the inspection range in the Y direction.
  • m is the width in the Y direction of the white area (or black area) of the kernels of the filters 71 and 72, and
  • ⁇ m represents that the white region of one filter and the black region of the other filter do not overlap.
  • the above equation is obtained by shifting (scanning) the two filters 71 and 72 in the Y direction at the X-direction position x, and a plurality of first response values R 1 (x, i) and a plurality of second response values. This means that a combination of the first response value and the second response value that gives the maximum integrated value R (x) is selected from R 2 (x, j).
  • both the case where the first filter 71 is above as shown in FIGS. 6A and 6B and the case where the second filter 72 is above as shown in FIGS. 6C and 6D are considered. Therefore, it is possible to detect both the bright region and the dark region. That is, the combination of i and j giving the streak region evaluation value R (x) is a bright region when i ⁇ j, and a dark region when i> j. It should be noted that if it is desired to detect only the bright region, the constraint of i ⁇ j in the above equation may be added. If only the dark region is desired to be detected, the constraint of i> j may be added in the above equation.
  • step S86 the detection unit 43 compares the streak region evaluation value R (x) obtained in step S85 with a determination threshold value.
  • the determination threshold value is a threshold value for determining the presence / absence of a streak-like region, and may be determined in advance based on a result of sensory inspection or an experimental result.
  • the detection unit 43 determines that “a streaky region is generated at the position x” when the streak region evaluation value R (x) is larger than the determination threshold (step S87). It is determined that there is no streak area (step S88).
  • the inspection range may be the entire light emitting surface image 91 or a part of the light emitting surface image 91 (for example, when an area where vertical stripes may appear is known in advance).
  • step S91 the output unit 44 generates a screen for outputting the information obtained by the detection unit 43, and outputs the screen to the display device.
  • FIG. 11 shows an example of an inspection result output screen.
  • the input image 110 captured from the imaging device 31, the light emitting surface image 111 cut out from the input image 110, and the processed image in which the luminance unevenness is made conspicuous on the light emitting surface image 111 ( For example, a pseudo color image 112 is displayed.
  • information for example, a frame indicating an image region where the streak region evaluation value R (x) exceeds the determination threshold
  • 113 is superimposed and displayed on the light emitting surface image 111. ing.
  • an evaluation value indicating the degree of occurrence of the streaky region is calculated based on the image obtained by photographing the light emitting surface of the surface light source device 1, and based on this evaluation value.
  • the presence or absence of streak-like regions can be determined. Therefore, the streak-like area can be objectively and automatically inspected.
  • a streak-shaped area having an arbitrary width can be detected using only two filters, it is not necessary to prepare a large number of filters in advance as in the conventional method. Therefore, the number of filter designing steps and the filter memory capacity can be greatly reduced.
  • the first response value and the second response value are changed.
  • the method of the present embodiment is advantageous in that the processing time can be significantly shortened compared to the conventional method when two or more types of streaky regions are to be detected or when the width of the streaky region is indefinite. There is an effect.
  • the inspector can immediately determine the presence / absence of the streak-like region and the quality of the surface light source device 1. Further, since the streak area evaluation value is also output, the basis of the determination result can be confirmed, and the satisfaction and objectivity of the determination result are improved. In addition, since the information 113 indicating the position of the streak-like area is superimposed on the light-emitting surface image 111, the problem location where the streak-like area appears can be intuitively and easily grasped. Also useful. Further, since the luminance profile 116 is also displayed, the state of the streaky region (the difference in luminance from the surroundings) can be grasped.
  • the streak area evaluation value is obtained for each X-direction position of the filter
  • the streak area evaluation value is obtained for each filter interval (that is, for each width of the streak area). Is different. Since the rest of the configuration is the same as that of the first embodiment, only the configuration and processing unique to the second embodiment will be described below.
  • 12 and 13 are flowcharts of the vertical stripe inspection process in the second embodiment.
  • the filters 71 and 72 are respectively scanned in the Y direction and the X direction by the processes in steps S80 to S84, S89, and S90, and the first response value and the first response value at each X direction position and each Y direction position within the inspection range are scanned. 2
  • the response value is calculated and stored in the storage unit 45.
  • a streak area evaluation value for each width is calculated.
  • step S120 the detection unit 43 sets an initial value (4 mm) for the width w.
  • step S121 the detection unit 43 sets an initial value (for example, 5 mm) in the Y-direction position y.
  • the detection unit 43 calculates a streak-shaped region evaluation value R (y, w) by, for example, the following equation.
  • the value of R (y, w) is a value obtained by quantifying the degree of occurrence of the stripe-shaped region having the width: w at the Y-direction position: y.
  • R 1 (k, y) is the first response value at the X direction position: k, Y direction position: y
  • R 2 (k, y + w) is at the X direction position: k, Y direction position: y + w.
  • is the inspection range in the X direction.
  • the above equation is obtained by shifting (scanning) the two filters 71 and 72 in the X direction while keeping the Y-direction position and the filter interval of the two filters 71 and 72 constant. This means that a value R (y, w) obtained by integrating R 1 (k, y) and a plurality of second response values R 2 (k, y + w) is calculated.
  • step S123 the detection unit 43 compares the streak area evaluation value R (y, w) obtained in step S122 with a determination threshold value.
  • the detection unit 43 determines that a streak-shaped area having a width w is generated at the position y when the streak-shaped area evaluation value R (y, w) is larger than the determination threshold (step S124). Determines that “there is no streak-shaped area of width w at position y” (step S125).
  • the streak-like region evaluation value R (y, w) used in the present embodiment takes a larger value as the light region or dark region having the same width extends in the X direction. Therefore, by using this evaluation value R (y, w) to evaluate the degree of occurrence of the stripe region, the stripe region (vertical stripe) extending along the X direction can be detected with high accuracy.
  • the evaluation value R (y, w) is obtained for each combination of Y-direction position: y and width: w.
  • This method has an advantage that all vertical stripes appearing in the image can be detected. However, if it is sufficient to detect and evaluate only the vertical stripes that appear most strongly in the image, an evaluation value R (w) or an evaluation value R as in the following equation may be used.
  • the evaluation value R (w) is a value obtained by quantifying the degree of occurrence of a stripe-shaped region having a width: w
  • the evaluation value R is a value obtained by quantifying the degree of occurrence of a stripe-like region having an arbitrary width.

Abstract

スジ状領域検出装置は、画像を取得する画像取得部と、第1方向に沿う輝度の増加に反応する第1フィルタを前記画像に適用し、前記第1フィルタの適用位置における前記第1フィルタの応答値である、第1応答値を取得する第1フィルタ演算部と、前記第1方向に沿う輝度の減少に反応する第2フィルタを前記画像に適用し、前記第2フィルタの適用位置における前記第2フィルタの応答値である、第2応答値を取得する第2フィルタ演算部と、前記第1応答値と前記第2応答値を統合した統合値に基づいて、前記第1フィルタの適用位置と前記第2フィルタの適用位置との間の前記第1方向に沿う距離に対応する幅をもつ、スジ状領域を検出する検出部と、前記検出部により得られた情報を出力する出力部と、を有する。

Description

スジ状領域検出装置、スジ状領域検出方法、プログラム
 本発明は、画像内のスジ状領域を検出するための技術に関する。
 液晶表示装置のバックライトとして、エッジライト型(Edge-lit)の面光源装置が用いられている。エッジライト型とは、面光源装置の発光面の端縁(エッジ)に沿ってLED(Light Emitting Diode)などの光源を配置し、光源から出射された光を板状のライトガイド(導光板と呼ばれる)により発光面に導く構成である。エッジライト型の面光源装置は、小型化・薄型化が比較的容易であることから、例えばスマートフォンのような小型の電子機器において広く採用されている。
 エッジライト型の面光源装置では、導光板の金型や成形の不良、アセンブル時のズレなどの様々な原因により、輝度の不均一に関する不具合が発生することがある。そのような不具合の一つに、ある方向に沿って直線的に延びるスジ状の明領域又は暗領域が現れる、というものがある。明領域とは周囲に比べて輝度が相対的に高い領域であり、暗領域とは周囲に比べて輝度が相対的に低い領域である。本明細書ではこの種の不具合を「スジ状領域」又は「スジ状欠陥」と呼ぶ。
 現状、この種の不具合の検査は、ヒト(検査員)の目視による官能検査に依存しているのが実情である。それゆえ、検査に要する手間及びコスト、属人性の高さなどの課題があり、検査の自動化と客観化(定量化)が求められている。
 特許文献1には、液晶パネル等の表示デバイスやその応用製品であるプロジェクタにおけるスジ状欠陥を画像処理によって自動で検査する方法が提案されている。その方法は、被検査物を撮影した画像に対し、スジ状欠陥の輝度変化パターンに一致するカーネルをもつフィルタを走査することで、スジ状欠陥を検出するというものである。
特開2005-346300号公報
 特許文献1に記載の方法は、カーネルに一致する輝度変化パターンをもつスジ状欠陥は精度良く検出できるものの、それ以外のスジ状欠陥(例えば、幅が異なるスジ状欠陥など)は検出できないか、検出精度が著しく低下するおそれがある。したがって、検出しなければならないスジ状欠陥の幅が不定の場合(つまり、様々な幅のスジ状欠陥を検出しなければならない場合)には、想定される幅にあわせて多数のフィルタを用意しなければならず、メモリ容量の増大によるコスト増の問題が生じる。しかも、多数のフィルタによる走査を行うと、欠陥検出に要する処理時間が長大になるという課題もある。
 本発明は上記実情に鑑みてなされたものであって、画像から任意の幅のスジ状領域を検出可能なフィルタリング手法を提供することを目的とする。
 上記目的を達成するために、本発明では、2種類のフィルタを用い、各フィルタの応答値を組み合わせた統合値に基づいてスジ状領域の検出を行う、というアルゴリズムを提案する。
 具体的には、本発明の第一態様は、画像を取得する画像取得部と、第1方向に沿う輝度の増加に反応する第1フィルタを前記画像に適用し、前記第1フィルタの適用位置における前記第1フィルタの応答値である、第1応答値を取得する第1フィルタ演算部と、前記第1方向に沿う輝度の減少に反応する第2フィルタを前記画像に適用し、前記第2フィルタの適用位置における前記第2フィルタの応答値である、第2応答値を取得する第2フィルタ演算部と、前記第1応答値と前記第2応答値を統合した統合値に基づいて、前記第1フィルタの適用位置と前記第2フィルタの適用位置との間の前記第1方向に沿う距離に対応する幅をもつ、スジ状領域を検出する検出部と、前記検出部により得られた情報を出力する出力部と、を有するスジ状領域検出装置を提供する。
 この構成によれば、第1フィルタの適用位置と第2フィルタの適用位置との第1方向に沿う距離(以後、「フィルタ間隔」と呼ぶ。)を所望の値に設定することにより、検出するスジ状領域の幅を変えることができる。したがって、2つのフィルタだけで、任意の幅のスジ状領域を検出可能である。よって、フィルタ設計の工数ならびにフィルタ用のメモリ容量を大幅に削減することができる。
 ここで、「第1方向に沿う輝度の増加に反応する」とは、フィルタが適用される局所領域において、画像の輝度が第1方向に沿って増加傾向にある場合に、フィルタの応答値が正の値となることをいう。また、「第1方向に沿う輝度の減少に反応する」とは、フィルタが適用される局所領域において、画像の輝度が第1方向に沿って減少傾向にある場合に、フィルタの応答値が正の値となることをいう。なお、「第1方向」は、画像の水平方向でもよいし、垂直方向でもよいし、斜め方向でもよい。
 前記第1フィルタ演算部は、前記第1フィルタの適用位置を変えて、複数の第1応答値を取得し、前記第2フィルタ演算部は、前記第2フィルタの適用位置を変えて、複数の第2応答値を取得し、前記検出部は、前記複数の第1応答値と前記複数の第2応答値のうちから選択する第1応答値と第2応答値の組み合わせを変えることにより、幅の異なる複数種類のスジ状領域を検出可能としてもよい。
 この構成によれば、幅の異なる複数種類のスジ状領域を検出するために必要なフィルタ演算量を、従来方法(検出する幅毎の複数のフィルタを用いる方法)に比べて、大幅に削減することができる。したがって、本発明の方法は、2種類以上のスジ状領域が検出対象となる場合や、スジ状領域の幅が不定である場合において、従来方法よりも処理時間を大幅に短縮できるという有利な効果を奏する。
 前記第1フィルタ演算部は、前記第1フィルタの適用位置を前記第1方向にシフトしながら、複数の第1応答値を取得し、前記第2フィルタ演算部は、前記第2フィルタの適用位置を前記第1方向にシフトしながら、複数の第2応答値を取得し、前記検出部は、前記複数の第1応答値と前記複数の第2応答値のうちから、前記統合値が最大となる第1応答値と第2応答値の組み合わせを選択し、最大の前記統合値に基づいてスジ状領域の有無を判定してもよい。
 このような「最大の統合値」を用いることにより、画像内の任意の位置に現れる任意の幅のスジ状領域を精度良く検出することができる。
 前記スジ状領域は、前記第1方向と直交する第2方向に沿って延びる領域であり、前記第1フィルタ演算部は、前記第1フィルタの適用位置を前記第2方向にシフトしながら、複数の第1応答値を取得し、前記第2フィルタ演算部は、前記第2フィルタの適用位置を前記第2方向にシフトしながら、複数の第2応答値を取得し、前記検出部は、前記複数の第1応答値と前記複数の第2応答値を統合した統合値を計算し、前記統合値に基づいて前記第2方向に沿って延びるスジ状領域の有無を判定してもよい。
 第2方向に沿って同じ幅の明領域又は暗領域が長く延びているほど、上記統合値は大きい値をとる。したがって、このような統合値を用いることにより、第2方向に沿って延びるスジ状領域を精度良く検出することができる。
 前記出力部は、前記評価値と、前記スジ状領域の有無の判定結果とを出力してもよい。ユーザは、判定結果の出力をみることで、スジ状領域の有無を即座に判断することができる。また、評価値も出力されるので、判定結果の根拠が確認でき、判定結果の納得性・客観性が向上する。
 前記出力部は、前記画像又は前記画像を加工した画像の上に、前記スジ状領域が検出された位置を示す情報を重畳した画像を、出力してもよい。このような重畳画像を出力することにより、スジ状領域が現れている箇所を直観的かつ簡易に把握することができ、現物の確認作業にも有用である。
 前記出力部は、前記第1方向に沿う輝度値の変化を示す1次元の輝度プロファイルを出力してもよい。輝度プロファイルを出力することにより、スジ状領域の状態(周囲との輝度の差)を把握することができる。
 例えば、前記画像取得部により取得される前記画像は、面光源装置の発光面を撮影した画像であり、前記検出部は、前記発光面内の輝度の不均一により現れるスジ状の明領域又は暗領域を検出するものであってもよい。すなわち、本発明を面光源装置の検査に利用してもよい。
 なお、本発明は、上記構成ないし機能の少なくとも一部を有するスジ状領域検出装置、スジ状領域定量化装置、スジ状領域の検査装置として捉えることができる。また、本発明は、上記処理の少なくとも一部を含む、スジ状領域検出方法、スジ状領域定量化方法、スジ状領域の検査方法や、これらの方法をコンピュータに実行させるためのプログラム、又は、そのようなプログラムを非一時的に記録したコンピュータ読取可能な記録媒体として捉えることもできる。上記構成及び処理の各々は技術的な矛盾が生じない限り互いに組み合わせて本発明を構成することができる。
 本発明によれば、画像から任意の幅のスジ状領域を検出可能なフィルタリング手法を提供することができる。
図1は面光源装置の基本的な構成を例示する斜視図である。 図2はスジ状領域の一例を示す図である。 図3は検査装置のハードウェア構成を示す図である。 図4は検査装置のスジ状領域検出処理に関わる機能を示すブロック図である。 図5A~図5Dは従来手法で用いるフィルタを示す図である。 図6A~図6Dは本発明の実施形態で用いるフィルタを示す図である。 図7Aは縦スジ検出用のフィルタを示す図であり、図7Bは横スジ検出用のフィルタを示す図であり、図7Cは斜めスジ検出用のフィルタを示す図である。 図8は第1実施形態における縦スジの検査処理のフローチャートである。 図9Aは入力画像の一例を示す図であり、図9Bは入力画像から抽出された発光面画像の一例を示す図である。 図10は第1フィルタ演算部の処理のフローチャートである。 図11は検査結果の出力画面の一例を示す図である。 図12は第2実施形態における縦スジの検査処理のフローチャートである。 図13は第2実施形態における縦スジの検査処理のフローチャートである。
 本発明は、フィルタを用いて画像からスジ状領域を検出するための技術に関する。この技術は、一般的な画像認識や画像解析に適用することができる。以下では、本発明の好ましい実施形態として、本発明を面光源装置のスジ状領域の検査に応用した例を説明する。この検査は、例えば、面光源装置の製造ラインにおける最終工程でのインライン検査や、面光源装置を組み込んだ製品を製造するメーカにおける部品(面光源装置)の受入検査などに適用できる。なお、以下の実施形態では、液晶表示装置のバックライトとして用いられる面光源装置の例を述べるが、本発明の検査技術は、照明装置やデジタルサイネージなど、他の用途に用いられる面光源装置の検査にも応用することができる。
 以下、図面を参照して本発明を実施するための好ましい形態の一例を説明する。ただし、以下の実施形態に記載されている装置の構成や動作は一例であり、本発明の範囲をそれらのみに限定する趣旨のものではない。
 <第1実施形態>
 (面光源装置)
 図1は、面光源装置1の基本的な構成を例示する斜視図である。面光源装置1は、導光板(ライトガイド)10、複数の光源11、フレキシブルプリント基板(以下、「FPC」とも表記する)12、フレーム13、及び固定部材14を備える。また、面光源装置1は、導光板10の下面側に配置される反射シート15を備える。さらに、面光源装置1は、導光板10の上面側に順に積層される拡散シート16、プリズムシート17a、17b、及び遮光シート18を備える。
 導光板10は、概略板状で、ポリカーボネート樹脂やポリメチルメタクリレート樹脂等の透光性の素材で成形される。導光板10の上側の面は、光が出射する発光面(光出射面とも称す)となっている。導光板10は、光源11から導光板10内へ導入された光を、全反射を利用して発光面に導き、発光面の全体が略均一に光るようにしたものである。
 光源11は、例えば白色光を出射するLED光源である。ただし、白色以外のLED光源やLED光源以外の光源が用いられてもよいし、複数色(例えばRGB)の光源が用いられてもよい。光源11はFPC12に実装されており、FPC12からの給電を受けて駆動される。本実施形態では、導光板10の発光面の一の短辺(「第1の辺」と呼ぶ)に沿って8個の光源11が等間隔に一列に配置されている。
 フレーム13は、開口を有し、四辺からなる枠状の部材である。フレーム13は、酸化チタンを含有したポリカーボネート樹脂等により成形される。フレーム13には、導光板10がはめ込まれ、フレーム13の内周面が導光板10の外周面を形成する側面を囲う。フレーム13は、高い反射率を有しており、導光板10内の光が導光板10の外周面から漏れないように光を反射する。フレーム13の一辺には、光源11を収容する収容部が設けられ、収容部には、光源11からの光を反射する反射壁が設けられる。
 固定部材14は、FPC12の下面等に配置され、FPC12とフレーム13と導光板10を固定する。固定部材14は、例えば、上下面が粘着面となった両面粘着テープであるが、両面粘着テープに限られるものではない。反射シート15は、反射率の高い白色樹脂シートや金属箔などからなる平滑なシートであり、導光板10内の光が導光板10の下側面から漏れないように光を反射する。拡散シート16は、半透明な樹脂フィルムであり、導光板10の発光面から発せられた光を拡散させて光の指向特性を広げる。プリズムシート17a及び17bは、上面に三角プリズム状の微細なパターンが形成された透明な樹脂フィルムあり、拡散シート16によって拡散された光を集光し、面光源装置1を上面側から見た場合の輝度を上昇させる。遮光シート18は、上下両面が粘着面となった黒色の粘着シートである。遮光シート18は額縁状となっており、光が漏れ出ることを抑制する。
 (スジ状領域)
 図1に例示したエッジライト型の面光源装置では、導光板10の金型や成形の不良、各種部材のアセンブル時のズレ、各種シート15~18の貼り合せ時のズレなどの様々な原因により、輝度の不均一に関する不具合が発生することがある。そのような不具合の一つに、直線的に延びるスジ状領域がある。図2にスジ状領域の一例を模式的に示す。スジ状領域には、周囲に比べて輝度が相対的に高い明領域(20,21)と、周囲に比べて輝度が相対的に低い暗領域(22,23)とがある。また、導光板10の発光面の長辺に平行に延びる縦スジ(22)、導光板10の発光面の短辺に平行に延びる横スジ(21,22)、斜めに延びる斜めスジ(23)がある。
 (検査装置)
 図3を用いて、本発明の実施形態に係るスジ状領域検出装置を具備した検査装置3の構成を説明する。図3は検査装置3のハードウェア構成を示す図である。この検査装置3は、面光源装置1におけるスジ状領域の発生度合いを定量的に評価し、不良品として排除すべきスジ状領域の有無を自動で判定する装置である。
 図3に示すように、検査装置3は、概略、情報処理装置(コンピュータ)30と、撮像装置31と、ステージ32と、定電流電源33とを有している。情報処理装置30は、ハードウェアプロセッサであるCPU(中央演算処理装置)、主記憶であるメモリ、非一時的にプログラムやデータを記憶する記憶装置(ハードディスク、フラッシュメモリなど)、入力装置(マウス、キーボード、タッチパネルなど)、表示装置、撮像装置31とのインタフェース、ネットワークインタフェースなどを有する、汎用又は専用のコンピュータにより構成される。
 撮像装置31は、ステージ32上に載置された面光源装置1を撮影し、デジタル画像を出力する装置である。撮像装置31としては、例えば、光学系、撮像素子、情報処理装置30とのインタフェースなどを有するデジタルカメラを用いることができる。面光源装置1の輝度計測が目的のため、面光源装置1が単色光源であればモノクロのカメラでも構わないし、面光源装置1が複数色の光源であればカラーのカメラであることが好ましい。ステージ32は、検査対象となる面光源装置1を載置する台である。定電流電源33は、面光源装置1に電力を供給する装置である。図示しないが、撮像装置31及びステージ32は、クリーンベンチ内に設けられていてもよい。
 面光源装置1の型番が異なると、発光面の大きさ(縦横の寸法)や発光輝度が異なる可能性がある。したがって、検査対象の発光面の大きさに応じて、ステージ32と撮像装置31の間の距離、又は、撮像装置31のズームを調整することで、撮像装置31で得られる画像の1画素と発光面上の実寸との対応関係のキャリブレーションを行うことも好ましい。また、検査対象の発光輝度に応じて、撮像装置31の露光時間を調整することで、撮像装置31で得られる画像の平均輝度のキャリブレーションを行うことも好ましい。これらのキャリブレーションは、情報処理装置30が自動で実行してもよいし、作業者が手作業で行ってもよい。
 図4は、検査装置3のスジ状領域検出処理に関わる機能を示すブロック図である。検査装置3は、画像取得部40と、第1フィルタ演算部41と、第2フィルタ演算部42と、検出部43と、出力部44と、記憶部45とを有する。画像取得部40は、検査対象となる面光源装置1を撮影した画像データを撮像装置31から取得する機能である。第1フィルタ演算部41及び第2フィルタ演算部42は、フィルタ演算を行う機能である。検出部43は、第1フィルタ演算部41と第2フィルタ演算部42のそれぞれで得られたフィルタ応答値を用いて、スジ状領域を検出する機能である。出力部44は、画像データや検出結果などの情報を表示装置に出力する機能である。記憶部45は、検出処理に用いるフィルタ、判定閾値、応答値、評価値などのデータを記憶する機能である。これらの機能の詳細は後述する。
 図4に示す機能は、基本的に、情報処理装置30のCPUが必要なプログラムを記憶装置からロードし、実行することにより実現されるものである。ただし、これらの機能の一部又は全部を、ASICやFPGAなどの回路で代替しても構わない。また、クラウドコンピューティングや分散コンピューティングの技術を利用することで、これらの機能の一部又は全部を他のコンピュータにより実行しても構わない。
 (フィルタ)
 図5A~図5D、図6A~図6Dを用いて、本実施形態のスジ状領域検出処理で用いるフィルタの特徴を説明する。図5A~図5Dは、従来手法を示し、図6A~図6Dは本実施形態のフィルタを示している。
 従来手法では、検出したいスジ状領域の幅に合わせてフィルタ(カーネルのサイズや係数)を変えなければならない。図5Aは、幅が狭い明領域50を検出するためのカーネル55を模式的に示し、図5Bは、幅が広い明領域51を検出するためのカーネル56を模式的に示す。ただし、カーネル内の黒色の領域は負の係数(例えば「-1」)、白色の領域は正の係数(例えば「+1」)を表している。これらのフィルタは、カーネルの係数分布とスジ状領域の輝度分布とが一致した場合に、すなわち、カーネル内の白色の領域の幅とスジ状領域の幅とが一致した場合に、最も強く反応する(フィルタの応答値が最も大きくなる)。
 また、従来手法では、明領域と暗領域とでフィルタを変える必要もある。図5C及び図5Dは暗領域52、53と、それぞれの幅に対応したカーネル57、58を示している。暗領域用のカーネル57、58は、明領域用のカーネル55、56とは係数の符号が反転している。
 これに対し、図6A~図6Dに示すように、本実施形態では2つのフィルタを組み合わせてスジ状領域の検出を行う。例えば、画像のX方向(図6Aでは右方向)に沿ってスジ状領域が延びていると仮定する。その場合、フィルタとしては、Y方向(図6Aでは下方向)に沿う輝度の増加に反応する第1フィルタ61と、Y方向に沿う輝度の減少に反応する第2フィルタ62の2つを用いる。第1フィルタ61は、スジ状領域の一方のエッジ(Y方向に向かって輝度が暗→明となるエッジ)にのみ反応し、第2フィルタ62は、スジ状領域の他方のエッジ(Y方向に向かって輝度が明→暗となるエッジ)にのみ反応する。したがって、第1フィルタ61の応答値と第2フィルタ62の応答値を統合した統合値(例えば、2つの応答値の合計値、平均値など)を用いれば、2つのフィルタ61、62の間のY方向距離(「フィルタ間隔」と呼ぶ)に対応する幅をもつスジ状領域を検出することができる。例えば、幅が狭い明領域50を検出する場合には、図6Aのようにフィルタ間隔を狭くすればよく、幅が広い明領域51を検出する場合には、図6Bのようにフィルタ間隔を広くすればよい。さらに、図6C及び図6Dに示すように、第1フィルタ61と第2フィルタ62の位置関係を入れ替えるだけで、暗領域52,53の検出も可能である。
 以上述べたように、従来手法では、スジ状領域の幅や、暗領域と明領域の違いごとに、複数のフィルタを用意する必要があったが、本実施形態では、2つのフィルタ61、62を用いて任意の幅の明領域及び暗領域を検出することができる。
 なお、各フィルタのカーネルサイズ及び係数は、想定されるスジ状領域の幅・長さ、輝度分布、方向などに応じて適宜設定すればよい。例えば図7Aは、縦スジ検出用のフィルタの例であり、縦(X方向):30mm×横(Y方向):10mmの大きさを有している。画像の解像度が0.1mm/pixの場合、カーネルサイズは300pix×100pixとなる。第1フィルタ71は、上半分の係数が負の値(例えば「-1」)であり、下半分の係数が正の値(例えば「+1」)である。第2フィルタ72は、第1フィルタ71を上下反転したものとなっており、上半分の係数が正の値、下半分の係数が負の値である。なお、白色と黒色それぞれの領域内の係数は一定値である必要はなく、勾配を有していても良い。また、図7Bは、横スジ検出用の第1フィルタ73及び第2フィルタ74の例であり、図7Cは、斜めスジ検出用の第1フィルタ75及び第2フィルタ76の例である。
 (検査処理)
 図8のフローチャートに沿って、縦スジの検査処理の流れを説明する。なお、本実施形態では図7Aのフィルタ71、72を用いるものとする。
 まず、検査員が、面光源装置1をステージ32上の所定の位置に、発光面を撮像装置31側に向けて、配置する。そして、面光源装置1を定電流電源33に接続して光源11を駆動し、面光源装置1を点灯状態とする。なお、本実施形態の検査装置3では検査対象の設置を手作業により行うが、検査対象の導入・位置決め・電源との接続・排出などを自動化してもよい。
 ステップS80において、撮像装置31が点灯状態の面光源装置1を撮影し、画像取得部40が画像データを撮像装置31から取り込む。画像の解像度は任意であるが、本実施形態では、1画素が約0.1mm(発光面上の実寸)の解像度の画像を用いる。
 ステップS81において、画像取得部40が、ステップS80で取り込まれた入力画像から発光面の領域のみを抽出する。ここで抽出された発光面の領域の画像を、以後、発光面画像と呼ぶ。図9Aは入力画像90の一例であり、図9Bは入力画像90から抽出された発光面画像91の一例である。本実施形態では、発光面の長辺が画像のX軸と平行になるように、発光面画像91を生成する。符号92は縦スジ(明領域)を示している。
 発光面の領域抽出はどのような方法を用いてもよい。例えば、画像取得部40が、(1)原画像を2値化し、(2)クロージング処理により背景領域(発光面以外の領域)のノイズを除去した後、(3)発光面の輪郭を抽出してもよい。さらに、発光面の輪郭が画像座標系に対して傾いている場合には、傾き補正(回転補正)を行ってもよい。あるいは、検査対象のステージ上の位置決め精度が十分高い場合には、原画像中の所定の範囲を切り出すだけでもよい。
 ステップS82では、フィルタ71、72のX方向位置に初期値(例えば、X=15mm)を設定する。ステップS83では、第1フィルタ演算部41が第1フィルタ71をY方向に走査し、各Y方向位置での第1フィルタ71の応答値(第1応答値と呼ぶ)を計算する。
 ステップS83の詳細フローを図10に示す。まず第1フィルタ演算部41は、第1フィルタ71のY方向位置に初期値(例えば、Y=5mm)を設定する(ステップS100)。次に、第1フィルタ演算部41は、設定されたX方向位置及びY方向位置を中心とする画像領域に対し第1フィルタ71を適用し、第1フィルタ71の第1応答値を計算する(ステップS101)。第1応答値は、第1フィルタ71の係数と対応する画素値の積和演算の結果である。積和演算の結果が負の値の場合は応答値を0にしてもよい。計算された第1応答値は、第1フィルタ71の適用位置(X方向位置とY方向位置)の情報と共に記憶部45に保持される(ステップS102)。その後、フィルタのY方向位置を1画素ずつシフトしながら(ステップS103)、フィルタが検査範囲のY方向の終端に到達するまで(ステップS104)、ステップS101~S102の処理を繰り返す。なお、検査範囲は発光面画像91の全体でもよいし、(例えば、縦スジが現れ得るエリアがあらかじめわかっている場合などには)発光面画像91の一部でもよい。
 ステップS84では、第2フィルタ演算部42が第2フィルタ72をY方向に走査し、各Y方向位置での第2フィルタ72の応答値(第2応答値と呼ぶ)を計算する。ステップS84の処理は、用いるフィルタが異なる点を除けば、ステップS83の処理と同様である。ステップS84で計算された第2応答値は、第2フィルタ72の適用位置の情報と共に記憶部45に保持される。
 ステップS85では、検出部43が、例えば下記式により、第1応答値と第2応答値の統合値の最大値R(x)を計算する。このR(x)の値は、X方向位置:xにおけるスジ状領域の発生度合いを定量化した値であり、以後、「スジ状領域評価値」と呼ぶ。
Figure JPOXMLDOC01-appb-M000001

 ここで、R(x,i)はX方向位置:x,Y方向位置:iにおける第1応答値であり、R(x,j)はX方向位置:x,Y方向位置:jにおける第2応答値である。ΩはY方向の検査範囲である。また、mはフィルタ71,72のカーネルの白色領域(または黒色領域)のY方向幅であり、|i-j|はiとjの差の絶対値、すなわちフィルタ間隔である。条件|i-j|≧mは、一方のフィルタの白色領域と他方のフィルタの黒色領域が重ならないことを表している。
 上記式は、X方向位置xにおいて、2つのフィルタ71,72をY方向にシフト(走査)することで得られる、複数の第1応答値R(x,i)と複数の第2応答値R(x,j)のうちから、統合値の最大値R(x)を与える第1応答値と第2応答値の組み合わせを選択することを意味している。
 なお、上記式では、図6A及び図6Bのように第1フィルタ71の方が上にある場合と、図6C及び図6Dのように第2フィルタ72の方が上にある場合の両方を考慮するため、明領域と暗領域の両方を検出可能である。すなわち、スジ状領域評価値R(x)を与えるi,jの組み合わせが、i<jの場合は明領域であり、i>jの場合は暗領域である。なお、明領域のみを検出したい場合には上記式においてi<jという制約を加えればよく、暗領域のみを検出したい場合には上記式においてi>jという制約を加えればよい。
 ステップS86では、検出部43が、ステップS85で求めたスジ状領域評価値R(x)を判定閾値と比較する。判定閾値はスジ状領域の有無を判定するための閾値であり、官能検査の結果や実験結果などに基づいて予め決めておけばよい。検出部43は、スジ状領域評価値R(x)が判定閾値より大きい場合は「位置xにスジ状領域が発生している」と判定し(ステップS87)、そうでない場合は「位置xにスジ状領域無し」と判定する(ステップS88)。
 その後、フィルタのX方向位置を5mmずつ(50画素ずつ)シフトしながら(ステップS89)、フィルタが検査範囲のX方向の終端に到達するまで(ステップS90)、ステップS83~S89の処理を繰り返す。なお、検査範囲は発光面画像91の全体でもよいし、(例えば、縦スジが現れ得るエリアがあらかじめわかっている場合などには)発光面画像91の一部でもよい。
 ステップS91において、出力部44は、検出部43により得られた情報を出力する画面を生成し、表示装置に出力する。図11は検査結果の出力画面の一例である。この出力画面では、撮像装置31から取り込まれた入力画像110と、入力画像110から切り出された発光面画像111と、発光面画像111に対し輝度ムラを目立たせるための加工を施した加工画像(例えば疑似カラー画像など)112が表示されている。また、発光面画像111の上に、スジ状領域が現れている位置を示す情報(例えば、スジ状領域評価値R(x)が判定閾値を超えた画像領域を示す枠)113が重畳表示されている。さらに、スジ状領域評価値の最大値maxR(x)114とその判定結果115、及び、スジ状領域評価値の最大値maxR(x)が得られたX方向位置(図11の一点鎖線)におけるY方向の輝度プロファイル116も表示される。
 以上述べた本実施形態の検査装置3によれば、面光源装置1の発光面を撮影した画像を基に、スジ状領域の発生度合いを表す評価値を計算し、かつ、この評価値に基づいてスジ状領域の有無を判定することができる。したがって、スジ状領域を客観的かつ自動的に検査することが可能となる。また、2つのフィルタだけで、任意の幅のスジ状領域を検出可能であるため、従来手法のようにあらかじめ多数のフィルタを用意しておく必要がない。よって、フィルタ設計の工数ならびにフィルタ用のメモリ容量を大幅に削減することができる。
 さらに、第1フィルタと第2フィルタについて1回ずつ走査を行い、各適用位置での第1応答値と第2応答値を記憶部に保持した後は、第1応答値と第2応答値の組み合わせを変えて統合値を計算することで、任意の位置の任意の幅のスジ状領域の発生度合いを評価することができる。このアルゴリズムによれば、幅の異なる複数種類のスジ状領域を検出するために必要なフィルタ演算量を、従来方法(検出する幅毎の複数のフィルタを用いる方法)に比べて、大幅に削減することができる。したがって、本実施形態の方法は、2種類以上のスジ状領域が検出対象となる場合や、スジ状領域の幅が不定である場合において、従来方法よりも処理時間を大幅に短縮できるという有利な効果を奏する。
 また、図11に示す検査結果を出力することにより、検査員は、スジ状領域の有無や面光源装置1の良/不良を即座に判断することができる。また、スジ状領域評価値も出力されるので、判定結果の根拠が確認でき、判定結果の納得性・客観性が向上する。また、発光面画像111の上にスジ状領域の位置を示す情報113が重畳表示されるので、スジ状領域が現れている問題箇所を直観的かつ簡易に把握することができ、現物の確認作業にも有用である。さらに、輝度プロファイル116も表示されるので、スジ状領域の状態(周囲との輝度の差)を把握することができる。
 <第2実施形態>
 次に、本発明の第2実施形態について説明する。第1実施形態では、フィルタのX方向位置ごとにスジ状領域評価値を求めたのに対し、第2実施形態では、フィルタ間隔ごと(つまり、スジ状領域の幅ごと)にスジ状領域評価値を求める点が異なる。それ以外の構成については第1実施形態のものと同様であるため、以下では第2実施形態に特有の構成及び処理についてのみ説明する。
 図12及び図13は、第2実施形態における縦スジの検査処理のフローチャートである。まず、ステップS80~S84,S89,S90の処理によって、各フィルタ71、72をY方向及びX方向にそれぞれ走査し、検査範囲内の各X方向位置・各Y方向位置における第1応答値及び第2応答値を計算し、記憶部45に保持する。これらの処理は第1実施形態の図8のフローチャートにおける同じステップ番号の処理と同様である。
 続いて、幅ごとのスジ状領域評価値を計算する。本実施形態では、幅w=4,6,8,10[mm]についてスジ状領域評価値を求める例を示す。
 まずステップS120では、検出部43が、幅wに初期値(4mm)を設定する。そして、ステップS121では、検出部43が、Y方向位置yに初期値(例えば5mm)を設定する。
 ステップS122では、検出部43は、例えば下記式により、スジ状領域評価値R(y,w)を計算する。このR(y,w)の値は、Y方向位置:yにおける幅:wのスジ状領域の発生度合いを定量化した値である。
Figure JPOXMLDOC01-appb-M000002

 ここで、R(k,y)はX方向位置:k,Y方向位置:yにおける第1応答値であり、R(k,y+w)はX方向位置:k,Y方向位置:y+wにおける第2応答値である。ΘはX方向の検査範囲である。
 上記式は、2つのフィルタ71,72のY方向位置とフィルタ間隔を一定に保ったまま、2つのフィルタ71,72をX方向にシフト(走査)することで得られる、複数の第1応答値R(k,y)と複数の第2応答値R(k,y+w)を統合した値R(y,w)を計算することを意味している。
 ステップS123では、検出部43が、ステップS122で求めたスジ状領域評価値R(y,w)を判定閾値と比較する。検出部43は、スジ状領域評価値R(y,w)が判定閾値より大きい場合は「位置yに幅wのスジ状領域が発生している」と判定し(ステップS124)、そうでない場合は「位置yに幅wのスジ状領域無し」と判定する(ステップS125)。
 その後、yを1画素ずつシフトしながら(ステップS126)、yの値が検査範囲のY方向の終端に到達するまで(ステップS127)、ステップS122~S125の処理を繰り返す。さらにその後、幅wを2mmずつ増やしながら(ステップS128)、wの値が10mmとなるまで(ステップS129)、ステップS121~S127の処理を繰り返す。以上で、幅w=4,6,8,10[mm]それぞれのスジ状領域の検出処理が終了する。以降の処理は第1実施形態と同様である。
 本実施形態で用いたスジ状領域評価値R(y,w)は、X方向に沿って同じ幅の明領域又は暗領域が長く延びているほど、大きい値をとる。したがってこの評価値R(y,w)を用いてスジ状領域の発生度合いを評価することにより、X方向に沿って延びるスジ状領域(縦スジ)を精度良く検出することができる。
 なお、本実施形態では、Y方向位置:yと幅:wの組み合わせごとに評価値R(y,w)を求めている。この方法は画像内に現れている全ての縦スジを検出できるという利点がある。ただし、画像内に最も強く現れている縦スジのみを検出・評価するだけ十分なケースであれば、下記式のような評価値R(w)又は評価値Rを用いてもよい。評価値R(w)は幅:wのスジ状領域の発生度合いを定量化した値であり、評価値Rは任意の幅のスジ状領域の発生度合いを定量化した値である。
Figure JPOXMLDOC01-appb-M000003
 <その他>
 上記の実施形態の説明は、本発明を例示的に説明するものに過ぎない。本発明は上記の具体的な形態には限定されることはなく、その技術的思想の範囲内で種々の変形が可能である。例えば、上記実施形態では矩形の発光面をもつ面光源装置を例示したが、発光面の形状は矩形に限られない。また、上述したスジ状領域評価値はあくまで一例であり、第1フィルタの第1応答値と第2フィルタの第2応答値を統合した値であればどのように設計してもよい。また、上記実施形態では縦スジの検出処理を例示したが、フィルタのカーネルと走査方向を適宜変えるだけで、横スジや斜めスジの検出が可能であることは言うまでもない。もちろん、縦スジ、横スジ、斜めスジのうち2種類以上のスジ状領域の検出を行ってもよい。
1:面光源装置
10:導光板、11:光源、20~23:スジ状領域
3:検査装置、30:情報処理装置、31:撮像装置、32:ステージ、33:定電流電源
40:画像取得部、41:第1フィルタ演算部、42:第2フィルタ演算部、43:検出部、44:出力部、45:記憶部
61,71,73,75:第1フィルタ
62,72,74,76:第2フィルタ
90:入力画像、91:発光面画像、92:縦スジ

Claims (10)

  1.  画像を取得する画像取得部と、
     第1方向に沿う輝度の増加に反応する第1フィルタを前記画像に適用し、前記第1フィルタの適用位置における前記第1フィルタの応答値である、第1応答値を取得する第1フィルタ演算部と、
     前記第1方向に沿う輝度の減少に反応する第2フィルタを前記画像に適用し、前記第2フィルタの適用位置における前記第2フィルタの応答値である、第2応答値を取得する第2フィルタ演算部と、
     前記第1応答値と前記第2応答値を統合した統合値に基づいて、前記第1フィルタの適用位置と前記第2フィルタの適用位置との間の前記第1方向に沿う距離に対応する幅をもつ、スジ状領域を検出する検出部と、
     前記検出部により得られた情報を出力する出力部と、を有する
    ことを特徴とするスジ状領域検出装置。
  2.  前記第1フィルタ演算部は、前記第1フィルタの適用位置を変えて、複数の第1応答値を取得し、
     前記第2フィルタ演算部は、前記第2フィルタの適用位置を変えて、複数の第2応答値を取得し、
     前記検出部は、前記複数の第1応答値と前記複数の第2応答値のうちから選択する第1応答値と第2応答値の組み合わせを変えることにより、幅の異なる複数種類のスジ状領域を検出可能である
    ことを特徴とする請求項1に記載のスジ状領域検出装置。
  3.  前記第1フィルタ演算部は、前記第1フィルタの適用位置を前記第1方向にシフトしながら、複数の第1応答値を取得し、
     前記第2フィルタ演算部は、前記第2フィルタの適用位置を前記第1方向にシフトしながら、複数の第2応答値を取得し、
     前記検出部は、前記複数の第1応答値と前記複数の第2応答値のうちから、前記統合値が最大となる第1応答値と第2応答値の組み合わせを選択し、最大の前記統合値に基づいてスジ状領域の有無を判定する
    ことを特徴とする請求項1に記載のスジ状領域検出装置。
  4.  前記スジ状領域は、前記第1方向と直交する第2方向に沿って延びる領域であり、
     前記第1フィルタ演算部は、前記第1フィルタの適用位置を前記第2方向にシフトしながら、複数の第1応答値を取得し、
     前記第2フィルタ演算部は、前記第2フィルタの適用位置を前記第2方向にシフトしながら、複数の第2応答値を取得し、
     前記検出部は、前記複数の第1応答値と前記複数の第2応答値を統合した統合値を計算し、前記統合値に基づいて前記第2方向に沿って延びるスジ状領域の有無を判定する
    ことを特徴とする請求項1に記載のスジ状領域検出装置。
  5.  前記出力部は、前記統合値と、前記スジ状領域の検出結果とを出力する
    ことを特徴とする請求項1~4のうちいずれか1項に記載のスジ状領域検出装置。
  6.  前記出力部は、前記画像又は前記画像を加工した画像の上に、前記スジ状領域が検出された位置を示す情報を重畳した画像を、出力する
    ことを特徴とする請求項1~5のうちいずれか1項に記載のスジ状領域検出装置。
  7.  前記出力部は、前記第1方向に沿う輝度値の変化を示す1次元の輝度プロファイルを出力する
    ことを特徴とする請求項1~6のうちいずれか1項に記載のスジ状領域検出装置。
  8.  前記画像取得部により取得される前記画像は、面光源装置の発光面を撮影した画像であり、
     前記検出部は、前記発光面内の輝度の不均一により現れるスジ状の明領域又は暗領域を検出するものである
    ことを特徴とする請求項1~7のうちいずれか1項に記載のスジ状領域検出装置。
  9.  画像を取得するステップと、
     第1方向に沿う輝度の増加に反応する第1フィルタを前記画像に適用し、前記第1フィルタの適用位置における前記第1フィルタの応答値である、第1応答値を取得するステップと、
     前記第1方向に沿う輝度の減少に反応する第2フィルタを前記画像に適用し、前記第2フィルタの適用位置における前記第2フィルタの応答値である、第2応答値を取得するステップと、
     前記第1応答値と前記第2応答値を統合した統合値に基づいて、前記第1フィルタの適用位置と前記第2フィルタの適用位置との間の前記第1方向に沿う距離に対応する幅をもつ、スジ状領域を検出するステップと、
     検出の結果を出力するステップと、を含む
    ことを特徴とするスジ状領域検出方法。
  10.  請求項9に記載のスジ状領域検出方法の各ステップをコンピュータに実行させるためのプログラム。
PCT/JP2017/038324 2016-12-15 2017-10-24 スジ状領域検出装置、スジ状領域検出方法、プログラム WO2018110089A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US16/340,153 US10846869B2 (en) 2016-12-15 2017-10-24 Streak-like region detecting device, streak-like region detecting method, and program
CN201780059575.2A CN109791691B (zh) 2016-12-15 2017-10-24 条纹状区域检测装置、条纹状区域检测方法、计算机可读取的记录介质
KR1020197008961A KR20190040067A (ko) 2016-12-15 2017-10-24 줄무늬형 영역 검출 장치, 줄무늬형 영역 검출 방법, 프로그램
EP17880750.9A EP3557526B1 (en) 2016-12-15 2017-10-24 Striated region detection device, striated region detection method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016243249A JP6337949B1 (ja) 2016-12-15 2016-12-15 スジ状領域検出装置およびスジ状領域検出方法
JP2016-243249 2016-12-15

Publications (1)

Publication Number Publication Date
WO2018110089A1 true WO2018110089A1 (ja) 2018-06-21

Family

ID=62487559

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/038324 WO2018110089A1 (ja) 2016-12-15 2017-10-24 スジ状領域検出装置、スジ状領域検出方法、プログラム

Country Status (7)

Country Link
US (1) US10846869B2 (ja)
EP (1) EP3557526B1 (ja)
JP (1) JP6337949B1 (ja)
KR (1) KR20190040067A (ja)
CN (1) CN109791691B (ja)
TW (1) TWI647660B (ja)
WO (1) WO2018110089A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102521386B1 (ko) * 2019-08-07 2023-04-14 주식회사 히타치하이테크 치수 계측 장치, 치수 계측 방법 및 반도체 제조 시스템

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004199200A (ja) * 2002-12-16 2004-07-15 Canon Inc パターン認識装置、撮像装置、情報処理システム、パターン認識方法、記録媒体、及びプログラム
JP2005174179A (ja) * 2003-12-15 2005-06-30 Canon Inc パターン検出装置及びパターン検出方法
JP2005346300A (ja) * 2004-06-01 2005-12-15 Seiko Epson Corp 筋状欠陥検出方法及び装置
JP2007285753A (ja) * 2006-04-13 2007-11-01 Seiko Epson Corp 欠陥検出方法および欠陥検出装置
JP2007293722A (ja) * 2006-04-26 2007-11-08 Omron Corp 画像処理装置、画像処理方法、画像処理プログラム、および画像処理プログラムを記録した記録媒体、ならびに移動物体検出システム
WO2007135884A1 (ja) * 2006-05-19 2007-11-29 Hitachi Medical Corporation 超音波診断装置及び超音波診断方法

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1405409A (en) * 1971-10-08 1975-09-10 Emi Ltd Colour television cameras
JP3254288B2 (ja) * 1993-03-04 2002-02-04 大日本印刷株式会社 スジ検査方法
US6275600B1 (en) * 1998-03-09 2001-08-14 I.Data International, Inc. Measuring image characteristics of output from a digital printer
JP3574584B2 (ja) * 1998-12-16 2004-10-06 富士通株式会社 表画像処理装置及びそのプログラム記憶媒体
US6393161B1 (en) * 1999-04-26 2002-05-21 Xerox Corporation Software system for minimizing image defects in a hard-copy input scanner
TW424398B (en) * 1999-06-10 2001-03-01 Chen Yung Chang Method and system of automatic spectral responsivity measurement for digital color cameras
US7043080B1 (en) * 2000-11-21 2006-05-09 Sharp Laboratories Of America, Inc. Methods and systems for text detection in mixed-context documents using local geometric signatures
US7116841B2 (en) * 2001-08-30 2006-10-03 Micron Technology, Inc. Apparatus, method, and product for downscaling an image
US7450746B2 (en) * 2002-06-07 2008-11-11 Verathon Inc. System and method for cardiac imaging
WO2004055735A1 (ja) * 2002-12-16 2004-07-01 Canon Kabushiki Kaisha パターン識別方法、その装置及びそのプログラム
JP2004289496A (ja) * 2003-03-20 2004-10-14 Ricoh Co Ltd 画像再生装置、画像再生方法およびこの方法をコンピュータに実行させるためのプログラム
US7424169B2 (en) * 2003-08-15 2008-09-09 Xerox Corporation Active compensation of streaks using spatial filtering and feedback control
JP4364275B2 (ja) * 2005-02-23 2009-11-11 富士通株式会社 画像処理方法、画像処理装置及びコンピュータプログラム
JP5675253B2 (ja) * 2009-12-28 2015-02-25 キヤノン株式会社 画像処理装置、画像処理方法及びコンピュータプログラム
JP2011244085A (ja) * 2010-05-14 2011-12-01 Sony Corp 信号処理装置及び信号処理方法
JP2012038423A (ja) * 2010-08-03 2012-02-23 Mitsubishi Rayon Co Ltd 導光体および面光源装置
JP2012042720A (ja) * 2010-08-19 2012-03-01 Sony Corp 画像処理装置および方法、並びにプログラム
JP2012058978A (ja) * 2010-09-08 2012-03-22 Canon Inc 画像処理装置、画像処理方法及びプログラム
US9036937B2 (en) * 2010-11-15 2015-05-19 Qualcomm Incorporated Fast repeated integral images
JP5644413B2 (ja) * 2010-11-22 2014-12-24 三菱レイヨン株式会社 導光体、面光源装置及び画像表示装置
JP2012129743A (ja) * 2010-12-14 2012-07-05 Nec Access Technica Ltd 画像処理装置、画像処理方法および画像処理プログラム
US8761454B2 (en) * 2011-05-10 2014-06-24 Hewlett-Packard Development Company, L.P. Detecting streaks in printed images
JP6122269B2 (ja) * 2011-12-16 2017-04-26 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2015082053A (ja) * 2013-10-23 2015-04-27 富士ゼロックス株式会社 画像形成装置
JP6307873B2 (ja) * 2013-12-24 2018-04-11 富士通株式会社 対象線検出装置、方法、及びプログラム
JP6557943B2 (ja) * 2014-01-15 2019-08-14 オムロン株式会社 画像照合装置、画像センサ、処理システム、画像照合方法
JP6700933B2 (ja) * 2016-04-20 2020-05-27 キヤノン株式会社 画像形成装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004199200A (ja) * 2002-12-16 2004-07-15 Canon Inc パターン認識装置、撮像装置、情報処理システム、パターン認識方法、記録媒体、及びプログラム
JP2005174179A (ja) * 2003-12-15 2005-06-30 Canon Inc パターン検出装置及びパターン検出方法
JP2005346300A (ja) * 2004-06-01 2005-12-15 Seiko Epson Corp 筋状欠陥検出方法及び装置
JP2007285753A (ja) * 2006-04-13 2007-11-01 Seiko Epson Corp 欠陥検出方法および欠陥検出装置
JP2007293722A (ja) * 2006-04-26 2007-11-08 Omron Corp 画像処理装置、画像処理方法、画像処理プログラム、および画像処理プログラムを記録した記録媒体、ならびに移動物体検出システム
WO2007135884A1 (ja) * 2006-05-19 2007-11-29 Hitachi Medical Corporation 超音波診断装置及び超音波診断方法

Also Published As

Publication number Publication date
CN109791691A (zh) 2019-05-21
JP6337949B1 (ja) 2018-06-06
CN109791691B (zh) 2023-06-06
KR20190040067A (ko) 2019-04-16
JP2018097717A (ja) 2018-06-21
TWI647660B (zh) 2019-01-11
TW201824183A (zh) 2018-07-01
EP3557526A1 (en) 2019-10-23
EP3557526B1 (en) 2024-02-14
US10846869B2 (en) 2020-11-24
EP3557526A4 (en) 2020-06-10
US20190244373A1 (en) 2019-08-08

Similar Documents

Publication Publication Date Title
JP6265253B1 (ja) 検査装置および検査方法
WO2018110112A1 (ja) 検査装置、検査方法、およびプログラム
US11317067B2 (en) Method and system for inspecting display image
JP6337949B1 (ja) スジ状領域検出装置およびスジ状領域検出方法
KR102063551B1 (ko) 광학필름의 결함 검출 시스템 및 광학필름의 결함 검출 방법
JP4842376B2 (ja) 表面検査装置及び方法
JP2012237585A (ja) 欠陥検査方法
TWI776275B (zh) 影像辨識裝置以及影像辨識方法
JP4743395B2 (ja) ピッチムラ検査方法およびピッチムラ検査装置
CN116429766A (zh) 基于多通道分离的方法、系统、装置及存储介质
JP2023121518A (ja) 外観検査装置、外観検査装置の制御方法、および外観検査装置の制御プログラム
JP2007095369A (ja) Crtパネルの欠陥検査装置及び欠陥検査方法
JP2009036581A (ja) 平面表示パネルの画像の位置決め方法、位置決め装置及び位置決めプログラム並びに平面表示パネルの検査方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17880750

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20197008961

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017880750

Country of ref document: EP

Effective date: 20190715