WO2016068326A1 - 画像処理装置、文字認識装置、画像処理方法、およびプログラム - Google Patents

画像処理装置、文字認識装置、画像処理方法、およびプログラム Download PDF

Info

Publication number
WO2016068326A1
WO2016068326A1 PCT/JP2015/080822 JP2015080822W WO2016068326A1 WO 2016068326 A1 WO2016068326 A1 WO 2016068326A1 JP 2015080822 W JP2015080822 W JP 2015080822W WO 2016068326 A1 WO2016068326 A1 WO 2016068326A1
Authority
WO
WIPO (PCT)
Prior art keywords
luminance
value
pixel
image processing
luminance value
Prior art date
Application number
PCT/JP2015/080822
Other languages
English (en)
French (fr)
Inventor
匡史 日向
相澤 知禎
秀人 濱走
Original Assignee
オムロン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オムロン株式会社 filed Critical オムロン株式会社
Priority to CN201580039317.9A priority Critical patent/CN106537416B/zh
Priority to EP15855574.8A priority patent/EP3214579B1/en
Priority to US15/327,379 priority patent/US20170200057A1/en
Publication of WO2016068326A1 publication Critical patent/WO2016068326A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/16Image preprocessing
    • G06V30/162Quantising the image signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/63Scene text, e.g. street names
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • G06V30/153Segmentation of character regions using recognition of characters or words
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Definitions

  • the present invention relates to image processing, and more particularly to image processing suitable as preprocessing for character recognition processing.
  • Character recognition technology that captures an object including a character string, recognizes the character string from the captured image, and is widely used.
  • an object has a three-dimensional shape and is composed of various types of materials. Therefore, depending on the camera installation position and illumination conditions when taking an image, not only diffuse reflection but also specular reflection Light may be photographed.
  • the luminance value of the specular reflection light is very high compared to the diffuse reflection light, and the luminance value is saturated, which causes a decrease in accuracy of character segmentation processing and character recognition processing.
  • image binarization is performed as preprocessing of character recognition processing.
  • a binarization method a method called dynamic binarization in which a threshold value is dynamically determined based on a luminance value in a local region in order to eliminate the influence of a partial shadow has been proposed (Patent Document 1). ).
  • Patent Document 1 a method called dynamic binarization in which a threshold value is dynamically determined based on a luminance value in a local region in order to eliminate the influence of a partial shadow.
  • FIG. 10A shows an image obtained by photographing a license plate.
  • the license plate is embossed with letters and numbers, and a high brightness region (saturated region) due to specular reflection light may occur at the stepped portion of the embossing.
  • the area shown in black in FIG. 10B is an example of the high luminance area.
  • FIG. 10C shows a binary image obtained by applying dynamic binarization processing to the image shown in FIG. As shown in FIG. 10C, the region that should originally have high luminance is determined to be relatively low luminance due to the presence of the high luminance region by specular reflection light. If character segmentation or recognition is performed based on an image with such noise, the accuracy is reduced.
  • the present invention has been made in view of the above circumstances, and an object of the present invention is to provide a technique that enables highly accurate character recognition even when a high-luminance region due to specular reflection light or the like exists in an input image.
  • a high-intensity region caused by specular reflection light or the like is determined by determining a high-intensity region of an image and converting pixel values of the high-intensity region. Suppresses adverse effects caused by
  • one aspect of the present invention is an image processing device that performs preprocessing of image recognition processing on an input image, and includes a generation unit that generates a histogram of luminance values of the input image, and a luminance based on the histogram.
  • a determination means for determining a reference value of the value and determining a high-luminance pixel that is a pixel having a luminance value larger than the reference value; and converting the luminance value of the high-luminance pixel into a luminance value equal to or less than the reference value Conversion means.
  • the determining means in the present invention determines a peak range of one or a plurality of luminance values based on the histogram, and determines the reference value based on an upper limit value of a peak range having the largest luminance value. Is also preferable.
  • the determining means determines a peak range of one or a plurality of luminance values based on the histogram, and determines the reference value based on an upper limit value of a peak range having the second largest luminance value. It is also preferable.
  • the determining means clusters the luminance values into a plurality of ranges based on the difference between the frequency corresponding to the luminance value and the centroid of the frequency in the vicinity of the luminance value, and among the plurality of ranges, It is also preferable that a range in which the width of the range or the total frequency within the range is equal to or greater than the threshold is determined as the peak range.
  • the conversion means in the present invention converts the luminance value of the high luminance pixel into the reference value.
  • the conversion means in the present invention converts the luminance value of the high luminance pixel into a luminance value calculated based on the luminance value of a pixel located around the pixel.
  • Another aspect of the present invention is a character recognition device including the image processing device described above and a recognition unit that performs character recognition processing on an image processed by the image processing device.
  • the input image includes at least a part of a license plate
  • the recognition means performs character recognition processing on characters drawn on the license plate.
  • the present invention can be understood as an image processing device or a character recognition device including at least a part of the above means.
  • the present invention can also be understood as an image processing method and a character recognition method.
  • it can also be grasped as a computer program for causing a computer to execute each step of these methods, or a computer-readable storage medium storing the program in a non-temporary manner.
  • the present invention it is possible to correct a high-luminance area due to specular reflection light or the like in the input image, and it is possible to recognize characters with high accuracy while suppressing adverse effects due to the high-luminance area.
  • the flowchart which shows the flow of the character recognition process in 1st Embodiment. 6 is a flowchart showing a flow of preprocessing (high luminance pixel correction processing) in the first embodiment.
  • FIG. 9 is a flowchart showing a flow of preprocessing (high luminance pixel correction processing) in the second embodiment. The figure explaining the bad influence by specular reflected light.
  • FIG. 1 is a diagram showing an outline of a vehicle license plate recognition system according to the present embodiment.
  • the license plate recognition system is a camera 20 that is installed on a pole standing on the road side and photographs the vehicle 30 on the road, and the license plate is extracted from the image photographed by the camera 20 and the characters described on the license plate are specified.
  • a character recognition device image processing device 10.
  • FIG. 2A is a diagram illustrating a hardware configuration of the character recognition device 10.
  • the character recognition device 10 includes an image input unit 11, a calculation device 12, a storage device 13, an input device 14, an output device 15, and a communication device 16.
  • the image input unit 11 is an interface that receives image data from the camera 20. In the present embodiment, the image data is directly received from the camera 20, but the image data may be received via the communication device 16 or the image data may be received via a recording medium.
  • the arithmetic device 12 is a general-purpose processor, and executes a program stored in the storage device 13 to realize processing to be described later.
  • the storage device 13 includes a main storage device and an auxiliary storage device, stores a program executed by the arithmetic device 12, and stores image data and temporary data during execution of the program.
  • the input device 14 includes a keyboard and a mouse, and is a device for a user to input an instruction to the character recognition device.
  • the output device 15 includes a display device, a speaker, and the like, and is a device for the character recognition device to output to the user.
  • the communication device 16 is a device for the character recognition device 10 to communicate with an external computer. The form of communication may be wired or wireless, and the communication standard may be arbitrary.
  • the arithmetic unit 12 implements a function as shown in FIG. 2B by executing a program. That is, the arithmetic device 12 implements functional units of the preprocessing unit 100, the character extraction unit 110, and the character recognition unit 120.
  • the preprocessing unit 100 includes a histogram generation unit 101, a high luminance pixel determination unit 102, a conversion unit 103, and a binarization unit 104. The processing content of each part will be described below.
  • FIG. 3 is a flowchart showing the overall flow of character recognition processing performed by the character recognition device 10.
  • the character recognition device 10 acquires image data showing a vehicle from the camera 20 via the image input unit 11.
  • the character recognition device 10 extracts a license plate area of the vehicle from the received image, and performs subsequent processing on the area.
  • the extraction of the license plate may be performed by an existing method such as template matching, and the description thereof is omitted.
  • Step S11 is a preprocessing performed so that the image data is suitable for character recognition, and is executed by the preprocessing unit 100.
  • the preprocessing includes luminance value correction processing, binarization processing, noise removal processing, and the like of high-luminance pixels of the image.
  • step S12 the character extraction unit 110 extracts a character area from the pre-processed image, and further extracts a character area for each character.
  • step S ⁇ b> 13 the character recognition unit 120 extracts character features from each character region, and compares the extracted characters with each character in the dictionary data to recognize the extracted characters.
  • Any existing technique can be applied to character region segmentation, character feature value acquisition, and collation processing.
  • a pixel feature extraction method, a contour feature extraction method, a gradient feature extraction method, or the like can be used as a method for acquiring character features.
  • a character recognition method a subspace method, a neural network, a support vector machine (SVM), a discriminant analysis, or the like can be used.
  • SVM support vector machine
  • FIG. 4 is a flowchart for explaining the flow of preprocessing, particularly luminance value correction processing for high-luminance pixels.
  • the input image is grayscaled.
  • the number of gradations of the gray scale image is not particularly limited, and can be, for example, 256 gradations.
  • the histogram generation unit 101 generates a luminance value histogram from the image converted to the gray scale.
  • the bin width of the histogram is 1, but the bin width may be larger than 1.
  • FIG. 5A shows an example of the generated histogram.
  • shaft in Fig.5 (a) (b) represents an appearance ratio (density).
  • step S22 the high brightness pixel determining unit 102 performs a clustering process on the histogram. This clustering process is intended to identify a range where the luminance value takes a peak, and one peak range is determined as one cluster. Luminance values other than the peak range are determined as not belonging to any cluster.
  • the clustering process in step S22 will be described in more detail.
  • FIG. 6 is a flowchart showing a detailed flow of the clustering process in step S22.
  • step S30 for each bin of the histogram (synonymous with each luminance value in the present embodiment), the gravity value centroid of the surrounding N luminances is calculated.
  • N is about 10, for example.
  • the center-of-gravity luminance GLi at the luminance value Li can be calculated by the following equation.
  • GLi ⁇ j (Lj ⁇ mj) / ⁇ j (mj)
  • sigma (sum) represents the sum of j in the range from i ⁇ N / 2 to i + N / 2.
  • mj represents the frequency of the luminance value Lj in the histogram.
  • step S32 the shift amount in each bin (each luminance value) is quantized into three values, plus (+), minus ( ⁇ ), and zero (0).
  • the shift amount Si is 0.5 or more, it is positive, if it is ⁇ 0.5 or less, it is negative, and otherwise it is zero.
  • a value other than 0.5 may be adopted as the threshold value in this quantization.
  • the quantization threshold may be changed according to the bin width of the histogram, for example, half of the bin width.
  • FIG. 7A is a diagram schematically showing an example of the shift amount and the quantization shift amount obtained from the histogram of luminance values.
  • an example of a histogram to be processed is shown.
  • a peripheral luminance range (rectangle) for obtaining a centroid luminance value and a centroid luminance value are shown.
  • the gravity center luminance value at the luminance value A is 0.5 or more larger than the luminance value A
  • the quantization shift amount at the luminance value A is plus (+).
  • the absolute value of the difference between the brightness value B and the brightness value B is less than 0.5, and the quantization shift amount in the brightness value B is zero (0).
  • the gravity center luminance value at the luminance value C is 0.5 or more smaller than the luminance value C, and the quantization shift amount at the luminance value C is minus ( ⁇ ).
  • the center-of-gravity luminance values are shown only for the luminance values A, B, and C, but the same calculation is performed for all luminance values, and the quantization shift amount is obtained for all luminance values.
  • the lower part of FIG. 7A shows the quantization shift amount. In the figure, only the portion where the quantization shift amount is positive and negative is clearly shown, and the portion where the quantization shift amount is neither positive nor negative is zero.
  • step S33 two or more consecutive positive and negative columns are extracted from the quantization shift amount array (also referred to as a quantization array), and the range from the start point of the positive column to the end point of the negative column is defined as one cluster. It is determined.
  • FIG. 7B shows the result of clustering obtained from the quantization shift amount shown in FIG. In FIG. 7A, there are two plus columns and two minus columns, and two clusters are determined as shown in FIG. 7B corresponding to a pair of plus columns and minus columns.
  • step S34 clusters that do not satisfy the predetermined criteria are excluded from the clusters obtained in step S33.
  • the width of the cluster is equal to or greater than a predetermined threshold, or that the total frequency (number of pixels belonging to the cluster) in the cluster is equal to or greater than the predetermined threshold. Removing clusters having no width is effective because, for example, saturated pixels can be distinguished from other peaks. When the entire image is bright, a wide peak is detected in the maximum luminance value (luminance value 255 in the present embodiment), and when whiteout occurs due to the influence of specular reflection light, there is no width in the maximum luminance value. A peak is detected. By imposing a condition on the cluster width, it is possible to appropriately determine a pixel to be corrected when there is an influence of specular reflection light.
  • step S22 shown in the flowchart of FIG. 4 ends.
  • the result of clustering for the histogram shown in FIG. 5A is shown in FIG. In FIG. 5B, three clusters 51, 52, and 53 are obtained.
  • the high luminance pixel determination unit 102 determines the upper limit value (maximum value) of the luminance value of the cluster having the largest luminance value among the clusters obtained in step S22 as the threshold value (reference value) T.
  • the threshold value T is used for determining whether or not the pixel is a high-luminance pixel. More specifically, a pixel having a luminance value larger than the threshold value T is determined as the high-luminance pixel.
  • the cluster 53 is the cluster having the largest luminance value
  • the upper limit value of the luminance of the cluster 53 (153 in this example) is determined as the threshold value T
  • the high luminance pixel is determined accordingly.
  • a threshold value T is determined by adding a predetermined numerical value to the upper limit value, or when there is a region where the quantization shift amount is zero in a region where the luminance value is larger than the cluster having the largest luminance value, the processing range can be limited to speed up the processing.
  • step S24 the conversion unit 103 sets the luminance value of a pixel (high luminance pixel) having a luminance value larger than the threshold value T to T.
  • the luminance values of the high luminance pixels in the image are all changed to the upper limit value (T) of the maximum cluster.
  • FIG. 8A shows a grayscale image before correction
  • FIG. 8B shows a grayscale image after correction. As shown in this figure, correction for reducing the luminance value of the high luminance pixel is performed, and the influence of the specular reflection light can be removed.
  • the high-intensity pixel correction process is shown in the flowchart of FIG. 4, other processes such as a noise removal process, a binarization process, and a thinning process of a binary image may be performed. Since these processes are known processes that have been conventionally performed, detailed description thereof is omitted, but the binarization process will be briefly described.
  • the binarization processing dynamic binarization in which a threshold value is dynamically determined based on the luminance value in the local region can be employed. Since correction is made so that high-luminance pixels are eliminated, an appropriate binarization can be realized by suppressing the adverse effect of the specular reflection light by the dynamic binarization process.
  • the influence of specular reflection light or the like is more appropriate than when the luminance value range to be corrected is fixed and corrected. Can be suppressed. Moreover, since the influence by the specular reflection light can be suppressed, the accuracy of the character recognition process can be improved.
  • the second embodiment is different from the correction process in the first embodiment in the determination method of the luminance value that the conversion unit 103 substitutes for the high luminance pixel (correction target pixel).
  • the first embodiment all high-luminance pixels are replaced with the threshold value T.
  • the corrected luminance value is determined based on the luminance values of the pixels located around the correction target pixel.
  • FIG. 9 is a flowchart showing the flow of luminance value correction processing for high luminance pixels in the preprocessing according to the present embodiment. Since the processing from step S20 to S23 is the same as the processing of the first embodiment (FIG. 4), description thereof is omitted. In this embodiment, the process of step S24 in the first embodiment performed by the conversion unit 103 is replaced with the process of steps S41 to S48.
  • step S41 a flag is assigned to a pixel (high luminance pixel) having a luminance value larger than the threshold value T.
  • step S42 the flagged pixels are labeled.
  • step S43 the outline of the label is extracted.
  • step S44 The processing from step S44 to S47 is sequentially performed for each pixel on the contour.
  • step S44 one pixel on the contour is selected.
  • the pixel selected here is referred to as a pixel P.
  • the pixels on the contour extracted in step S43 all have the same priority, and the process may be performed from any pixel.
  • step S45 a pixel without a flag is extracted from the peripheral pixels of the pixel P.
  • the peripheral pixel may be, for example, a pixel (excluding the pixel P) within a range of 3 ⁇ 3 to 7 ⁇ 7 with the pixel P as the center, or four neighboring pixels of the pixel P. .
  • step S46 the average value of the luminance values of the pixels extracted in step S47 is calculated, and this average value is substituted as the luminance value of the pixel P.
  • step S48 the flag is removed from the pixel P and the contour is updated.
  • step S48 it is determined whether or not a flagged pixel remains. If it remains, the process returns to step S44 to repeat the process. In the selection of the pixel in step S44, the pixel extracted earlier as the contour is preferentially selected.
  • the present embodiment it is possible to smoothly interpolate the high-luminance pixel region using the luminance values of the surrounding pixels. Therefore, pseudo contours are less likely to occur in the corrected image, and the accuracy of character recognition processing can be improved.
  • the system for recognizing the license plate of the vehicle has been described, but this system can be applied to any character recognition system.
  • the present invention can be suitably applied when not only diffuse reflection light but also specular reflection light such as illumination is reflected in an image.
  • the present invention can be applied to a character recognition system for factory automation (FA) that recognizes characters written on the surface of an aluminum can or vinyl.
  • FA factory automation
  • the preprocessing described above is preferably applied not only as preprocessing for character recognition processing but also as preprocessing for other image recognition processing.
  • the present invention can be configured as a character recognition device that acquires an image via data communication or a recording medium, and performs correction processing and character recognition processing on the acquired image.
  • the present invention can be configured as an image processing apparatus that performs only correction processing on an image.
  • the peak range may be determined by other methods. For example, it is conceivable to determine a frequency threshold from the luminance value of the entire image and determine a range having a frequency equal to or higher than this threshold as the peak range. At this time, when the width of the peak range determined in this way is smaller than a predetermined value or the number of pixels in the peak range is smaller than the predetermined value, the peak range is not treated as a peak range. It is also preferable to make it. In this method, there is a possibility that the saturation region becomes the peak range. In this case, the reference value is determined based on the peak range having the second highest luminance value, not the peak range having the highest luminance value. Is also possible.
  • the character recognition device can be mounted on an arbitrary device such as a desktop computer, a notebook computer, a slate computer, or a smartphone terminal.
  • each function of the character recognition device described above does not have to be executed by one device, and a plurality of devices may share and execute each function.

Abstract

画像認識処理の前処理を入力画像に施す画像処理装置であって、入力画像の輝度値のヒストグラムを生成する生成手段と、前記ヒストグラムに基づいて輝度値の基準値を決定し、当該基準値よりも大きい輝度値を有する画素である高輝度画素を決定する決定手段と、前記高輝度画素の輝度値を、前記基準値以下の輝度値に変換する変換手段と、を備える。これにより、入力画像中に鏡面反射光などによる高輝度領域が存在する場合であっても、高精度な文字認識が可能となる。

Description

画像処理装置、文字認識装置、画像処理方法、およびプログラム
 本発明は、画像処理に関し、特に文字認識処理の前処理として好適な画像処理に関する。
 文字列を含む物体を撮影し、撮影した画像から文字列を認識し取得する文字認識技術が普及している。一般に物体は、立体的な形状を有しており、その上様々な種類の材料で構成されているため、画像を撮影する際のカメラ設置位置や照明条件によって、拡散反射光だけでなく鏡面反射光が撮影される場合がある。鏡面反射光の輝度値は拡散反射光と比較して非常に高く、輝度値の飽和を伴い、文字の切り出し処理や文字認識処理の精度低下の原因となる。
 例えば、文字認識処理の前処理として画像の二値化が行われる。二値化の手法として、部分的な影の影響をなくすために局所領域内の輝度値に基づいて閾値を動的に決定する動的二値化と呼ばれる手法が提案されている(特許文献1)。このとき、撮影画像の鏡面反射光による高輝度な領域が存在すると適切な二値化がなされずに、後段の文字認識処理に悪影響を及ぼす場合がある。
 車両のナンバープレートを対象として文字認識を行う場合を例にとって、より具体的に説明する。図10(a)は、ナンバープレートを撮影した画像を示している。ナンバープレートには文字や数字がエンボス加工されており、エンボス加工の段差部分で鏡面反射光による高輝度領域(飽和領域)が発生することがある。図10(b)において黒色で示した領域が高輝度領域の例である。このような画像に対して動的二値化処理を施すと、高輝度領域の影響により、ノイズが生じる。図10(c)は、図10(a)に示す画像に対して動的二値化処理を施して得られる二値画像を示している。図10(c)に示すように、本来は高輝度とされるべき領域が、鏡面反射光による高輝度領域の存在により相対的に低輝度と判定されてしまう。このようなノイズが乗った画像をもとに文字の切り出しや認識を行うと、その精度が低下してしまう。
 上記の説明は、鏡面反射光による高輝度領域(飽和領域)による悪影響の一例に過ぎない。前処理として動的二値化処理を行わない場合や、対象物体がナンバープレート以外の場合などであっても、高輝度領域が存在によって文字認識処理の精度が低下する。
特開2003-123023号公報
 本発明は上記実情に鑑みなされたものであって、入力画像に鏡面反射光などによる高輝度領域が存在する場合であっても、高精度な文字認識を可能とする技術を提供することを目的とする。
 上記目的を達成するため本発明では、文字認識処理の前処理として、画像の高輝度領域を決定して、その高輝度領域の画素値を変換することによって、鏡面反射光などによって生じる高輝度領域による悪影響を抑制する。
 具体的には、本発明の一態様は、画像認識処理の前処理を入力画像に施す画像処理装置であって、入力画像の輝度値のヒストグラムを生成する生成手段と、前記ヒストグラムに基づいて輝度値の基準値を決定し、当該基準値よりも大きい輝度値を有する画素である高輝度画素を決定する決定手段と、前記高輝度画素の輝度値を、前記基準値以下の輝度値に変換する変換手段と、を備えることを特徴とする。
 また、本発明における前記決定手段は、前記ヒストグラムに基づいて1つまたは複数の輝度値のピーク範囲を決定し、最も輝度値が大きいピーク範囲の上限値に基づいて前記基準値を決定する、ことも好ましい。
 また、本発明における前記決定手段は、前記ヒストグラムに基づいて1つまたは複数の輝度値のピーク範囲を決定し、2番目に輝度値が大きいピーク範囲の上限値に基づいて前記基準値を決定する、ことも好ましい。
 また、本発明における前記決定手段は、輝度値に対応する度数と当該輝度値近傍での度数の重心との差に基づいて、輝度値を複数の範囲にクラスタリングし、前記複数の範囲のうち、範囲の幅または範囲内の度数の合計が閾値以上である範囲を、前記ピーク範囲として決定する、ことも好ましい。
 また、本発明における前記変換手段は、前記高輝度画素の輝度値を、前記基準値に変換する、ことも好ましい。
 また、本発明における前記変換手段は、前記高輝度画素の輝度値を、当該画素の周辺に位置する画素の輝度値に基づいて算出される輝度値に変換する、ことも好ましい。
 また、本発明の別の態様は、上記に記載の画像処理装置と、前記画像処理装置によって処理が施された画像に対して文字認識処理を行う認識手段と、を備える文字認識装置である。
 また、前記入力画像はナンバープレートの少なくとも一部分を含み、前記認識手段は前記ナンバープレートに描かれている文字に対して文字認識処理を行うことを特徴とする、ことも好ましい。
 なお、本発明は、上記手段の少なくとも一部を含む画像処理装置や文字認識装置として捉えることができる。また、本発明は、画像処理方法や文字認識方法として捉えることもできる。また、これらの方法の各ステップをコンピュータに実行させるためのコンピュータプログラムや、当該プログラムを非一時的に記憶したコンピュータ読取可能な記憶媒体として捉えることもできる。上記構成および処理の各々は技術的な矛盾が生じない限り互いに組み合わせて本発明を構成することができる。
 本発明によれば、入力画像に鏡面反射光などによる高輝度領域を補正することができ、高輝度領域による悪影響を抑制した高精度な文字認識が可能となる。
第1の実施形態に係るナンバープレート認識システムの概要を示す図。 第1の実施形態における文字認識装置の構成を示すブロック図。 第1の実施形態における文字認識処理の流れを示すフローチャート。 第1の実施形態における前処理(高輝度画素の補正処理)の流れを示すフローチャート。 入力画像から得られる輝度のヒストグラムと、ヒストグラムから求められるピーク範囲を説明する図。 第1の実施形態におけるピーク範囲を求めるためのクラスタリング処理の流れを示すフローチャート。 第1の実施形態におけるピーク範囲を求めるためのクラスタリング処理を説明する図。 第1の実施形態による高輝度画素の補正処理の前後の画像を示す図。 第2の実施形態における前処理(高輝度画素の補正処理)の流れを示すフローチャート。 鏡面反射光による悪影響を説明する図。
 以下に図面を参照して、この発明を実施するための好ましい形態を例示的に詳しく説明する。ただし、以下の実施形態に記載されている構成部品の寸法、材質、形状、その相対配置などは、特に記載がない限りは、この発明の範囲をそれらのみに限定する趣旨のものではない。
 <第1の実施形態>
 図1は、本実施形態に係る車両のナンバープレート認識システムの概要を示す図である。ナンバープレート認識システムは、路側に立てられたポール上に設置され道路上の車両30を撮影するカメラ20と、カメラ20が撮影した画像からナンバープレートを抽出してナンバープレートに記載された文字を特定する文字認識装置(画像処理装置)10から構成される。
 図2(a)は、文字認識装置10のハードウェア構成を示す図である。文字認識装置10は、画像入力部11、演算装置12、記憶装置13、入力装置14、出力装置15、通信装置16を含む。画像入力部11は、カメラ20から画像データを受け取るインタフェースである。なお本実施形態ではカメラ20から直接画像データを受け取っているが、通信装置16を介して画像データを受け取ったり、記録媒体を経由して画像データを受け取ったりしてもよい。演算装置12は、汎用のプロセッサであり、記憶装置13に格納されたプログラムを実行して、後述する処理を実現する。記憶装置13は、主記憶装置および補助記憶装置を含み、演算装置12によって実行されるプログラムを格納するとともに、画像データやプログラム実行中の一時データを格納する。入力装置14は、キーボードやマウスなどからなりユーザが文字認識装置に指示を入力するための装置である。出力装置15は、表示装置やスピーカーなどからなり、文字認識装置がユーザに対する出力を行うための装置である。通信装置16は、文字認識装置10が外部のコンピュータと通信を行うための装置である。通信の形態は、有線であっても無線であってもよく、通信規格は任意であってよい。
 演算装置12は、プログラムを実行することにより、図2(b)に示すような機能を実現する。すなわち、演算装置12は、前処理部100、文字抽出部110、文字認識部120の機能部を実現する。前処理部100は、ヒストグラム生成部101、高輝度画素決定部102、変換部103、二値化部104から構成される。各部の処理内容については以下で説明する。
 図3は、文字認識装置10によって行われる文字認識処理の全体的な流れを示すフローチャートである。ステップS10で、文字認識装置10は画像入力部11を介してカメラ20から車両が写った画像データを取得する。文字認識装置10は、受け取った画像から車両のナンバープレートの領域を抽出して、その領域に対して以降の処理を実行する。ナンバープレートの抽出は、テンプレートマッチングなど既存の手法によって行えばよいので、その説明は省略する。
 ステップS11は、画像データが文字認識に適したものとなるように行う前処理であり前処理部100によって実行される。前処理には、画像の高輝度画素の輝度値補正処理、二値化処理、ノイズ除去処理などが含まれる。
 ステップS12では、文字抽出部110が、前処理後の画像から文字領域を抽出し、その中からさらに1文字ずつの文字領域を抽出する。ステップS13では、文字認識部120が、各文字領域から文字の特徴を抽出し、抽出された文字と辞書データ内の各文字との照合を行って抽出された文字の認識を行う。文字領域の切り出しや文字特徴量の取得や照合処理には、既存の任意の技術を適用可能である。例えば、文字の特徴を取得する手法として、画素特徴抽出法、輪郭特徴抽出法、勾配特徴抽出法などを用いることができる。また、文字認識の手法として、部分空間法、ニューラルネットワーク、サポートベクタマシン(SVM)、判別分析などの手法を用いることができる。
 以下、本発明における特徴的な処理である前処理における高輝度画素の輝度値(画素値)補正処理について説明する。図4は、前処理、特に高輝度画素の輝度値補正処理の流れを説明するフローチャートである。
 まず、ステップS20において、入力画像のグレースケール化が行われる。グレースケール画像の階調数は特に限定されず、例えば256階調とすることができる。ステップS21において、ヒストグラム生成部101が、グレースケールに変換した画像から輝度値のヒストグラムを生成する。本実施形態においてはヒストグラムのビン幅を1とするが、ビン幅は1より大きくしてもよい。図5(a)に生成したヒストグラムの一例を示す。なお図5(a)(b)における縦軸は出現割合(密度)を表す。
 ステップS22において、高輝度画素決定部102が、ヒストグラムを対象にクラスタリング処理を施す。このクラスタリング処理は、輝度値がピークを取る範囲を特定することを目的とし、1つのピーク範囲が1つのクラスタとして決定される。ピーク範囲以外の輝度値は、いずれのクラスタにも属さないものとして判定される。以下、ステップS22におけるクラスタリング処理をより詳細に説明する。
 図6は、ステップS22におけるクラスタリング処理の詳細な流れを示すフローチャートである。ステップS30において、ヒストグラムの各ビンごと(本実施形態では各輝度値ごとと同義)に、周辺のN輝度における輝度値の重心を計算する。Nは例えば10程度とする。輝度値Liにおける重心輝度GLiは、以下の式により計算できる。
 GLi=Σ(Lj×mj)/Σ(mj)
 ここで、シグマ(総和)は、jについてi-N/2からi+N/2の範囲での和を表す。mjはヒストグラムにおける輝度値Ljの度数を表す。
 ステップS31においては、各ビン(各輝度値)における重心輝度値GLiと輝度値Liの差がシフト量Siとして計算される。すなわち、
 Si=GLi-Li
 として、シフト量Siが決定される。
 ステップS32において、各ビン(各輝度値)におけるシフト量が、プラス(+)、マイナス(-)、ゼロ(0)の3値に量子化される。本実施形態では、シフト量Siが0.5以上であればプラスとし、-0.5以下であればマイナスとし、それ以外であればゼロとする。この量子化における閾値は、0.5以外の値を採用してもよい。また、量子化の閾値は、ヒストグラムのビン幅によって変更してもよく、例えば、ビン幅の半分としてもよい。
 図7(a)は、輝度値のヒストグラムから得られるシフト量と量子化シフト量の例を模式的に示した図である。図7(a)の上段には、処理対象となるヒストグラムの例が示されている。図7(a)の中段には、輝度値A,B,Cについて、重心輝度値を求めるための周辺輝度の範囲(矩形)と、重心輝度値(黒丸)が示されている。図の例では、輝度値Aにおける重心輝度値は輝度値Aよりも0.5以上大きく、輝度値Aにおける量子化シフト量がプラス(+)であることが示されている。同様に、輝度値Bにおける重心輝度値は輝度値Bとの差の絶対値が0.5より少なく、輝度値Bにおける量子化シフト量がゼロ(0)であることが示されている。また、輝度値Cにおける重心輝度値は輝度値Cよりも0.5以上小さく、輝度値Cにおける量子化シフト量がマイナス(-)であることが示されている。図では輝度値A,B,Cについてのみ重心輝度値を示しているが、全ての輝度値について同様の計算がされ、全ての輝度値について量子化シフト量が求められる。図7(a)の下段には量子化シフト量が示されている。なお、図において量子化シフト量がプラスとマイナスである部分のみを明示しており、プラスでもマイナスでもない部分は量子化シフト量がゼロである。
 図6のフローチャートの説明に戻る。ステップS33では、量子化シフト量の配列(量子化配列とも称する)において、2つ以上連続するプラス列およびマイナス列が抽出され、プラス列の始点からマイナス列の終点までの範囲が1つのクラスタとして決定される。図7(a)に示す量子化シフト量から得られるクラスタリングの結果を図7(b)に示す。図7(a)においては、プラス列とマイナス列がそれぞれ2つずつ存在し、プラス列とマイナス列のペアに対応して図7(b)に示すように2つのクラスタが決定される。
 ステップS34で、ステップS33において求められたクラスタのうち所定の基準を満たさないクラスタを除外する。基準の例として、クラスタの幅が所定の閾値以上であることや、クラスタ内の度数の合計(クラスタに所属する画素数)が所定の閾値以上であることなどを採用できる。幅を持たないクラスタを除去することは、例えば、飽和した画素をその他のピークと区別することができるので有効である。画像全体が明るい場合には最大輝度値(本実施形態では輝度値255)において幅のあるピークが検出され、鏡面反射光の影響などにより白飛びが発生した場合には最大輝度値において幅のないピークが検出される。クラスタの幅についての条件を課すことで、鏡面反射光の影響がある場合に補正対象の画素を適切に判定することが可能となる。
 以上により、図4のフローチャートに示すステップS22のクラスタリング処理が終了する。図5(a)に示すヒストグラムを対象としたクラスタリングの結果を、図5(b)に示す。図5(b)においては、3つのクラスタ51,52,53が得られている。
 ステップS23で、高輝度画素決定部102は、ステップS22で求められたクラスタのうち輝度値が最も大きいクラスタの輝度値の上限値(最大値)を閾値(基準値)Tとして決定する。この閾値Tは、画素が高輝度画素であるか否かの判定のために用いられ、より具体的には、閾値Tよりも大きい輝度値を有する画素が高輝度画素として決定される。図5(b)の例では、クラスタ53が最も輝度値の大きいクラスタであり、クラスタ53の輝度の上限値(この例では153)が閾値Tとして決定され、それに応じて高輝度画素が決定される。この他にも、上限値に所定の数値を加えて閾値Tとして決定する方法や、輝度値が最も大きいクラスタよりも輝度値の大きい領域に量子化シフト量がゼロの領域がある場合は、その領域の輝度値の上限値を閾値Tとして決定する方法を用いることで、処理範囲を限定して処理を高速にすることもできる。
 ステップS24で、変換部103が、閾値Tよりも大きい輝度値を有する画素(高輝度画素)の輝度値をTに設定する。これにより、画像中の高輝度画素の輝度値が全て最大クラスタの上限値(T)の値に変更される。図8(a)は補正前のグレースケール画像、図8(b)は補正後のグレースケール画像を示す。この図に示すように高輝度画素の輝度値を小さくする補正が施され、鏡面反射光による影響を除去できる。
 なお、図4のフローチャートでは高輝度画素の補正処理のみを示しているが、ノイズ除去処理や二値化処理や二値画像の細線化処理などその他の処理を行ってもよい。これらの処理は従来から行われている公知な処理であるため詳しい説明は省略するが、二値化処理について簡単に触れる。二値化処理として、局所領域内の輝度値に基づいて閾値を動的に決定する動的二値化を採用することができる。高輝度画素がなくなるように補正がなされているので、動的二値化処理によって鏡面反射光による悪影響を抑制して、適切な二値化が実現できる。
 本実施形態によれば、輝度値のヒストグラムに基づいて補正対象の高輝度画素が決定されるため、補正対象の輝度値範囲を固定で定めて補正するよりもより適切に鏡面反射光などの影響を抑制できる。また、鏡面反射光による影響を抑制できるため、文字認識処理の精度を向上させることが可能となる。
 <第2の実施形態>
 第2の実施形態は、第1の実施形態における補正処理において、変換部103が高輝度画素(補正対象画素)に代入する輝度値の決定方法が異なる。第1の実施形態では全ての高輝度画素を閾値Tで置き換えていたが、本実施形態では、補正対象画素の周囲に位置する画素の輝度値に基づいて補正後の輝度値を決定する。
 図9は本実施形態における前処理のうち高輝度画素の輝度値補正処理の流れを示すフローチャートである。ステップS20からS23の処理は第1の実施形態の処理(図4)と同様であるため説明は省略する。本実施形態では、変換部103が行う第1の実施形態におけるステップS24の処理が、ステップS41からS48の処理で置き換えられている。
 ステップS41で、閾値Tよりも大きい輝度値を有する画素(高輝度画素)にフラグが付与される。ステップS42で、フラグが付いた画素のラベリングが行われる。ステップS43で、ラベルの輪郭が抽出される。
 ステップS44からS47の処理は、輪郭上のそれぞれの画素について順次実施される。ステップS44で輪郭上の1画素が選択される。ここで選択された画素を画素Pと称する。なお、ステップS43で抽出された輪郭上の画素は全て同じ優先度を有し、どの画素から処理が行われてもよい。ステップS45で、画素Pの周辺画素からフラグの付いていない画素が抽出される。周辺画素とは、例えば、画素Pを中心とする3×3から7×7の範囲内の画素(画素Pを除く)であってもよいし、画素Pの4近傍画素などであってもよい。ステップS46で、ステップS47において抽出された画素の輝度値の平均値を算出し、この平均値を画素Pの輝度値として代入する。ステップS48で、画素Pからフラグを外して輪郭を更新する。ステップS48において、フラグ付きの画素が残っているかを判定して、残っている場合にはステップS44に戻って処理を繰り返す。なお、ステップS44における画素の選択においては、輪郭として抽出されたタイミングが早い画素ほど優先的に選択されるようにする。
 本実施形態によれば、周囲の画素の輝度値を用いて高輝度画素領域を滑らかに補間できる。したがって、補正後の画像において擬似輪郭が生じにくくなり、文字認識処理の精度を向上させることができる。
 <他の実施形態>
 上記の実施形態の説明は、本発明を例示的に説明するものに過ぎず、本発明は上記の具体的な形態には限定されない。本発明は、その技術的思想の範囲内で種々の変形が可能である。
 上記の説明では、車両のナンバープレートの認識を行うシステムを説明したが、このシステムは任意の文字認識システムに適用できる。本発明は、画像に拡散反射光だけでなく照明などの鏡面反射光が写り込む場合に好適に適用できる。例えば、アルミ缶やビニールなどの表面に記載された文字を認識するファクトリーオートメーション(FA)用の文字認識システムに適用できる。また、上記で説明した前処理は、文字認識処理の前処理として適用するだけでなく、その他の画像認識処理の前処理として適用することも好ましい。
 また上記の説明では、カメラによる画像の撮影、高輝度画素の補正処理、文字認識処理を行うシステムを説明したが、画像はカメラによる撮影以外の方法によって取得してもよい。例えば、データ通信や記録媒体を介して画像を取得して、取得した画像に対して補正処理および文字認識処理を行う文字認識装置として本発明を構成することができる。また、画像に対して補正処理のみを行う画像処理装置として本発明を構成することもできる。
 上記の説明では、ヒストグラムからピーク範囲を決定するためにクラスタリング処理を採用しているが、それ以外の手法によってピーク範囲を決定してもよい。例えば、画像全体の輝度値から度数の閾値を決定して、この閾値以上の度数を有する範囲をピーク範囲として決定することが考えられる。この際、このようにして決定されたピーク範囲の幅が所定値よりも小さかったり、ピーク範囲内の画素数が所定値よりも少なかったりした場合には、当該ピーク範囲をピーク範囲として扱わないようにすることも好ましい。また、この手法では、飽和領域がピーク範囲となる可能性があり、その際は、最も輝度値が大きいピーク範囲ではなく、2番目に輝度値が大きいピーク範囲に基づいて基準値を決定することも可能である。
 上記の説明では、汎用プロセッサがソフトウェアプログラムを実行することによって機能を提供する例を説明したが、専用のハードウェア回路を用いて上記の機能を提供しても構わない。
 本実施形態にかかる文字認識装置は、デスクトップ型コンピュータ、ノート型コンピュータ、スレート型コンピュータ、スマートフォン端末など任意の装置に実装することができる。また、上記で説明した文字認識装置の各機能は1つの装置によって実行される必要はなく、複数の装置がそれぞれの機能を分担して実行してもかまわない。
10:文字認識装置(画像処理装置)
100:前処理部  101:ヒストグラム生成部 102:高輝度が祖決定部
103:変換部   104:二値化部
110:文字抽出部 120:文字認識部
20:カメラ
 

Claims (10)

  1.  画像認識処理の前処理を入力画像に施す画像処理装置であって、
     入力画像の輝度値のヒストグラムを生成する生成手段と、
     前記ヒストグラムに基づいて輝度値の基準値を決定し、当該基準値よりも大きい輝度値を有する画素である高輝度画素を決定する決定手段と、
     前記高輝度画素の輝度値を、前記基準値以下の輝度値に変換する変換手段と、
     を備える、画像処理装置。
  2.  前記決定手段は、前記ヒストグラムに基づいて1つまたは複数の輝度値のピーク範囲を決定し、最も輝度値が大きいピーク範囲の上限値に基づいて前記基準値を決定する、
     請求項1に記載の画像処理装置。
  3.  前記決定手段は、前記ヒストグラムに基づいて1つまたは複数の輝度値のピーク範囲を決定し、2番目に輝度値が大きいピーク範囲の上限値に基づいて前記基準値を決定する、
     請求項1に記載の画像処理装置。
  4.  前記決定手段は、輝度値に対応する度数と当該輝度値近傍での度数の重心との差に基づいて、輝度値を複数の範囲にクラスタリングし、前記複数の範囲のうち、範囲の幅または範囲内の度数の合計が閾値以上である範囲を、前記ピーク範囲として決定する、
     請求項2または3に記載の画像処理装置。
  5.  前記変換手段は、前記高輝度画素の輝度値を、前記基準値に変換する、
     請求項1から4のいずれか1項に記載の画像処理装置。
  6.  前記変換手段は、前記高輝度画素の輝度値を、当該画素の周辺に位置する画素の輝度値に基づいて算出される輝度値に変換する、
     請求項1から4のいずれか1項に記載の画像処理装置。
  7.  請求項1から6のいずれか1項に記載の画像処理装置と、
     前記画像処理装置によって処理が施された画像に対して文字認識処理を行う認識手段と、
     を備える、文字認識装置。
  8.  前記入力画像はナンバープレートの少なくとも一部分を含み、前記認識手段は前記ナンバープレートに描かれている文字に対して文字認識処理を行うことを特徴とする、
     請求項7の文字認識装置。
  9.  画像処理装置によって実行される画像処理方法であって、
     入力画像の輝度値のヒストグラムを生成する生成ステップと、
     前記ヒストグラムに基づいて輝度値の基準値を決定し、当該基準値よりも大きい輝度値を有する画素である高輝度画素を決定する決定ステップと、
     前記高輝度画素の輝度値を、前記基準値以下の輝度値に変換する変換ステップと、
     を含む、画像処理方法。
  10.  請求項9に記載の方法の各ステップをコンピュータに実行させるためのプログラム。
     
PCT/JP2015/080822 2014-10-31 2015-10-30 画像処理装置、文字認識装置、画像処理方法、およびプログラム WO2016068326A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201580039317.9A CN106537416B (zh) 2014-10-31 2015-10-30 图像处理装置、文字识别装置、图像处理方法及存储介质
EP15855574.8A EP3214579B1 (en) 2014-10-31 2015-10-30 Image processing device, character recognition device, image processing method, and program
US15/327,379 US20170200057A1 (en) 2014-10-31 2015-10-30 Image processing device, character recognition device, image processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-223028 2014-10-31
JP2014223028A JP6550723B2 (ja) 2014-10-31 2014-10-31 画像処理装置、文字認識装置、画像処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
WO2016068326A1 true WO2016068326A1 (ja) 2016-05-06

Family

ID=55857659

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/080822 WO2016068326A1 (ja) 2014-10-31 2015-10-30 画像処理装置、文字認識装置、画像処理方法、およびプログラム

Country Status (5)

Country Link
US (1) US20170200057A1 (ja)
EP (1) EP3214579B1 (ja)
JP (1) JP6550723B2 (ja)
CN (1) CN106537416B (ja)
WO (1) WO2016068326A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108320272A (zh) * 2018-02-05 2018-07-24 电子科技大学 图像去光的方法

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112055130B (zh) 2015-01-08 2023-03-17 索尼半导体解决方案公司 图像处理装置、成像装置和图像处理方法
JP6696800B2 (ja) * 2016-03-07 2020-05-20 パナソニック株式会社 画像評価方法、画像評価プログラム、及び画像評価装置
JP7039219B2 (ja) * 2017-09-06 2022-03-22 キヤノン株式会社 情報処理装置、画像処理方法、プログラム
JP2020067669A (ja) * 2018-10-19 2020-04-30 株式会社ファブリカコミュニケーションズ 情報処理装置及びプログラム
CN110334493B (zh) * 2019-05-14 2022-05-06 惠州Tcl移动通信有限公司 一种解锁方法、移动终端以及具有存储功能的装置
US11114060B2 (en) * 2019-08-08 2021-09-07 Adlink Technology Inc. Cursor image detection comparison and feedback status determination method
CN110991265B (zh) * 2019-11-13 2022-03-04 四川大学 一种火车票图像的版面提取方法
CN111464745B (zh) * 2020-04-14 2022-08-19 维沃移动通信有限公司 一种图像处理方法及电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003204459A (ja) * 2001-10-23 2003-07-18 Konica Corp デジタルカメラ、及び画像再生装置
JP2014164528A (ja) * 2013-02-25 2014-09-08 Mitsubishi Heavy Ind Ltd 文字認識装置、文字認識方法及びプログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5305204A (en) * 1989-07-19 1994-04-19 Kabushiki Kaisha Toshiba Digital image display apparatus with automatic window level and window width adjustment
US6269186B1 (en) * 1996-12-20 2001-07-31 Canon Kabushiki Kaisha Image processing apparatus and method
US6694051B1 (en) * 1998-06-24 2004-02-17 Canon Kabushiki Kaisha Image processing method, image processing apparatus and recording medium
US7058220B2 (en) * 2002-04-29 2006-06-06 Hewlett-Packard Development Company, L.P. Method and system for processing images using histograms
JP4167097B2 (ja) * 2003-03-17 2008-10-15 株式会社沖データ 画像処理方法および画像処理装置
US8320702B2 (en) * 2006-09-28 2012-11-27 Jadak Technologies, Inc. System and method for reducing specular reflection
CN101327126A (zh) * 2008-07-23 2008-12-24 天津大学 人体赤足迹形态学特征提取方法
CN101350933B (zh) * 2008-09-02 2011-09-14 广东威创视讯科技股份有限公司 一种基于图像感应器拍摄显示屏幕的亮度调整方法
JP2010193195A (ja) * 2009-02-18 2010-09-02 Toshiba Corp 周波数誤差検出回路及び周波数誤差検出方法
WO2010141337A2 (en) * 2009-06-03 2010-12-09 Kla-Tencor Corporation Adaptive signature detection
JP4795473B2 (ja) * 2009-06-29 2011-10-19 キヤノン株式会社 画像処理装置及びその制御方法
JP2011166522A (ja) * 2010-02-10 2011-08-25 Sony Corp 画像処理装置、画像処理方法及びプログラム
JP2012014628A (ja) * 2010-07-05 2012-01-19 Mitsubishi Electric Corp 画像表示装置
JP5701182B2 (ja) * 2011-08-18 2015-04-15 株式会社Pfu 画像処理装置、画像処理方法及びコンピュータプログラム
CN102710570B (zh) * 2012-04-19 2015-04-08 华为技术有限公司 调制方式检测方法及终端
CN103426155A (zh) * 2012-05-16 2013-12-04 深圳市蓝韵实业有限公司 基于求直方图变化率的直方图分界方法
JP6210266B2 (ja) * 2013-03-13 2017-10-11 セイコーエプソン株式会社 カメラ、及び画像処理方法
CN103295194B (zh) * 2013-05-15 2015-11-04 中山大学 亮度可控与细节保持的色调映射方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003204459A (ja) * 2001-10-23 2003-07-18 Konica Corp デジタルカメラ、及び画像再生装置
JP2014164528A (ja) * 2013-02-25 2014-09-08 Mitsubishi Heavy Ind Ltd 文字認識装置、文字認識方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3214579A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108320272A (zh) * 2018-02-05 2018-07-24 电子科技大学 图像去光的方法

Also Published As

Publication number Publication date
CN106537416B (zh) 2020-08-28
JP2016091189A (ja) 2016-05-23
JP6550723B2 (ja) 2019-07-31
EP3214579B1 (en) 2022-11-16
US20170200057A1 (en) 2017-07-13
EP3214579A1 (en) 2017-09-06
CN106537416A (zh) 2017-03-22
EP3214579A4 (en) 2018-06-20

Similar Documents

Publication Publication Date Title
JP6550723B2 (ja) 画像処理装置、文字認識装置、画像処理方法、およびプログラム
JP4952625B2 (ja) 透視変換歪み発生文書画像補正装置および方法
JP5047005B2 (ja) 画像処理方法、パターン検出方法、パターン認識方法及び画像処理装置
JP2013200872A (ja) 連続して存在する英数字を識別するための画像処理システムおよびその方法
JP2012094052A (ja) 指紋認証装置及び指紋認証用プログラム
CN103530625A (zh) 一种基于数字图像处理的光学字符识别方法
CN112101386A (zh) 文本检测方法、装置、计算机设备和存储介质
CN112419207A (zh) 一种图像矫正方法及装置、系统
JP5772675B2 (ja) 濃淡画像のエッジ抽出方法、エッジ抽出装置並びに濃淡画像のエッジ抽出プログラム
CN112419275B (zh) 图像质量确定方法、装置及系统
CN111445402B (zh) 一种图像去噪方法及装置
CN114550173A (zh) 图像预处理方法、装置、电子设备以及可读存储介质
CN111695550B (zh) 一种文字提取方法、图像处理设备和计算机可读存储介质
JP2008011135A (ja) 画像処理装置および画像処理プログラム
KR20150099116A (ko) Ocr를 이용한 컬러 문자 인식 방법 및 그 장치
JP5051671B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP5264956B2 (ja) 2次元コード読取装置及びその方法
CN114267035A (zh) 一种文档图像处理方法、系统、电子设备及可读介质
CN113076952A (zh) 一种文本自动识别和增强的方法及装置
KR101853468B1 (ko) 모바일 gpu 환경에서 차 영상을 이용한 surf 알고리즘 계산 감소 방법
US9940698B1 (en) Cleaning writing boards based on strokes
JP2015036929A (ja) 画像特徴抽出装置、画像特徴抽出方法、画像特徴抽出プログラム及び画像処理システム
CN110189272B (zh) 用于处理图像的方法、装置、设备和存储介质
Mishra et al. Face detection for video summary using enhancement based fusion strategy
KR20170037274A (ko) 조명 보정에 기반한 강인한 얼굴 인식 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15855574

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2015855574

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 15327379

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE