JP2016201084A - Image processor and computer readable storage medium - Google Patents

Image processor and computer readable storage medium Download PDF

Info

Publication number
JP2016201084A
JP2016201084A JP2015124950A JP2015124950A JP2016201084A JP 2016201084 A JP2016201084 A JP 2016201084A JP 2015124950 A JP2015124950 A JP 2015124950A JP 2015124950 A JP2015124950 A JP 2015124950A JP 2016201084 A JP2016201084 A JP 2016201084A
Authority
JP
Japan
Prior art keywords
image
unit
act
ser
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015124950A
Other languages
Japanese (ja)
Other versions
JP6313725B2 (en
Inventor
徳政 有賀
Norimasa Ariga
徳政 有賀
平 和樹
Kazuki Taira
和樹 平
壮 石過
Takeshi Ishika
壮 石過
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba TEC Corp
Original Assignee
Toshiba TEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba TEC Corp filed Critical Toshiba TEC Corp
Publication of JP2016201084A publication Critical patent/JP2016201084A/en
Application granted granted Critical
Publication of JP6313725B2 publication Critical patent/JP6313725B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/12Detection or correction of errors, e.g. by rescanning the pattern
    • G06V30/133Evaluation of quality of the acquired characters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/634Warning indications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Mechanical Engineering (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processor capable of quantitatively determining the clearness in a binary image area and a computer readable storage medium.SOLUTION: An image processor in an embodiment includes: a calculation unit; a comparison determination unit; and an output unit. The calculation unit calculates a standard deviation and an entropy based on a piece of tone information of a pixel constituting an image and calculates the ratio between the standard deviation and the entropy. The comparison determination unit compares the ratio and the reference value. The output unit outputs a comparison result by the comparison determination unit.SELECTED DRAWING: Figure 8

Description

本発明の実施形態は、画像処理装置及びコンピュータ可読記憶媒体に関する。   Embodiments described herein relate generally to an image processing apparatus and a computer-readable storage medium.

倉庫や店舗の管理者は、棚に載せられた多くの物品を管理している。このような管理は、物品を撮影し、画像に写る物品に貼られたラベルに記載されている文字列を識別する装置によって行われている。画像における文字列部分は2値画像領域である。画像の2値画像領域は、装置が文字列を識別できる程度に鮮明でなければならない。そのため、2値画像領域の鮮明度を定量的に判定可能な技術が望まれている。   Warehouse and store managers manage many items on the shelves. Such management is performed by a device that takes a picture of an article and identifies a character string described on a label attached to the article shown in the image. The character string portion in the image is a binary image area. The binary image area of the image must be clear enough for the device to identify the character string. Therefore, a technique capable of quantitatively determining the sharpness of the binary image region is desired.

特許第4412214号公報Japanese Patent No. 4412214

本発明の実施形態が解決しようとする課題は、2値画像領域の鮮明度を定量的に判定可能な画像処理装置及びコンピュータ可読記憶媒体を提供することにある。   The problem to be solved by the embodiments of the present invention is to provide an image processing apparatus and a computer-readable storage medium capable of quantitatively determining the sharpness of a binary image area.

実施形態によれば、画像処理装置は、演算部と、比較判定部と、出力部を備える。前記演算部は、画像を構成する画素の階調情報に基づいて標準偏差及びエントロピーを計算し、前記標準偏差と前記エントロピーとの比を計算する。前記比較判定部は、前記比と基準値とを比較する。前記出力部は、前記比較判定部による比較結果を出力する。   According to the embodiment, the image processing apparatus includes a calculation unit, a comparison determination unit, and an output unit. The arithmetic unit calculates a standard deviation and entropy based on gradation information of pixels constituting the image, and calculates a ratio between the standard deviation and the entropy. The comparison determination unit compares the ratio with a reference value. The output unit outputs a comparison result by the comparison determination unit.

第1の実施形態に係る一例となる画像処理装置のブロック図。1 is a block diagram of an example image processing apparatus according to a first embodiment. FIG. 第1の実施形態に係る一例となる画像処理装置の移動方向を説明する図。FIG. 3 is a diagram illustrating a moving direction of an image processing apparatus as an example according to the first embodiment. 第1の実施形態に係る鮮明度判定に用いられる一例となる指標を説明するための図。The figure for demonstrating the parameter | index used as an example used for the sharpness determination which concerns on 1st Embodiment. 第1の実施形態に係る画像処理装置により算出されるSERの値を示す図。The figure which shows the value of SER calculated by the image processing apparatus which concerns on 1st Embodiment. 第1の実施形態に係る画像処理装置による一例となる処理のフローチャート。6 is a flowchart of an example process performed by the image processing apparatus according to the first embodiment. 第1の実施形態に係る画像処理装置による他の例となる処理のフローチャート。9 is a flowchart of another example process performed by the image processing apparatus according to the first embodiment. 比較例となる画像を示す図。The figure which shows the image used as a comparative example. 第2の実施形態に係る画像処理装置よる鮮明度判定の手法を説明する図。FIG. 6 is a diagram for explaining a sharpness determination method by an image processing apparatus according to a second embodiment. 第2の実施形態に係る画像処理装置による一例となる処理のフローチャート。10 is a flowchart of an example process performed by the image processing apparatus according to the second embodiment. 第2の実施形態に係る画像処理装置による他の例となる処理のフローチャート。10 is a flowchart of another example process performed by the image processing apparatus according to the second embodiment. 第3の実施形態に係る一例となる画像処理装置のブロック図。FIG. 10 is a block diagram of an image processing apparatus as an example according to a third embodiment.

以下、いくつかの実施の形態について、図面を参照して説明する。
(第1の実施形態)
第1の実施形態について説明する。図1は、第1の実施形態に係る一例となる画像処理装置10のブロック図である。
画像処理装置10は、倉庫や店舗の棚20に載せられた複数の物品の在庫管理等に用いられる。画像処理装置10は、移動体11と、制御部12と、撮影部13と、処理部14と、記憶部15と、表示部16と、音声出力部17を備える。なお、画像処理装置10は、これら全ての要素を必ず備えている必要はない。例えば、画像処理装置10は、少なくとも処理部14及び記憶部15を備える装置であってもよい。
Several embodiments will be described below with reference to the drawings.
(First embodiment)
A first embodiment will be described. FIG. 1 is a block diagram of an image processing apparatus 10 as an example according to the first embodiment.
The image processing apparatus 10 is used for inventory management of a plurality of articles placed on a shelf 20 in a warehouse or store. The image processing apparatus 10 includes a moving body 11, a control unit 12, a photographing unit 13, a processing unit 14, a storage unit 15, a display unit 16, and an audio output unit 17. Note that the image processing apparatus 10 does not necessarily include all these elements. For example, the image processing apparatus 10 may be an apparatus including at least the processing unit 14 and the storage unit 15.

移動体11は、画像処理装置10を何れの方向にも移動可能な台車である。移動体11は、直線状に並べられた棚20の延在方向と平行な方向に走行することもできるし、棚20の延在方向と直交する方向に走行することもできる。   The moving body 11 is a cart that can move the image processing apparatus 10 in any direction. The movable body 11 can travel in a direction parallel to the extending direction of the shelves 20 arranged in a straight line, or can travel in a direction orthogonal to the extending direction of the shelves 20.

制御部12は、処理部14からの信号に基づいて移動体11の動作を制御する。制御部12は、移動体11の走行方向や、走行の開始及び停止を制御する。移動体11の動作は、処理部14で判断されても、制御部12で判断されてもよい。   The control unit 12 controls the operation of the moving body 11 based on the signal from the processing unit 14. The control unit 12 controls the traveling direction of the moving body 11 and the start and stop of traveling. The operation of the moving body 11 may be determined by the processing unit 14 or the control unit 12.

撮影部13は、レンズ131を備え、画像を撮影するカメラである。撮影部13は、動画像を撮影するカメラであっても、静止画像を撮影するカメラであってもよい。撮影部13は、撮影した画像のデータを処理部14へ送る。   The photographing unit 13 is a camera that includes a lens 131 and photographs an image. The imaging unit 13 may be a camera that captures moving images or a camera that captures still images. The imaging unit 13 sends the captured image data to the processing unit 14.

処理部14は、画像処理装置10の中枢部分に相当する。処理部14は、オペレーティングシステムやアプリケーションプログラムに従って、画像処理装置10の各要素を制御する。処理部14は、演算部141と、比較判定部142を備える。処理部14は、演算部141及び比較判定部142により、撮影部13が撮影した1画像中に含まれる2値画像領域の鮮明度を定量的に判定する。2値画像領域は、例えば、画像における文字や記号などが写る領域である。2値画像領域の鮮明度とは、2値画像領域の認識のし易さ、または、2値画像領域における焦点ぼけの度合いに対応する。この1画像中に含まれる2値画像領域の鮮明度の定量的な判定(以下、鮮明度判定という)の手法については、後述する。   The processing unit 14 corresponds to a central part of the image processing apparatus 10. The processing unit 14 controls each element of the image processing apparatus 10 according to an operating system and application programs. The processing unit 14 includes a calculation unit 141 and a comparison determination unit 142. The processing unit 14 quantitatively determines the sharpness of the binary image region included in one image captured by the imaging unit 13 by the calculation unit 141 and the comparison determination unit 142. The binary image area is an area where, for example, characters and symbols in the image are captured. The sharpness of the binary image area corresponds to the ease of recognizing the binary image area or the degree of defocus in the binary image area. A technique for quantitatively determining the sharpness of the binary image area included in one image (hereinafter referred to as “sharpness determination”) will be described later.

処理部14は、移動体11の動作の指示を制御部12へ送る。なお、処理部14は、処理部14による鮮明度判定の結果自体を制御部12へ送ってもよい。この場合、制御部12は、鮮明度判定に基づいて移動体11の動作を決定する。   The processing unit 14 sends an operation instruction of the moving body 11 to the control unit 12. The processing unit 14 may send the result of the sharpness determination by the processing unit 14 to the control unit 12. In this case, the control unit 12 determines the operation of the moving body 11 based on the sharpness determination.

処理部14は、表示部16での表示に関する信号を表示部16へ送る。処理部14は、音声出力部17での音声出力に関する信号を音声出力部17へ送る。   The processing unit 14 sends a signal related to display on the display unit 16 to the display unit 16. The processing unit 14 sends a signal related to the audio output from the audio output unit 17 to the audio output unit 17.

記憶部15は、上記オペレーティングシステムやアプリケーションプログラムを記憶するメモリを含む。さらに、記憶部15は、処理部14による処理に必要なワークエリアとなるメモリを含む。さらに、記憶部15は、処理部14による処理に必要なデータを記憶するメモリを含む。記憶部15は、複数の基準値151を記憶している。複数の基準値151は、鮮明度判定のための閾値である。   The storage unit 15 includes a memory that stores the operating system and application programs. Furthermore, the storage unit 15 includes a memory serving as a work area necessary for processing by the processing unit 14. Furthermore, the storage unit 15 includes a memory that stores data necessary for processing by the processing unit 14. The storage unit 15 stores a plurality of reference values 151. The plurality of reference values 151 are threshold values for determining the sharpness.

表示部16は、処理部14からの信号に基づいて映像を表示するディスプレイである。音声出力部17は、処理部14からの信号に基づいて音声を出力するスピーカである。表示部16及び音声出力部17は、出力部である。   The display unit 16 is a display that displays an image based on a signal from the processing unit 14. The audio output unit 17 is a speaker that outputs audio based on a signal from the processing unit 14. The display unit 16 and the audio output unit 17 are output units.

図2は、第1の実施形態に係る画像処理装置10の走行方向を説明する図である。図2の左図と図2の右図とは、互いに直交した方向から見た図である。図2の左図を参照すると、画像処理装置10は、移動体11の走行によって棚20の延在方向と平行に移動する。したがって、撮影部13は、棚20の延在方向と平行に移動しながら、棚20に載せられた複数の物品に貼られているそれぞれのラベルを順次撮影することができる。   FIG. 2 is a diagram illustrating the traveling direction of the image processing apparatus 10 according to the first embodiment. The left view of FIG. 2 and the right view of FIG. 2 are views seen from directions orthogonal to each other. Referring to the left diagram of FIG. 2, the image processing apparatus 10 moves in parallel with the extending direction of the shelf 20 as the mobile body 11 travels. Therefore, the photographing unit 13 can sequentially photograph each label attached to a plurality of articles placed on the shelf 20 while moving in parallel with the extending direction of the shelf 20.

図2の右図を参照すると、画像処理装置10は、棚20の延在方向と平行な方向への移動を停止し、移動体11の走行によって棚20の延在方向と直交する方向へ移動する。画像処理装置10が棚20の延在方向と直交する方向へ移動するのは、撮影部13と撮影対象(棚20、より具体的には、棚20に載っている物品)との距離を適切に保つためである。なお、撮影部13と撮影対象との距離は、移動体11と棚20との距離と言い換えられる。したがって、画像処理装置10は、撮影部13が順次撮影する各画像に含まれる2値画像領域の鮮明度を保つことができる。   2, the image processing apparatus 10 stops moving in a direction parallel to the extending direction of the shelf 20 and moves in a direction orthogonal to the extending direction of the shelf 20 by the traveling of the moving body 11. To do. The image processing apparatus 10 moves in the direction orthogonal to the extending direction of the shelf 20 because the distance between the imaging unit 13 and the imaging target (the shelf 20, more specifically, the article placed on the shelf 20) is appropriate. This is to keep it in good condition. In addition, the distance between the imaging unit 13 and the imaging target is paraphrased as the distance between the moving body 11 and the shelf 20. Therefore, the image processing apparatus 10 can maintain the sharpness of the binary image area included in each image that the imaging unit 13 sequentially captures.

次に、鮮明度判定に用いられる指標について説明する。図3は、第1の実施形態に係る鮮明度判定に用いられる一例となる指標を説明するための図である。図3は、異なる3つの2値画像に関するデータを示す。3つの画像は、それぞれの画像全体が2値画像領域である。図3において「1」で示すデータは、焦点が合っている第1の画像に対応している。第1の画像は、鮮明な画像である。図3において「2」で示すデータは、第1の画像よりも焦点が少しぼけた第2の画像に対応している。第2の画像は、第1の画像よりも不鮮明な画像である。図3において「3」で示すデータは、第2の画像よりもさらに焦点がぼけた第3の画像に対応している。第3の画像は、第2の画像よりもさらに不鮮明な画像である。   Next, an index used for sharpness determination will be described. FIG. 3 is a diagram for explaining an example index used for the sharpness determination according to the first embodiment. FIG. 3 shows data relating to three different binary images. Each of the three images is a binary image region. The data indicated by “1” in FIG. 3 corresponds to the first image in focus. The first image is a clear image. The data indicated by “2” in FIG. 3 corresponds to the second image that is slightly out of focus than the first image. The second image is an image that is unclearer than the first image. Data corresponding to “3” in FIG. 3 corresponds to a third image that is further out of focus than the second image. The third image is an image that is further blurred than the second image.

図3の左図は、第1の画像、第2の画像及び第3の画像それぞれの任意の1ラインのデータを入力関数として表したグラフである。横軸は1画像の任意の1ラインに含まれる各画素の座標を示し、縦軸は階調(画素値)を示す。処理部14は、鮮明度判定の対象となる1画像のデータから入力関数を生成する。なお、任意の1ラインは、1画像全体の横軸に対応していても、縦軸に対応していてもよい。   The left diagram of FIG. 3 is a graph representing data of an arbitrary one line of each of the first image, the second image, and the third image as an input function. The horizontal axis indicates the coordinates of each pixel included in one arbitrary line of one image, and the vertical axis indicates the gradation (pixel value). The processing unit 14 generates an input function from data of one image that is a target of sharpness determination. Note that one arbitrary line may correspond to the horizontal axis of the entire image or may correspond to the vertical axis.

図3の中央図は、第1の画像、第2の画像及び第3の画像それぞれのヒストグラムを表したグラフである。横軸は階調を示し、縦軸は画素数を示す。ヒストグラムは、鮮明度判定の対象となる1画像の任意の1ラインに含まれる画素の分布であり、画像を構成する画素の階調情報である。処理部14は、入力関数からヒストグラムを生成する。ヒストグラムの2つのピークは、2値画像が鮮明になるほど鋭くなる。さらに、ヒストグラムの2つのピークの位置は、2値画像が鮮明になるほど離れる。   The central view of FIG. 3 is a graph representing the histograms of the first image, the second image, and the third image. The horizontal axis indicates gradation and the vertical axis indicates the number of pixels. The histogram is a distribution of pixels included in an arbitrary line of one image that is a target of sharpness determination, and is gradation information of pixels that form the image. The processing unit 14 generates a histogram from the input function. The two peaks of the histogram become sharper as the binary image becomes sharper. Further, the positions of the two peaks of the histogram are separated as the binary image becomes clearer.

図3の右図は、第1の画像、第2の画像及び第3の画像それぞれにおける標準偏差σとエントロピーSとの比(σ/S)(以下、SERという)を表したグラフである。処理部14は、以下に示す計算式を用いてヒストグラムに基づいて標準偏差σ及びエントロピーSを計算する。その後、処理部14は、標準偏差σ及びエントロピーSに基づいてSERを計算する。   The right diagram of FIG. 3 is a graph showing the ratio (σ / S) (hereinafter referred to as SER) of the standard deviation σ and entropy S in each of the first image, the second image, and the third image. The processing unit 14 calculates the standard deviation σ and the entropy S based on the histogram using the following calculation formula. Thereafter, the processing unit 14 calculates the SER based on the standard deviation σ and the entropy S.

標準偏差σの計算式は、以下とおりである。
ここで、
エントロピーSの計算式は、以下のとおりである。
ここで、niはヒストグラムにおける階調iの画素数、nはヒストグラムにおける全画素数である。
The formula for calculating the standard deviation σ is as follows.
here,
The formula for entropy S is as follows.
Here, n i is the number of pixels of gradation i in the histogram, and n is the total number of pixels in the histogram.

標準偏差σは、ヒストグラムにおける少なくとも2つのピークの分離度を表す指標である。エントロピーSは、ヒストグラムにおけるピークの鋭さを表す指標である。SERは、2値画像領域の鮮明度を定量的に表す指標である。標準偏差σは、ヒストグラムの2つのピークが離れるほど大きくなる。エントロピーSは、ヒストグラムの2つのピークが鋭くなるほど小さくなる。標準偏差σが大きく、エントロピーSが小さければ、SERの値は大きい。   The standard deviation σ is an index representing the degree of separation of at least two peaks in the histogram. Entropy S is an index representing the sharpness of a peak in a histogram. SER is an index that quantitatively represents the sharpness of the binary image region. The standard deviation σ increases as the two peaks of the histogram move away. Entropy S decreases as the two peaks of the histogram become sharper. If the standard deviation σ is large and the entropy S is small, the value of SER is large.

図3の右図を参照すると、SERは、第3の画像、第2の画像、第1の画像の順で大きい。この順序は、焦点ぼけの度合いが軽減される画像の順序と一致している。SERが大きければ、2値画像領域は鮮明であるといえる。したがって、SERは、2値画像領域の鮮明度を定量的に表す指標として有効である。   Referring to the right diagram of FIG. 3, the SER is larger in the order of the third image, the second image, and the first image. This order matches the order of images in which the degree of defocus is reduced. If the SER is large, it can be said that the binary image region is clear. Therefore, SER is effective as an index that quantitatively represents the sharpness of the binary image region.

なお、SERは、ヒストグラムにおける少なくとも2つのピークの分離度を表す指標(一例が標準偏差σ)と、ヒストグラムにおけるピークの鋭さを表す指標(一例がエントロピーS)との比であればよい。そのため、処理部14は、標準偏差σやエントロピーS以外の指標を用いてSERを計算してもよい。例えば、標準偏差σの大きさは、画像全体の明るさによって変わる。そのため、処理部14は、標準偏差σの代わりに標準偏差σを平均値mで割った変動係数を用いてSERを計算することが好ましい。処理部14は、標準偏差σの代わりに標準偏差σの2乗である分散を用いてSERを計算してもよい。処理部14は、エントロピーSを計算する際に各階調の画素数niを全画素数nで割っているが、各階調の画素数niを全画素数nで割らなくてもよい。   The SER may be a ratio of an index (an example is standard deviation σ) indicating the degree of separation of at least two peaks in the histogram and an index (an example is entropy S) indicating the sharpness of the peak in the histogram. Therefore, the processing unit 14 may calculate the SER using an index other than the standard deviation σ and the entropy S. For example, the standard deviation σ varies depending on the brightness of the entire image. Therefore, it is preferable that the processing unit 14 calculates the SER using a variation coefficient obtained by dividing the standard deviation σ by the average value m instead of the standard deviation σ. The processing unit 14 may calculate the SER using a variance that is the square of the standard deviation σ instead of the standard deviation σ. When calculating the entropy S, the processing unit 14 divides the number of pixels ni of each gradation by the total number of pixels n, but the number of pixels ni of each gradation may not be divided by the total number of pixels n.

なお、SERは、1画像の任意の1ラインに基づいて算出される値に限られるものではない。例えば、SERは、1画像の任意の複数ラインまたは全ラインから算出される複数のSERの平均値であってもよい。   The SER is not limited to a value calculated based on any one line of one image. For example, the SER may be an average value of a plurality of SERs calculated from an arbitrary plurality of lines or all lines of one image.

次に、異なる画像におけるSERの違いについて説明する。図4は、第1の実施形態に係る処理部14によって計算されるSERを示す図である。図4は、同一の文字列ABCDが写る異なる3つの画像、それぞれのヒストグラム及びそれぞれのSERを示す。   Next, the difference in SER between different images will be described. FIG. 4 is a diagram illustrating the SER calculated by the processing unit 14 according to the first embodiment. FIG. 4 shows three different images showing the same character string ABCD, respective histograms, and respective SERs.

図4の左図は、焦点が合っている第4の画像を示す。第4の画像は、鮮明な2値画像である。第4の画像は、全体が2値画像領域である。図4の中央図は、第4の画像よりも焦点がぼけた第5の画像を示す。第5の画像は、第4の画像よりも不鮮明な2値画像である。第5の画像は、全体が2値画像領域である。図4の右図は、第4の画像よりも焦点がぼけているが、第5の画像よりも焦点が合っている第6の画像を示す。第6の画像は、第4の画像よりも不鮮明であるが、第5の画像よりも鮮明な画像である。ただし、第6の画像は、全体にわたって第4の画像よりもコントラストの小さい画像である。   The left diagram of FIG. 4 shows a fourth image that is in focus. The fourth image is a clear binary image. The entire fourth image is a binary image region. The central view of FIG. 4 shows a fifth image that is more out of focus than the fourth image. The fifth image is a binary image that is less sharp than the fourth image. The entire fifth image is a binary image region. The right view of FIG. 4 shows a sixth image that is more in focus than the fourth image but is more in focus than the fifth image. The sixth image is clearer than the fourth image, but is clearer than the fifth image. However, the sixth image is an image having a smaller contrast than the fourth image throughout.

処理部14は、図3を用いて上述したように、第4の画像、第5の画像及び第6の画像それぞれの標準偏差σ、エントロピーS及びSERを計算することができる。   As described above with reference to FIG. 3, the processing unit 14 can calculate the standard deviation σ, entropy S, and SER of the fourth image, the fifth image, and the sixth image, respectively.

図4の左図に示すように、第4の画像の標準偏差σは82、エントロピーSは0.6、SERは68である。図4の中央図に示すように、第5の画像の標準偏差σは71、エントロピーSは1.1、SERは31である。図4の右図に示すように、第6の画像の標準偏差σは31、エントロピーSは0.5、SERは29である。   As shown in the left diagram of FIG. 4, the standard deviation σ of the fourth image is 82, the entropy S is 0.6, and the SER is 68. As shown in the center diagram of FIG. 4, the standard deviation σ of the fifth image is 71, the entropy S is 1.1, and the SER is 31. As shown in the right diagram of FIG. 4, the standard deviation σ of the sixth image is 31, the entropy S is 0.5, and the SER is 29.

第4の画像のSERは、第5の画像のSERの2倍以上である。これは、2つの画像のエントロピーSの差が効いているからである。一方、第6の画像のSERは、第4の画像のSERの約1/2である。これは、2つの画像の標準偏差σの差が効いているからである。   The SER of the fourth image is more than twice the SER of the fifth image. This is because the difference in entropy S between the two images is effective. On the other hand, the SER of the sixth image is about ½ of the SER of the fourth image. This is because the difference between the standard deviations σ of the two images is effective.

処理部14は、SERと基準値とを比較することで、画像に含まれる2値画像領域が鮮明か否かを判定することができる。SERが基準値よりも大きければ、処理部14は、2値画像領域は鮮明であると判断する。一方、SERが基準値よりも大きくなければ、処理部14は、2値画像領域は鮮明ではない、または、画像自体のコントラストが小さいと判断する。このように、SERは、2値画像領域の鮮明度の状態を評価できる指標であるだけではなく、画像自体のコントラストの状態も同時に評価できる指標である。したがって、SERは、2値画像領域の鮮明度を定量的に表す指標として有効である。   The processing unit 14 can determine whether or not the binary image area included in the image is clear by comparing the SER and the reference value. If the SER is larger than the reference value, the processing unit 14 determines that the binary image area is clear. On the other hand, if the SER is not larger than the reference value, the processing unit 14 determines that the binary image area is not clear or the contrast of the image itself is small. Thus, SER is not only an index that can evaluate the sharpness state of the binary image area, but also an index that can simultaneously evaluate the contrast state of the image itself. Therefore, SER is effective as an index that quantitatively represents the sharpness of the binary image region.

次に、画像処理装置10による処理の一例を説明する。図5は、第1の実施形態に係る画像処理装置10による一例となる処理のフローチャートである。   Next, an example of processing by the image processing apparatus 10 will be described. FIG. 5 is a flowchart of an example process performed by the image processing apparatus 10 according to the first embodiment.

移動体11は、制御部12による制御に基づいて走行を開始する(Act1001)。移動体11は、棚20の延在方向と平行な方向に沿って走行する。撮影部13は、棚20に置かれている物品(撮影対象)を移動しながら撮影する(Act1002)。処理部14は、撮影部13が撮影した画像を取り込む(Act1003)。Act1003において撮影部13から処理部14へ取り込まれた画像は、鮮明度判定の対象となる画像である。処理部14は、鮮明度判定の対象となる画像のエントロピーに基づいて標準偏差σ及びエントロピーSを計算し、標準偏差σ及びエントロピーSに基づいてSERを計算する(Act1004)。Act1004は、例えば処理部14内の演算部141によって行われる。   The moving body 11 starts traveling based on the control by the control unit 12 (Act 1001). The moving body 11 travels along a direction parallel to the extending direction of the shelf 20. The imaging unit 13 captures an image while moving an article (photographing target) placed on the shelf 20 (Act 1002). The processing unit 14 captures an image photographed by the photographing unit 13 (Act 1003). In Act 1003, the image captured from the photographing unit 13 to the processing unit 14 is an image that is a target of sharpness determination. The processing unit 14 calculates the standard deviation σ and the entropy S based on the entropy of the image that is the object of the sharpness determination, and calculates the SER based on the standard deviation σ and the entropy S (Act 1004). Act 1004 is performed by, for example, the calculation unit 141 in the processing unit 14.

処理部14は、SERと第1の閾値とを比較する(Act1005)。Act1005は、例えば処理部14内の比較判定部142によって行われる。第1の閾値は、記憶部15に記憶されている第1の基準値に対応する。第1の基準値は、画像に含まれる2値画像領域が鮮明か否かを判断するための基準である。第1の基準値は、任意な値を予め設定できる。例えば、第1の基準値は、予め撮影された鮮明な2値画像領域を含む画像のSERに対応していてもよい。なお、SERが第1の閾値よりも大きくない場合とは、2値画像領域が鮮明ではないこと、または、画像自体に2値画像領域が含まれていないことを意味する。一方、SERが第1の閾値より大きい場合とは、2値画像領域が鮮明であることを意味する。   The processing unit 14 compares the SER with the first threshold (Act 1005). Act 1005 is performed by, for example, the comparison determination unit 142 in the processing unit 14. The first threshold corresponds to the first reference value stored in the storage unit 15. The first reference value is a reference for determining whether or not the binary image area included in the image is clear. An arbitrary value can be set in advance as the first reference value. For example, the first reference value may correspond to the SER of an image including a clear binary image area that has been captured in advance. The case where the SER is not larger than the first threshold means that the binary image area is not clear or the image itself does not include the binary image area. On the other hand, the case where SER is larger than the first threshold means that the binary image region is clear.

SERが第1の閾値よりも大きくない場合(Act1005、No)、制御部12は、処理部14からの信号に基づいて移動体11の走行を停止するように制御する(Act1006)。制御部12は、処理部14からの停止命令に基づいて移動体11の走行を停止するように制御する。なお、制御部12は、処理部14から送られるSERと第1の閾値との比較結果に基づいて、移動体11の走行の停止を判断してもよい。   When the SER is not larger than the first threshold (Act 1005, No), the control unit 12 controls the traveling of the moving body 11 to stop based on the signal from the processing unit 14 (Act 1006). The control unit 12 controls to stop the traveling of the moving body 11 based on a stop command from the processing unit 14. Note that the control unit 12 may determine whether the traveling of the moving body 11 is stopped based on the comparison result between the SER sent from the processing unit 14 and the first threshold value.

なお、Act1005においてSERは第1の閾値よりも大きくないと処理部14が判断した場合、処理部14は、SERと第1の閾値との比較結果を表示部16及び音声出力部17の少なくとも1つに送ってよい。表示部16及び音声出力部17は、処理部14による比較結果を出力する。表示部16は、処理部14による比較結果を表示することができる。音声出力部17は、処理部14による比較結果を音声で出力することができる。一例として、比較結果はSER及び第1の閾値である。他の例として、比較結果は、2値画像領域が鮮明ではないこと、または撮影部13の焦点が合っていないことなどの警告である。表示部16または音声出力部17による出力により、管理者は、撮影部13が撮影する画像に含まれる2値画像領域の状態を認識することができる。   In Act 1005, when the processing unit 14 determines that the SER is not greater than the first threshold, the processing unit 14 displays the comparison result between the SER and the first threshold at least one of the display unit 16 and the audio output unit 17. You can send it to one. The display unit 16 and the audio output unit 17 output a comparison result by the processing unit 14. The display unit 16 can display the comparison result by the processing unit 14. The voice output unit 17 can output the comparison result by the processing unit 14 by voice. As an example, the comparison result is the SER and the first threshold value. As another example, the comparison result is a warning that the binary image area is not clear or the photographing unit 13 is out of focus. By the output from the display unit 16 or the audio output unit 17, the administrator can recognize the state of the binary image area included in the image captured by the imaging unit 13.

次に、制御部12は、比較結果に基づいて撮影部13と現在の画像に写る撮影対象との距離を修正するように制御する(Act1007)。Act1007では、制御部12は、撮影部15の焦点が合うように移動体11の位置を制御する。例えば、制御部12は、移動体11と棚20との距離を縮める方向または離す方向に移動体11を所定距離走行させるように制御する。撮影対象は、棚20、より具体的には棚20に載せられた物品である。移動体11の走行距離は任意に設定可能である。Act1002に戻って、撮影部13は再び同一の撮影対象を撮影する。つまり、同一の撮影対象が写る画像のSERが第1の閾値よりも大きくなるまで、画像処理装置10は、Act1002〜Act1007により、同一の撮影対象が写る複数の画像を処理する。   Next, the control unit 12 performs control so as to correct the distance between the imaging unit 13 and the subject to be captured in the current image based on the comparison result (Act 1007). In Act 1007, the control unit 12 controls the position of the moving body 11 so that the photographing unit 15 is focused. For example, the control unit 12 controls the mobile body 11 to travel a predetermined distance in a direction in which the distance between the mobile body 11 and the shelf 20 is reduced or released. The object to be photographed is a shelf 20, more specifically, an article placed on the shelf 20. The travel distance of the mobile body 11 can be set arbitrarily. Returning to Act 1002, the imaging unit 13 captures the same imaging target again. In other words, the image processing apparatus 10 processes a plurality of images in which the same shooting target is captured using Act 1002 to Act 1007 until the SER of the image in which the same shooting target is captured is greater than the first threshold.

SERが第1の閾値よりも大きい場合(Act1005、Yes)、処理部14は、鮮明度判定の対象となっている現在の画像を記憶部15に保存する(Act1008)。Act1001に戻って、移動体11は走行を開始する。画像処理装置10は、次の撮影対象が写る画像に含まれる2値画像領域の鮮明度判定を行う。   If the SER is larger than the first threshold (Act 1005, Yes), the processing unit 14 stores the current image that is the target of the sharpness determination in the storage unit 15 (Act 1008). Returning to Act 1001, the moving body 11 starts traveling. The image processing apparatus 10 determines the sharpness of a binary image area included in an image in which the next shooting target is captured.

図5に示す処理によれば、画像処理装置10は、SERを用いることで画像に含まれる2値画像領域の鮮明度を定量的に判断することができる。そのため、画像処理装置10は、移動体11と棚20との距離を適切に保ちながら、異なる撮影対象が写る鮮明な各画像を順次保存することができる。   According to the processing shown in FIG. 5, the image processing apparatus 10 can quantitatively determine the sharpness of the binary image region included in the image by using SER. For this reason, the image processing apparatus 10 can sequentially store clear images in which different shooting targets are captured while appropriately maintaining the distance between the moving body 11 and the shelf 20.

次に、画像処理装置10による処理の他の例を説明する。図6は、第1の実施形態に係る画像処理装置10による他の例となる処理のフローチャートである。   Next, another example of processing by the image processing apparatus 10 will be described. FIG. 6 is a flowchart of another example process performed by the image processing apparatus 10 according to the first embodiment.

図6のAct2001〜Act2004及びAct2006〜Act2008は、Act1001〜Act1004及びAct1006〜Act1008それぞれと同様であるので、これらの説明を省略する。   Since Act 2001 to Act 2004 and Act 2006 to Act 2008 in FIG. 6 are the same as Act 1001 to Act 1004 and Act 1006 to Act 1008, description thereof will be omitted.

Act2005では、処理部14は、鮮明度判定の対象となる現在の画像のSERが極大か否かを判断する。Act2005は、例えば、処理部14内の比較判定部142で行われる。ここでは、鮮明度判定の対象となる画像は撮影対象Xが写る画像であると仮定して、Act2005における処理部14による処理を説明する。   In Act 2005, the processing unit 14 determines whether or not the SER of the current image that is the target of the sharpness determination is maximum. Act 2005 is performed by, for example, the comparison determination unit 142 in the processing unit 14. Here, the processing by the processing unit 14 in Act 2005 will be described on the assumption that the image that is the target of the sharpness determination is an image in which the photographing target X is captured.

Act2005において、処理部14は、撮影対象Xが写る1枚目の画像のSERが極大か否かを判断する。ただし、この時点では、1枚目の画像のSERと比較する対象となる第2の閾値は記憶部15に記憶されていない。そのため、処理部14は、1枚目の画像のSERを第2の基準値として記憶部15に保存する。つまり、第2の基準値は、現在の画像と同一の撮影対象Xが写る過去の画像のSERに対応する。第2の閾値は、記憶部15に記憶されている第2の基準値に対応する。   In Act 2005, the processing unit 14 determines whether or not the SER of the first image in which the shooting target X is captured is maximum. However, at this time, the second threshold value to be compared with the SER of the first image is not stored in the storage unit 15. Therefore, the processing unit 14 stores the SER of the first image in the storage unit 15 as the second reference value. That is, the second reference value corresponds to the SER of the past image in which the same shooting target X as the current image is captured. The second threshold corresponds to the second reference value stored in the storage unit 15.

その後、Act2006、Act2007及びAct2002〜Act2004を経たAct2005において、処理部14は、撮影対象Xが写る2枚目の画像のSERが極大か否かを判断する。2枚目の画像は、鮮明度判定の対象となる現在の画像である。処理部14は、2枚目の画像のSERと第2の閾値とを比較する。2枚目の画像のSERが第2の閾値よりも大きくない場合、処理部14は、第2の閾値に対応するSERが極大であると判断する。つまり、処理部14は、SERが極大となる撮影対象Xが写る画像を見つけたと判断する。Act2008において、処理部14は、第2の閾値に対応するSERの計算の基となった画像を記憶部15に保存する。つまり、この画像の2値画像領域は鮮明であるといえる。   Thereafter, in Act 2005 after Act 2006, Act 2007, and Act 2002 to Act 2004, the processing unit 14 determines whether or not the SER of the second image in which the imaging target X is captured is maximum. The second image is the current image that is the object of sharpness determination. The processing unit 14 compares the SER of the second image with the second threshold value. When the SER of the second image is not larger than the second threshold, the processing unit 14 determines that the SER corresponding to the second threshold is maximal. That is, the processing unit 14 determines that it has found an image in which the photographing target X having the maximum SER is shown. In Act 2008, the processing unit 14 stores in the storage unit 15 an image that is a basis for calculating the SER corresponding to the second threshold value. That is, it can be said that the binary image area of this image is clear.

2枚目の画像のSERが第2の閾値よりも大きい場合、処理部14は、第2の閾値に対応するSERが極大ではないと判断する。つまり、処理部14は、SERが極大となる撮影対象Xが写る画像はまだ見つかっていないと判断する。処理部14は、2枚目の画像のSERに基づいて第2の基準値を更新して記憶部15に保存する。   When the SER of the second image is larger than the second threshold, the processing unit 14 determines that the SER corresponding to the second threshold is not maximal. In other words, the processing unit 14 determines that an image in which the imaging target X that maximizes the SER has not yet been found. The processing unit 14 updates the second reference value based on the SER of the second image and stores it in the storage unit 15.

その後、再度Act2006、Act2007及びAct2002〜Act2004を経たAct2005において、処理部14は、撮影対象Xが写る3枚目の画像のSERが極大か否かを判断する。つまり、画像処理装置10は、Act2005において第2の閾値よりも大きくないSERが見つかるまで、同一の撮影対象Xが写る異なる画像を処理し続ける。以上のように、Act2005において、処理部14は、同一の撮影対象が写る複数の画像の中で極大のSERの計算の基となる画像を判断している。   Thereafter, in Act 2005 after Act 2006, Act 2007, and Act 2002 to Act 2004 again, the processing unit 14 determines whether or not the SER of the third image in which the imaging target X is captured is maximum. That is, the image processing apparatus 10 continues to process different images in which the same photographing target X is captured until a SER that is not greater than the second threshold is found in Act 2005. As described above, in Act 2005, the processing unit 14 determines an image serving as a basis for calculating the maximum SER among a plurality of images in which the same shooting target is captured.

なお、Act1005において鮮明度判定の対象となる現在の画像のSERが極大ではないと処理部14が判断した場合、図6を用いて説明したように、表示部16及び音声出力部17は、処理部14による比較結果を出力してもよい。一例として、比較結果はSER及び第2の閾値である。他の例として、比較結果は、2値画像領域の鮮明度が極大ではないこと、または撮影部13の焦点が合っていないことなどの警告である。   If the processing unit 14 determines that the SER of the current image that is the target of the sharpness determination is not maximal in Act 1005, as described with reference to FIG. 6, the display unit 16 and the audio output unit 17 The comparison result by the unit 14 may be output. As an example, the comparison results are SER and a second threshold. As another example, the comparison result is a warning such that the sharpness of the binary image region is not maximal or the photographing unit 13 is out of focus.

図6に示す処理によれば、画像処理装置10は、図5に示す処理により得られる画像よりも2値画像領域の鮮明度が高い画像を得ることができる。   According to the process shown in FIG. 6, the image processing apparatus 10 can obtain an image having a higher definition of the binary image area than the image obtained by the process shown in FIG. 5.

(第2の実施形態)
第2の実施形態について説明する。ここでは、第1の実施形態と相違する部分について説明し、第1の実施形態と同様である部分については説明を省略する。
(Second Embodiment)
A second embodiment will be described. Here, parts that are different from the first embodiment will be described, and description of parts that are the same as those of the first embodiment will be omitted.

図7は、比較例となる画像を示す図である。図7は、同一の文字列ABCDが写る異なる2つの画像、それぞれのヒストグラム及びそれぞれのSERを示す。図7の左図は、焦点が合っている第7の画像を示す。第7の画像は、鮮明な画像である。図7の右図は、第7の画像よりも焦点がぼけた第8の画像を示す。第7の画像及び第8の画像は、2値画像領域の周りを自然画像領域が囲む画像である。図7の左図に示すように、第7の画像のSERは12である。図7の右図に示すように、第8の画像のSERは8である。焦点が合っている第7の画像のSERと焦点がぼけている第8の画像のSERとの間には十分な差がない。そのため、画像処理装置10は、鮮明度判定の対象となる1画像から1つのSERを算出するだけでは、この画像に含まれる2値画像領域の鮮明度を判断することが難しい可能性がある。そこで、第2の実施形態に係る画像処理装置10は、以下で説明するように鮮明度判定の対象となる1画像を複数のブロックに分割し、各ブロックのSERを算出する。     FIG. 7 is a diagram illustrating an image serving as a comparative example. FIG. 7 shows two different images showing the same character string ABCD, respective histograms, and respective SERs. The left figure of FIG. 7 shows the seventh image in focus. The seventh image is a clear image. The right diagram in FIG. 7 shows an eighth image that is more out of focus than the seventh image. The seventh image and the eighth image are images in which the natural image region surrounds the binary image region. As shown in the left diagram of FIG. 7, the SER of the seventh image is 12. As shown in the right diagram in FIG. 7, the SER of the eighth image is 8. There is not enough difference between the SER of the seventh image in focus and the SER of the eighth image in focus. Therefore, it may be difficult for the image processing apparatus 10 to determine the sharpness of the binary image region included in this image only by calculating one SER from one image that is the target of the sharpness determination. Therefore, the image processing apparatus 10 according to the second embodiment divides one image, which is an object of sharpness determination, into a plurality of blocks as described below, and calculates the SER of each block.

図8は、第2の実施形態に係る処理部14による鮮明度判定の手法を説明する図である。図8の上段の図は、図7と同一の文字列ABCDの文字列が写された異なる2つの画像を示す。   FIG. 8 is a diagram for explaining a sharpness determination method by the processing unit 14 according to the second embodiment. The upper diagram in FIG. 8 shows two different images in which the character strings ABCD identical to those in FIG. 7 are copied.

図8の左上の図は、焦点が合っている第9の画像を示す。第9の画像は、鮮明な画像である。図8の右上の図は、第9の画像よりも焦点が合っていない第10の画像を示す。第10の画像は、第9の画像よりも不鮮明な画像である。第9の画像及び第10の画像は、2値画像領域の周りを自然画像領域が囲む画像である。   The upper left figure of FIG. 8 shows a ninth image that is in focus. The ninth image is a clear image. The upper right diagram in FIG. 8 shows a tenth image that is less in focus than the ninth image. The tenth image is an image that is unclearer than the ninth image. The ninth image and the tenth image are images in which the natural image region surrounds the binary image region.

第2の実施形態では、処理部14は、鮮明度判定の対象となる1画像を複数のブロックに分割し、各ブロックのSERを算出する。図8の上段の図を参照すると、処理部14は、第9の画像及び第10の画像を64ブロックに分割している。処理部14は、ブロック毎の任意の1ラインのデータに基づいて第1の実施形態で説明したように各ブロックのSERを計算する。なお、任意の1ラインは、各ブロックの横軸または縦軸に対応していてもよい。また、各ブロックのSERは、各ブロックの任意の複数ラインまたは全ラインから算出される複数のSERの平均値であってもよい。なお、画像の分割数は、任意に設定可能である。   In the second embodiment, the processing unit 14 divides one image that is a target of sharpness determination into a plurality of blocks, and calculates the SER of each block. Referring to the upper diagram in FIG. 8, the processing unit 14 divides the ninth image and the tenth image into 64 blocks. The processing unit 14 calculates the SER of each block, as described in the first embodiment, based on arbitrary one line data for each block. Note that one arbitrary line may correspond to the horizontal axis or the vertical axis of each block. In addition, the SER of each block may be an average value of a plurality of SERs calculated from an arbitrary plurality of lines or all lines of each block. Note that the number of image divisions can be arbitrarily set.

図8の左中段の図は、第9の画像の各ブロックに対応する位置にヒストグラムを並べた図である。図8の左下の図は、第9の画像の各ブロックに対応する位置にSERの値を並べた図である。第9の画像では、2値画像領域に対応するブロックのSERは40以上の値である。   The middle left diagram of FIG. 8 is a diagram in which histograms are arranged at positions corresponding to the respective blocks of the ninth image. The lower left diagram of FIG. 8 is a diagram in which SER values are arranged at positions corresponding to the blocks of the ninth image. In the ninth image, the SER of the block corresponding to the binary image region is 40 or more.

図8の右中段の図は、第10の画像の各ブロックに対応する位置にヒストグラムを並べた図である。図8の右下の図は、第10の画像の各ブロックに対応する位置にSERの値を並べた図である。第10の画像では、2値画像領域に対応するブロックのSERは20以下の値である。2値画像領域に対応するブロックにおいて、図7に示す例とは異なり、焦点が合っている画像のSERと焦点が合っていない画像のSERとの差は大きい。そのため、画像処理装置10は、鮮明度判定の対象となる1画像から算出した1つのSERに基づいて2値画像領域の鮮明度を判断することが困難であっても、この画像の各ブロックから算出した各SERに基づいて2値画像領域の鮮明度を十分に判断することができる。   8 is a diagram in which histograms are arranged at positions corresponding to the respective blocks of the tenth image. The lower right diagram in FIG. 8 is a diagram in which SER values are arranged at positions corresponding to the respective blocks of the tenth image. In the tenth image, the SER of the block corresponding to the binary image region is 20 or less. In the block corresponding to the binary image area, unlike the example shown in FIG. 7, the difference between the SER of the focused image and the SER of the unfocused image is large. Therefore, even if it is difficult for the image processing apparatus 10 to determine the sharpness of the binary image region based on one SER calculated from one image that is the target of the sharpness determination, the image processing device 10 determines whether the image processing device 10 uses each block of this image. The sharpness of the binary image region can be sufficiently determined based on each calculated SER.

処理部14は、各ブロックのSERと基準値とを比較することで、画像に含まれる2値画像領域が鮮明か否かを判定する。ブロックのSERが基準値よりも大きければ、処理部14は、このブロックに含まれる2値画像領域は鮮明であると判断する。一方、ブロックのSERが基準値よりも大きくなければ、処理部14は、このブロックに含まれる2値画像領域は鮮明ではないと判断する。SERは、自然画像領域と2値画像領域が混在する画像においても、2値画像領域の鮮明度を定量的に表す指標として有効である。   The processing unit 14 determines whether or not the binary image area included in the image is clear by comparing the SER of each block with a reference value. If the SER of the block is larger than the reference value, the processing unit 14 determines that the binary image area included in the block is clear. On the other hand, if the SER of the block is not larger than the reference value, the processing unit 14 determines that the binary image area included in this block is not clear. SER is effective as an index that quantitatively represents the sharpness of a binary image region even in an image in which a natural image region and a binary image region are mixed.

次に、画像処理装置10による処理の一例を説明する。図9は、第2の実施形態に係る画像処理装置10による一例となる処理のフローチャートである。   Next, an example of processing by the image processing apparatus 10 will be described. FIG. 9 is a flowchart of an example process performed by the image processing apparatus 10 according to the second embodiment.

移動体11は、制御部12による制御に基づいて走行を開始する(Act3001)。移動体11は、棚20の延在方向と平行な方向に沿って走行する。撮影部13は、棚20に置かれている物体(撮影対象)を移動しながら撮影する(Act3002)。処理部14は、撮影部13が撮影した画像を取り込む(Act3003)。Act3003において撮影部13から処理部14へ取り込まれた画像は、鮮明度判定の対象となる画像である。   The moving body 11 starts traveling based on the control by the control unit 12 (Act 3001). The moving body 11 travels along a direction parallel to the extending direction of the shelf 20. The imaging unit 13 performs imaging while moving an object (photographing target) placed on the shelf 20 (Act 3002). The processing unit 14 captures an image photographed by the photographing unit 13 (Act 3003). In Act 3003, the image captured from the photographing unit 13 to the processing unit 14 is an image that is a target of sharpness determination.

処理部14は、この画像を複数のブロックに分割する(Act3004)。処理部14は、複数のブロックにおける各ブロックのエントロピーに基づいて各ブロックの標準偏差σ及びエントロピーSを計算し、標準偏差σ及びエントロピーSに基づいて各ブロックのSERを計算する(Act3005)。Act3005は、例えば処理部14内の演算部141で行われる。   The processing unit 14 divides this image into a plurality of blocks (Act 3004). The processing unit 14 calculates the standard deviation σ and entropy S of each block based on the entropy of each block in the plurality of blocks, and calculates the SER of each block based on the standard deviation σ and entropy S (Act 3005). Act 3005 is performed by, for example, the calculation unit 141 in the processing unit 14.

処理部14は、各SERの値に基づいてOKブロック数を取得する(Act3006)。OKブロックは、鮮明な2値画像領域を含むブロックに対応する。Act3006において、処理部14は、一例として以下のようにOKブロックの数を取得する。処理部14は、各ブロックのSERと第3の閾値とを比較する。第3の閾値は、記憶部15に記憶されている第3の基準値に対応する。第3の基準値は、各ブロックに含まれる2値画像領域が鮮明か否かを判断するための基準である。第3の基準値は、任意に予め設定できる。例えば、第3の基準値は、予め撮影された鮮明な2値画像領域を含む画像のSERの値に対応していてもよい。なお、ブロックのSERが第3の閾値よりも大きくない場合とは、このブロックに含まれる2値画像領域が鮮明ではないこと、または、このブロック自体に2値画像領域が含まれていないことを意味する。一方、ブロックのSERが第3の閾値より大きい場合とは、このブロックに含まれる2値画像領域が鮮明であることを意味する。   The processing unit 14 acquires the number of OK blocks based on the value of each SER (Act 3006). The OK block corresponds to a block including a clear binary image area. In Act 3006, the processing unit 14 acquires the number of OK blocks as follows as an example. The processing unit 14 compares the SER of each block with the third threshold value. The third threshold value corresponds to the third reference value stored in the storage unit 15. The third reference value is a reference for determining whether or not the binary image area included in each block is clear. The third reference value can be arbitrarily set in advance. For example, the third reference value may correspond to the SER value of an image including a clear binary image area that has been captured in advance. The case where the SER of the block is not larger than the third threshold means that the binary image area included in the block is not clear or that the binary image area is not included in the block itself. means. On the other hand, the case where the SER of the block is larger than the third threshold means that the binary image area included in this block is clear.

任意のブロックのSERが第3の閾値よりも大きい場合、処理部14は、このブロックをOKブロックと判断する。一方、任意のブロックのSERが第3の閾値よりも大きくない場合、処理部14は、このブロックはOKブロックではないと判断する。処理部14は、鮮明度判定の対象となる画像を構成する全ブロックのSERと第3の閾値とを比較する。処理部14は、鮮明度判定の対象となる画像を構成する全ブロック中のOKブロックの数を取得する。ここでは、鮮明度判定の対象となる画像におけるOKブロック数を、この画像を構成する全ブロック数で割った値を第1の割合というものとする。   When the SER of an arbitrary block is larger than the third threshold value, the processing unit 14 determines that this block is an OK block. On the other hand, when the SER of an arbitrary block is not greater than the third threshold, the processing unit 14 determines that this block is not an OK block. The processing unit 14 compares the SER of all blocks constituting the image that is the target of the sharpness determination with the third threshold value. The processing unit 14 acquires the number of OK blocks in all the blocks constituting the image that is the object of sharpness determination. Here, a value obtained by dividing the number of OK blocks in the image that is the object of the sharpness determination by the number of all blocks constituting the image is referred to as a first ratio.

処理部14は、第1の割合と第4の閾値とを比較する(Act3007)。第4の基準値は、画像に含まれる2値画像領域が鮮明か否かを判断するための基準である。第4の基準値は、任意に予め設定できる。一例として、第4の基準値は、予め撮影された鮮明な2値画像領域を含む画像におけるOKブロック数を、この画像を構成する全ブロック数で割った値であってもよい。   The processing unit 14 compares the first ratio with the fourth threshold value (Act 3007). The fourth reference value is a reference for determining whether or not the binary image area included in the image is clear. The fourth reference value can be arbitrarily set in advance. As an example, the fourth reference value may be a value obtained by dividing the number of OK blocks in an image including a clear binary image area captured in advance by the number of all blocks constituting the image.

なお、第1の割合が第1の閾値よりも大きくない場合とは、画像に含まれる2値画像領域が鮮明ではないこと、または、画像自体に2値画像領域が含まれていないことを意味する。一方、第1の割合が第1の閾値より大きい場合とは、画像に含まれる2値画像領域が鮮明であることを意味する。   Note that the case where the first ratio is not greater than the first threshold means that the binary image area included in the image is not clear or the image itself does not include the binary image area. To do. On the other hand, the case where the first ratio is larger than the first threshold means that the binary image area included in the image is clear.

第1の割合が第4の閾値よりも大きくない場合(Act3007、No)、制御部12は、処理部14からの信号に基づいて移動体11の走行を停止するように制御する(Act3008)。Act3008において、画像処理装置10は、上述したAct1006と同様に処理してもよい。なお、Act3007において第1の割合が第4の閾値よりも大きくないと処理部14が判断した場合、図5を用いて説明したように、表示部16及び音声出力部17は、比較結果を出力してもよい。一例として、比較結果は第1の割合及び第4の閾値である。他の例として、比較結果は、2値画像領域が鮮明でないこと、または撮影部13の焦点が合っていないことなどの警告である。   When the first ratio is not larger than the fourth threshold (Act 3007, No), the control unit 12 controls to stop the traveling of the moving body 11 based on the signal from the processing unit 14 (Act 3008). In Act 3008, the image processing apparatus 10 may perform the same processing as Act 1006 described above. When the processing unit 14 determines that the first ratio is not greater than the fourth threshold value in Act 3007, the display unit 16 and the audio output unit 17 output the comparison result as described with reference to FIG. May be. As an example, the comparison result is a first ratio and a fourth threshold value. As another example, the comparison result is a warning that the binary image area is not clear or the photographing unit 13 is out of focus.

次に、制御部12は、撮影部15の焦点が合うように移動体11の位置を修正するように制御する(Act3009)。Act3009において、画像処理装置10は、上述したAct1007と同様に処理してもよい。Act3002に戻って、撮影部13は再び同一の撮影対象を撮影する。つまり、同一の撮影対象が写る画像における第1の割合が第4の閾値よりも大きくなるまで、画像処理装置10は、Act3002〜Act3009により、同一の撮影対象が写る複数の画像を処理する。   Next, the control unit 12 performs control to correct the position of the moving body 11 so that the photographing unit 15 is focused (Act 3009). In Act 3009, the image processing apparatus 10 may perform the same processing as Act 1007 described above. Returning to Act 3002, the imaging unit 13 captures the same imaging object again. In other words, the image processing apparatus 10 processes a plurality of images in which the same shooting target is captured using Act 3002 to Act 3009 until the first ratio in the image in which the same shooting target is captured is greater than the fourth threshold value.

第1の割合が第4の閾値よりも大きい場合(Act3007、Yes)、処理部14は、鮮明度判定の対象となっている現在の画像を記憶部15に保存する(Act3010)。Act3001に戻って、移動体11は走行を開始する。画像処理装置10は、次の撮影対象が写った画像に含まれる2値画像領域の鮮明度判定を行う。   When the first ratio is greater than the fourth threshold (Act 3007, Yes), the processing unit 14 stores the current image that is the target of the sharpness determination in the storage unit 15 (Act 3010). Returning to Act 3001, the moving body 11 starts traveling. The image processing apparatus 10 determines the sharpness of a binary image area included in an image in which the next shooting target is captured.

次に、画像処理装置10による処理の他の例を説明する。図10は、第2の実施形態に係る画像処理装置10による他の例となる処理のフローチャートである。   Next, another example of processing by the image processing apparatus 10 will be described. FIG. 10 is a flowchart of another example of processing performed by the image processing apparatus 10 according to the second embodiment.

図10のAct4001〜Act4006及びAct4008〜Act4010は、図9のAct3001〜Act3006及びAct3008〜Act3010と同様であるので、これらの説明を省略する。   Act 4001 to Act 4006 and Act 4008 to Act 4010 in FIG. 10 are the same as Act 3001 to Act 3006 and Act 3008 to Act 3010 in FIG.

Act4007では、処理部14は、鮮明度判定の対象となる現在の画像の第1の割合が極大か否かを判断する。Act4007は、処理部14内の比較判定部142で行われる。ここでは、鮮明度判定の対象となる画像は撮影対象Yが写る画像であると仮定して、Act4007における処理部14による処理を説明する。   In Act 4007, the processing unit 14 determines whether or not the first ratio of the current image that is the object of sharpness determination is a maximum. Act 4007 is performed by the comparison determination unit 142 in the processing unit 14. Here, the processing by the processing unit 14 in Act 4007 will be described on the assumption that the image that is the target of the sharpness determination is an image in which the shooting target Y is captured.

Act4007において、処理部14は、撮影対象Yが写る1枚目の画像の第1の割合が極大か否かを判断する。ただし、この時点では、1枚目の画像の第1の割合と比較する対象となる第5の閾値は記憶部15に記憶されていない。そのため、処理部14は、1枚目の画像の第1の割合を第5の基準値として記憶部15に保存する。つまり、第5の基準値は、現在の画像と同一の撮影対象Yが写る過去の画像の第1の割合に対応する。第5の閾値は、記憶部15に記憶されている第5の基準値に対応する。   In Act 4007, the processing unit 14 determines whether or not the first ratio of the first image in which the shooting target Y is captured is maximum. However, at this time, the fifth threshold value to be compared with the first ratio of the first image is not stored in the storage unit 15. Therefore, the processing unit 14 stores the first ratio of the first image in the storage unit 15 as the fifth reference value. That is, the fifth reference value corresponds to the first ratio of past images in which the same shooting target Y as the current image is captured. The fifth threshold corresponds to the fifth reference value stored in the storage unit 15.

その後、Act4008、Act4009及びAct4002〜Act4006を経たAct4007において、処理部14は、撮影対象Yが写る2枚目の画像の第1の割合が極大か否かを判断する。2枚目の画像は、鮮明度判定の対象となる現在の画像である。処理部14は、2枚目の画像の第1の割合と第5の閾値とを比較する。2枚目の画像の第1の割合が第5の閾値よりも大きくない場合、処理部14は、第5の閾値に対応する第1の割合が極大であると判断する。つまり、処理部14は、第1の割合が極大となる撮影対象Yが写る画像を見つけたと判断する。Act4010において、処理部14は、第5の閾値に対応する第1の割合の計算の基となった画像を記憶部15に保存する。つまり、この画像の2値画像領域は鮮明であるといえる。   Thereafter, in Act 4007 after Act 4008, Act 4009, and Act 4002 to Act 4006, the processing unit 14 determines whether or not the first ratio of the second image in which the imaging target Y is captured is maximum. The second image is the current image that is the object of sharpness determination. The processing unit 14 compares the first ratio of the second image with the fifth threshold value. When the first ratio of the second image is not greater than the fifth threshold, the processing unit 14 determines that the first ratio corresponding to the fifth threshold is maximal. That is, the processing unit 14 determines that an image in which the photographing target Y having the maximum first ratio is found has been found. In Act 4010, the processing unit 14 stores the image that is the basis of the calculation of the first ratio corresponding to the fifth threshold in the storage unit 15. That is, it can be said that the binary image area of this image is clear.

2枚目の画像の第1の割合が第5の閾値よりも大きい場合、処理部14は、第5の閾値に対応する第1の割合が極大ではないと判断する。つまり、処理部14は、第1の割合が極大となる撮影対象Yが写る画像はまだ見つかっていないと判断する。処理部14は、2枚目の画像の第1の割合に基づいて第5の基準値を更新して記憶部15に保存する。   When the first ratio of the second image is larger than the fifth threshold, the processing unit 14 determines that the first ratio corresponding to the fifth threshold is not maximal. That is, the processing unit 14 determines that an image in which the imaging target Y having the maximum first ratio is not yet found. The processing unit 14 updates the fifth reference value based on the first ratio of the second image and stores it in the storage unit 15.

その後、再度Act4008、Act4009及びAct4002〜Act4006を経たAct4007において、処理部14は、撮影対象Yが写る3枚目の画像の第1の割合が極大か否かを判断する。つまり、画像処理装置10は、Act4007において第5の閾値よりも大きくない第1の割合が見つかるまで、同一の撮影対象Yが写る異なる画像を処理し続ける。以上のように、Act4007において、処理部14は、同一の撮影対象が写る複数の画像の中で極大の第1の割合の計算の基となる画像を判断している。   Thereafter, in Act 4007 that has undergone Act 4008, Act 4009, and Act 4002 to Act 4006 again, the processing unit 14 determines whether or not the first ratio of the third image in which the imaging target Y is captured is maximum. That is, the image processing apparatus 10 continues to process different images in which the same shooting target Y is captured until a first ratio that is not greater than the fifth threshold is found in Act 4007. As described above, in Act 4007, the processing unit 14 determines an image serving as a basis for calculating the maximum first ratio among a plurality of images in which the same subject is captured.

なお、Act4007において鮮明度判定の対象となる現在の画像の第1の割合が極大ではないと処理部14が判断した場合、図5を用いて説明したように、表示部16及び音声出力部17は、比較結果を出力してもよい。一例として、比較結果は第1の割合及び第5の閾値である。他の例として、比較結果は、2値画像領域の鮮明度が極大ではないこと、または撮影部13の焦点が合っていないことなどの警告である。   Note that when the processing unit 14 determines that the first ratio of the current image that is the target of the sharpness determination is not maximal in Act 4007, as described with reference to FIG. 5, the display unit 16 and the audio output unit 17 May output the comparison result. As an example, the comparison result is a first ratio and a fifth threshold. As another example, the comparison result is a warning such that the sharpness of the binary image region is not maximal or the photographing unit 13 is out of focus.

第2の実施形態に係る画像処理装置10は、第1の実施形態に係る画像処理装置10よりも、自然画像領域と2値画像領域が混在する画像における2値画像領域の鮮明度を正確に判定することができる。   The image processing apparatus 10 according to the second embodiment is more accurate than the image processing apparatus 10 according to the first embodiment in the sharpness of the binary image area in an image in which a natural image area and a binary image area are mixed. Can be determined.

(第3の実施形態)
第3の実施形態について説明する。図11は、第3の実施形態に係る一例となる画像処理装置10のブロック図である。なお、第1の実施形態と同様の構成には同一の参照符号を付し、その説明を省略する。
(Third embodiment)
A third embodiment will be described. FIG. 11 is a block diagram of an image processing apparatus 10 as an example according to the third embodiment. The same components as those in the first embodiment are denoted by the same reference numerals, and the description thereof is omitted.

第3の実施形態に係る撮影部13は、オートフォーカス機能及びフォーカス判定機能を備えたカメラである。撮影部13は、処理部14からの信号に基づいて、フォーカスを修正する。   The photographing unit 13 according to the third embodiment is a camera having an autofocus function and a focus determination function. The imaging unit 13 corrects the focus based on the signal from the processing unit 14.

次に、第3の実施形態に係る画像処理装置10による処理の例を説明する図5、6、9及び10を再度用いて説明する。図5のAct1007、図6のAct2007、図9のAct3009及び図10のAct4009において、第3の実施形態に係る画像処理10は、第1の実施形態及び第2の実施形態と異なる処理を行う。   Next, description will be made again using FIGS. 5, 6, 9, and 10 for explaining an example of processing by the image processing apparatus 10 according to the third embodiment. In Act 1007 in FIG. 5, Act 2007 in FIG. 6, Act 3009 in FIG. 9, and Act 4009 in FIG. 10, the image processing 10 according to the third embodiment performs processing different from the first embodiment and the second embodiment.

図5のAct1007、図6のAct2007、図9のAct3009及び図10のAct4009において、撮影部13は、比較結果に基づいて、撮影対象に対する撮影部13の焦点が合うようにフォーカスを修正する。フォーカスの修正量は任意に設定可能である。なお、撮影部13は、処理部14から送られる比較結果に基づいてフォーカスを修正しても、処理部14から送られるフォーカス修正量の情報に基づいてフォーカスを修正するようにしてもよい。   In Act 1007 in FIG. 5, Act 2007 in FIG. 6, Act 3009 in FIG. 9, and Act 4009 in FIG. 10, the photographing unit 13 corrects the focus so that the photographing unit 13 is focused on the subject to be photographed based on the comparison result. The amount of focus correction can be set arbitrarily. Note that the imaging unit 13 may correct the focus based on the comparison result sent from the processing unit 14 or may correct the focus based on the focus correction amount information sent from the processing unit 14.

図5のAct1007、図6のAct2007、図9のAct3009及び図10のAct4009の後、撮影部13は、フォーカスを修正した状態で再び同じ対象を撮影する。   After Act 1007 in FIG. 5, Act 2007 in FIG. 6, Act 3009 in FIG. 9, and Act 4009 in FIG. 10, the imaging unit 13 captures the same object again with the focus corrected.

第3の実施形態によれば、第1の実施形態及び第2の実施形態と同様の効果を得ることができる。   According to the third embodiment, the same effects as those of the first embodiment and the second embodiment can be obtained.

動作を実行する主体は例えば、ハードウェア、ハードウェアとソフトウェアとの複合体、ソフトウェア、及び実行中のソフトウェアなどといった、コンピュータに係る主体である。動作を実行する主体は例えば、プロセッサ上で実行されるプロセス、プロセッサ、オブジェクト、実行ファイル、スレッド、プログラムおよびコンピュータであるがこれらに限るものではない。例えば、画像処理装置やそこで実行されるアプリケーションが動作を実行する主体であってもよい。プロセスやスレッドに、動作を実行する主体を複数演じさせてもよい。動作を実行する主体が1つの画像処理装置内にあってもよいし、複数の画像処理装置へ分配されたかたちであってもよい。   An entity that performs an operation is an entity related to a computer, such as hardware, a complex of hardware and software, software, software being executed, and the like. For example, the subject that performs the operation is a process, processor, object, executable file, thread, program, and computer executed on the processor, but is not limited thereto. For example, an image processing apparatus or an application executed there may be a main body that executes an operation. A process or thread may perform multiple actors that perform operations. The subject that performs the operation may be in one image processing apparatus, or may be distributed to a plurality of image processing apparatuses.

装置内部に以上説明した機能が予め記録されていてもよいし、同様の機能をネットワークから装置にダウンロードしてもよいし、同様の機能を記録媒体に記憶させたものを装置にインストールしてもよい。記録媒体としては、ディスクROMやメモリカード等プログラムを記憶でき、かつ装置が読み取り可能な記録媒体であれば、その形態は何れの形態であっても良い。またこのように予めインストールやダウンロードにより得る機能は装置内部のOS(オペレーティング・システム)等と協働してその機能を実現させるものであってもよい。   The functions described above may be recorded in advance in the apparatus, or similar functions may be downloaded from the network to the apparatus, or the same functions stored in a recording medium may be installed in the apparatus. Good. The recording medium may take any form as long as it can store a program and can be read by the apparatus, such as a disk ROM or a memory card. In addition, the function obtained by installing or downloading in advance may be realized in cooperation with an OS (operating system) inside the apparatus.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

10…画像処理装置、11…移動体、12…制御部、13…撮影部、14…処理部、15…記憶部、16…表示部、17…音声出力部、20…棚、131…レンズ、141…演算部、142…比較判定部、151…基準値。   DESCRIPTION OF SYMBOLS 10 ... Image processing apparatus, 11 ... Moving body, 12 ... Control part, 13 ... Imaging | photography part, 14 ... Processing part, 15 ... Memory | storage part, 16 ... Display part, 17 ... Audio | voice output part, 20 ... Shelf, 131 ... Lens, 141: arithmetic unit, 142: comparison / determination unit, 151: reference value.

Claims (7)

画像を構成する画素の階調情報に基づいて標準偏差及びエントロピーを計算し、前記標準偏差と前記エントロピーとの比を計算する演算部と、
前記比と基準値とを比較する比較判定部と、
前記比較判定部による比較結果を出力する出力部と、
を備える画像処理装置。
An arithmetic unit that calculates standard deviation and entropy based on gradation information of pixels constituting an image, and calculates a ratio between the standard deviation and the entropy;
A comparison / determination unit for comparing the ratio with a reference value;
An output unit for outputting a comparison result by the comparison determination unit;
An image processing apparatus comprising:
前記画像を撮影する撮影部を備える、請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a photographing unit that photographs the image. 当該画像処理装置を移動する移動体を備える、請求項2記載の画像処理装置。   The image processing apparatus according to claim 2, further comprising a moving body that moves the image processing apparatus. 前記移動体の動作を制御する制御部を備え、
前記制御部は、前記比較結果に基づいて前記撮影部と前記画像に写る対象との距離を修正するように前記移動体を制御する、請求項3記載の画像処理装置。
A control unit for controlling the operation of the moving body;
The image processing apparatus according to claim 3, wherein the control unit controls the moving body so as to correct a distance between the photographing unit and an object captured in the image based on the comparison result.
前記演算部は、前記画像を複数のブロックに分割し、各ブロックの前記標準偏差及び前記エントロピーを計算する、請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the arithmetic unit divides the image into a plurality of blocks and calculates the standard deviation and the entropy of each block. 前記比の値に基づいて前記基準値を更新して記憶する記憶部を備える、請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a storage unit that updates and stores the reference value based on the value of the ratio. 画像を構成する画素の階調情報に基づいて標準偏差及びエントロピーを計算することと、
前記標準偏差と前記エントロピーとの比を計算することと、
前記比と基準値とを比較することと、
前記比と基準値との比較結果を出力すること、
をコンピュータに実行させるプログラムを記憶したコンピュータ可読記憶媒体。
Calculating standard deviation and entropy based on gradation information of pixels constituting the image;
Calculating a ratio between the standard deviation and the entropy;
Comparing the ratio to a reference value;
Outputting a comparison result between the ratio and a reference value;
The computer-readable storage medium which memorize | stored the program which makes a computer perform.
JP2015124950A 2015-04-07 2015-06-22 Image processing apparatus and computer-readable storage medium Active JP6313725B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/680,845 2015-04-07
US14/680,845 US9466001B1 (en) 2015-04-07 2015-04-07 Image processing apparatus and computer-readable storage medium

Publications (2)

Publication Number Publication Date
JP2016201084A true JP2016201084A (en) 2016-12-01
JP6313725B2 JP6313725B2 (en) 2018-04-18

Family

ID=57046398

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015124950A Active JP6313725B2 (en) 2015-04-07 2015-06-22 Image processing apparatus and computer-readable storage medium

Country Status (2)

Country Link
US (3) US9466001B1 (en)
JP (1) JP6313725B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017187988A (en) 2016-04-07 2017-10-12 東芝テック株式会社 Code recognition device
US20190202372A1 (en) * 2018-01-03 2019-07-04 Getac Technology Corporation Vehicular image pickup device and image capturing method
CN110536073B (en) * 2018-05-25 2021-05-11 神讯电脑(昆山)有限公司 Image capturing device for vehicle and image capturing method
CN110536063B (en) * 2018-05-25 2021-06-15 神讯电脑(昆山)有限公司 Image capturing device for vehicle and image capturing method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10105873A (en) * 1996-09-30 1998-04-24 Toshiba Corp Device for recognizing number plate of vehicle
JP2005328105A (en) * 2003-04-01 2005-11-24 Microsoft Corp Creation of visually representative video thumbnail
JP2013210817A (en) * 2012-03-30 2013-10-10 Brother Ind Ltd Image processing device and image processing program

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19637629A1 (en) * 1996-09-16 1998-03-19 Eastman Kodak Co Electronic camera for accomplishing imaging properties of studio folding type camera
JP4412214B2 (en) 2005-03-29 2010-02-10 日本電気株式会社 Pattern recognition apparatus, pattern recognition method, and electronic apparatus having the pattern recognition apparatus
US8671346B2 (en) * 2007-02-09 2014-03-11 Microsoft Corporation Smart video thumbnail
EP2283463B1 (en) * 2008-05-30 2014-10-29 GE Healthcare Bio-Sciences Corp. System and method for detecting and eliminating one or more defocused or low contrast-to-noise ratio images
US20120075440A1 (en) * 2010-09-28 2012-03-29 Qualcomm Incorporated Entropy based image separation
WO2013149038A1 (en) * 2012-03-28 2013-10-03 University Of Houston System Methods and software for screening and diagnosing skin lesions and plant diseases
US9317764B2 (en) * 2012-12-13 2016-04-19 Qualcomm Incorporated Text image quality based feedback for improving OCR
US9858656B2 (en) * 2013-03-13 2018-01-02 Raytheon Company Video interpretability and quality estimation
US9098888B1 (en) * 2013-12-12 2015-08-04 A9.Com, Inc. Collaborative text detection and recognition
US9965588B2 (en) * 2014-03-06 2018-05-08 Ricoh Co., Ltd. Film to DICOM conversion
US9549125B1 (en) * 2015-09-01 2017-01-17 Amazon Technologies, Inc. Focus specification and focus stabilization

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10105873A (en) * 1996-09-30 1998-04-24 Toshiba Corp Device for recognizing number plate of vehicle
JP2005328105A (en) * 2003-04-01 2005-11-24 Microsoft Corp Creation of visually representative video thumbnail
JP2013210817A (en) * 2012-03-30 2013-10-10 Brother Ind Ltd Image processing device and image processing program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
斉藤 文彦: ""濃度勾配ヒストグラムによる画像のコントラスト改善"", 電気学会論文誌C, vol. 126, no. 2, JPN6018006684, 1 February 2006 (2006-02-01), JP, pages 228 - 236, ISSN: 0003745841 *
鶴崎 裕貴、外2名: ""超解像における拡大画像の鮮明度に対する評価手法の提案"", 2014年度画像符号化シンポジウム, JPN6018006685, 14 November 2014 (2014-11-14), JP, pages 1 - 2, ISSN: 0003745842 *

Also Published As

Publication number Publication date
US20160381283A1 (en) 2016-12-29
US10257406B2 (en) 2019-04-09
US9466001B1 (en) 2016-10-11
US20160300112A1 (en) 2016-10-13
JP6313725B2 (en) 2018-04-18
US20190191075A1 (en) 2019-06-20

Similar Documents

Publication Publication Date Title
US10917571B2 (en) Image capture device control based on determination of blur value of objects in images
US20210090279A1 (en) Depth Determination for Images Captured with a Moving Camera and Representing Moving Features
JP6313725B2 (en) Image processing apparatus and computer-readable storage medium
KR20170047167A (en) Method and apparatus for converting an impression of a face in video
JP5187035B2 (en) Imaging apparatus, image processing apparatus, and image processing program
EP2938064B1 (en) Method and apparatus for determining exposure setting
TW201541141A (en) Auto-focus system for multiple lens and method thereof
US20180220114A1 (en) System for controlling projector, information processing apparatus, information processing method, and storage medium
JP2018195084A (en) Image processing apparatus, image processing method, program, and storage medium
JP2016063248A (en) Image processing device and image processing method
JP2016178608A5 (en)
KR101672691B1 (en) Method and apparatus for generating emoticon in social network service platform
JP6395429B2 (en) Image processing apparatus, control method thereof, and storage medium
TW201541143A (en) Auto-focus system for multiple lens and method thereof
CN110619616B (en) Image processing method, device and related equipment
US20200134840A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP2018182700A (en) Image processing apparatus, control method of the same, program, and storage medium
JP6290038B2 (en) Electronic device, method and program
JP2017123589A (en) Information processing apparatus, information processing method, and video projection system
JP2017184136A (en) Information processing device, information processing method, information processing system, and program
US10304168B2 (en) Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium for correcting deterioration of image
JP6373671B2 (en) Electronic device, method and program
JP2015156189A (en) image evaluation device, and image evaluation program
JP6381212B2 (en) Imaging apparatus and control method thereof
JP2017050605A (en) Image processing apparatus and method, imaging device, program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180323

R150 Certificate of patent or registration of utility model

Ref document number: 6313725

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150