JP2007102270A - Image processing apparatus - Google Patents

Image processing apparatus Download PDF

Info

Publication number
JP2007102270A
JP2007102270A JP2005287477A JP2005287477A JP2007102270A JP 2007102270 A JP2007102270 A JP 2007102270A JP 2005287477 A JP2005287477 A JP 2005287477A JP 2005287477 A JP2005287477 A JP 2005287477A JP 2007102270 A JP2007102270 A JP 2007102270A
Authority
JP
Japan
Prior art keywords
image
color
registered
hue
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005287477A
Other languages
Japanese (ja)
Other versions
JP4682782B2 (en
Inventor
Mai Miyawaki
舞 宮脇
Naoya Nakashita
直哉 中下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2005287477A priority Critical patent/JP4682782B2/en
Publication of JP2007102270A publication Critical patent/JP2007102270A/en
Application granted granted Critical
Publication of JP4682782B2 publication Critical patent/JP4682782B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus capable of optimal detection of an area with a registered form and a registered color according to a model image. <P>SOLUTION: An image processing part 6 calculates a hue histogram from the hues of pixels constituting the model image. A control part 4 specifies the hue that assumes a maximum point on the hue histogram, and selects a color filter that maximizes the difference in lightness between the registered color and background color. Using the color filter selected, the image processing part 6 produces a gray level image from an input image obtained from an image pickup part 2, and calculates a correlation value between the gray level image and the registered form read from a storage part 6a, i.e., the gray level image of the model image. Based on the correlation value received from the image processing part 6, the control part 4 determines whether or not the input image contains the area with the registered form and the registered color. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

この発明は取得したカラー画像に登録形状かつ登録色をもつ領域が含まれるか否かを判断する画像処理装置に関し、特に最適な色フィルタを選択する画像処理装置に関するものである。   The present invention relates to an image processing apparatus that determines whether or not an acquired color image includes a region having a registered shape and a registered color, and more particularly to an image processing apparatus that selects an optimal color filter.

製造現場においては、省力化および高効率化の観点から、オートメーション化が進められている。オートメーション化を実現するためには、光、電気、電波、音波などを用いる数多くのセンサ類が使用される。このようなセンサ類の中でも、製品などを撮影し、その撮影した画像を処理することで、当該製品の良否判別や当該製品のID特定を行なうことのできる画像センサがよく用いられている。画像センサによれば、人間の視覚による検出と同様の検出機能を実現できるため、その応用範囲は広い。   In the manufacturing field, automation is being promoted from the viewpoint of labor saving and high efficiency. In order to realize automation, many sensors using light, electricity, radio waves, sound waves and the like are used. Among such sensors, an image sensor is often used that can photograph a product or the like and process the photographed image to determine the quality of the product or identify the ID of the product. According to the image sensor, since the detection function similar to the detection by human vision can be realized, the application range is wide.

従来の画像センサにおいては、カラー情報を含まない濃淡画像に基づいて、登録形状を検出するように構成されたものが一般的であったが、近年の情報技術の進歩に伴い、カラー画像の中から、登録形状かつ登録色をもつ領域を検出する画像センサが実用化されている。   Conventional image sensors are generally configured to detect a registered shape based on a grayscale image that does not include color information. However, with recent advances in information technology, Therefore, an image sensor that detects a region having a registered shape and a registered color has been put into practical use.

従来の濃淡画像による形状検出においては、入力画像を構成する画素の明度(階調値)と、モデル画像を構成する画素の明度とを比較することで、登録形状の検出がなされる。入力画像およびモデル画像の画素は、2次元に配置されるため、画像の明度は、n×m行列(n,m:縦方向および横方向の画素数)として記述することができる。そのため、形状検出には、行列同士の相関値に基づいて判断する手法が一般的に用いられている。   In the conventional shape detection using a grayscale image, the registered shape is detected by comparing the lightness (tone value) of the pixels constituting the input image with the lightness of the pixels constituting the model image. Since the pixels of the input image and the model image are two-dimensionally arranged, the brightness of the image can be described as an n × m matrix (n, m: number of pixels in the vertical and horizontal directions). For this reason, a method of determining based on a correlation value between matrices is generally used for shape detection.

一方、カラー画像を構成する画素の有する色は、光の三原色に基づく赤、緑、青のそれぞれの比率を規定するRGB値などで数値化される。RGB値は、それぞれの値が互いに独立ではないため、登録形状かつ登録色をもつ領域を検出するためには、R値、G値、B値を同時に評価する必要がある。しかしながら、その演算は非常に複雑であり、かつ、検出すべき色に範囲を設定することも困難である。   On the other hand, the colors of the pixels constituting the color image are digitized by RGB values that define the ratios of red, green, and blue based on the three primary colors of light. Since the RGB values are not independent of each other, it is necessary to simultaneously evaluate the R value, the G value, and the B value in order to detect a region having a registered shape and a registered color. However, the calculation is very complicated, and it is difficult to set a range for the color to be detected.

そこで、特許文献1に示されるように、登録色に応じた色フィルタを選定し、かつ、その選定した色フィルタにより入力画像から濃淡画像を生成した後、登録形状の有無を判断することで、登録形状かつ登録色をもつ領域の検出を行なう画像処理装置が考案されている。
特開2005−121368号公報
Therefore, as shown in Patent Document 1, after selecting a color filter corresponding to the registered color and generating a grayscale image from the input image with the selected color filter, by determining the presence or absence of the registered shape, An image processing apparatus for detecting an area having a registered shape and a registered color has been devised.
JP 2005-121368 A

ところで、色フィルタは、複数の色フィルタの中から、入力画像の中で検出対象の領域とそれ以外の領域との明度差(コントラスト)が最大となるものが選択される。しかしながら、検出対象である領域の色と非検出対象である領域の色との差に応じて、明度差が最大となる色フィルタは異なる。そのため、従来の画像処理装置は、最適な色フィルタを選択することができず、ユーザが検出対象に応じて、最適な色フィルタを選択する必要があった。   By the way, as the color filter, a color filter having the maximum brightness difference (contrast) between the detection target area and the other area is selected from the plurality of color filters. However, depending on the difference between the color of the area to be detected and the color of the area to be non-detected, the color filter that maximizes the brightness difference is different. Therefore, the conventional image processing apparatus cannot select an optimal color filter, and the user needs to select an optimal color filter according to a detection target.

そのため、照明や反射率などの様々な撮影条件に応じて、試行錯誤的に色フィルタを選択しなければならず、熟練者のカンや経験に頼らなければ、十分に機能を発揮させることができない場合が多く、かつ、色フィルタを選択する者により設定の巧拙が生じるなどの問題もあった。   Therefore, it is necessary to select a color filter by trial and error according to various shooting conditions such as illumination and reflectance, and the function cannot be fully exerted unless relying on the skill and experience of an expert. In many cases, there are also problems such as the skill of setting by the person who selects the color filter.

そこで、この発明は、かかる問題を解決するためになされたものであり、その目的は、モデル画像に応じて登録形状かつ登録色をもつ領域の最適な検出を実行することのできる画像処理装置を提供することである。   Accordingly, the present invention has been made to solve such a problem, and an object of the present invention is to provide an image processing apparatus capable of performing optimal detection of a region having a registered shape and a registered color in accordance with a model image. Is to provide.

この発明によれば、カラー画像を取得し、その取得した画像に登録形状かつ登録色をもつ領域が含まれるか否かを判断する画像処理装置である。そして、この発明による画像処理装置は、登録形状および登録色を抽出するためのモデル画像を受け、当該モデル画像を構成するそれぞれの画素についての色相を取得する色相取得手段と、色相取得手段において取得される色相に基づいて、モデル画像を構成する画素についての色相ヒストグラムを算出する色相ヒストグラム算出手段と、色相ヒストグラム算出手段において算出される色相ヒストグラムに基づいて、登録色に応じた、カラー画像を濃淡画像に変換するための色フィルタを決定する色フィルタ決定手段と、色フィルタ決定手段において決定される色フィルタを用いて、モデル画像の濃淡画像を生成し、かつ、生成したモデル画像の濃淡画像から登録形状を抽出する登録形状抽出手段と、判断対象となる入力画像を受け、色フィルタを用いて入力画像の濃淡画像を生成し、かつ、生成した入力画像の濃淡画像と登録形状との相関値を算出する相関値算出手段と、相関値算出手段における算出結果に基づいて、入力画像に登録形状かつ登録色をもつ領域が含まれるか否かを判断する判断手段とを備える。   According to the present invention, the image processing apparatus acquires a color image and determines whether or not the acquired image includes a region having a registered shape and a registered color. The image processing apparatus according to the present invention receives a model image for extracting a registered shape and a registered color, and acquires the hue of each pixel constituting the model image, and the hue acquisition unit acquires the hue. A hue histogram calculating means for calculating a hue histogram for the pixels constituting the model image on the basis of the hue, and a color image corresponding to the registered color based on the hue histogram calculated by the hue histogram calculating means. A color filter determining unit that determines a color filter to be converted into an image, and a color filter determined by the color filter determining unit are used to generate a grayscale image of the model image, and from the generated grayscale image of the model image The registered shape extraction means for extracting the registered shape and the input image to be judged are received and A correlation value calculation unit that generates a grayscale image of the input image using the data and calculates a correlation value between the grayscale image of the generated input image and the registered shape, and an input based on a calculation result in the correlation value calculation unit Determining means for determining whether or not the image includes a region having a registered shape and a registered color.

好ましくは、この発明による画像処理装置は、モデル画像を受け、当該モデル画像を構成する画素のうち、登録色に合致する画素数を算出する登録画素数算出手段と、入力画像を受け、当該入力画像を構成する画素のうち、登録色に合致する画素数を算出する画素数算出手段とをさらに備える。そして、判断手段は、相関値算出手段における算出結果に加えて、登録画素数算出手段において算出される画素数と画素数算出手段において算出される画素数との比較に基づいて、登録形状かつ登録色をもつ領域が含まれるか否かを判断する。   Preferably, the image processing apparatus according to the present invention receives the model image, receives the input image, the registered pixel number calculating means for calculating the number of pixels matching the registered color among the pixels constituting the model image, and receives the input Pixel number calculating means for calculating the number of pixels matching the registered color among the pixels constituting the image is further provided. In addition to the calculation result in the correlation value calculation unit, the determination unit registers the registered shape and registration based on the comparison between the number of pixels calculated in the registration pixel number calculation unit and the number of pixels calculated in the pixel number calculation unit. It is determined whether or not an area having a color is included.

好ましくは、判断手段は、相関値算出手段において算出される相関値から、登録画素数算出手段における画素数を基準とした画素数算出手段における画素数の比と所定のしきい範囲との偏差を差引いた値が、所定のしきい値を超過している場合において、登録形状かつ登録色をもつ領域が含まれると判断する。   Preferably, the determination unit calculates a deviation between a ratio of the number of pixels in the pixel number calculation unit and a predetermined threshold range based on the number of pixels in the registered pixel number calculation unit from the correlation value calculated in the correlation value calculation unit. When the subtracted value exceeds a predetermined threshold value, it is determined that an area having a registered shape and a registered color is included.

好ましくは、色フィルタ決定手段は、色相ヒストグラム算出手段において算出される色相ヒストグラムにおいて、色相軸に対して極大値をとる色相値に対応して、色フィルタを決定する。   Preferably, the color filter determining unit determines a color filter corresponding to a hue value having a maximum value with respect to the hue axis in the hue histogram calculated by the hue histogram calculating unit.

好ましくは、色フィルタ決定手段は、色相ヒストグラム算出手段において算出される色相ヒストグラムに基づいて、1または2以上の色フィルタ候補を選定する色フィルタ候補選定手段と、色フィルタ候補選定手段において選定される1または2以上の色フィルタのうち、外部からの選択指令に応じて、いずれか1つの色フィルタを選択する色フィルタ選択手段とを含む。   Preferably, the color filter determining unit is selected by the color filter candidate selecting unit and the color filter candidate selecting unit that select one or more color filter candidates based on the hue histogram calculated by the hue histogram calculating unit. Color filter selection means for selecting any one of the one or more color filters in response to a selection command from the outside.

好ましくは、色相取得手段は、モデル画像のうち登録形状および登録色を抽出する領域を設定するための領域設定指令を外部から受け、領域設定指令に応じて設定される領域に含まれる画素についての色相を取得する。   Preferably, the hue acquisition unit receives a region setting command for setting a region for extracting a registered shape and a registered color from the model image from the outside, and performs a process for pixels included in a region set in accordance with the region setting command. Get the hue.

好ましくは、入力画像は、連続的に搬送される製品を撮影する画像であり、判断手段における判断結果に応じて対象となる製品の良否を判別し、かつ、その良否判別結果を外部へ出力する良否判別手段をさらに備える。   Preferably, the input image is an image in which products that are continuously conveyed are photographed, the quality of the target product is determined according to the determination result in the determination means, and the result of the quality determination is output to the outside. A pass / fail discrimination means is further provided.

この発明によれば、登録形状および登録色を抽出するためのモデル画像を構成する画素についての色相ヒストグラムを算出し、さらに、算出した色相ヒストグラムに基づいて色フィルタを決定する。色相ヒストグラムは、モデル画像に含まれる画素全体に対する色合いの分布であるので、その分布から最も適した色フィルタを選択することができる。よって、モデル画像に応じて、登録形状および登録色をもつ領域の最適な検出を実行する画像処理装置を実現できる。   According to the present invention, the hue histogram for the pixels constituting the model image for extracting the registered shape and the registered color is calculated, and the color filter is determined based on the calculated hue histogram. Since the hue histogram is a distribution of hues for all the pixels included in the model image, the most suitable color filter can be selected from the distribution. Therefore, it is possible to realize an image processing apparatus that performs optimal detection of a region having a registered shape and a registered color according to a model image.

この発明の実施の形態について、図面を参照しながら詳細に説明する。なお、図中の同一または相当部分については、同一符号を付してその説明は繰返さない。   Embodiments of the present invention will be described in detail with reference to the drawings. Note that the same or corresponding parts in the drawings are denoted by the same reference numerals and description thereof will not be repeated.

図1は、この発明の実施の形態に従う画像処理装置1を備える画像センサ装置100の外観図である。   FIG. 1 is an external view of an image sensor device 100 including an image processing device 1 according to an embodiment of the present invention.

図1を参照して、画像センサ装置100は、一例として、製造ライン上などに配置され、連続的に搬送される製品を撮影し、その撮影された画像の中から登録色および登録色とみなされる色を有する領域を特定して、製品の良否などを判断する。また、画像センサ装置100が図示しない他の装置へその判断結果を出力するように構成してもよい。そして、画像センサ装置100は、撮像部2と画像処理装置1とからなり、撮像部2で検出対象の画像を撮影し、画像処理装置1でその撮影された画像が処理される。   Referring to FIG. 1, as an example, the image sensor device 100 photographs products that are arranged on a production line or the like and continuously conveyed, and is regarded as a registered color and a registered color from the captured images. The area having the color to be identified is specified, and the quality of the product is judged. Further, the image sensor device 100 may be configured to output the determination result to another device (not shown). The image sensor device 100 includes the imaging unit 2 and the image processing device 1. The imaging unit 2 captures an image to be detected, and the image processing device 1 processes the captured image.

撮像部2は、画像処理装置1とケーブルを介して接続され、検出対象の撮影に適した位置に配置される。   The imaging unit 2 is connected to the image processing apparatus 1 via a cable, and is arranged at a position suitable for imaging of a detection target.

画像処理装置1は、その一方の表面に表示部8およびスライド式のカバーで覆われた入力部12が配置される。そして、画像処理装置1は、表示部8を介して、ユーザに対して撮像部2で撮影された画像または自己が処理した後の画像を表示し、入力部12を介して与えられるユーザからの指令を受付ける。   The image processing apparatus 1 includes a display unit 8 and an input unit 12 covered with a sliding cover on one surface. Then, the image processing apparatus 1 displays an image captured by the image capturing unit 2 or an image processed by the image processing unit 2 to the user via the display unit 8, and receives from the user given via the input unit 12. Accept the directive.

図2は、画像センサ装置100の概略構成図である。
図2を参照して、撮像部2と接続される画像処理装置1は、表示部8と、入力部12と、出力部14と、制御部4と、画像処理部6と、記憶部10とからなる。
FIG. 2 is a schematic configuration diagram of the image sensor device 100.
Referring to FIG. 2, the image processing apparatus 1 connected to the imaging unit 2 includes a display unit 8, an input unit 12, an output unit 14, a control unit 4, an image processing unit 6, and a storage unit 10. Consists of.

撮像部2は、一例として、CCD(Coupled Charged Device)やCMOS(Complementary Metal Oxide Semiconductor)センサなどの撮像素子およびレンズを備え、検出対象を撮影し、その撮影した画像を画像処理装置1へ出力する。なお、撮像部2が撮影する画像は、静止画像および動画像のいずれでもよい。   As an example, the imaging unit 2 includes an imaging element and a lens such as a CCD (Coupled Charged Device) or a CMOS (Complementary Metal Oxide Semiconductor) sensor, captures a detection target, and outputs the captured image to the image processing apparatus 1. . Note that the image captured by the imaging unit 2 may be either a still image or a moving image.

表示部8は、画像処理部6から撮像部2で撮影された画像または画像処理部6で画像処理された後の画像を受け、ユーザに対して表示する。一例として、表示部8は、液晶ディスプレイ(LCD:Liquid Crystal Display)、ELディスプレイ(Electro Luminescence display)などからなる。   The display unit 8 receives an image captured by the imaging unit 2 or an image processed by the image processing unit 6 from the image processing unit 6 and displays it to the user. As an example, the display unit 8 includes a liquid crystal display (LCD), an EL display (Electro Luminescence display), and the like.

入力部12は、ユーザからの選択指令および領域指定指令などを受け、制御部4へ出力する。後述するように、ユーザは、一例として、画像処理装置1の表面に配置されるキーを操作することで、各指令を与える。   The input unit 12 receives a selection command, a region designation command, and the like from the user and outputs them to the control unit 4. As will be described later, as an example, the user gives each command by operating a key arranged on the surface of the image processing apparatus 1.

なお、表示部8および入力部12は、画像センサ装置100とユーザとの接点となることから、ヒューマン・マシンインターフェイス(HMI:Human Machine Interface)とも総称される。   The display unit 8 and the input unit 12 are collectively referred to as a human machine interface (HMI) because they serve as contact points between the image sensor device 100 and the user.

出力部14は、画像処理部6および制御部4が実行する領域検出の結果を外部へ出力する。一例として、出力部14は、フォトダイオード、トランジスタまたはリレーなどから構成される接点出力(DO)や、USB(Universal Serial Bus)、RS−232C(Recommended Standard 232 version C)、IEEE(Institute of Electrical and Electronic Engineers)1394、SCSI(Small Computer System Interface)およびイーサネット(登録商標)などに従う通信手段などからなる。   The output unit 14 outputs the results of area detection performed by the image processing unit 6 and the control unit 4 to the outside. As an example, the output unit 14 includes a contact output (DO) composed of a photodiode, a transistor, or a relay, USB (Universal Serial Bus), RS-232C (Recommended Standard 232 version C), IEEE (Institute of Electrical and It consists of communication means in accordance with Electronic Engineers (1394), Small Computer System Interface (SCSI), Ethernet (registered trademark), and the like.

画像処理部6、制御部4および記憶部10は、バス16を介して互いに接続され、データの授受を行なう。   The image processing unit 6, the control unit 4, and the storage unit 10 are connected to each other via a bus 16 and exchange data.

制御部4は、入力部12からの指令に応じて、「ティーチングモード」または「検出モード」のいずれかのモードで動作する。「ティーチングモード」においては、制御部4は、画像処理部6が撮像部2から取得する画像をモデル画像と認識し、画像処理部6と協働して色フィルタの決定、登録形状および登録色の抽出を実行する。また、「検出モード」においては、制御部4は、撮像部2が画像処理部6から取得する画像を検出対象が撮影された入力画像と認識し、画像処理部6と協働して登録形状かつ登録色を有する領域が含まれるか否かを判断する。   The control unit 4 operates in either a “teaching mode” or a “detection mode” in accordance with a command from the input unit 12. In the “teaching mode”, the control unit 4 recognizes an image acquired by the image processing unit 6 from the imaging unit 2 as a model image, and cooperates with the image processing unit 6 to determine a color filter, a registered shape, and a registered color. Perform the extraction. In the “detection mode”, the control unit 4 recognizes an image acquired by the imaging unit 2 from the image processing unit 6 as an input image in which a detection target is captured, and cooperates with the image processing unit 6 to register a registered shape. In addition, it is determined whether or not an area having a registered color is included.

記憶部10は、不揮発性の記憶媒体であり、制御部4における実行プログラムやユーザにより与えられた設定値などを格納する。一例として、記憶部10は、半導体メモリやハードディスクドライブ(HDD)などからなり、また、インターフェイス部および着脱可能な記録媒体で構成してもよい。なお、記録媒体としては、フラッシュメモリなどの不揮発性メモリ、磁気テープ、磁気ディスクおよび光磁気ディスクなどがある。   The storage unit 10 is a non-volatile storage medium, and stores an execution program in the control unit 4, a set value given by the user, and the like. As an example, the storage unit 10 includes a semiconductor memory, a hard disk drive (HDD), or the like, and may include an interface unit and a removable recording medium. The recording medium includes a nonvolatile memory such as a flash memory, a magnetic tape, a magnetic disk, and a magneto-optical disk.

また、画像処理部6は、制御部4からヒューマン・マシンインターフェイスに用いる表示文字や表示図柄などの表示データを受け、表示部8上に表示する。   The image processing unit 6 receives display data such as display characters and display symbols used for the human-machine interface from the control unit 4 and displays them on the display unit 8.

まず、「ティーチングモード」における機能について説明する。
画像処理部6は、撮像部2からモデル画像を受け、モデル画像を構成する2次元に配置された複数の画素のそれぞれについて、色相を取得する。なお、CCDやCMOSセンサからなる撮像部2から画像処理部6へ出力される映像信号、および画像処理部6から液晶ディスプレイなどからなる表示部8へ与える映像信号は、RGB値で規定される信号であるので、画像処理部6は、処理内容に応じて、RGBの色パラメータと、色相・明度・彩度の色パラメータとを相互に変換する。以下では、色相・明度・彩度を色の三属性とも称し、色相・明度・彩度の色パラメータを三属性の色パラメータとも称す。
First, functions in the “teaching mode” will be described.
The image processing unit 6 receives a model image from the imaging unit 2 and acquires a hue for each of a plurality of pixels arranged in two dimensions that form the model image. Note that a video signal output from the imaging unit 2 including a CCD or CMOS sensor to the image processing unit 6 and a video signal supplied from the image processing unit 6 to the display unit 8 including a liquid crystal display are signals defined by RGB values. Therefore, the image processing unit 6 mutually converts RGB color parameters and hue, brightness, and saturation color parameters according to the processing content. Hereinafter, hue, lightness, and saturation are also referred to as three color attributes, and hue, lightness, and saturation color parameters are also referred to as three attribute color parameters.

一例として、画像処理部6は、FPGA(Field Programmable Gate Array)などのLSIで構成される。そして、画像処理部6は、少なくとも1フレーム分の画素の色パラメータ、画像処理に必要な設定値およびワークデータを格納する記憶部6aを含む。なお、記憶部6aは、高速なデータアクセスが要求されるため、SRAM(Static Random Access Memory)などからなる。   As an example, the image processing unit 6 is configured by an LSI such as an FPGA (Field Programmable Gate Array). The image processing unit 6 includes a storage unit 6a that stores color parameters of pixels for at least one frame, setting values necessary for image processing, and work data. The storage unit 6a is composed of an SRAM (Static Random Access Memory) or the like because high-speed data access is required.

そして、画像処理部6は、モデル画像を構成するそれぞれの画素についての色相から色相毎の画素数の分布、すなわち色相ヒストグラムを算出し、制御部4へ出力する。なお、制御部4は、入力部12を介して、領域設定指令を受けると、画像処理部6へその領域設定指令を与える。すると、画像処理部6は、撮像部2から受けたモデル画像のうち、領域設定指令に対応する領域に含まれる画素についてのみ色相を算出する。そのため、画像処理部6は、領域設定指令に対応する領域に含まれる画素についての色相ヒストグラムを算出することになる。   Then, the image processing unit 6 calculates a distribution of the number of pixels for each hue, that is, a hue histogram from the hues of the respective pixels constituting the model image, and outputs them to the control unit 4. When the control unit 4 receives a region setting command via the input unit 12, the control unit 4 gives the region setting command to the image processing unit 6. Then, the image processing unit 6 calculates the hue only for the pixels included in the region corresponding to the region setting command in the model image received from the imaging unit 2. Therefore, the image processing unit 6 calculates a hue histogram for the pixels included in the region corresponding to the region setting command.

制御部4は、画像処理部6から受けた色相ヒストグラムに基づいて、登録色に応じた、カラー画像を濃淡画像に変換するための色フィルタを決定する。具体的には、色相ヒストグラム上において極大点をとる色相を特定し、登録色および背景色の明度差が最大となるような色フィルタを選択する。   Based on the hue histogram received from the image processing unit 6, the control unit 4 determines a color filter for converting a color image into a grayscale image according to the registered color. Specifically, the hue having the maximum point on the hue histogram is specified, and a color filter that maximizes the brightness difference between the registered color and the background color is selected.

なお、制御部4は、色相ヒストグラム上において極大点をとる色相に基づいて、抽出すべき登録色のRGBの相対比率を導出し、そのRGBの相対比率から色フィルタを動的に生成してもよい。   Note that the control unit 4 may derive the RGB relative ratio of the registered color to be extracted based on the hue having the maximum point on the hue histogram, and dynamically generate a color filter from the RGB relative ratio. Good.

さらに、制御部4は、色相ヒストグラム上において極大点をとる複数の色相に基づいて、複数の色フィルタ候補を選定し、かつ、入力部12を介して与えられる選択指令に応じて、選定した複数の色フィルタの中からいずれか1つを選択するようにしてもよい。   Further, the control unit 4 selects a plurality of color filter candidates based on a plurality of hues having a maximum point on the hue histogram, and selects a plurality of selected color filters according to a selection command given via the input unit 12. Any one of the color filters may be selected.

そして、制御部4は、色フィルタの選択指令を画像処理部6へ与え、画像処理部6は、カラー画像であるモデル画像から濃淡画像を生成する。そして、画像処理部6は、生成した濃淡画像を登録形状として記憶部6aに格納する。   Then, the control unit 4 gives a color filter selection command to the image processing unit 6, and the image processing unit 6 generates a grayscale image from the model image which is a color image. Then, the image processing unit 6 stores the generated grayscale image in the storage unit 6a as a registered shape.

また、制御部4は、画像処理部6から受けた色相ヒストグラムに基づいて、登録色を規定する色相条件を決定する。そして、制御部4は、決定した色相条件を画像処理部6の記憶部6aに格納し、画像処理部6は、モデル画像を構成する画素のうち、制御部4から与えられた色相条件に合致する画素数を算出する。そして、画像処理部6は、算出した画素数を記憶部6aに格納する。   Further, the control unit 4 determines a hue condition that defines a registered color based on the hue histogram received from the image processing unit 6. Then, the control unit 4 stores the determined hue condition in the storage unit 6a of the image processing unit 6, and the image processing unit 6 matches the hue condition given from the control unit 4 among the pixels constituting the model image. The number of pixels to be calculated is calculated. Then, the image processing unit 6 stores the calculated number of pixels in the storage unit 6a.

次に、「検出モード」における機能について説明する。
画像処理部6は、選択中されている色フィルタを用いて、撮像部2から取得した入力画像から濃淡画像を生成する。そして、画像処理部6は、生成した濃淡画像と記憶部6aから読出した登録形状、すなわちモデル画像の濃淡画像との相関値を算出する。そして、画像処理部6は、算出した相関値を制御部4へ出力する。また、制御部4は、画像処理部6から受けた相関値に基づいて、入力画像に登録形状かつ登録色をもつ領域が含まれるか否かを判断する。
Next, functions in the “detection mode” will be described.
The image processing unit 6 generates a grayscale image from the input image acquired from the imaging unit 2 using the selected color filter. Then, the image processing unit 6 calculates a correlation value between the generated grayscale image and the registered shape read from the storage unit 6a, that is, the grayscale image of the model image. Then, the image processing unit 6 outputs the calculated correlation value to the control unit 4. Further, the control unit 4 determines whether or not an area having a registered shape and a registered color is included in the input image based on the correlation value received from the image processing unit 6.

さらに、画像処理部6は、撮像部2から取得した入力画像を構成する画素の各々についての色相を取得し、記憶部6aから読出した色相条件に合致する画素数を算出する。そして、画像処理部6は、入力画像から算出した画素数および記憶部6aに格納するモデル画像から算出した画素数を制御部4へ出力する。そして、制御部4は、画像処理部6から受けたモデル画像における画素数と入力画像における画素数とを比較し、入力画像に登録形状かつ登録色をもつ領域が含まれるか否かを判断する。   Further, the image processing unit 6 acquires the hue for each of the pixels constituting the input image acquired from the imaging unit 2, and calculates the number of pixels that match the hue condition read from the storage unit 6a. Then, the image processing unit 6 outputs the number of pixels calculated from the input image and the number of pixels calculated from the model image stored in the storage unit 6 a to the control unit 4. Then, the control unit 4 compares the number of pixels in the model image received from the image processing unit 6 with the number of pixels in the input image, and determines whether the input image includes a region having a registered shape and a registered color. .

したがって、制御部4は、濃淡画像における相関値ならびにモデル画像において色相条件に合致する画素数および入力画像において色相条件に合致する画素数に応じて、入力画像に登録形状かつ登録色をもつ領域が含まれるか否かを判断する。具体的には、制御部4は、濃淡画像についての相関値から、モデル画像を構成する色相条件に合致する画素数を基準とした入力画像の画素数の比と所定のしきい範囲との偏差を差引いた値が、所定のしきい値を超過している場合において、入力画像に登録形状かつ登録色をもつ領域が含まれると判断する。   Therefore, the control unit 4 determines that there are regions having a registered shape and a registered color in the input image according to the correlation value in the grayscale image and the number of pixels that match the hue condition in the model image and the number of pixels that match the hue condition in the input image. Judge whether it is included. Specifically, the control unit 4 calculates the deviation between the ratio of the number of pixels of the input image based on the number of pixels matching the hue condition constituting the model image and the predetermined threshold range from the correlation value for the grayscale image. When the value obtained by subtracting the value exceeds a predetermined threshold value, it is determined that the input image includes a region having a registered shape and a registered color.

なお、上述の説明では、制御部4が、濃淡画像における相関値と、色相条件に合致する画素数とに基づいて判断を行なう場合について説明したが、濃淡画像における相関値のみから判断することが可能である。すなわち、この発明の実施の形態に従う画像処理装置1は、登録色に応じて最適な色フィルタを選択し、登録色をもつ領域とそれ以外の領域との明度差を大きくする濃淡画像を生成する。この生成された濃淡画像は、主として登録色をもつ領域を抽出した画像と等価であるから、続いて、登録形状との合致を判断することで、登録形状かつ登録色をもつ領域が含まれるか否かを判断することができる。   In the above description, the case where the control unit 4 performs the determination based on the correlation value in the grayscale image and the number of pixels that match the hue condition has been described. However, the determination can be made only from the correlation value in the grayscale image. Is possible. In other words, the image processing apparatus 1 according to the embodiment of the present invention selects an optimum color filter according to the registered color, and generates a grayscale image that increases the brightness difference between the region having the registered color and the other region. . Since the generated grayscale image is equivalent to an image mainly obtained by extracting an area having a registered color, whether or not an area having a registered shape and a registered color is included by determining a match with the registered shape. It can be determined whether or not.

このような濃淡画像による判断に加えて、色相条件に合致する画素数に基づく、異なる観点からの判断を行なうことで、判断精度をより向上させることができる。   In addition to the determination based on the grayscale image, the determination accuracy can be further improved by performing the determination from different viewpoints based on the number of pixels matching the hue condition.

さらに、制御部4は、撮像部2が連続的に搬送される製品などを撮影する場合において、領域判断の結果に応じて、撮像部2で撮影された製品の良否を判別し、出力部14を介してその良否判別結果を外部へ出力する。   Further, when the imaging unit 2 captures a product or the like that is continuously conveyed, the control unit 4 determines the quality of the product captured by the imaging unit 2 according to the result of area determination, and outputs the output unit 14. The pass / fail judgment result is output to the outside via the.

この発明の実施の形態においては、画像処理部6が「色相取得手段」、「色相ヒストグラム算出手段」、「登録形状抽出手段」、「相関値算出手段」、「登録画素数算出手段」および「画素数算出手段」を実現し、制御部4が「色フィルタ決定手段」、「判断手段」、「色フィルタ候補選定手段」、「色フィルタ選択手段」および「良否判別手段」を実現する。   In the embodiment of the present invention, the image processing unit 6 performs “hue acquisition unit”, “hue histogram calculation unit”, “registered shape extraction unit”, “correlation value calculation unit”, “registered pixel number calculation unit”, and “ The pixel number calculation means is realized, and the control unit 4 realizes “color filter determination means”, “determination means”, “color filter candidate selection means”, “color filter selection means”, and “good / bad determination means”.

(ヒューマン・マシンインターフェイス)
図3は、この発明の実施の形態に従う画像処理装置1における入力部12の外観図である。
(Human Machine Interface)
FIG. 3 is an external view of input unit 12 in image processing apparatus 1 according to the embodiment of the present invention.

図3を参照して、入力部12は、「A」「B」「C」「D」の4種類の入力を受付ける選択キー20と、「上」「下」「右」「左」の4方向の指示を受付ける十字キー22と、TEACH/VIEWキー24と、ESCキー26と、SETキー28とを含む。そして、ユーザは、表示部8上の表示内容に応じて、入力部12を操作して各指令を制御部4へ与える
図4は、この発明の実施の形態に従う画像処理装置1におけるティーチングモードでの表示態様の一例を示す図である。
Referring to FIG. 3, the input unit 12 includes a selection key 20 that accepts four types of inputs “A”, “B”, “C”, and “D”, and four keys “up”, “down”, “right”, and “left”. A cross key 22 for receiving a direction instruction, a TEACH / VIEW key 24, an ESC key 26, and a SET key 28 are included. Then, according to the display content on display unit 8, the user operates input unit 12 to give each command to control unit 4. FIG. 4 is a teaching mode in image processing apparatus 1 according to the embodiment of the present invention. It is a figure which shows an example of the display mode of.

図4を参照して、表示部8は、画像処理装置1の動作状態などを表示する状態表示欄30と、撮像部2で撮影される画像または画像処理部6における処理後の画像などを表示する画像表示欄32と、ユーザの操作内容などを表示する操作内容表示欄34とを含む。   With reference to FIG. 4, the display unit 8 displays a state display field 30 for displaying an operation state of the image processing apparatus 1, an image taken by the imaging unit 2, an image after processing in the image processing unit 6, and the like. And an operation content display column 34 for displaying user operation content and the like.

ティーチングモードが選択されると、画像処理部6は、撮像部2から映像信号を受け、撮像部2で撮影されるモデル画像40を画像表示欄32に表示する。一例として、モデル画像40は、長方形の基材42上に基材42と異なる色の星型のマーク44が配置されている物体の画像である。また、画像処理部6は、制御部4から表示データを受け、検出モードにおけるサーチ領域設定の受付状態である旨を状態表示欄30に表示し、かつ、入力可能な指令と選択キー20との対応付けを操作内容表示欄34に表示する。   When the teaching mode is selected, the image processing unit 6 receives the video signal from the imaging unit 2 and displays the model image 40 captured by the imaging unit 2 in the image display field 32. As an example, the model image 40 is an image of an object in which a star mark 44 having a color different from that of the base material 42 is arranged on a rectangular base material 42. In addition, the image processing unit 6 receives display data from the control unit 4, displays in the status display column 30 that the search area setting is accepted in the detection mode, and can input an instruction that can be input and the selection key 20. The association is displayed in the operation content display field 34.

表示態様ST10において、画像処理部6は、サーチ領域46を画像表示欄32上のモデル画像に重ねて表示し、サーチ領域46のサイズ変更を受付ける。サーチ領域46は、検出モードにおいて取得する画像のうち、検出範囲を設定するためのものである。また、画像処理部6は、サーチ領域46のサイズ変更の受付状態である旨を状態表示欄30に表示し、かつ、入力可能な指令と十字キー22との対応付けを操作内容表示欄34に表示する。ここで、ユーザは、図3に示す十字キー22を操作し、所望のサーチ領域46のサイズを設定する。   In the display mode ST10, the image processing unit 6 displays the search area 46 so as to overlap the model image on the image display field 32, and accepts the size change of the search area 46. The search area 46 is for setting a detection range among images acquired in the detection mode. In addition, the image processing unit 6 displays in the status display column 30 that the search area 46 is in a state of accepting the size change, and associates an inputable command with the cross key 22 in the operation content display column 34. indicate. Here, the user operates the cross key 22 shown in FIG. 3 to set a desired size of the search area 46.

サーチ領域46のサイズ設定が完了すると、ユーザは、図3に示すSETキー28を押圧する。ユーザからのSETキー28の入力を受け、画像処理部6は、サーチ領域46の表示を維持したまま、サーチ領域46の移動を受付ける(表示態様ST12)。また、画像処理部6は、サーチ領域46の移動の受付状態である旨を状態表示欄30に表示し、かつ、入力可能な指令と十字キー22との対応付けを操作内容表示欄34に表示する。ここで、ユーザは、十字キー22を操作し、所望のサーチ領域46の位置を設定する。   When the size setting of the search area 46 is completed, the user presses the SET key 28 shown in FIG. Receiving the input of the SET key 28 from the user, the image processing unit 6 accepts the movement of the search area 46 while maintaining the display of the search area 46 (display mode ST12). Further, the image processing unit 6 displays in the status display column 30 that the search region 46 is in the accepting state of movement, and displays an association between the command that can be input and the cross key 22 in the operation content display column 34. To do. Here, the user operates the cross key 22 to set the desired position of the search area 46.

サーチ領域46の位置設定が完了すると、ユーザは、SETキー28を押圧する。ユーザからのSETキーの入力を受け、画像処理部6は、モデル領域48を画像表示欄32上のモデル画像に重ねて表示し、モデル領域48のサイズ変更を受付ける(表示態様ST1)。モデル領域48は、モデル画像から候補色を抽出する領域を設定するためのものである。また、画像処理部6は、モデル領域48のサイズ変更の受付状態である旨を状態表示欄30に表示し、かつ、入力可能な指令と十字キー22との対応付けを操作内容表示欄34に表示する。ここで、ユーザは、十字キー22を操作し、所望のモデル領域48のサイズを設定する。   When the position setting of the search area 46 is completed, the user presses the SET key 28. In response to the input of the SET key from the user, the image processing unit 6 displays the model area 48 superimposed on the model image on the image display field 32, and accepts the size change of the model area 48 (display mode ST1). The model area 48 is for setting an area for extracting candidate colors from the model image. In addition, the image processing unit 6 displays in the status display column 30 that the model region 48 is in the state of accepting the size change, and associates the input command with the cross key 22 in the operation content display column 34. indicate. Here, the user operates the cross key 22 to set the size of the desired model area 48.

モデル領域48のサイズ設定が完了すると、ユーザは、SETキー28を押圧する。ユーザからのSETキー28の入力を受け、画像処理部6は、モデル領域48の表示を維持したまま、モデル領域48の移動を受付ける(表示態様ST16)。また、画像処理部6は、モデル領域48の移動の受付状態である旨を状態表示欄30に表示し、かつ、入力可能な指令と十字キー22との対応付けを操作内容表示欄34に表示する。さらに、ユーザは、十字キー22を操作し、所望のモデル領域48の位置を設定する。   When the size setting of the model area 48 is completed, the user presses the SET key 28. In response to the input of the SET key 28 from the user, the image processing unit 6 accepts the movement of the model area 48 while maintaining the display of the model area 48 (display mode ST16). Further, the image processing unit 6 displays in the status display column 30 that the model region 48 is in the accepting state of movement, and displays an association between the command that can be input and the cross key 22 in the operation content display column 34. To do. Further, the user operates the cross key 22 to set the position of the desired model area 48.

なお、表示態様ST14およびST16において、画像処理部6は、画像表示欄32より小さいサイズをモデル領域48の初期サイズ設定(デフォルトサイズ設定)とし、画像表示欄32の中心をモデル領域48の初期位置設定(デフォルト位置設定)として表示する。これは、一般的に検出対象は、撮像部2の撮影範囲に収まるように撮影されるため、モデル領域48は画像表示欄32より小さいサイズとなる。そのため、モデル領域48を画像表示欄32より小さくしておくことで、ユーザによる設定操作を軽減できる。   In the display modes ST14 and ST16, the image processing unit 6 sets the size smaller than the image display column 32 as the initial size setting (default size setting) of the model region 48, and sets the center of the image display column 32 as the initial position of the model region 48. Display as setting (default position setting). This is because, generally, the detection target is shot so as to be within the shooting range of the imaging unit 2, so the model region 48 is smaller than the image display column 32. Therefore, setting the model area 48 smaller than the image display field 32 can reduce the setting operation by the user.

モデル領域48の位置設定が完了すると、ユーザは、SETキー28を押圧する。ユーザからのSETキー28の入力を受け、制御部4および画像処理部6は、最適な色フィルタを決定し、当該色フィルタにより生成された濃淡画像を画像表示欄32に表示するとともに、決定された色フィルタの種類を操作内容表示欄34に表示する(表示態様ST18)。同時に、制御部4および画像処理部6は、登録色を規定する色相条件に合致する画素数を算出し、操作内容表示欄34に表示する。   When the position setting of the model area 48 is completed, the user presses the SET key 28. In response to the input of the SET key 28 from the user, the control unit 4 and the image processing unit 6 determine an optimal color filter, and display and display the grayscale image generated by the color filter in the image display field 32. The type of the color filter is displayed in the operation content display field 34 (display mode ST18). At the same time, the control unit 4 and the image processing unit 6 calculate the number of pixels that match the hue condition that defines the registered color, and display it in the operation content display field 34.

ユーザは、ティーチング内容を確認すると、SETキー28を押圧する。ユーザからのSETキー28の入力を受け、制御部4および画像処理部6は、ティーチング処理を終了する。   When the user confirms the teaching content, the user presses the SET key 28. In response to the input of the SET key 28 from the user, the control unit 4 and the image processing unit 6 end the teaching process.

上述のようなヒューマン・マシンインターフェイスにより、この発明の実施の形態に従う画像処理装置1は、ティーチング処理を実行する。   With the human-machine interface as described above, image processing apparatus 1 according to the embodiment of the present invention executes teaching processing.

(色フィルタ決定処理)
上述したように、制御部4および画像処理部6は、モデル画像の色相ヒストグラムに基づいて最適な色フィルタを決定する。以下、色フィルタ決定処理について詳述する。
(Color filter decision processing)
As described above, the control unit 4 and the image processing unit 6 determine an optimal color filter based on the hue histogram of the model image. Hereinafter, the color filter determination process will be described in detail.

画像処理部6は、ティーチングモードにおいて、撮像部2から受けたモデル画像を構成するそれぞれの画素についての色相を取得し、色相ヒストグラムを算出する。ここで、撮像部2から出力される信号は、RGB値で規定される映像信号である。これは、光の三原色に基づいて、それぞれR(赤)、G(緑)、B(青)に感応する受光素子から得られる信号を統合したものである。そこで、画像処理部6は、所定の変換式に基づいて、RGBの色パラメータと三属性の色パラメータとを相互に変換する。なお、三属性の色パラメータを記述する座標系は複数存在し、JIS(Z8729)に規定されるL表色系、L表色系、ハンターLab表色系、XYZ表色系などが提案されているが、いずれの表色系を用いてもよい。また、RGBの色パラメータとの間の変換式は表色系毎に異なる。 In the teaching mode, the image processing unit 6 acquires the hue for each pixel constituting the model image received from the imaging unit 2 and calculates a hue histogram. Here, the signal output from the imaging unit 2 is a video signal defined by RGB values. This is an integration of signals obtained from light receiving elements sensitive to R (red), G (green), and B (blue) based on the three primary colors of light. Therefore, the image processing unit 6 mutually converts the RGB color parameters and the three attribute color parameters based on a predetermined conversion formula. There are a plurality of coordinate systems that describe the color parameters of the three attributes, and the L * a * b * color system, L * c * h * color system, Hunter Lab color system specified in JIS (Z8729). , XYZ color system, etc. have been proposed, but any color system may be used. Also, the conversion formula between RGB color parameters differs for each color system.

なお、画像処理部6は、入力部12を介して入力される領域設定指令に応じて、モデル画像を構成する画素のうち、モデル領域48に含まれる画素のみから色相ヒストグラムを算出する。   Note that the image processing unit 6 calculates a hue histogram from only the pixels included in the model region 48 among the pixels constituting the model image in response to the region setting command input via the input unit 12.

図5は、色相ヒストグラムに基づく色フィルタの決定方法を説明するための図である。なお、図5に示すヒストグラムは、図4に示すモデル画像40についての色相ヒストグラムの例である。   FIG. 5 is a diagram for explaining a method of determining a color filter based on the hue histogram. The histogram shown in FIG. 5 is an example of a hue histogram for the model image 40 shown in FIG.

図5を参照して、モデル画像40に含まれる星型のマーク44および基材42のそれぞれの色に対応して、色相ヒストグラム上には2つの分布ピークが生じる。そこで、制御部4は、色相ヒストグラム上において生じる分布ピークに応じて、モデル画像40に含まれる色の色相を検出し、色フィルタを選択する。   Referring to FIG. 5, two distribution peaks are generated on the hue histogram corresponding to the colors of the star mark 44 and the base material 42 included in the model image 40. Therefore, the control unit 4 detects the hue of the color included in the model image 40 in accordance with the distribution peak generated on the hue histogram, and selects a color filter.

ここで、色フィルタは、カラー画像を明度だけで規定される濃淡画像(グレイ画像)に変換する機能をもち、所定の変換式に基づいて、カラー画像を構成する画素のRGB値から明度を算出することで実現される。このような色フィルタとして(1)式に示される変換式が知られている。   Here, the color filter has a function of converting a color image into a grayscale image (gray image) defined only by lightness, and calculates lightness from RGB values of pixels constituting the color image based on a predetermined conversion formula. It is realized by doing. As such a color filter, a conversion formula shown in the formula (1) is known.

V=α×R+β×G+γ×B・・・(1)
但し、V:明度、α,β,γ:色フィルタに応じた定数である。
V = α × R + β × G + γ × B (1)
However, V: brightness, α, β, γ: constants according to the color filter.

しかしながら、(1)式に示される色フィルタでは、検出対象の色と非検出対象の色が互いに同一の彩度をもつ場合には、色相が異なっていても、同一の明度に変換されることがあった。そこで、この発明の実施の形態に従う画像処理装置1においては、色相が異なる色同士は、たとえ同一の彩度をもつ場合であっても、異なる明度として変換されるように、(2)式に示される色フィルタを採用する。   However, in the color filter shown in the expression (1), when the color of the detection target and the color of the non-detection target have the same saturation, they are converted to the same lightness even if the hues are different. was there. Therefore, in the image processing device 1 according to the embodiment of the present invention, the colors having different hues are converted into different brightness values even if they have the same saturation, Adopt the color filter shown.

V=Vmax−|SR−R|−|SG−G|−|SB−B|・・・(2)
但し、Vmax:最大明度、SR,SG,SB:色フィルタに応じたR,G,Bの基準値である。
V = Vmax− | SR−R | − | SG−G | − | SB−B | (2)
However, Vmax: maximum brightness, SR, SG, SB: R, G, B reference values corresponding to the color filters.

(2)式に示される変換式は、変換対象の色と基準値SR,SG,SBで規定される基準色との差異を白色(最大明度)との明度差として表現する色フィルタである。そして、画像処理装置1は、光の三原色である「赤」、「緑」、「青」をそれぞれ抽出する赤フィルタ(Rフィルタ)、緑フィルタ(Gフィルタ)、青フィルタ(Bフィルタ)を備える。また、画像処理装置1は、グレイフィルタをさらに備える。したがって、制御部4は、上述した4種類の色フィルタの中から最適な色フィルタを選択する。表1にそれぞれの色フィルタにおける基準値SR,SG,SBを示す。なお、表中のSR1,SG1,SB1,SR2,SG2,SB2は、いずれも階調値内の任意の値(0を除く)である。   The conversion formula shown in the formula (2) is a color filter that expresses the difference between the color to be converted and the reference color defined by the reference values SR, SG, and SB as a brightness difference from white (maximum brightness). The image processing apparatus 1 includes a red filter (R filter), a green filter (G filter), and a blue filter (B filter) that extract “red”, “green”, and “blue”, which are the three primary colors of light. . The image processing apparatus 1 further includes a gray filter. Therefore, the control unit 4 selects an optimum color filter from the four types of color filters described above. Table 1 shows reference values SR, SG, and SB in the respective color filters. In the table, SR1, SG1, SB1, SR2, SG2, and SB2 are all arbitrary values (excluding 0) within the gradation value.

すなわち、それぞれの色フィルタは、基準値SR,SG,SBで規定される色を中心とした濃淡画像を生成する。   That is, each color filter generates a grayscale image centered on the color defined by the reference values SR, SG, and SB.

図6は、色フィルタの機能を説明するための図である。
図6(a)は、三属性の色パラメータ別に色を表現した表色図である。
FIG. 6 is a diagram for explaining the function of the color filter.
FIG. 6A is a color chart representing colors for each of the three attribute color parameters.

図6(b)は、図6(a)に示す表色図からこの発明の実施の形態に従う青フィルタを用いて生成した濃淡画像である。   FIG. 6B is a grayscale image generated from the color chart shown in FIG. 6A using the blue filter according to the embodiment of the present invention.

図6(a)を参照して、一例として、この発明の実施の形態に従う青フィルタは、青色を基準色とし、青色に近接する色が高い明度をもつように濃淡画像を生成する。   Referring to FIG. 6A, as an example, the blue filter according to the embodiment of the present invention generates a grayscale image so that blue is a reference color and a color close to blue has high brightness.

図6(b)を参照して、この発明の実施の形態に従う青フィルタは、領域60の中心に位置する青色を最大の明度とし、領域60の中心位置から離れるに従い明度を低下させるような濃淡画像を生成する。また、この発明の実施の形態に従う青フィルタは、領域60の範囲外に存在する色の明度をゼロ、すなわち黒色に変換する。そのため、領域60に含まれる色とそれ以外の領域に存在する色との明度差を大きくすることができる。   Referring to FIG. 6B, the blue filter according to the embodiment of the present invention has the lightness that reduces the lightness as the blue light located at the center of region 60 has the maximum lightness and goes away from the center position of region 60. Generate an image. In addition, the blue filter according to the embodiment of the present invention converts the lightness of the color existing outside the region 60 to zero, that is, black. Therefore, the brightness difference between the color included in the region 60 and the color existing in the other region can be increased.

図7は、近接した色に対するこの発明の実施の形態に従う色フィルタの効果を説明するための図である。   FIG. 7 is a diagram for explaining the effect of the color filter according to the embodiment of the present invention on adjacent colors.

図7(a)は、「赤」および「黄赤」に対してこの発明の実施の形態に従う赤フィルタを適用した場合の例である。   FIG. 7A shows an example in which the red filter according to the embodiment of the present invention is applied to “red” and “yellow red”.

図7(b)は、「赤」および「黄」に対してこの発明の実施の形態に従う赤フィルタを適用した場合の例である。   FIG. 7B shows an example in which the red filter according to the embodiment of the present invention is applied to “red” and “yellow”.

図7(c)は、「赤」および「茶」に対してこの発明の実施の形態に従う赤フィルタを適用した場合の例である。   FIG. 7C shows an example in which the red filter according to the embodiment of the present invention is applied to “red” and “brown”.

図7(a)を参照して、「赤」および「黄赤」は、明度が互いに同一であり、かつ、色相がわずかに異なる色の組合せである。そのため、濃淡画像に変換する場合には、明度差が生じにくいが、この発明の実施の形態に従う赤フィルタによれば、形状判定を行なうための明度差を十分に確保することができる。   Referring to FIG. 7A, “red” and “yellow red” are combinations of colors having the same lightness and slightly different hues. Therefore, when converting to a grayscale image, a lightness difference is unlikely to occur. However, according to the red filter according to the embodiment of the present invention, a sufficient lightness difference for shape determination can be ensured.

図7(b)を参照して、「赤」および「黄」は、彩度が互いに同一であり、かつ、色相が異なる色の組合せである。そのため、濃淡画像に変換する場合には、明度差が生じにくいが、この発明の実施の形態に従う赤フィルタによれば、形状判定を行なうための明度差を十分に確保することができる。   Referring to FIG. 7B, “red” and “yellow” are combinations of colors having the same saturation and different hues. Therefore, when converting to a grayscale image, a lightness difference is unlikely to occur. However, according to the red filter according to the embodiment of the present invention, a sufficient lightness difference for shape determination can be ensured.

図7(c)を参照して、「赤」および「黄赤」は、色相が互いに同一であり、かつ、明度が異なる色の組合せである。そのため、濃淡画像に変換する場合には、明度差が生じにくいが、この発明の実施の形態に従う赤フィルタによれば、形状判定を行なうための明度差を十分に確保することができる。   Referring to FIG. 7C, “red” and “yellow red” are combinations of colors having the same hue and different brightness. Therefore, when converting to a grayscale image, a lightness difference is unlikely to occur. However, according to the red filter according to the embodiment of the present invention, a sufficient lightness difference for shape determination can be ensured.

上述したように、この発明の実施の形態に従う色フィルタによれば、近似した色同士であっても、十分な明度差をもつ濃淡画像を生成することができる。   As described above, according to the color filter according to the embodiment of the present invention, it is possible to generate a grayscale image having a sufficient brightness difference even between approximate colors.

再度、図5を参照して、制御部4は、色フィルタを選択するための最初の手順として、色相ヒストグラム上の極大点および極小点を検出する。そして、制御部4は、検出した極大点をとる色相hおよびhを取得し、それぞれ色相hおよびhから隣接する極小点までの色相幅、または画素数しきい値Pthと色相ヒストグラムとの交点までの色相幅のいずれか小さい方の幅で規定される領域をモデル画像中に含まれる色の色相範囲とする。なお、画素数しきい値Pthは、画像に含まれるノイズなどの影響を抑制するため、分布する画素数のうち、有効であると判断できる最低限の画素数を規定するものである。 Referring to FIG. 5 again, as a first procedure for selecting a color filter, control unit 4 detects a maximum point and a minimum point on the hue histogram. Then, the control unit 4 acquires the hues h 1 and h 2 that take the detected maximum points, and the hue width from the hues h 1 and h 2 to the adjacent local minimum point, or the pixel number threshold value P th and the hue, respectively. An area defined by the smaller one of the hue widths up to the intersection with the histogram is set as the hue range of the colors included in the model image. Note that the pixel number threshold P th defines a minimum number of pixels that can be determined to be effective among the number of distributed pixels in order to suppress the influence of noise or the like included in the image.

図5に示す色相ヒストグラムにおいては、極大点をとる色相hおよびhからそれぞれ隣接する極小点までの色相幅に比較して、画素数しきい値Pthと色相ヒストグラムとの交点までの色相幅の方が小さいので、色相ヒストグラムと画素数しきい値Pthを示す直線とで囲まれた分布領域S1およびS2が抽出される。 In the hue histogram shown in FIG. 5, the hue up to the intersection of the pixel number threshold value P th and the hue histogram is compared with the hue width from the hues h 1 and h 2 taking the maximum points to the adjacent minimum points. Since the width is smaller, the distribution regions S1 and S2 surrounded by the hue histogram and the straight line indicating the pixel number threshold value Pth are extracted.

そして、制御部4は、抽出した分布領域S1およびS2の分布頻度面積(それぞれの領域に含まれる画素数の合計値)を算出し、その分布頻度面積が大きい順に第1色および第2色と決定する。多くの場合、第1色および第2色は、それぞれ検出対象の背景色および登録色に相当する。すなわち、登録色は、色相ヒストグラム上において、分布頻度面積が第2番目に大きい色である場合が多い。なお、図5においては、分布領域S1の分布頻度面積>分布領域S2の分布頻度面積が成立するため、分布領域S1が背景色、すなわち基材42に相当し、分布領域S2が登録色、すなわちマーク44に相当する。なお、分布頻度面積による順位付けに限らず、各領域の最大画素数(ピーク値)が高い順に第1色および第2色を決定してもよい。   Then, the control unit 4 calculates the distribution frequency areas of the extracted distribution regions S1 and S2 (the total value of the number of pixels included in each region), and the first color and the second color in descending order of the distribution frequency area. decide. In many cases, the first color and the second color correspond to a background color and a registered color to be detected, respectively. That is, the registered color is often the color having the second largest distribution frequency area on the hue histogram. In FIG. 5, since the distribution frequency area of the distribution region S1> the distribution frequency area of the distribution region S2 is established, the distribution region S1 corresponds to the background color, that is, the base material 42, and the distribution region S2 corresponds to the registered color, that is, It corresponds to the mark 44. Note that the first color and the second color may be determined in descending order of the maximum number of pixels (peak value) in each region, without being limited to the ranking based on the distribution frequency area.

そして、制御部4は、抽出した分布領域S1およびS2の色相の範囲(h1min〜h1maxおよびh2min〜h2max)から、それぞれの領域が「赤」、「緑」、「青」および「グレイ」の4種類のうち、いずれの色に属するかを判断する。すなわち、制御部4は、それぞれ第1色および第2色を「赤」、「緑」、「青」および「グレイ」のいずれかに分類する。なお、色相は、「色合い」を規定するものであり、色相に基づいていずれの色に属するかを一意に決定できる。 Then, the control unit 4 determines that the respective regions are “red”, “green”, “blue”, and “blue” from the hue ranges (h1 min to h1 max and h2 min to h2 max ) of the extracted distribution regions S1 and S2. It is determined which one of the four types of “Gray” belongs to. That is, the control unit 4 classifies the first color and the second color as one of “red”, “green”, “blue”, and “gray”, respectively. The hue defines “hue”, and it can be uniquely determined which color it belongs to based on the hue.

さらに、制御部4は、分類された第1色および第2色の色種別に応じて、表2に示す条件に基づいて、色フィルタを決定する。   Furthermore, the control unit 4 determines a color filter based on the conditions shown in Table 2 in accordance with the classified color types of the first color and the second color.

表2に示す条件は、第1色に対する第2色の明度差が最大となるような色フィルタを決定する組合せであり、第2色の色種別に対応する色フィルタが決定される。   The conditions shown in Table 2 are combinations that determine a color filter that maximizes the lightness difference between the second color and the first color, and the color filter corresponding to the color type of the second color is determined.

以上のような手順に従い、制御部4は、背景色に相当する第1色と登録色に相当する第2色との明度差が最大となるように、色フィルタを決定する。   According to the above procedure, the control unit 4 determines the color filter so that the brightness difference between the first color corresponding to the background color and the second color corresponding to the registered color is maximized.

なお、上述の説明では、一例として、4種類の色フィルタの中から最適なフィルタを選択する構成について説明したが、これ以外にさまざまな色フィルタを用いることができる。たとえば、上述の赤フィルタ、緑フィルタ、青フィルタは、それぞれ対応するR,G,Bの基準値SR,SG,SBに0以外の任意の値をもち、かつ、他の2つの基準値に0を固定値としてもつが、基準値SR,SG,SBのうち2つの基準値に0以外の任意の値をもち、かつ、他の1つの基準値に0を固定値としてもつような中間色の色フィルタを用いることもできる。また、色フィルタの種類および数は、所望する登録色の判断精度に応じて設計すればよい。   In the above description, the configuration for selecting the optimum filter from the four types of color filters has been described as an example, but various color filters can be used in addition to this. For example, the above-described red filter, green filter, and blue filter have arbitrary values other than 0 for the corresponding reference values SR, SG, and SB of R, G, and B, respectively, and 0 for the other two reference values. Is a fixed value, but two of the reference values SR, SG, and SB have an arbitrary value other than 0, and one of the other reference values has a fixed value of 0. A filter can also be used. Further, the type and number of color filters may be designed according to the desired registration color determination accuracy.

図8は、色フィルタ決定処理および登録形状抽出処理を実現するためのフローチャートである。   FIG. 8 is a flowchart for realizing the color filter determination process and the registered shape extraction process.

図8を参照して、画像処理部6は、撮像部2からモデル画像を取得する(ステップS100)。そして、画像処理部6は、制御部4から入力部12を介して入力される領域設定指令を受けたか否かを判断する(ステップS102)。領域設定指令を受けた場合(ステップS102においてYESの場合)には、画像処理部6は、モデル画像を構成する画素のうち、領域設定指令に対応する領域に含まれる画素についての色相を取得する(ステップS104)。領域設定指令を受けていない場合(ステップS102においてNOの場合)には、画像処理部6は、モデル画像を構成するすべての画素についての色相を取得する(ステップS106)。   Referring to FIG. 8, the image processing unit 6 acquires a model image from the imaging unit 2 (step S100). Then, the image processing unit 6 determines whether an area setting command input from the control unit 4 via the input unit 12 has been received (step S102). When the region setting command is received (YES in step S102), the image processing unit 6 acquires the hue of the pixels included in the region corresponding to the region setting command among the pixels constituting the model image. (Step S104). When the region setting command has not been received (NO in step S102), the image processing unit 6 acquires the hues for all the pixels constituting the model image (step S106).

そして、画像処理部6は、取得したそれぞれの画素の色相から、色相ヒストグラムを算出し、制御部4へ出力する(ステップS108)。   Then, the image processing unit 6 calculates a hue histogram from the acquired hue of each pixel, and outputs it to the control unit 4 (step S108).

制御部4は、画像処理部6から受けた色相ヒストグラム上の極大点および極小点を抽出する(ステップS110)。そして、制御部4は、抽出した色相ヒストグラム上の極大点のうち、第1の極大点を選択する(ステップS112)。さらに、制御部4は、上述した手順に従い、選択した極大点についての分布領域を決定する(ステップS114)。なお、第1の極大点とは、色相順や極大値などのいずれかの規則に従って配列された極大点のうち、第1番目に配置された極大点を意味する。   The control unit 4 extracts local maximum points and local minimum points on the hue histogram received from the image processing unit 6 (step S110). And the control part 4 selects the 1st maximum point among the maximum points on the extracted hue histogram (step S112). Further, the control unit 4 determines a distribution region for the selected local maximum point according to the above-described procedure (step S114). Note that the first maximum point means a maximum point arranged first among the maximum points arranged according to any rule such as hue order or maximum value.

その後、制御部4は、選択している極大点が抽出した極大点のうち最後の極大点であるか否かを判断する(ステップS116)。最後の極大点でない場合(ステップS116においてNOの場合)には、制御部4は、次の極大点を選択し(ステップS118)、ステップS114およびS116を繰返し実行する。   Thereafter, the control unit 4 determines whether or not the selected maximum point is the last maximum point among the extracted maximum points (step S116). If it is not the last maximum point (NO in step S116), the control unit 4 selects the next maximum point (step S118), and repeatedly executes steps S114 and S116.

最後の極大点である場合(ステップS116においてYESの場合)には、制御部4は、色相ヒストグラム上において、それぞれの分布領域の分布頻度面積を算出し、分布頻度面積が大きい順に第1色および第2色を決定する(ステップS120)。そして、制御部4は、決定した第1色および第2色に応じて、色フィルタを決定し(ステップS120)、決定した色フィルタの選択指令を画像処理部6へ与える。   When it is the last maximum point (YES in step S116), the control unit 4 calculates the distribution frequency area of each distribution region on the hue histogram, and the first color and A second color is determined (step S120). Then, the control unit 4 determines a color filter according to the determined first color and second color (step S120), and gives a selection command for the determined color filter to the image processing unit 6.

画像処理部6は、制御部4から受けた選択指令に応じた色フィルタを用いて、モデル画像から濃淡画像を生成する(ステップS122)。そして、画像処理部6は、生成した濃淡画像を登録形状として記憶部6aに格納する(ステップS124)。すると、制御部4および画像処理部6は、一連の処理を終了する。   The image processing unit 6 uses the color filter corresponding to the selection command received from the control unit 4 to generate a grayscale image from the model image (step S122). Then, the image processing unit 6 stores the generated grayscale image as a registered shape in the storage unit 6a (step S124). Then, the control unit 4 and the image processing unit 6 end a series of processes.

(色フィルタ決定処理の変形例1)
上述した実施の形態においては、予め定められた複数の色フィルタの中から最適な色フィルタを選択する構成について説明したが、モデル画像に応じて、動的に色フィルタを生成してもよい。
(Modification 1 of color filter determination processing)
In the above-described embodiment, the configuration for selecting an optimum color filter from a plurality of predetermined color filters has been described. However, a color filter may be dynamically generated according to a model image.

具体的には、制御部4は、色相ヒストグラムから抽出した第2色に相当する色相から登録色のRGBの相対比率を導出する。ここで、RGBの相対比率とは、R,G,B間の相対的な比率(R:G:B;R+G+B=1)であり、色合いを規定する色相から一意に導出することができる。さらに、制御部4は、導出したRGBの相対比率に基づいて、濃淡画像を生成するための中心色、すなわち基準値SR,SG,SBを決定する。一例として、制御部4は、RGBの相対比率に所定の明度をもたせるための係数を乗算して基準値SR,SG,SBを決定する。   Specifically, the control unit 4 derives the RGB relative ratio of the registered color from the hue corresponding to the second color extracted from the hue histogram. Here, the relative ratio of RGB is a relative ratio between R, G, and B (R: G: B; R + G + B = 1), and can be uniquely derived from a hue that defines a hue. Further, the control unit 4 determines a center color for generating a grayscale image, that is, reference values SR, SG, and SB, based on the derived relative ratio of RGB. As an example, the control unit 4 determines the reference values SR, SG, and SB by multiplying the relative ratio of RGB by a coefficient for giving a predetermined brightness.

そして、制御部4は、上述の処理と同様に、決定した色フィルタを用いてモデル画像から濃淡画像を生成する。   And the control part 4 produces | generates a grayscale image from a model image using the determined color filter similarly to the above-mentioned process.

なお、第2色に相当する色相に限らず、色相ヒストグラム上の極大点をとる複数の色相に基づいて複数の色フィルタを生成してよい。   In addition, you may produce | generate a several color filter based not only on the hue corresponded to 2nd color but on the several hue which takes the maximum point on a hue histogram.

(色フィルタ決定処理の変形例2)
色相ヒストグラムにおいて、3以上の極大点(領域)が存在する場合には、いずれの領域を第1色および第2色とするかによって、複数の色種別の組合せが生じ得る。そこで、制御部4は、分布頻度面積の順に第1色および第2色を決定する構成に代えて、所定値以上の分布頻度面積を有する領域を抽出し、抽出した領域から導出される複数の色の組合せに基づいて、複数の色フィルタ候補を選定するように構成してもよい。そして、制御部4は、表示部8に複数の色フィルタの候補を表示し、入力部12を介して外部から与えられる選択指令に応じて、当該複数の色フィルタ候補の中から色フィルタを選択してもよい。
(Modification 2 of color filter determination processing)
In the hue histogram, when there are three or more local maximum points (regions), a combination of a plurality of color types may occur depending on which region is the first color and the second color. Therefore, instead of the configuration in which the first color and the second color are determined in the order of the distribution frequency area, the control unit 4 extracts a region having a distribution frequency area equal to or greater than a predetermined value, and a plurality of values derived from the extracted region A plurality of color filter candidates may be selected based on the combination of colors. Then, the control unit 4 displays a plurality of color filter candidates on the display unit 8, and selects a color filter from the plurality of color filter candidates in accordance with a selection command given from the outside via the input unit 12. May be.

図9は、色フィルタ決定処理の変形例2に従うティーチングモードにおける表示態様の一例を示す図である。   FIG. 9 is a diagram illustrating an example of a display mode in the teaching mode according to the second modification of the color filter determination process.

図9を参照して、制御部4および画像処理部6は、図4に示す表示態様ST16において、ユーザからのSETキー28の入力を受けると、複数の色フィルタを選定し、ユーザによる選択指令を受付ける(表示態様ST17)。なお、画像処理部6は、ユーザフレンドリの観点から、色フィルタの種類(名称)に代えて、それぞれの色フィルタの選定において用いた登録色(第2色)56を表示してもよい。ユーザは、十字キー22を操作し、画面上の選択枠50をいずれかの登録色56に移動させ、所望の色フィルタを選択する。ユーザによる色フィルタの選択を受け、画像処理部6は、選択された色フィルタにより変換された濃淡画像を表示する(表示態様ST18aおよびST18b)。そして、ユーザは、表示される濃淡画像を確認して最適な色フィルタを指定するための選択指令を与える。   Referring to FIG. 9, control unit 4 and image processing unit 6 select a plurality of color filters upon receiving an input of SET key 28 from the user in display mode ST16 shown in FIG. Is received (display mode ST17). Note that the image processing unit 6 may display the registered color (second color) 56 used in selecting each color filter instead of the type (name) of the color filter from the viewpoint of user friendliness. The user operates the cross key 22 to move the selection frame 50 on the screen to one of the registered colors 56 and select a desired color filter. In response to the selection of the color filter by the user, the image processing unit 6 displays the grayscale image converted by the selected color filter (display modes ST18a and ST18b). Then, the user confirms the displayed gray image and gives a selection command for designating an optimum color filter.

すると、制御部4は、ユーザから与えられる選択指令に応じて、色フィルタを決定する。   Then, the control part 4 determines a color filter according to the selection command given from a user.

(登録画素数算出処理)
この発明の実施の形態に従う画像処理装置1は、色フィルタにより生成された濃淡画像に基づく登録色および登録形状の判断に加えて、登録色に合致する画素の数に基づいて登録色の判断を行なう。そのため、画像処理装置1は、ティーチングモードにおいて、モデル画像を構成する画素のうち、登録色に合致する画素数を算出する。
(Registered pixel count calculation process)
The image processing apparatus 1 according to the embodiment of the present invention determines the registered color based on the number of pixels matching the registered color, in addition to the registered color and registered shape based on the grayscale image generated by the color filter. Do. Therefore, the image processing apparatus 1 calculates the number of pixels that match the registered color among the pixels constituting the model image in the teaching mode.

再度、図5を参照して、制御部4は、色フィルタ決定処理において抽出した分布領域S1およびS2のうち、登録色を示す分布領域S2(第2色)から色相条件を決定する。色相条件は、登録色とみなされる色の範囲を規定するものであり、色相条件に合致する画素について登録色をもつと判断する。   Referring to FIG. 5 again, the control unit 4 determines the hue condition from the distribution region S2 (second color) indicating the registered color among the distribution regions S1 and S2 extracted in the color filter determination process. The hue condition defines a color range that is regarded as a registered color, and it is determined that a pixel that matches the hue condition has a registered color.

すなわち、制御部4は、図5に示す分布領域S2から得られる色相の範囲(h2min〜h2max)を登録色の色相条件に決定する。そして、制御部4は、決定した色相条件を画像処理部6の記憶部6aに格納し、画像処理部6は、モデル画像を構成する画素のうち、制御部4から与えられた色相条件に合致する画素数を算出する。そして、画像処理部6は、算出した画素数を記憶部6aに格納する。 That is, the control unit 4 determines the hue range (h2 min to h2 max ) obtained from the distribution region S2 illustrated in FIG. 5 as the hue condition of the registered color. Then, the control unit 4 stores the determined hue condition in the storage unit 6a of the image processing unit 6, and the image processing unit 6 matches the hue condition given from the control unit 4 among the pixels constituting the model image. The number of pixels to be calculated is calculated. Then, the image processing unit 6 stores the calculated number of pixels in the storage unit 6a.

なお、登録色をもつ画素数をより正確に算出するため、色相条件に加えて、明度条件および彩度条件を規定してもよい。具体的には、制御部4は、モデル画像を構成する画素の中から、色相しきい条件に合致する画素を抽出する。そして、制御部4は、抽出した画素の各々がもつ明度および彩度を取得し、その中での最大値および最小値をそれぞれ取得する。さらに、制御部4は、取得した明度の最大値および最小値から明度条件を決定し、取得した彩度の最大値および最小値から彩度条件を決定する。一方、画像処理部6は、モデル画像を構成する画素のうち、色相条件、明度条件および彩度条件のすべてに合致する画素数を算出する。   In addition to the hue condition, the brightness condition and the saturation condition may be defined in order to calculate the number of pixels having the registered color more accurately. Specifically, the control unit 4 extracts pixels that match the hue threshold condition from the pixels that form the model image. And the control part 4 acquires the lightness and the saturation which each of the extracted pixel has, and acquires the maximum value and the minimum value in it, respectively. Further, the control unit 4 determines the lightness condition from the acquired maximum value and minimum value of lightness, and determines the saturation condition from the acquired maximum value and minimum value of saturation. On the other hand, the image processing unit 6 calculates the number of pixels that match all of the hue condition, lightness condition, and saturation condition among the pixels constituting the model image.

図10は、登録画素数算出処理を実現するためのフローチャートである。
図10を参照して、制御部4および画像処理部6は、図8に示すフローチャートにおけるステップS100〜ステップS120と同様の処理を行なう(ステップS200)。
FIG. 10 is a flowchart for realizing the registered pixel number calculation process.
Referring to FIG. 10, control unit 4 and image processing unit 6 perform the same processing as steps S100 to S120 in the flowchart shown in FIG. 8 (step S200).

制御部4は、決定した第2色の色相範囲に応じて登録色の色相条件を決定する(ステップS202)。そして、制御部4は、決定した色相条件を画像処理部6へ与える。   The control unit 4 determines the hue condition of the registered color according to the determined hue range of the second color (step S202). Then, the control unit 4 gives the determined hue condition to the image processing unit 6.

画像処理部6は、モデル画像を構成する画素のうち、制御部4から与えられた色相条件に合致する画素を抽出する(ステップS204)。そして、画像処理部6は、抽出した画素の数をカウントする(ステップS206)。さらに、画像処理部6は、得られた画素数を登録色に合致する画素数として記憶部6aに格納する(ステップS208)。すると、制御部4および画像処理部6は、一連の処理を終了する。   The image processing unit 6 extracts a pixel that matches the hue condition given from the control unit 4 from the pixels constituting the model image (step S204). Then, the image processing unit 6 counts the number of extracted pixels (step S206). Further, the image processing unit 6 stores the obtained number of pixels in the storage unit 6a as the number of pixels matching the registered color (step S208). Then, the control unit 4 and the image processing unit 6 end a series of processes.

(検出処理)
上述したように、この発明の実施の形態に従う画像処理装置1は、ティーチングモードにおいて、モデル画像から登録形状および登録色に合致する画素数を取得し、その登録形状および画素数に基づいて、入力画像に登録形状および登録色をもつ領域が含まれるか否かを判断する。
(Detection process)
As described above, the image processing apparatus 1 according to the embodiment of the present invention acquires the number of pixels matching the registered shape and the registered color from the model image in the teaching mode, and inputs based on the registered shape and the number of pixels. It is determined whether or not the image includes a region having a registered shape and a registered color.

まず、画像処理部6は、選択されている色フィルタを用いて、撮像部2から取得した入力画像から濃淡画像を生成する。そして、画像処理部6は、生成した濃淡画像と記憶部6aに格納している登録形状との相関値を算出する。   First, the image processing unit 6 generates a grayscale image from the input image acquired from the imaging unit 2 using the selected color filter. Then, the image processing unit 6 calculates a correlation value between the generated grayscale image and the registered shape stored in the storage unit 6a.

同時に、画像処理部6は、撮像部2から取得した入力画像を構成する画素のうち、色相条件に合致する画素数を算出する。そして、制御部4は、記憶部6aに格納しているモデル画像の画素数を基準とした入力画像の画素数の比が所定のしきい範囲内であるか否かを判断する。さらに、制御部4は、画素数の比が所定のしきい範囲内でない場合には、その偏差を算出する。   At the same time, the image processing unit 6 calculates the number of pixels that match the hue condition among the pixels constituting the input image acquired from the imaging unit 2. Then, the control unit 4 determines whether or not the ratio of the number of pixels of the input image based on the number of pixels of the model image stored in the storage unit 6a is within a predetermined threshold range. Furthermore, the control part 4 calculates the deviation, when the ratio of the number of pixels is not within a predetermined threshold range.

最終的に、制御部4は、算出された相関値から、所定のしきい範囲に対する画素数の比の偏差を差引いた値が、所定のしきい値を超過している場合において、入力画像に登録形状かつ登録色をもつ領域が含まれると判断する。   Finally, the control unit 4 determines that the value obtained by subtracting the deviation of the ratio of the number of pixels with respect to the predetermined threshold range from the calculated correlation value exceeds the predetermined threshold value. It is determined that an area having a registered shape and a registered color is included.

一例として、画素数の比に対する所定のしきい範囲として90%〜110%を採用し、判断の基準となる所定のしきい値として80%を採用した場合における処理について説明する。たとえば、相関値として95%が算出され、画素数の比として80%が算出されると、制御部4は、画素数の比に対する所定のしきい範囲と画素数の比との偏差、90%−80%=10%を算出する。そして、制御部4は、相関値からこの偏差を差引いた値、95%−10%=85%を算出し、判断の基準となる所定のしきい値を超過しているか否かを判断する。この例においては、所定のしきい値80%を超過するので、制御部4は、入力画像に登録形状かつ登録色をもつ領域が含まれると判断することになる。   As an example, a process when 90% to 110% is adopted as a predetermined threshold range with respect to the ratio of the number of pixels and 80% is adopted as a predetermined threshold value as a criterion for determination will be described. For example, when 95% is calculated as the correlation value and 80% is calculated as the ratio of the number of pixels, the control unit 4 determines that the deviation between the predetermined threshold range and the ratio of the number of pixels is 90% with respect to the ratio of the number of pixels. Calculate −80% = 10%. Then, the control unit 4 calculates a value obtained by subtracting the deviation from the correlation value, 95% -10% = 85%, and determines whether or not a predetermined threshold value serving as a determination criterion is exceeded. In this example, since the predetermined threshold value 80% is exceeded, the control unit 4 determines that an area having a registered shape and a registered color is included in the input image.

なお、制御部4がその判断結果を出力部14から外部へ出力するように構成してもよい。   In addition, you may comprise so that the control part 4 may output the judgment result from the output part 14 to the exterior.

図11は、検出処理を実現するためのフローチャートである。
図11を参照して、画像処理部6は、撮像部2から入力画像を取得する(ステップS300)。なお、画像処理部6は、取得した入力画像に対する補正を行なうようにしてよい。一例として、画像処理部6は、取得した入力画像に対して予め定められた量のホワイトバランス調整を行なう。そして、画像処理部6は、選択されている色フィルタを用いて、撮像部2から取得した入力画像から濃淡画像を生成する(ステップS302)。さらに、画像処理部6は、生成した濃淡画像と記憶部6aに格納している登録形状との相関値を算出する(ステップS304)。
FIG. 11 is a flowchart for realizing the detection process.
Referring to FIG. 11, the image processing unit 6 acquires an input image from the imaging unit 2 (step S300). Note that the image processing unit 6 may correct the acquired input image. As an example, the image processing unit 6 performs a predetermined amount of white balance adjustment on the acquired input image. Then, the image processing unit 6 generates a grayscale image from the input image acquired from the imaging unit 2 using the selected color filter (step S302). Further, the image processing unit 6 calculates a correlation value between the generated grayscale image and the registered shape stored in the storage unit 6a (step S304).

また、画像処理部6は、取得した入力画像を構成する画素の各々についての色相を取得する(ステップS306)。そして、画像処理部6は、記憶部6aに格納している色相条件に合致する画素数を算出する(ステップS308)。   Further, the image processing unit 6 acquires the hue for each of the pixels constituting the acquired input image (step S306). Then, the image processing unit 6 calculates the number of pixels that match the hue condition stored in the storage unit 6a (step S308).

制御部4は、画像処理部6から登録形状との相関値を取得する(ステップS310)。また、制御部4は、画像処理部6からおよびモデル画像の画素数および算出された画素数を取得し、モデル画像の画素数に対する入力画像の画素数の比を算出する(ステップS312)。そして、制御部4は、相関値から画素数の比におけるしきい範囲からの偏差を差引いた値が所定のしきい値を超過しているか否かを判断する(ステップS314)。   The control unit 4 acquires a correlation value with the registered shape from the image processing unit 6 (step S310). Further, the control unit 4 acquires the number of pixels of the model image and the calculated number of pixels from the image processing unit 6, and calculates the ratio of the number of pixels of the input image to the number of pixels of the model image (step S312). Then, the control unit 4 determines whether or not the value obtained by subtracting the deviation from the threshold range in the ratio of the number of pixels from the correlation value exceeds a predetermined threshold value (step S314).

所定のしきい値を超過している場合(ステップS314においてYESの場合)には、制御部4は、登録形状かつ登録色をもつ領域が含まれると判断し(ステップS316)、表示部8や出力部14を介してその判断結果を出力する。そして、制御部4は、処理を終了する。   If the predetermined threshold value is exceeded (YES in step S314), control unit 4 determines that an area having a registered shape and a registered color is included (step S316), and display unit 8 or The determination result is output via the output unit 14. And the control part 4 complete | finishes a process.

所定のしきい値を超過していない場合(ステップS314においてNOの場合)には、制御部4は、登録形状かつ登録色をもつ領域が含まれていないと判断し(ステップS318)、表示部8や出力部14を介してその判断結果を出力する。そして、制御部4は、処理を終了する。   If the predetermined threshold value is not exceeded (NO in step S314), the control unit 4 determines that an area having a registered shape and a registered color is not included (step S318), and the display unit 8 and the determination result are output via the output unit 14. And the control part 4 complete | finishes a process.

上述のように、この発明の実施の形態に従う画像処理装置1は、取得した画像に登録形状かつ登録色をもつ領域が含まれるか否かを判断する。   As described above, image processing apparatus 1 according to the embodiment of the present invention determines whether or not an acquired image includes a region having a registered shape and a registered color.

なお、画像処理部6に十分な処理能力がある場合には、処理速度の高速化の観点から、図11に示すフローチャートにおいて、ステップS302,S304とステップS306,S308とを並列実行することが望ましい。   If the image processing unit 6 has sufficient processing capability, it is desirable to execute steps S302 and S304 and steps S306 and S308 in parallel in the flowchart shown in FIG. 11 from the viewpoint of increasing the processing speed. .

この発明の実施の形態によれば、登録形状および登録色を抽出するためのモデル画像を構成する画素についての色相ヒストグラムを算出し、さらに、算出した色相ヒストグラムに基づいて色フィルタを決定する。色相ヒストグラムは、モデル画像に含まれる画素全体に対する色合いの分布であるので、その分布から最も適した色フィルタを選択することができる。よって、ユーザのカンや経験に関わらず、モデル画像に応じて、登録形状および登録色をもつ領域の検出を最適に実行する画像処理装置を実現できる。さらに、色フィルタの設定操作を短時間で完了することができる。   According to the embodiment of the present invention, the hue histogram is calculated for the pixels constituting the model image for extracting the registered shape and registered color, and the color filter is determined based on the calculated hue histogram. Since the hue histogram is a distribution of hues for all the pixels included in the model image, the most suitable color filter can be selected from the distribution. Therefore, it is possible to realize an image processing apparatus that optimally executes detection of a region having a registered shape and a registered color according to a model image regardless of the user's can and experience. Furthermore, the color filter setting operation can be completed in a short time.

また、この発明の実施の形態によれば、色フィルタにより生成された濃淡画像に基づく登録形状および登録色の判定に加えて、登録色に合致する画素数に基づいて、登録色の判定を行なう。よって、特に、登録形状と同一形状をもち、かつ、登録色と異なる色をもつ領域を誤って検出する可能性を抑制できる。   Further, according to the embodiment of the present invention, in addition to determining the registered shape and registered color based on the grayscale image generated by the color filter, the registered color is determined based on the number of pixels matching the registered color. . Therefore, in particular, the possibility of erroneously detecting a region having the same shape as the registered shape and having a color different from the registered color can be suppressed.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

この発明の実施の形態に従う画像処理装置を備える画像センサ装置の外観図である。1 is an external view of an image sensor device including an image processing device according to an embodiment of the present invention. 画像センサ装置の概略構成図である。It is a schematic block diagram of an image sensor apparatus. この発明の実施の形態に従う画像処理装置における入力部の外観図である。It is an external view of the input part in the image processing apparatus according to the embodiment of the present invention. この発明の実施の形態に従う画像処理装置におけるティーチングモードでの表示態様の一例を示す図である。It is a figure which shows an example of the display mode in the teaching mode in the image processing apparatus according to embodiment of this invention. 色相ヒストグラムに基づく色フィルタの決定方法を説明するための図である。It is a figure for demonstrating the determination method of the color filter based on a hue histogram. 色フィルタの機能を説明するための図である。It is a figure for demonstrating the function of a color filter. 近接した色に対するこの発明の実施の形態に従う色フィルタの効果を説明するための図である。It is a figure for demonstrating the effect of the color filter according to embodiment of this invention with respect to the color which adjoined. 色フィルタ決定処理および登録形状抽出処理を実現するためのフローチャートである。It is a flowchart for implement | achieving a color filter determination process and a registered shape extraction process. 色フィルタ決定処理の変形例2に従うティーチングモードにおける表示態様の一例を示す図である。It is a figure which shows an example of the display mode in the teaching mode according to the modification 2 of a color filter determination process. 登録画素数算出処理を実現するためのフローチャートである。It is a flowchart for implement | achieving a registration pixel number calculation process. 検出処理を実現するためのフローチャートである。It is a flowchart for implement | achieving a detection process.

符号の説明Explanation of symbols

1 画像処理装置、2 撮像部、4 制御部、6 画像処理部、6a 記憶部、8 表示部、10 記憶部、12 入力部、14 出力部、16 バス、20 選択キー、22 十字キー、24 TEACH/VIEWキー、26 ESCキー、28 SETキー、30 状態表示欄、32 画像表示欄、34 操作内容表示欄、40 モデル画像、42 基材、44 マーク、46 サーチ領域、48 モデル領域、50 選択枠、56 登録色、60 領域、100 画像センサ装置、S1,S2 分布領域。 DESCRIPTION OF SYMBOLS 1 Image processing apparatus, 2 Imaging part, 4 Control part, 6 Image processing part, 6a Storage part, 8 Display part, 10 Storage part, 12 Input part, 14 Output part, 16 Bus, 20 Selection key, 22 Cross key, 24 TEACH / VIEW key, 26 ESC key, 28 SET key, 30 status display field, 32 image display field, 34 operation content display field, 40 model image, 42 base material, 44 mark, 46 search area, 48 model area, 50 selection Frame, 56 registered colors, 60 areas, 100 image sensor devices, S1, S2 distribution areas.

Claims (7)

カラー画像を取得し、その取得した画像に登録形状かつ登録色をもつ領域が含まれるか否かを判断する画像処理装置であって、
前記登録形状および前記登録色を抽出するためのモデル画像を受け、当該モデル画像を構成するそれぞれの画素についての色相を取得する色相取得手段と、
前記色相取得手段において取得される色相に基づいて、前記モデル画像を構成する画素についての色相ヒストグラムを算出する色相ヒストグラム算出手段と、
前記色相ヒストグラム算出手段において算出される前記色相ヒストグラムに基づいて、前記登録色に応じた、カラー画像を濃淡画像に変換するための色フィルタを決定する色フィルタ決定手段と、
前記色フィルタ決定手段において決定される前記色フィルタを用いて、前記モデル画像の濃淡画像を生成し、かつ、生成した前記モデル画像の濃淡画像から前記登録形状を抽出する登録形状抽出手段と、
判断対象となる入力画像を受け、前記色フィルタを用いて前記入力画像の濃淡画像を生成し、かつ、生成した前記入力画像の濃淡画像と前記登録形状との相関値を算出する相関値算出手段と、
前記相関値算出手段における算出結果に基づいて、前記入力画像に前記登録形状かつ前記登録色をもつ領域が含まれるか否かを判断する判断手段とを備える、画像処理装置。
An image processing apparatus that acquires a color image and determines whether or not the acquired image includes a region having a registered shape and a registered color,
A hue acquisition means for receiving a model image for extracting the registered shape and the registered color, and acquiring a hue for each pixel constituting the model image;
A hue histogram calculation means for calculating a hue histogram for the pixels constituting the model image based on the hue acquired by the hue acquisition means;
A color filter determining unit that determines a color filter for converting a color image into a grayscale image according to the registered color, based on the hue histogram calculated by the hue histogram calculating unit;
Using the color filter determined by the color filter determining means, generating a grayscale image of the model image, and a registered shape extracting means for extracting the registered shape from the generated grayscale image of the model image;
Correlation value calculating means for receiving an input image to be determined, generating a gray image of the input image using the color filter, and calculating a correlation value between the generated gray image of the input image and the registered shape When,
An image processing apparatus comprising: a determination unit configured to determine whether the input image includes an area having the registered shape and the registered color based on a calculation result in the correlation value calculating unit.
前記モデル画像を受け、当該モデル画像を構成する画素のうち、前記登録色に合致する画素数を算出する登録画素数算出手段と、
前記入力画像を受け、当該入力画像を構成する画素のうち、前記登録色に合致する画素数を算出する画素数算出手段とをさらに備え、
前記判断手段は、前記相関値算出手段における算出結果に加えて、前記登録画素数算出手段において算出される画素数と前記画素数算出手段において算出される画素数との比較に基づいて、前記登録形状かつ前記登録色をもつ領域が含まれるか否かを判断する、請求項1に記載の画像処理装置。
A registered pixel number calculating means for receiving the model image and calculating the number of pixels matching the registered color among the pixels constituting the model image;
A pixel number calculating means for receiving the input image and calculating the number of pixels matching the registered color among the pixels constituting the input image;
In addition to the calculation result in the correlation value calculation unit, the determination unit is configured to perform the registration based on a comparison between the number of pixels calculated in the registration pixel number calculation unit and the number of pixels calculated in the pixel number calculation unit. The image processing apparatus according to claim 1, wherein it is determined whether an area having a shape and the registered color is included.
前記判断手段は、前記相関値算出手段において算出される相関値から、前記登録画素数算出手段における画素数を基準とした前記画素数算出手段における画素数の比と所定のしきい範囲との偏差を差引いた値が、所定のしきい値を超過している場合において、前記登録形状かつ前記登録色をもつ領域が含まれると判断する、請求項2に記載の画像処理装置。   The determination means is a deviation between a ratio of the number of pixels in the pixel number calculation means and a predetermined threshold range based on the number of pixels in the registration pixel number calculation means from the correlation value calculated in the correlation value calculation means. The image processing apparatus according to claim 2, wherein when the value obtained by subtracting is exceeding a predetermined threshold, it is determined that an area having the registered shape and the registered color is included. 前記色フィルタ決定手段は、前記色相ヒストグラム算出手段において算出される前記色相ヒストグラムにおいて、色相軸に対して極大値をとる色相値に対応して、前記色フィルタを決定する、請求項1〜3のいずれか1項に記載の画像処理装置。   The said color filter determination means determines the said color filter according to the hue value which takes the maximum value with respect to the hue axis in the said hue histogram calculated in the said hue histogram calculation means. The image processing apparatus according to any one of the above. 前記色フィルタ決定手段は、
前記色相ヒストグラム算出手段において算出される前記色相ヒストグラムに基づいて、1または2以上の色フィルタ候補を選定する色フィルタ候補選定手段と、
前記色フィルタ候補選定手段において選定される前記1または2以上の色フィルタのうち、外部からの選択指令に応じて、いずれか1つの色フィルタを選択する色フィルタ選択手段とを含む、請求項1〜4のいずれか1項に記載の画像処理装置。
The color filter determining means includes
Color filter candidate selection means for selecting one or more color filter candidates based on the hue histogram calculated by the hue histogram calculation means;
The color filter selection means which selects any one color filter according to the selection command from the outside among the 1 or 2 or more color filters selected in the color filter candidate selection means. The image processing apparatus according to any one of?
前記色相取得手段は、前記モデル画像のうち前記登録形状および前記登録色を抽出する領域を設定するための領域設定指令を外部から受け、前記領域設定指令に応じて設定される領域に含まれる画素についての色相を取得する、請求項1〜5のいずれか1項に記載の画像処理装置。   The hue acquisition unit receives a region setting command for setting a region for extracting the registered shape and the registered color from the model image, and is included in a region set according to the region setting command. The image processing apparatus according to any one of claims 1 to 5, wherein a hue is acquired. 前記入力画像は、連続的に搬送される製品を撮影する画像であり、
前記判断手段における判断結果に応じて対象となる製品の良否を判別し、かつ、その良否判別結果を外部へ出力する良否判別手段をさらに備える、請求項1〜6のいずれか1項に記載の画像処理装置。
The input image is an image that captures a continuously conveyed product,
The quality determination means according to any one of claims 1 to 6, further comprising quality determination means for determining the quality of the target product according to the determination result in the determination means and outputting the quality determination result to the outside. Image processing device.
JP2005287477A 2005-09-30 2005-09-30 Image processing device Active JP4682782B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005287477A JP4682782B2 (en) 2005-09-30 2005-09-30 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005287477A JP4682782B2 (en) 2005-09-30 2005-09-30 Image processing device

Publications (2)

Publication Number Publication Date
JP2007102270A true JP2007102270A (en) 2007-04-19
JP4682782B2 JP4682782B2 (en) 2011-05-11

Family

ID=38029189

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005287477A Active JP4682782B2 (en) 2005-09-30 2005-09-30 Image processing device

Country Status (1)

Country Link
JP (1) JP4682782B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012007952A (en) * 2010-06-23 2012-01-12 Panasonic Electric Works Co Ltd Visual inspection device
JP2015176273A (en) * 2014-03-14 2015-10-05 オムロン株式会社 image processing apparatus, image processing method, and image processing program
JP2017016268A (en) * 2015-06-29 2017-01-19 株式会社東芝 Image recognition apparatus, image recognition program, and image recognition method
TWI583942B (en) * 2015-05-20 2017-05-21 Shimadzu Corp Check the device and check the method
JP2020204487A (en) * 2019-06-14 2020-12-24 ヤマハ発動機株式会社 Inspection device and coating device equipped therewith

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06282705A (en) * 1993-03-29 1994-10-07 Hitachi Eng Co Ltd Method and device for inspecting amount of articles
JP2001352454A (en) * 2000-06-09 2001-12-21 Sharp Corp Image conversion method and device, and computer- readable recording medium with image conversion program recorded thereon
JP2003173369A (en) * 2001-12-05 2003-06-20 Fujitsu General Ltd Tray service management method and tray service management system for restaurant

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06282705A (en) * 1993-03-29 1994-10-07 Hitachi Eng Co Ltd Method and device for inspecting amount of articles
JP2001352454A (en) * 2000-06-09 2001-12-21 Sharp Corp Image conversion method and device, and computer- readable recording medium with image conversion program recorded thereon
JP2003173369A (en) * 2001-12-05 2003-06-20 Fujitsu General Ltd Tray service management method and tray service management system for restaurant

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012007952A (en) * 2010-06-23 2012-01-12 Panasonic Electric Works Co Ltd Visual inspection device
JP2015176273A (en) * 2014-03-14 2015-10-05 オムロン株式会社 image processing apparatus, image processing method, and image processing program
TWI583942B (en) * 2015-05-20 2017-05-21 Shimadzu Corp Check the device and check the method
JP2017016268A (en) * 2015-06-29 2017-01-19 株式会社東芝 Image recognition apparatus, image recognition program, and image recognition method
JP2020204487A (en) * 2019-06-14 2020-12-24 ヤマハ発動機株式会社 Inspection device and coating device equipped therewith
JP7181157B2 (en) 2019-06-14 2022-11-30 ヤマハ発動機株式会社 Inspection device and coating device equipped with the same

Also Published As

Publication number Publication date
JP4682782B2 (en) 2011-05-11

Similar Documents

Publication Publication Date Title
JP4747970B2 (en) Image processing device
JP4735170B2 (en) Image processing apparatus and image processing method
US9888154B2 (en) Information processing apparatus, method for processing information, and computer program
JP2006324840A (en) Image processing apparatus and white balance adjusting device
JP2007128247A (en) Image processor, image processing method, program therefor, and computer-readable recording medium recording with the program
JP4682782B2 (en) Image processing device
CN101946519A (en) Image processing apparatus, imaging device, correction factor calculation method and image processing program
JP5701181B2 (en) Image processing apparatus, image processing method, and computer program
CN102088539B (en) Method and system for evaluating pre-shot picture quality
JP5395650B2 (en) Subject area extraction device and control method thereof, subject tracking device, and program
CN106970709B (en) 3D interaction method and device based on holographic imaging
CN109729259B (en) Image processing apparatus, method thereof, system thereof, and computer readable medium
US10499047B2 (en) Image processing apparatus, image processing system, and non-transitory computer readable medium
CN110944163A (en) Image processing method and electronic equipment
EP2176829B1 (en) Arrangement and method for processing image data
US7835552B2 (en) Image capturing apparatus and face area extraction method
US10397483B2 (en) Image processing device, image processing system and non-transitory computer readable medium storing program
JP2010237976A (en) Light source information obtaining device, shading detection device, shading removal device, and those methods and programs
JP2011134019A (en) Image processor and control method of the same
JP2014127154A (en) Subject area tracking device, and control method and program thereof
US10341531B2 (en) Applying a perceptually uniform color space for image processing
JP2008139101A (en) Method and apparatus for extracting region becoming judge target of crystallized state from electronic image of protein solution
JP4748041B2 (en) Image processing method, program, and image processing apparatus
JP5395651B2 (en) Subject tracking device, control method and program for subject tracking device
JP2005128774A (en) Image area extracting device and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080729

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110111

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110124

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140218

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4682782

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150