JP2009301464A - Image recognition processing method, image recognition processor and button image recognition processor - Google Patents

Image recognition processing method, image recognition processor and button image recognition processor Download PDF

Info

Publication number
JP2009301464A
JP2009301464A JP2008157603A JP2008157603A JP2009301464A JP 2009301464 A JP2009301464 A JP 2009301464A JP 2008157603 A JP2008157603 A JP 2008157603A JP 2008157603 A JP2008157603 A JP 2008157603A JP 2009301464 A JP2009301464 A JP 2009301464A
Authority
JP
Japan
Prior art keywords
button
background
image
pattern
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008157603A
Other languages
Japanese (ja)
Inventor
Chieko Wakabayashi
千恵子 若林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Juki Corp
Original Assignee
Juki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Juki Corp filed Critical Juki Corp
Priority to JP2008157603A priority Critical patent/JP2009301464A/en
Publication of JP2009301464A publication Critical patent/JP2009301464A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image recognition processing method for discriminating an imaging object regardless of the shape thereof. <P>SOLUTION: The image recognition processing method recognizes a button B from an image captured by a camera 3 by using a background member 2 having a plane with a regular pattern (background 2a) applied thereto, and the camera 3 for imaging the button B within the range of the background 2a together with the background 2a. The range not having the regular pattern of the background 2a in the captured image is discriminated as the button B. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、カメラで撮像対象物を撮像して当該撮像対象物を認識する画像認識処理方法、画像認識処理装置及びボタン画像認識処理装置に関する。   The present invention relates to an image recognition processing method, an image recognition processing device, and a button image recognition processing device that capture an image of an imaging target with a camera and recognize the imaging target.

ボタン付けミシンにより穴付きボタンを布等の被縫製物に縫い付ける場合、針がボタンの穴部を貫通して縫いつけるため、ボタンの位置、とりわけボタンの穴部の位置を被縫製物に対して正確に配置する必要がある。このため、ボタンの穴部の位置及び穴部同士の間隔に対応したピンを有する搬送部材を設け、ボタンの穴部をこのピンに差し込んだ状態でミシン縫合部に搬送することでボタンの穴部の位置を位置決めする方法が行われていた。
しかし、この方法によると、ボタンの表面に文字等の模様を配したボタンを模様が布地に対して所定の方向を向くように供給する場合に、模様の形成方向や位置が判別できないためボタンが所望の方向を向くように供給できないといった問題がある。
When a button with a button is sewn to a sewing object such as a cloth, the needle penetrates the hole of the button and sews the button. It is necessary to place it accurately. For this reason, a conveying member having a pin corresponding to the position of the hole portion of the button and the interval between the hole portions is provided, and the button hole portion is conveyed to the sewing machine stitching portion with the hole portion of the button inserted into the pin. There has been a method of positioning the position.
However, according to this method, when supplying a button with a pattern such as letters on the surface of the button so that the pattern faces a predetermined direction with respect to the cloth, the button cannot be identified because the pattern formation direction and position cannot be determined. There is a problem that it cannot be supplied in a desired direction.

このため、表面に模様を配したボタンをカメラ等で撮像し、撮像画像からボタンの向きを判別してボタンの位置を補正させる方法が行われるようになった(例えば特許文献1)。
また、撮像対象物を明確に抽出するための技術として、背景を縞模様とするとともに、縞模様を形成する二色のうち少なくとも一色を撮像対象物と大きく異なる色とすることにより好適に撮像対象物を撮像する方法が知られている(例えば特許文献2)。
特公平2−23197号公報 特開平9−54892号公報
For this reason, a method has been adopted in which a button having a pattern on the surface is imaged by a camera or the like, the direction of the button is determined from the captured image, and the position of the button is corrected (for example, Patent Document 1).
In addition, as a technique for clearly extracting the imaging target, the background is a striped pattern, and at least one of the two colors forming the striped pattern is preferably significantly different from the imaging target. A method for imaging an object is known (for example, Patent Document 2).
Japanese Patent Publication No. 2-23197 Japanese Patent Laid-Open No. 9-54892

しかしながら、特許文献1に記載された方法、すなわち撮像画像によるボタンの向きの判別では、ボタンの撮像時にボタンとボタンが置かれた土台部の上面の色とが酷似していると、画像処理におけるボタンと土台部との判別がつきにくく、好適にボタンが検出できないといった問題がある。
また、ボタンの向きの判別はできてもボタンの穴部の位置を正しく検出することはできないといった問題点があった。このため、ボタンの位置決めが正確にできないとともに、ボタンの穴部の形成に不良があった場合に検出できないといった問題点があった。
さらに、模様を有しない一般的なボタンを利用することができず、汎用性に乏しいものとなった。
また、特許文献2の技術を利用したとしても、透過性を有するボタンの場合、背景とボタンとの濃度の急変部分が生じず、ボタンの外周の形状が確実に抽出できないといった問題点があった。
However, in the method described in Patent Document 1, that is, in determining the direction of the button based on the captured image, if the button and the color of the upper surface of the base part on which the button is placed are very similar when the button is captured, There is a problem that it is difficult to distinguish between the button and the base portion, and the button cannot be suitably detected.
Further, there is a problem that even if the direction of the button can be determined, the position of the button hole cannot be detected correctly. For this reason, there is a problem that the button cannot be positioned accurately and cannot be detected when there is a defect in the formation of the button hole.
Furthermore, general buttons having no pattern could not be used, and the versatility was poor.
Further, even when the technique of Patent Document 2 is used, in the case of a button having transparency, there is a problem that the density change between the background and the button does not occur, and the shape of the outer periphery of the button cannot be reliably extracted. .

本発明は、上述の問題点に鑑み、撮像対象物の形状によらず撮像対象物を判別可能な画像認識処理方法、画像認識処理装置及びミシンのボタン画像認識処理装置を提供することを目的とする。   An object of the present invention is to provide an image recognition processing method, an image recognition processing device, and a button image recognition processing device of a sewing machine capable of discriminating an imaging target regardless of the shape of the imaging target. To do.

請求項1記載の発明は、既知の規則的な模様が付された平面を有し、当該平面が背景とされる背景部材と、前記模様が付された平面の範囲内にある撮像対象物を前記背景ごと撮像するカメラと、を用いて前記カメラによって撮像された画像から前記撮像対象物を認識する画像認識処理方法において、前記撮像画像において前記背景の規則的な模様を有しない範囲を前記撮像対象物として判別する判別工程を含むことを特徴とする。   The invention according to claim 1 has a plane member with a known regular pattern, a background member whose background is the background, and an imaging object within the range of the plane with the pattern. In the image recognition processing method for recognizing the object to be picked up from an image picked up by the camera using the camera for picking up the whole background, the picked-up image picks up a range having no regular pattern of the background It includes a determination step of determining as an object.

請求項2記載の発明は、請求項1に記載の画像認識処理方法において、前記カメラは、前記背景にピントを合わせて前記撮像画像を撮像することを特徴とする。   A second aspect of the present invention is the image recognition processing method according to the first aspect, wherein the camera captures the captured image while focusing on the background.

請求項3記載の発明は、請求項1又は2に記載の画像認識処理方法において、前記撮像対象物として判別された画像の範囲から前記撮像画像の前記撮像対象物があらかじめ設定された前記撮像対象物の特徴を有するかどうかを判別する特徴判別工程を含むことを特徴とする。
請求項3における「撮像対象物の特徴」とは、撮像対象物の色、撮像対象物に施された文字や模様等の装飾、撮像対象物の立体形状による撮像時の画像の濃淡パターン等である。
According to a third aspect of the present invention, in the image recognition processing method according to the first or second aspect, the imaging target in which the imaging target of the captured image is preset from the range of the image determined as the imaging target It is characterized by including the characteristic discrimination | determination process which discriminate | determines whether it has the characteristic of an object.
The “characteristics of the imaging object” in claim 3 includes the color of the imaging object, decorations such as characters and patterns applied to the imaging object, and a light / dark pattern of the image at the time of imaging by the three-dimensional shape of the imaging object. is there.

請求項4記載の発明は、請求項3に記載の画像認識処理方法において、前記特徴判別工程では、前回以前の撮像対象物の撮像画像から取得された前記撮像対象物の特徴となる画像を利用することを特徴とする。   According to a fourth aspect of the present invention, in the image recognition processing method according to the third aspect, in the feature determination step, an image that is a characteristic of the imaging target acquired from a previous captured image of the imaging target is used. It is characterized by doing.

請求項5記載の発明は、既知の規則的な模様が付された平面を有し、当該平面が背景とされる背景部材と、前記模様が付された平面の範囲内にある撮像対象物を前記背景ごと撮像するカメラとを備え、前記カメラによって撮像された画像から前記撮像対象物を認識する画像認識処理装置において、前記撮像画像において前記背景の規則的な模様を有しない範囲を前記撮像対象物として判別する判別手段を備えることを特徴とする。   The invention according to claim 5 includes a plane member with a known regular pattern, a background member having the plane as a background, and an imaging object within a range of the plane with the pattern. An image recognition processing apparatus that recognizes the object to be imaged from an image captured by the camera, wherein the captured image includes a range that does not have a regular pattern of the background. It is characterized by comprising discrimination means for discriminating as an object.

請求項6記載の発明は、請求項5に記載の画像認識処理装置において、前記カメラは、前記背景にピントを合わせて前記撮像画像を撮像することを特徴とする。   According to a sixth aspect of the present invention, in the image recognition processing apparatus according to the fifth aspect, the camera captures the captured image while focusing on the background.

請求項7記載の発明は、請求項5又は6に記載の画像認識処理装置において、前記撮像対象物として判別された画像の範囲から前記撮像画像の前記撮像対象物があらかじめ設定された前記撮像対象物の特徴を有するかどうかを判別する特徴判別手段を備えることを特徴とする。
請求項7における「撮像対象物の特徴」とは、撮像対象物の色、撮像対象物に施された文字や模様等の装飾、撮像対象物の立体形状による撮像時の画像の濃淡パターン等である。
According to a seventh aspect of the present invention, in the image recognition processing device according to the fifth or sixth aspect, the imaging target in which the imaging target of the captured image is set in advance from a range of the image determined as the imaging target. A feature discriminating means for discriminating whether or not the object has a feature is provided.
The “characteristics of the imaging object” in claim 7 are the color of the imaging object, decorations such as characters and patterns applied to the imaging object, and the shading pattern of the image at the time of imaging by the three-dimensional shape of the imaging object. is there.

請求項8記載の発明は、請求項7に記載の画像認識処理装置において、前回以前の撮像対象物の撮像画像から前記撮像対象物の特徴となる画像を取得する特徴取得手段を備えることを特徴とする。   The invention according to claim 8 is the image recognition processing device according to claim 7, further comprising feature acquisition means for acquiring an image that is a characteristic of the imaging object from a captured image of the imaging object before the previous time. And

請求項9記載の発明は、既知の規則的な模様が付された平面を有し、当該平面が背景とされる背景部材と、前記模様が付された平面の範囲内にある衣類のボタンを前記背景ごと撮像するカメラとを備え、前記カメラによって撮像された画像から前記ボタンを認識するボタン画像認識処理装置において、前記撮像画像において前記背景の規則的な模様を有しない範囲を前記ボタンとして判別する判別手段を備えることを特徴とする。   The invention according to claim 9 has a plane member with a known regular pattern, a background member on which the plane is set as a background, and a button of clothing within the range of the plane with the pattern. A button image recognition processing device for recognizing the button from an image captured by the camera, wherein a range having no regular pattern of the background in the captured image is determined as the button. It is characterized by comprising a discriminating means.

請求項10記載の発明は、請求項9に記載のボタン画像認識処理装置において、前記カメラは、前記背景にピントを合わせて前記撮像画像を撮像することを特徴とする。   A tenth aspect of the present invention is the button image recognition processing apparatus according to the ninth aspect, wherein the camera captures the captured image while focusing on the background.

請求項11記載の発明は、請求項9又は10に記載のボタン画像認識処理装置において、前記ボタンとして判別された画像の範囲からあらかじめ設定された前記ボタンの特徴を有するかどうかを判別する特徴判別手段を備えることを特徴とする。
請求項11における「ボタンの特徴」とは、ボタンの色、ボタンに施された文字や模様等の装飾、ボタンの立体形状による撮像時の画像の濃淡パターン等である。
The invention described in claim 11 is the button image recognition processing device according to claim 9 or 10, wherein it is determined whether or not the button has a preset feature from the range of the image determined as the button. Means are provided.
The “features of the button” according to claim 11 includes the color of the button, decorations such as characters and patterns applied to the button, and the shading pattern of the image at the time of imaging by the three-dimensional shape of the button.

請求項12記載の発明は、請求項11に記載のボタン画像認識処理装置において、前回以前のボタンの撮像画像から前記ボタンの特徴となる画像を取得する特徴取得手段を備えることを特徴とする。   According to a twelfth aspect of the present invention, in the button image recognition processing device according to the eleventh aspect of the present invention, the button image recognition processing device further includes a feature acquisition unit that acquires an image that is a characteristic of the button from a captured image of the button before the previous time.

請求項13記載の発明は、請求項11又は12に記載のボタン画像認識処理装置において、前記特徴判別手段は、あらかじめ設定された少なくとも前記ボタンの表あるいは裏のいずれか一方を撮像した場合の画像の濃淡パターンデータから、前記ボタンの表裏を判別することを特徴とする。   The invention according to claim 13 is the button image recognition processing device according to claim 11 or 12, wherein the feature determination means captures at least one of the front and back of the button set in advance. The front and back of the button is discriminated from the light and shade pattern data.

請求項1記載の発明によれば、判別工程において背景の規則的な模様を有しない範囲を撮像対象物として判別する。つまり、撮像画像から背景の規則的な模様を有する範囲を除外した部分を撮像対象物として判別する。このとき、撮像対象物の形状、色、模様その他の特徴が背景の規則的な模様と混同を生じる恐れがある場合は、背景の模様の規則性を変更することで対応が可能となる。例えば撮像対象物が縞模様である場合は、縞の形成方向が異なる縞模様や、縞の形成間隔や各縞模様の幅が異なる縞模様、或いは市松模様とする等が考えられる。よって、撮像対象物の形状、色、模様その他の特徴に関らず背景の規則的な模様を有するか否かのみで撮像対象物を判別することが可能となる。よって、より好適に撮像対象物を判別できる。
従来は、背景の縞に沿って濃度変化を観察し、濃度変化を大きく生じた箇所を背景と撮像対象物との境界と認識すると共に、二色の縞のそれぞれについて濃度変化を見るので、撮像対象物が縞のいずれか一方の色彩に濃度が近い場合でも他方の色彩により境界を検出することが可能である。しかしながら、表面の色彩の濃度に変化を生じている場合や表面に凹凸や穴がある場合や透明素材などのように、表面の途中部分で濃度変化を生じているような撮像対象物の場合には、縞の色彩の濃度に近似する箇所ではそれが背景なのか撮像対象物の一部なのかを識別することができない。しかしながら、本願発明では、規則的な背景のパターンに従っているかにより識別を行うので、例え、撮像画像に背景と濃度が近い部分が存在したとしても、その前後の部分を含めて背景のパターンと一致しない限り誤認を生じない。
例えば、撮像対象物の内側に穴部等の背景が覗く貫通部が設けられている場合、当該貫通部の内側は背景の規則的な模様が覗くことにより背景として判別され、撮像対象物とはみなされなくなる。つまり、撮像対象物の内側に貫通部が設けられている場合に、当該貫通部が正しく判別される。よって、従来技術のように撮像対象物の内側に設けられた穴部(例えばボタンの穴部等)を抽出できないといった問題点を解消でき、より好適に撮像対象物の形状を判別することが可能となる。よって、より一層好適に撮像対象物を判別できる。
さらに、撮像対象物が透過性を有する場合であっても、背景が撮像対象物を透過することで屈折を生じる場合であれば、屈折を生じた部分は背景の規則性を失うので背景として判別されることがなく、撮像対象物と判別される。よって、透過性を有する撮像対象物の場合、背景と撮像対象物との濃度の急変部分が生じず、撮像対象物の外周の形状が抽出できないことがあるといった従来技術の問題点を解消できる。よって、より一層好適に撮像対象物を判別できる。
According to the first aspect of the present invention, a range having no regular background pattern is determined as an imaging object in the determination step. That is, a portion excluding a range having a regular background pattern from the captured image is determined as an imaging target. At this time, if there is a possibility that the shape, color, pattern and other features of the imaging target object may be confused with the regular pattern of the background, it can be dealt with by changing the regularity of the background pattern. For example, when the object to be imaged is a stripe pattern, a stripe pattern with a different stripe formation direction, a stripe pattern with a different stripe formation interval or different width, or a checkered pattern may be considered. Therefore, it is possible to determine the imaging object only by whether or not it has a regular background pattern regardless of the shape, color, pattern and other characteristics of the imaging object. Therefore, it is possible to more suitably determine the imaging object.
Conventionally, the density change is observed along the stripes in the background, and the location where the density change has occurred is recognized as the boundary between the background and the object to be imaged, and the density change is observed for each of the two color stripes. Even when the object has a density close to one of the colors of the stripes, the boundary can be detected by the other color. However, when there is a change in the color density of the surface, or when there is an imaging target that has a density change in the middle of the surface, such as when the surface has irregularities or holes, or a transparent material, etc. Cannot identify whether it is the background or part of the object to be imaged at a location that approximates the density of the stripe color. However, in the present invention, identification is performed based on whether the pattern follows a regular background pattern. For example, even if a captured image includes a portion having a density close to that of the background, it does not match the background pattern including the preceding and subsequent portions. As long as there is no misunderstanding.
For example, when a through-hole such as a hole is provided inside the object to be imaged, the inside of the through-hole is determined as a background by looking into the regular pattern of the background. No longer considered. That is, when the penetration part is provided inside the imaging target object, the penetration part is correctly determined. Therefore, it is possible to eliminate the problem that holes (for example, button holes) provided inside the imaging object cannot be extracted as in the prior art, and it is possible to more suitably determine the shape of the imaging object. It becomes. Therefore, it is possible to more appropriately discriminate the imaging object.
In addition, even if the imaging object has transparency, if the background is refracted by transmitting through the imaging object, the refraction part loses the regularity of the background, so it is determined as the background. It is discriminated as an object to be imaged. Therefore, in the case of an imaging object having transparency, the problem of the prior art that the density change between the background and the imaging object does not occur and the shape of the outer periphery of the imaging object may not be extracted can be solved. Therefore, it is possible to more appropriately discriminate the imaging object.

請求項2記載の発明によれば、カメラのピントを背景に合わせるので、撮像対象物の厚さや高さに関らず背景を常に好適に撮像可能となる。よって、より好適に背景の規則的な模様を判別可能となり、背景と撮像対象物との誤認の可能性を大幅に低減することが可能となる。よって、より一層好適に撮像対象物を判別できる。   According to the second aspect of the present invention, since the focus of the camera is adjusted to the background, the background can always be suitably imaged regardless of the thickness and height of the object to be imaged. Therefore, the regular pattern of the background can be discriminated more suitably, and the possibility of misidentification of the background and the object to be imaged can be greatly reduced. Therefore, it is possible to more appropriately discriminate the imaging object.

請求項3記載の発明によれば、特徴判別工程において、撮像対象物として判別された画像の範囲から当該画像の撮像対象物があらかじめ設定された撮像対象物の特徴を有するかどうかを判別する。つまり、まず画像に対して背景の規則的な模様を有する範囲を除外する処理を行って撮像対象物の範囲を判別した後に、当該撮像対象物の範囲についてあらかじめ設定された撮像対象物の特徴を有するかどうかを判別する。これによって、あらかじめ設定された撮像対象物の特徴を有する範囲を画像全体から探す場合に比べ、特徴の有無の判別範囲を画像から背景が除外された撮像対象物の範囲に限定することができる。よって、特徴の有無の判別処理負荷を軽減し、処理時間を短縮することができる。
また、撮像対象物の色、撮像対象物に施された文字や模様等の装飾、撮像対象物の立体形状による撮像時の画像の濃淡パターン等といった撮像対象物の特徴について、撮像画像の撮像対象物があらかじめ設定された当該特徴を有するかどうかを判別する。よって、色違いの撮像対象物、装飾内容の異なる撮像対象物、文字や模様等の向きが異なる撮像対象物及び立体形状の特徴が異なる撮像対象物等の判別を行うことが可能となる。よって、従来技術において、撮像対象物に施された文字や模様等の装飾の向きを判別できないといった問題点を解消でき、撮像対象物の特徴をより詳細に判別できる。
According to the third aspect of the present invention, in the feature determination step, it is determined whether or not the imaging target of the image has a preset characteristic of the imaging target from the range of the image determined as the imaging target. That is, first, after performing the process of excluding a range having a regular background pattern on the image to determine the range of the imaging target, the characteristics of the imaging target set in advance for the range of the imaging target are determined. Determine if you have. This makes it possible to limit the determination range of the presence / absence of the feature to the range of the imaging object in which the background is excluded from the image, as compared with the case where the range having the characteristics of the imaging object set in advance is searched from the entire image. Therefore, it is possible to reduce the processing load for determining the presence / absence of features and shorten the processing time.
In addition, regarding the characteristics of the imaging object, such as the color of the imaging object, decorations such as characters and patterns applied to the imaging object, and the shade pattern of the image at the time of imaging due to the three-dimensional shape of the imaging object, the imaging object of the captured image It is determined whether the object has the preset feature. Therefore, it is possible to discriminate between imaging objects with different colors, imaging objects with different decoration contents, imaging objects with different orientations such as characters and patterns, and imaging objects with different three-dimensional features. Therefore, in the prior art, the problem that the orientation of decorations such as characters and patterns applied to the imaging object cannot be determined can be solved, and the characteristics of the imaging object can be determined in more detail.

請求項4記載の発明によれば、特徴判別工程では、前回以前の撮像対象物の撮像画像から取得された前記撮像対象物の特徴となる画像を利用する。従って、撮像対象物の特徴を設定するための専用の情報やデータ等を別途設ける必要がなくなる。よって、撮像対象物の特徴の設定の手間を大幅に軽減することが可能となる。   According to the fourth aspect of the present invention, in the feature determination step, an image that is a feature of the imaging target acquired from the previous captured image of the imaging target is used. Therefore, it is not necessary to separately provide dedicated information, data, and the like for setting the characteristics of the imaging object. Therefore, it is possible to greatly reduce the labor for setting the characteristics of the imaging target.

請求項5記載の発明によれば、判別手段が背景の規則的な模様を有しない範囲を撮像対象物として判別する。つまり、撮像画像から背景の規則的な模様を有する範囲を除外した部分を撮像対象物として判別する。このとき、撮像対象物の形状、色、模様その他の特徴が背景の規則的な模様と混同を生じる恐れがある場合は、背景の模様の規則性を変更することで対応が可能となる。例えば撮像対象物が縞模様である場合は、縞の形成方向が異なる縞模様や、縞の形成間隔や各縞模様の幅が異なる縞模様、或いは市松模様とする等が考えられる。よって、撮像対象物の形状、色、模様その他の特徴に関らず背景の規則的な模様を有するか否かのみで撮像対象物を判別することが可能となる。よって、より好適に撮像対象物を判別可能な画像認識処理装置を提供できる。
従来は、背景の縞に沿って濃度変化を観察し、濃度変化を大きく生じた箇所を背景と撮像対象物との境界と認識すると共に、二色の縞のそれぞれについて濃度変化を見るので、撮像対象物が縞のいずれか一方の色彩に濃度が近い場合でも他方の色彩により境界を検出することが可能である。しかしながら、表面の色彩の濃度に変化を生じている場合や表面に凹凸や穴がある場合や透明素材などのように、表面の途中部分で濃度変化を生じているような撮像対象物の場合には、縞の色彩の濃度に近似する箇所ではそれが背景なのか撮像対象物の一部なのかを識別することができない。しかしながら、本願発明では、規則的な背景のパターンに従っているかにより識別を行うので、例え、撮像画像に背景と濃度が近い部分が存在したとしても、その前後の部分を含めて背景のパターンと一致しない限り誤認を生じない。
例えば、撮像対象物の内側に穴部等の背景が覗く貫通部が設けられている場合、当該貫通部の内側は背景の規則的な模様が覗くことにより背景として判別され、撮像対象物とはみなされなくなる。つまり、撮像対象物の内側に貫通部が設けられている場合に、当該貫通部が正しく判別される。よって、従来技術のように撮像対象物の内側に設けられた穴部(例えばボタンの穴部等)を抽出できないといった問題点を解消でき、より好適に撮像対象物の形状を判別することが可能となる。よって、より一層好適に撮像対象物を判別可能な画像認識処理装置を提供できる。
さらに、撮像対象物が透過性を有する場合であっても、背景が撮像対象物を透過することで屈折を生じる場合であれば、屈折を生じた部分は背景の規則性を失うので背景として判別されることがなく、撮像対象物と判別される。よって、透過性を有する撮像対象物の場合、背景と撮像対象物との濃度の急変部分が生じず、撮像対象物の外周の形状が抽出できないことがあるといった従来技術の問題点を解消できる。よって、より一層好適に撮像対象物を判別可能な画像認識処理装置を提供できる。
According to the fifth aspect of the invention, the discriminating unit discriminates a range having no regular background pattern as an imaging object. That is, a portion excluding a range having a regular background pattern from the captured image is determined as an imaging target. At this time, if there is a possibility that the shape, color, pattern and other features of the imaging target object may be confused with the regular pattern of the background, it can be dealt with by changing the regularity of the background pattern. For example, when the object to be imaged is a stripe pattern, a stripe pattern with a different stripe formation direction, a stripe pattern with a different stripe formation interval or different width, or a checkered pattern may be considered. Therefore, it is possible to determine the imaging object only by whether or not it has a regular background pattern regardless of the shape, color, pattern and other characteristics of the imaging object. Therefore, it is possible to provide an image recognition processing device that can more suitably discriminate the imaging object.
Conventionally, the density change is observed along the stripes in the background, and the location where the density change has occurred is recognized as the boundary between the background and the object to be imaged, and the density change is observed for each of the two color stripes. Even when the object has a density close to one of the colors of the stripes, the boundary can be detected by the other color. However, when there is a change in the color density of the surface, or when there is an imaging target that has a density change in the middle of the surface, such as when the surface has irregularities or holes, or a transparent material, etc. Cannot identify whether it is the background or part of the object to be imaged at a location that approximates the density of the stripe color. However, in the present invention, identification is performed based on whether the pattern follows a regular background pattern. For example, even if a captured image includes a portion having a density close to that of the background, it does not match the background pattern including the preceding and subsequent portions. As long as there is no misunderstanding.
For example, when a through-hole such as a hole is provided inside the object to be imaged, the inside of the through-hole is determined as a background by looking into the regular pattern of the background. No longer considered. That is, when the penetration part is provided inside the imaging target object, the penetration part is correctly determined. Therefore, it is possible to eliminate the problem that holes (for example, button holes) provided inside the imaging object cannot be extracted as in the prior art, and it is possible to more suitably determine the shape of the imaging object. It becomes. Therefore, it is possible to provide an image recognition processing device that can more appropriately discriminate the imaging target.
In addition, even if the imaging object has transparency, if the background is refracted by transmitting through the imaging object, the refraction part loses the regularity of the background, so it is determined as the background. It is discriminated as an object to be imaged. Therefore, in the case of an imaging object having transparency, the problem of the prior art that the density change between the background and the imaging object does not occur and the shape of the outer periphery of the imaging object may not be extracted can be solved. Therefore, it is possible to provide an image recognition processing device that can more appropriately discriminate the imaging target.

請求項6記載の発明によれば、カメラのピントを背景に合わせるので、撮像対象物の厚さや高さに関らず背景を常に好適に撮像可能となる。よって、より好適に背景の規則的な模様を判別可能となり、背景と撮像対象物との誤認の可能性を大幅に低減することが可能となる。よって、より一層好適に撮像対象物を判別可能な画像認識処理装置を提供できる。   According to the sixth aspect of the present invention, since the focus of the camera is adjusted to the background, the background can always be suitably imaged regardless of the thickness and height of the imaging object. Therefore, the regular pattern of the background can be discriminated more suitably, and the possibility of misidentification of the background and the object to be imaged can be greatly reduced. Therefore, it is possible to provide an image recognition processing device that can more appropriately discriminate the imaging target.

請求項7記載の発明によれば、特徴判別手段が撮像対象物として判別された画像の範囲から当該画像の撮像対象物があらかじめ設定された撮像対象物の特徴を有するかどうかを判別する。つまり、まず画像に対して背景の規則的な模様を有する範囲を除外する処理を行って撮像対象物の範囲を判別した後に、当該撮像対象物の範囲についてあらかじめ設定された撮像対象物の特徴を有するかどうかを判別する。これによって、あらかじめ設定された撮像対象物の特徴を有する範囲を画像全体から探す場合に比べ、特徴の有無の判別範囲を画像から背景が除外された撮像対象物の範囲に限定することができる。よって、特徴の有無の判別処理負荷を軽減し、処理時間を短縮することができる。
また、撮像対象物の色、撮像対象物に施された文字や模様等の装飾、撮像対象物の立体形状による撮像時の画像の濃淡パターン等といった撮像対象物の特徴について、撮像画像の撮像対象物があらかじめ設定された当該特徴を有するかどうかを判別する。よって、色違いの撮像対象物、装飾内容の異なる撮像対象物、文字や模様等の向きが異なる撮像対象物及び立体形状の特徴が異なる撮像対象物等の判別を行うことが可能となる。よって、従来技術において、撮像対象物に施された文字や模様等の装飾の向きを判別できないといった問題点を解消でき、撮像対象物の特徴をより詳細に判別可能な画像認識処理装置を提供できる。
According to the seventh aspect of the present invention, the feature determination unit determines whether or not the imaging target of the image has a preset characteristic of the imaging target from the range of the image determined as the imaging target. That is, first, after performing the process of excluding a range having a regular background pattern on the image to determine the range of the imaging target, the characteristics of the imaging target set in advance for the range of the imaging target are determined. Determine if you have. This makes it possible to limit the determination range of the presence / absence of the feature to the range of the imaging object in which the background is excluded from the image, as compared with the case where the range having the characteristics of the imaging object set in advance is searched from the entire image. Therefore, it is possible to reduce the processing load for determining the presence / absence of features and shorten the processing time.
In addition, regarding the characteristics of the imaging object, such as the color of the imaging object, decorations such as characters and patterns applied to the imaging object, and the shade pattern of the image at the time of imaging due to the three-dimensional shape of the imaging object, the imaging object of the captured image It is determined whether the object has the preset feature. Therefore, it is possible to discriminate between imaging objects with different colors, imaging objects with different decoration contents, imaging objects with different orientations such as characters and patterns, and imaging objects with different three-dimensional features. Therefore, in the prior art, it is possible to solve the problem that the orientation of decorations such as characters and patterns applied to the imaging object cannot be determined, and it is possible to provide an image recognition processing device capable of determining the characteristics of the imaging object in more detail. .

請求項8記載の発明によれば、特徴判別手段が、前回以前の撮像対象物の撮像画像から取得された前記撮像対象物の特徴となる画像を利用する。従って、撮像対象物の特徴を設定するための専用の情報やデータ等を別途設ける必要がなくなる。よって、撮像対象物の特徴の設定の手間を大幅に軽減することが可能となる。   According to the eighth aspect of the invention, the feature determination unit uses an image that is a feature of the imaging object acquired from a captured image of the imaging object before the previous time. Therefore, it is not necessary to separately provide dedicated information, data, and the like for setting the characteristics of the imaging object. Therefore, it is possible to greatly reduce the labor for setting the characteristics of the imaging target.

請求項9記載の発明によれば、判別手段が背景の規則的な模様を有しない範囲をボタンとして判別する。つまり、撮像画像から背景の規則的な模様を有する範囲を除外した部分をボタンとして判別する。このとき、ボタンの形状、色、模様その他の特徴が背景の規則的な模様と混同を生じる恐れがある場合は、背景の模様の規則性を変更することで対応が可能となる。例えばボタンが縞模様である場合は、縞の形成方向が異なる縞模様や、縞の形成間隔や各縞模様の幅が異なる縞模様、或いは市松模様とする等が考えられる。よって、ボタンの形状、色、模様その他の特徴に関らず背景の規則的な模様を有するか否かのみでボタンを判別することが可能となる。よって、より好適にボタンを判別可能な画像認識処理装置を提供できる。
従来は、背景の縞に沿って濃度変化を観察し、濃度変化を大きく生じた箇所を背景とボタンとの境界と認識すると共に、二色の縞のそれぞれについて濃度変化を見るので、ボタンが縞のいずれか一方の色彩に濃度が近い場合でも他方の色彩により境界を検出することが可能である。しかしながら、表面の色彩の濃度に変化を生じている場合や表面に凹凸や穴がある場合や透明素材などのように、表面の途中部分で濃度変化を生じているような撮像対象物の場合には、縞の色彩の濃度に近似する箇所ではそれが背景なのかボタンの一部なのかを識別することができない。しかしながら、本願発明では、規則的な背景のパターンに従っているかにより識別を行うので、例え、撮像画像に背景と濃度が近い部分が存在したとしても、その前後の部分を含めて背景のパターンと一致しない限り誤認を生じない。
例えば、上述の特徴によりボタンの内側に設けられた穴部が正しく判別される。よって、ボタンの内側に設けられた穴部を抽出できないといった従来技術の問題点を解消でき、より好適にボタンの穴部の形状や位置や穴部同士の間隔を判別することが可能となる。よって、好適にボタンの向きを判別可能なボタン画像認識処理装置を提供できる。
さらに、ボタンが透過性を有する場合であっても、背景がボタンを透過することで屈折を生じる場合であれば、屈折を生じた部分は背景の規則性を失うので背景として判別されることがなく、ボタンと判別される。よって、透過性を有するボタンの場合、背景とボタンとの濃度の急変部分が生じず、ボタンの外周の形状が抽出できないことがあるといった従来技術の問題点を解消できる。よって、より一層好適にボタンを判別可能なボタン画像認識処理装置を提供できる。
According to the ninth aspect of the present invention, the determining means determines a range having no regular background pattern as a button. In other words, a portion excluding a range having a regular background pattern from the captured image is determined as a button. At this time, if there is a possibility that the shape, color, pattern or other features of the button may be confused with the regular pattern of the background, it can be dealt with by changing the regularity of the background pattern. For example, when the button is a striped pattern, a striped pattern with a different stripe forming direction, a striped pattern with a different stripe formation interval or different width, or a checkered pattern may be considered. Therefore, the button can be determined only by whether or not it has a regular background pattern regardless of the shape, color, pattern and other characteristics of the button. Therefore, it is possible to provide an image recognition processing device that can more suitably discriminate buttons.
Conventionally, the density change is observed along the stripes in the background, and the location where the density change has occurred is recognized as the boundary between the background and the button, and the density change is observed for each of the two color stripes. Even when the density is close to one of the colors, the boundary can be detected by the other color. However, when there is a change in the color density of the surface, or when there is an imaging target that has a density change in the middle of the surface, such as when the surface has irregularities or holes, or a transparent material, etc. Cannot identify whether it is a background or part of a button where it approximates the density of the stripe color. However, in the present invention, identification is performed based on whether the pattern follows a regular background pattern. For example, even if a captured image includes a portion having a density close to that of the background, it does not match the background pattern including the preceding and subsequent portions. As long as there is no misunderstanding.
For example, the hole provided on the inner side of the button is correctly identified by the above-described feature. Therefore, it is possible to solve the problem of the prior art that the hole provided inside the button cannot be extracted, and it is possible to more suitably determine the shape and position of the button hole and the interval between the holes. Therefore, it is possible to provide a button image recognition processing apparatus that can suitably determine the direction of the button.
Furthermore, even if the button has transparency, if the background is refracted by passing through the button, the portion where the refraction has occurred will lose the regularity of the background and may be identified as the background. Not a button. Therefore, in the case of a button having transparency, there is no sudden change in density between the background and the button, and it is possible to solve the problems of the prior art that the shape of the outer periphery of the button may not be extracted. Therefore, it is possible to provide a button image recognition processing device that can more suitably discriminate buttons.

請求項10記載の発明によれば、カメラのピントを背景に合わせるので、ボタンの厚さに関らず背景を常に好適に撮像可能となる。よって、より好適に背景の規則的な模様を判別可能となり、背景とボタンとの誤認の可能性を大幅に低減することが可能となる。よって、より一層好適にボタンを判別可能な画像認識処理装置を提供できる。   According to the tenth aspect of the present invention, since the focus of the camera is adjusted to the background, the background can always be suitably imaged regardless of the thickness of the button. Therefore, the regular pattern of the background can be more suitably discriminated, and the possibility of misidentification of the background and the button can be greatly reduced. Therefore, it is possible to provide an image recognition processing apparatus that can discriminate buttons more preferably.

請求項11記載の発明によれば、特徴判別手段がボタンとして判別された画像の範囲から当該画像のボタンがあらかじめ設定されたボタンの特徴を有するかどうかを判別する。つまり、まず画像に対して背景の規則的な模様を有する範囲を除外する処理を行ってボタンの範囲を判別した後に、当該ボタンの範囲についてあらかじめ設定されたボタンの特徴を有するかどうかを判別する。これによって、あらかじめ設定されたボタンの特徴を有する範囲を画像全体から探す場合に比べ、特徴の有無の判別範囲を画像から背景が除外されたボタンの範囲に限定することができる。よって、特徴の有無の判別処理負荷を軽減し、処理時間を短縮することができる。
また、ボタンの色、ボタンに施された文字や模様等の装飾、ボタンの立体形状による撮像時の画像の濃淡パターン等といったボタンの特徴について、撮像画像のボタンがあらかじめ設定された当該特徴を有するかどうかを判別する。よって、色違いのボタン、装飾内容の異なるボタン、文字や模様等の向きが異なるボタン及び立体形状の特徴が異なるボタン等の判別を行うことが可能となる。よって、従来技術において、ボタンに施された文字や模様等の装飾の向きを判別できないといった問題点を解消でき、ボタンの特徴をより詳細に判別可能なミシンのボタン画像認識処理装置を提供できる。
According to the eleventh aspect of the present invention, the feature determining means determines whether or not the button of the image has a preset button feature from the range of the image determined as the button. In other words, first, a process for excluding a range having a regular background pattern is performed on an image to determine a button range, and then it is determined whether the button range has a preset button feature. . This makes it possible to limit the determination range of the presence / absence of the feature to the range of the button from which the background is excluded from the image, as compared with the case where the range having the preset button feature is searched from the entire image. Therefore, it is possible to reduce the processing load for determining the presence / absence of features and shorten the processing time.
In addition, the button of the captured image has the preset characteristics, such as the color of the button, decorations such as characters and patterns applied to the button, and the shade characteristics of the image at the time of imaging due to the three-dimensional shape of the button. Determine whether or not. Accordingly, it is possible to determine buttons of different colors, buttons having different decoration contents, buttons having different directions such as characters and patterns, and buttons having different three-dimensional features. Therefore, in the prior art, it is possible to solve the problem that the orientation of decorations such as characters and patterns applied to the buttons cannot be determined, and it is possible to provide a button image recognition processing device for a sewing machine that can determine the features of the buttons in more detail.

請求項12記載の発明によれば、特徴判別手段が前回以前のボタンの撮像画像から取得された前記ボタンの特徴となる画像を利用する。従って、ボタンの特徴を設定するための専用の情報やデータ等を別途設ける必要がなくなる。よって、ボタンの特徴の設定の手間を大幅に軽減することが可能となる。   According to the twelfth aspect of the present invention, the feature discriminating unit uses the image that is the feature of the button acquired from the captured image of the button before the previous time. Therefore, it is not necessary to separately provide dedicated information or data for setting the button characteristics. Therefore, it is possible to greatly reduce the trouble of setting the button characteristics.

請求項13記載の発明によれば、特徴取得手段があらかじめ設定された少なくとも前記ボタンの表あるいは裏のいずれか一方を撮像した場合の画像の濃淡パターンデータから、前記ボタンの表裏を判別する。この場合、ボタンの表を撮像した場合の画像の濃淡パターンデータと、ボタンの裏を撮像した場合の画像の濃淡パターンデータとは異なるものであり、特徴判別手段はボタンの表と裏の画像の濃淡パターンデータの違いによりボタンの表裏を判別する。例えばあらかじめ設定された画像の濃淡パターンデータがボタンの表を撮像した場合の画像の濃淡パターンデータの場合は、特徴判別手段は当該濃淡パターンデータと撮像画像のボタンの濃淡パターンデータとが一致すればボタンは表であると判別し、異なれば裏であると判別する。これによって、ボタンが本来意図した置き方に対して裏返しになっていないかどうかを判別することが可能となる。よって、例えば縫い付け前に特徴判別手段によるボタンの表裏判定を行うことで、誤ってボタンを裏返した状態で縫い付けてしまうといった事態をなくすことができ、縫い品質が大幅に向上する。   According to a thirteenth aspect of the invention, the front and back of the button is discriminated from the shade pattern data of the image obtained when at least one of the front and back of the button is imaged by the feature acquisition unit. In this case, the shade pattern data of the image when the front of the button is imaged is different from the shade pattern data of the image when the back of the button is imaged. The front and back of the button is discriminated based on the difference in the light and shade pattern data. For example, in the case where the shade pattern data of the preset image is the shade pattern data of the image when the table of the button is captured, the feature determination unit can detect if the shade pattern data of the captured image matches the shade pattern data of the button of the captured image. The button is determined to be the front, and if it is different, it is determined to be the back. As a result, it is possible to determine whether or not the button is turned upside down with respect to the originally intended placement. Therefore, for example, by performing front / back determination of the button by the feature determination means before sewing, it is possible to eliminate a situation where the button is accidentally sewn with the button turned upside down, and the sewing quality is greatly improved.

(本発明による画像認識処理方法を用いるボタン画像認識処理装置の概要)
以下、図を参照して本発明の実施の形態を詳細に説明する。
本発明による画像認識処理方法及び画像認識処理装置は、カメラで撮像対象物を背景ごと撮像して当該撮像対象物を認識する画像認識処理方法及びボタン画像認識処理装置である。また、本発明によるボタン画像認識処理装置1は、カメラでボタンを背景ごと撮像してボタンの大きさ、位置、表裏、色及び向きといった各種の特徴を認識するボタン画像認識処理装置である。ボタン画像認識処理装置1は、例えばボタン付けミシンにおいて被縫製物の上方でボタンを保持するボタン把持具(図示略)にボタンを供給する周知のボタン供給装置において、ボタン把持具に供給されるボタンの大きさ、位置、表裏、色及び向きといった各種の特徴をボタンの供給前に認識する処理に用いられる。ボタン画像認識処理装置1はあらかじめ設定されたボタンの特徴がある場合、上述の各種特徴のうちいずれかがあらかじめ設定されたボタンの特徴と異なるボタンを認識した場合にエラーを出力する。これによって、縫製作業に用いるボタンの特徴についてあらかじめ設定をしていれば、あらかじめ設定された特徴にそぐわないボタンが誤って供給されることがなくなり、またボタンの向きが誤って供給されることを防止する。よって、ボタンの縫い付け品質が向上する。特に、ボタン自体正常であるが、ボタンの位置、向き、表裏といったボタンのセットの問題がある場合に、認識した結果をボタン供給装置の位置補正機構などに出力することにより、ミシンの正しい位置にボタンを供給することができる。
(Outline of Button Image Recognition Processing Apparatus Using Image Recognition Processing Method According to the Present Invention)
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
An image recognition processing method and an image recognition processing apparatus according to the present invention are an image recognition processing method and a button image recognition processing apparatus that capture an image of an imaging target with a camera and recognize the imaging target. Further, the button image recognition processing apparatus 1 according to the present invention is a button image recognition processing apparatus that recognizes various features such as the size, position, front and back, color, and orientation of a button by imaging the button with the background of the camera. The button image recognition processing device 1 is a button supplied to a button gripper in a well-known button supply device that supplies a button to a button gripper (not shown) that holds the button above a sewing product in a button sewing machine, for example. Is used for processing for recognizing various characteristics such as size, position, front and back, color, and orientation before supplying a button. The button image recognition processing device 1 outputs an error when there is a preset button feature, and when any of the various features described above recognizes a button different from the preset button feature. As a result, if the features of the buttons used for the sewing work are set in advance, buttons that do not match the preset features will not be accidentally supplied, and the button orientation will be prevented from being supplied incorrectly. To do. Therefore, the sewing quality of the button is improved. In particular, if the button itself is normal but there is a problem with the button position, orientation, front / back, etc., the recognized result is output to the position correction mechanism of the button supply device, etc. A button can be supplied.

(ミシンのボタン画像認識処理装置の全体構成)
以下に記載するボタン画像認識処理装置1(図1参照)は、本発明によるミシンのボタン画像認識処理装置の一形態であり、ボタンBを背景2aごと撮像した画像からボタンBを判別する画像認識処理装置である。
図1はボタン画像認識処理装置1の構成を示すブロック図である。
ボタン画像認識処理装置1は、既知の規則的な模様が付された平面を有し、当該平面が背景2aとされる背景部材2と、背景2aが付された平面の範囲内にある撮像対象物(ボタンB)を背景2aごと撮像するカメラ3と、ボタンBを光で照らす照明4と、ボタン画像認識処理装置1の各種情報を表示するモニタ5と、ボタン画像認識処理装置1の各部を制御するとともにカメラ3が撮像した画像からボタンBの認識処理を行う画像処理装置10と、を備えている。
(Whole structure of sewing machine button image recognition processing device)
A button image recognition processing device 1 (see FIG. 1) described below is one form of a button image recognition processing device for a sewing machine according to the present invention, and image recognition for discriminating the button B from an image obtained by capturing the button B together with the background 2a. It is a processing device.
FIG. 1 is a block diagram showing the configuration of the button image recognition processing apparatus 1.
The button image recognition processing device 1 has a plane with a known regular pattern, and the imaging target is within the range of the background member 2 having the plane 2a and the plane 2a having the background 2a. A camera 3 that captures an object (button B) together with the background 2a, an illumination 4 that illuminates the button B with light, a monitor 5 that displays various information of the button image recognition processing device 1, and each part of the button image recognition processing device 1 An image processing apparatus 10 that performs control and recognizes the button B from an image captured by the camera 3.

図2はボタンBと背景部材2の背景2aとの関係の一例を示す上面図である。なお、図2(a)は整形不良がなく、かつ、所定の大きさのボタンBが正しい向きで背景2aのほぼ中央に置かれた場合、図2(b)はボタンがない場合、図2(c)は所定の大きさよりも大きいボタンBAが置かれた場合、図2(d)はボタンBの位置が背景2aの中央からずれて置かれた場合、図2(e)はボタンBの一部が欠けているボタンBBが置かれた場合、図2(f)は所定の大きさよりも小さいボタンBCが置かれた場合、図2(g)はボタンBの複数の穴部Baの位置関係が図2(a)に示す当該位置関係に対して傾いている場合、図2(h)は穴部の一部が誤った位置に形成されたボタンBDが置かれた場合、図2(i)は穴部の一部が形成されていないボタンBEが置かれた場合の説明図である。
図1及び図2に示すように、背景部材2は、既知の規則的な模様が付された平面を有し、当該平面が背景2aとされる。当該縞模様は等幅の白黒の縞模様であり、カメラ3に撮像された場合それぞれの縞が一定の幅(画素にして5画素分)の幅となるよう設けられている。また、図2に示すように、背景2aの上面にボタンBを乗せた状態で背景2a及びボタンBを上方から見た場合、ボタンBに覆われないボタンBの外周より外側と穴部Ba部分から背景2aが覗いて見える。このとき、背景2aはボタンBを上から見た場合の範囲を十分にカバーでき、かつ、ボタンBを背景2aの中央においた場合にボタンBの周囲に背景2aが所定の幅以上覗いて見える広さを有するよう設けられている。
FIG. 2 is a top view showing an example of the relationship between the button B and the background 2 a of the background member 2. 2A shows a case where there is no malformation and the button B having a predetermined size is placed in the center of the background 2a in the correct orientation. FIG. 2B shows a case where there is no button. 2C shows a case where a button BA larger than a predetermined size is placed, FIG. 2D shows a case where the position of the button B is shifted from the center of the background 2a, and FIG. FIG. 2 (f) shows the position of the plurality of hole portions Ba of the button B. FIG. 2 (f) shows the position of the plurality of holes Ba. When the relationship is inclined with respect to the positional relationship shown in FIG. 2 (a), FIG. 2 (h) shows a case where a button BD having a part of the hole formed in the wrong position is placed. i) It is explanatory drawing when the button BE in which a part of hole is not formed is put.
As shown in FIGS. 1 and 2, the background member 2 has a plane with a known regular pattern, and the plane is the background 2a. The striped pattern is a black and white striped pattern having an equal width, and each striped pattern is provided with a certain width (5 pixels) when captured by the camera 3. Further, as shown in FIG. 2, when the background 2a and the button B are viewed from above with the button B placed on the upper surface of the background 2a, the outer portion of the button B not covered by the button B and the hole portion Ba You can see the background 2a. At this time, the background 2a can sufficiently cover the range when the button B is viewed from above, and when the button B is placed at the center of the background 2a, the background 2a can be seen around the button B over a predetermined width. It is provided to have a size.

カメラ3は、背景2aの上方に位置するよう設けられて、ボタンBを背景2aごと撮像する。このとき、カメラ3のピントを背景2aに合わせて撮像する。カメラ3によって撮像された画像は画像処理装置10へ入力される。
なお、カメラ3による画像は白黒であってもカラーであってもよいが、本実施の形態では白黒の画像を用いている。また、カメラ3から画像処理装置10へ入力される画像はアナログの画像である。
The camera 3 is provided above the background 2a, and images the button B together with the background 2a. At this time, the camera 3 is focused on the background 2a. An image captured by the camera 3 is input to the image processing apparatus 10.
In addition, although the image by the camera 3 may be monochrome or color, in this embodiment, a monochrome image is used. An image input from the camera 3 to the image processing apparatus 10 is an analog image.

照明4は、背景2a及びボタンBに光を照射する。照明4は光量を調節可能であり、カメラ3によるボタンBの撮像の際にカメラ3が受像する光量を適正に調節することができる。撮像の際には、方向、光量などが予め定められた一定の条件となるように照射が行われる。
モニタ5は、画像処理装置10から各種の情報が出力されて表示される。モニタ5に表示される内容については後述する。但し、周囲の外光による反射光によりカメラ3により撮像画像が背景2とボタンBとを認識可能であれば、必ずしも照明を画像処理装置10に設ける必要はない。また、図1において、照明4が斜光照明となっているが落斜照明でも良い。
The illumination 4 irradiates the background 2a and the button B with light. The illumination 4 can adjust the amount of light, and can appropriately adjust the amount of light received by the camera 3 when the camera 3 captures the button B. At the time of imaging, irradiation is performed so that the direction, amount of light, and the like satisfy predetermined conditions.
The monitor 5 outputs and displays various information from the image processing apparatus 10. The contents displayed on the monitor 5 will be described later. However, as long as the captured image can recognize the background 2 and the button B by the camera 3 by the reflected light of ambient ambient light, it is not always necessary to provide illumination in the image processing apparatus 10. Further, in FIG. 1, the illumination 4 is oblique illumination, but it may be falling illumination.

(画像処理装置)
画像処理装置10は、ボタン画像認識処理装置1の各部を制御するとともにデジタル画像データDからボタンBを認識する処理を行う。画像処理装置10は、カメラ3から入力されたアナログの画像をデジタル画像データDへと変換するA/Dコンバータ11と、画像認識処理装置1の各種の処理及び制御を行うCPU12と、CPU12が行う処理において各種のプログラム及びデータを格納する領域として機能するRAM13と、CPU12が行う処理において呼び出される各種プログラム及びデータを書き換え不能に記憶するROM14と、CPU12が行う処理において呼び出される各種プログラム及びデータを書き換え可能に記憶するEEPROM15と、を備えている。また、図示しないが、画像処理装置10には画像処理装置への各種設定を行う操作パネルが接続されている。
(Image processing device)
The image processing device 10 controls each part of the button image recognition processing device 1 and performs processing for recognizing the button B from the digital image data D. The image processing apparatus 10 includes an A / D converter 11 that converts an analog image input from the camera 3 into digital image data D, a CPU 12 that performs various processes and control of the image recognition processing apparatus 1, and a CPU 12. The RAM 13 that functions as an area for storing various programs and data in the process, the ROM 14 that stores various programs and data called in the process performed by the CPU 12 in an unrewritable manner, and the various programs and data called in the process performed by the CPU 12 are rewritten. EEPROM 15 which stores the data as possible. Although not shown, the image processing apparatus 10 is connected to an operation panel for performing various settings for the image processing apparatus.

A/Dコンバータ11は、カメラ3から入力されたアナログの画像を複数の画素によるデジタル画像データDへと変換してCPU12へ出力する。デジタル画像データDのそれぞれの画素は、一つの濃度値(輝度)を有する(図4参照)。
CPU12は、ROM14又はEEPROM15から各種のプログラム及びデータを呼び出し、処理することでボタン画像認識処理装置1の各種の処理及び制御を行う。また、CPU12は、A/Dコンバータ11から入力されたデジタル画像データDからボタンBを判別する各種の処理を行う。CPU12は、ROM14から各種のプログラムを呼び出して順次実行することにより上述のボタンBの判別処理を行う。このとき、デジタル画像データDはRAM13又はEEPROM15に記憶される。
The A / D converter 11 converts an analog image input from the camera 3 into digital image data D with a plurality of pixels and outputs the digital image data D to the CPU 12. Each pixel of the digital image data D has one density value (luminance) (see FIG. 4).
The CPU 12 performs various processes and controls of the button image recognition processing apparatus 1 by calling and processing various programs and data from the ROM 14 or the EEPROM 15. In addition, the CPU 12 performs various processes for determining the button B from the digital image data D input from the A / D converter 11. The CPU 12 performs the above-described determination process of the button B by calling various programs from the ROM 14 and sequentially executing them. At this time, the digital image data D is stored in the RAM 13 or the EEPROM 15.

なお、画像処理装置10は背景2aの縞模様を既知のパターンとして保有しており、当該縞模様のパターンデータHはEEPROM15に記憶されている。また、EEPROM15はボタンの外周チェックデータ15o、穴部チェックデータ15p、濃淡チェックデータ15q及び方向チェックデータ15rを記憶するための領域及び容量を有している。また、EEPROM15はあらかじめ外周チェックデータ15o、穴部チェックデータ15p、濃淡チェックデータ15q及び方向チェックデータ15rのいずれか又は複数を既知のパターンとして保有していてもよい。ボタンBの外周チェックデータ15o、穴部チェックデータ15p、濃淡チェックデータ15q及び方向チェックデータ15rの詳細については後述する。   The image processing apparatus 10 holds the stripe pattern of the background 2a as a known pattern, and the pattern data H of the stripe pattern is stored in the EEPROM 15. The EEPROM 15 has an area and capacity for storing button outer periphery check data 15o, hole check data 15p, density check data 15q, and direction check data 15r. Further, the EEPROM 15 may previously hold one or more of the outer periphery check data 15o, the hole check data 15p, the density check data 15q, and the direction check data 15r as a known pattern. Details of the outer peripheral check data 15o, the hole check data 15p, the density check data 15q, and the direction check data 15r of the button B will be described later.

図3はROM14に記憶された各種プログラム及びEEPROM15に記憶された各種データを示す説明図である。図3(a)はROM14に記憶された各種プログラムを、図3(b)はEEPROM15に記憶された各種プログラムを示す。
また、ROM14は、後述する撮像プログラム14aと、画質改善プログラム14bと、背景情報判別プログラム14cと、対象物有無チェックプログラム14dと、背景輪郭チェックプログラム14eと、外形情報取得プログラム14fと、対象物エラーチェックプログラム14gと、対象物内情報取得プログラム14hと、対象物内エラーチェックプログラム14iと、表裏判定プログラム14jと、方向判定プログラム14lとを記憶している。CPU12は、処理に応じてこれらのプログラムのいずれかを呼び出して実行することでカメラ3による画像からボタンBの認識処理を行う。以降、CPU12が各プログラムを実行した場合の処理内容について詳説する。
FIG. 3 is an explanatory diagram showing various programs stored in the ROM 14 and various data stored in the EEPROM 15. FIG. 3A shows various programs stored in the ROM 14, and FIG. 3B shows various programs stored in the EEPROM 15.
The ROM 14 also includes an imaging program 14a, an image quality improvement program 14b, a background information determination program 14c, an object presence / absence check program 14d, a background contour check program 14e, an outline information acquisition program 14f, and an object error, which will be described later. A check program 14g, an in-object information acquisition program 14h, an in-object error check program 14i, a front / back determination program 14j, and a direction determination program 14l are stored. The CPU 12 performs recognition processing of the button B from the image by the camera 3 by calling and executing one of these programs according to the processing. Hereinafter, the processing contents when the CPU 12 executes each program will be described in detail.

まず、撮像プログラム14aについて詳説する。CPU12は、撮像プログラム14aを実行することで、カメラ3を制御してカメラ3にボタンBを背景2aごと撮像させ、当該撮影によって得られたアナログ画像をA/Dコンバータ11を介してデジタル画像データDに変換してRAM13に記憶させる処理を行う。このとき、撮像された画像をモニタ5に表示させてもよい。なお、当該デジタル画像データDは長方形あるいは正方形の白黒の多値画像データ(グレースケール)である。
また、CPU12は、画質改善プログラム14bを実行することで、撮像プログラム14aによってRAM13に記憶されたデジタル画像データDのノイズを除去する処理を行う。なお、デジタル画像データDのノイズ除去の方法については周知の技術であるので詳細は省略する。
First, the imaging program 14a will be described in detail. The CPU 12 executes the imaging program 14 a to control the camera 3 so that the camera 3 captures the button B together with the background 2 a, and the analog image obtained by the imaging is converted into digital image data via the A / D converter 11. A process of converting to D and storing in the RAM 13 is performed. At this time, the captured image may be displayed on the monitor 5. The digital image data D is rectangular or square multi-valued image data (gray scale).
In addition, the CPU 12 executes the image quality improvement program 14b to perform processing for removing noise of the digital image data D stored in the RAM 13 by the imaging program 14a. Note that the method of removing noise from the digital image data D is a well-known technique and will not be described in detail.

次に、背景情報判別プログラム14cについて詳説する。CPU12は、背景情報判別プログラム14cを実行することで、デジタル画像データDから背景の部分を認識する処理を行う。以下、当該処理について詳説する。
図4はデジタル画像データDの一部を拡大した説明図である。なお、デジタル画像データDの周囲に付された数値はデジタル画像データDの画素の位置を説明するための指標である。
CPU12は、背景2aの白黒の縞と直交する方向(図4の縦方向)について、背景2aの白黒の縞の幅が所定の画素数ずつ交互に並んでいるかどうかを判別する。即ち、撮像範囲の画素の縦方向に沿って各画素の輝度を読み出して、白黒の横縞を撮像することにより得られるべきパターン通りかを撮像範囲の全ての列について判定する。白黒の横縞の場合、背景2aであれば、所定画素数ごとに白と黒とが切り替わる変化を示すパターンが得られるはずである。このとき、背景2aの白黒の縞の幅がデジタル画像データD上で縦方向に何画素分の幅となるのかはパターンデータHとしてあらかじめ設定されEEPROM15に記憶されており、図4においては当該幅が5画素分である場合を示している。また、「黒」、「白」と判定する輝度の範囲も予め設定されEEPROM15に記憶されている。CPU12は、各列毎に上から5画素ずつ各画素の輝度を取得し、5画素とも背景2aの縞模様に則した輝度であるかどうかを判定する。つまり、図4に示すデジタル画像データDの場合、上から1〜5番目の画素は全部「黒」を示す輝度であるか、6〜10番目の画素は全部「白」を示す輝度であるか、といったように順に5画素ずつ判定する。5画素とも背景に則した輝度である場合、CPU12はその5画素を背景2aとして判別し、そうでなかった場合、その部分は背景でない、即ち撮像対象物であるボタンBが写っている画像の範囲であると判別される。図4には、カメラにより撮像されたボタンBの形状に対応する画素部分で「灰色」(図4の斑点部分)を示す輝度が取得されているようすが示されているが、CPU12による判別処理は縦方向に5画素単位で判別処理が行われるので、背景2aとボタンBとが判別される縦方向の画素の最小単位は5画素となり、実際のカメラの分解能よりも5倍荒い分解能で背景2aとボタンBとが区切られる。例えば、背景2aとボタンBとの境界は、図4における二点鎖線Pのように認識される。なお、誤差を考慮して、5画素に対して±αの許容幅を設けても良い(例えば、α=1の場合、5画素中4画素が背景2aと同じ輝度であれば、中に一つだけ異なる色彩が混じっていても背景と見なす処理が行われる)。
なお、撮像範囲の端縁部分は、単位模様が途中から撮像されている場合もあるので、繰り返しの単位模様が一度認識された位置から判別処理を開始するのが望ましい。
Next, the background information determination program 14c will be described in detail. The CPU 12 performs a process of recognizing a background portion from the digital image data D by executing the background information determination program 14c. Hereinafter, the processing will be described in detail.
FIG. 4 is an explanatory diagram in which a part of the digital image data D is enlarged. The numerical values attached around the digital image data D are indices for explaining the pixel positions of the digital image data D.
The CPU 12 determines whether or not the width of the black and white stripes of the background 2a are alternately arranged by a predetermined number of pixels in the direction orthogonal to the black and white stripes of the background 2a (vertical direction in FIG. 4). That is, the luminance of each pixel is read out along the vertical direction of the pixels in the imaging range, and it is determined for all the columns in the imaging range whether the pattern should be obtained by imaging black and white horizontal stripes. In the case of black and white horizontal stripes, if the background is 2a, a pattern showing a change in which white and black are switched every predetermined number of pixels should be obtained. At this time, the number of pixels in the vertical direction on the digital image data D corresponding to the width of the black and white stripes of the background 2a is preset as pattern data H and stored in the EEPROM 15. In FIG. Shows the case of 5 pixels. In addition, the luminance range determined as “black” or “white” is also set in advance and stored in the EEPROM 15. The CPU 12 acquires the luminance of each pixel from the top for each column, and determines whether all the five pixels have the luminance according to the striped pattern of the background 2a. That is, in the case of the digital image data D shown in FIG. 4, are the first to fifth pixels from the top all having a luminance indicating “black”, or are the sixth to tenth pixels all having a luminance indicating “white”? , And so on in order of 5 pixels. When all the five pixels have the luminance in accordance with the background, the CPU 12 determines that the five pixels are the background 2a. Otherwise, the portion is not the background, that is, the image of the button B that is the imaging target is shown. It is determined that it is a range. FIG. 4 shows that the luminance indicating “gray” (the spotted portion in FIG. 4) is acquired in the pixel portion corresponding to the shape of the button B imaged by the camera. Since the discrimination processing is performed in units of 5 pixels in the vertical direction, the minimum unit of the vertical pixels in which the background 2a and the button B are discriminated is 5 pixels, and the background is 5 times rougher than the resolution of the actual camera. 2a and button B are separated. For example, the boundary between the background 2a and the button B is recognized as a two-dot chain line P in FIG. In consideration of an error, an allowable range of ± α may be provided for 5 pixels (for example, when α = 1, if 4 out of 5 pixels have the same luminance as the background 2a, the allowable range is 1). Even if there are only two different colors, the background is considered).
In addition, since the unit pattern may be imaged from the middle of the edge portion of the imaging range, it is desirable to start the discrimination process from the position where the repeated unit pattern is recognized once.

図5は、背景2aとボタンBとの境界線を示す説明図である。なお、図5(a)は背景情報判別プログラム14cの判別によるボタンBの上半分の境界線L1を示す図、図5(b)は背景情報判別プログラム14cの判別によるボタンBの下半分の境界線L2を示す図、図5(c)は後述する外形情報取得プログラム14fによって合成されたボタンBの外周データLを示す説明図である。
CPU12は、まず1列目において一番上の画素から下方へ順次5画素単位で背景2aとボタンBとの判別を行い、ボタンBとして判別される範囲が見つかるまで背景2aとボタンBとの判別を行う。ボタンBとして判別される範囲が見つかった場合はそれより下方の範囲はボタンBが存在するものとしてその時点でその列の判定は終了して次の列に移行し、ボタンBとして判別される範囲が見つからなかった場合は当該列の最後の画素まで判別が終わった時点で次の列の1番目から下方へ順次5画素単位で背景とボタンBとの判別を行い、以後繰り返す。その後、最後の列の判別が完了した時点で、図5(a)に示すように、背景2aとボタンBとが判別された境界線L1を境として背景2aとボタンBとの範囲の判別が行われる。その後、1列目において縦方向の一番下の画素から上方へ順次5画素単位で背景とボタンBとの判別を行い、ボタンBとして判別される範囲が見つかるまで背景とボタンBとの判別を行う。ボタンBとして判別される範囲が見つかった場合はそれより上方の範囲はボタンBが存在するものとしてその時点でその列の判定は終了して次の列に移行し、ボタンBとして判別される範囲が見つからなかった場合は当該列の画素における一番上の画素まで判別が終わった時点で次の列の一番下から上方へ順次5画素単位で背景とボタンBとの判別を行い、以後繰り返す。このとき、下方から順次背景とボタンBとの判別を行う処理については、上方から順次背景とボタンBとの判別を行った結果、全て背景であると判別された列については判別処理を省略してもよい。この結果、図5(b)に示すように、境界線L2を境として背景2aとボタンBとの範囲の判別が行われる。
なお、上記判別処理においては、判別時間を短縮するために、下方または上方へ向かう列毎の判別処理において、ボタンBとして判別される範囲が見つかった場合はそれ以降のその列の範囲はボタンBが存在するものとしてその列の画素の判別を省略しているが、この処理では、時間が短縮できる代わりに、ボタンBの形状に一部欠損がある場合に、その欠損を判別できない可能性があるので、時間は短縮できないが、一番上の画素から一番下の画素まで、あるいは、一番下の画素から一番上の画素まで、ボタンBの画素の検出の有無に関わらず省略すること無しに、全画素の判別を行っても良い。
FIG. 5 is an explanatory diagram showing a boundary line between the background 2 a and the button B. FIG. 5A shows the upper half boundary line L1 of the button B determined by the background information determination program 14c, and FIG. 5B shows the lower half boundary of the button B determined by the background information determination program 14c. FIG. 5C is a diagram illustrating the line L2, and FIG. 5C is an explanatory diagram illustrating the outer circumference data L of the button B synthesized by the outer shape information acquisition program 14f described later.
In the first column, the CPU 12 first determines the background 2a and the button B sequentially in units of 5 pixels from the top pixel downward, and determines the background 2a and the button B until a range determined as the button B is found. I do. If a range identified as button B is found, the range below it is assumed that button B exists, and at that time, the determination of that column ends and the next column is determined. If no is found, the background and the button B are sequentially determined in units of 5 pixels from the first to the bottom of the next column when the determination is completed up to the last pixel in the column, and then repeated. Thereafter, when the determination of the last column is completed, as shown in FIG. 5A, the range of the background 2a and the button B is determined on the boundary line L1 where the background 2a and the button B are determined. Done. After that, in the first column, the background and the button B are discriminated sequentially in units of 5 pixels from the lowest pixel in the vertical direction, and the background and the button B are discriminated until a range discriminated as the button B is found. Do. If a range identified as button B is found, the range above it is assumed that button B exists, and at that time, the determination of that column ends, and the next column is determined. Is not found, the background and the button B are discriminated in units of 5 pixels in order from the bottom to the top of the next column when the discrimination is finished up to the top pixel in the column, and then repeated. . At this time, for the process of sequentially determining the background and the button B from the lower side, the determination process is omitted for the columns that are all determined to be the background as a result of the determination of the background and the button B sequentially from the upper side. May be. As a result, as shown in FIG. 5B, the range between the background 2a and the button B is determined with the boundary line L2 as the boundary.
In the determination process, in order to shorten the determination time, if a range to be determined as the button B is found in the determination process for each column moving downward or upward, the subsequent range of the column is the button B. However, in this process, if the shape of the button B has a partial defect, there is a possibility that the defect cannot be identified. Because there is, the time cannot be shortened, but it is omitted from the top pixel to the bottom pixel, or from the bottom pixel to the top pixel, regardless of whether or not the button B pixel is detected. All pixels may be discriminated without any problem.

なお、ボタンBが透過性を有する場合、背景2aの縞模様はボタンBを透過するが、背景2aがボタンBを透過する過程において屈折が生じるような場合は、当該屈折によって背景2aの規則性が失われるので、その部分は背景2aとして判別されず、ボタンBとして判別される。   When the button B has transparency, the striped pattern of the background 2a transmits the button B. However, when refraction occurs in the process of the background 2a transmitting the button B, the regularity of the background 2a is caused by the refraction. Is not determined as the background 2a, but is determined as the button B.

次に、対象物有無チェックプログラム14dについて詳説する。CPU12は、対象物有無チェックプログラム14dを実行することで、背景情報判別プログラム14cの実行によって背景2aとして判別された範囲がデジタル画像データD全体であるかどうかを判定することで、背景2aにボタンBが乗っているかをチェックする。デジタル画像データD全体が背景として判別された場合、つまりボタンBとして判別された範囲がデジタル画像データD上にまったくない場合、背景2aの上面にボタンBが乗っていないこととなる。よって、CPU12はボタンBがない旨を示すエラーを出力する。一方、デジタル画像データD全体が背景として判別されていなかった場合、背景2aの上面にボタンBが乗っていることで背景2aが遮られる部分ができ、背景2aと判別されなかった範囲がボタンBとして判別されたとみなされる。よってCPU12はボタンBがある旨を示す出力を行う。これによって図2(b)に示すように、ボタンが置かれていない場合のデジタル画像データDを判別できる。   Next, the object presence / absence check program 14d will be described in detail. The CPU 12 executes the object presence / absence check program 14d to determine whether the range determined as the background 2a by the execution of the background information determination program 14c is the entire digital image data D. Check if B is on board. When the entire digital image data D is determined as the background, that is, when there is no range determined as the button B on the digital image data D, the button B is not on the upper surface of the background 2a. Therefore, the CPU 12 outputs an error indicating that there is no button B. On the other hand, when the entire digital image data D has not been determined as the background, the background 2a is blocked by the button B on the upper surface of the background 2a. It is considered that Therefore, the CPU 12 performs an output indicating that the button B is present. As a result, as shown in FIG. 2B, the digital image data D when the button is not placed can be determined.

次に、背景輪郭チェックプログラム14eについて詳説する。CPU12は、背景輪郭チェックプログラム14eを実行することで、ボタンBが連続する所定範囲の背景2aに囲まれるように配置されていること、すなわち輪郭部分の全方位に渡って所定−画素数分の連続する背景2aがあるかどうかを判定する。即ち、背景輪郭チェックプログラム14eは、ボタンBが背景2aからはみ出すように置かれていないか、あるいはボタンBが背景2aの中央から大幅に外れた位置に置かれていないかをチェックする。CPU12は、図4に示す画像データDにおいてそれぞれ1〜10の数値で示す上端から連続する10画素分の行(画素の横の並び)及び左端から連続する10画素分の列(画素の縦の並び)の範囲及び図示しないデジタル画像データDの下端及び右端から連続する10画素分の範囲が全て背景2aとして判別されているかどうかをチェックする。すなわち、CPU12は、画像データDの上下左右の端縁から連続する10画素分の範囲(所定範囲)が全て背景2aとして判別されるか否かにより、ボタンBが背景2aからはみ出すように置かれていないか、あるいはボタンBが背景2aの中央から大幅に外れた位置に置かれていないかをチェックする。当該範囲が全て背景として判別されていない場合、即ちボタンBとして判別された範囲が当該範囲に含まれていた場合、ボタンBは背景2aからはみ出すように置かれているか、あるいははみ出ないまでも背景2aの中央から大幅にずれた位置に置かれていると判定される。よって、背景輪郭チェックプログラム14eはボタンBが背景2aからはみ出ているか、あるいは背景2aの中央から大幅にずれた位置に置かれている旨を示すエラーを出力する。一方、当該範囲が全て背景として判別されていた場合、ボタンBは背景2aからはみ出たり、背景2aの中央から大幅にずれた位置に置かれたりすることなく、凡そ正しい位置に置かれていると判定される。よって、CPU12はボタンBが正しい位置に置かれている旨を示す出力を行う。これによって図2(c)に示すようにボタンBAの大きさが大きいために背景2aの輪郭の一部を覆っている場合や、図2(d)に示すようにボタンBの置かれている位置が背景2aの中央からずれている場合のデジタル画像データDを判別できる。
なお、上述においては10画素分をデジタル画像データDの輪郭として処理しているが、上述と異なる画素数を輪郭として設定可能であることは言うまでもない。
また、上述においてはデジタル画像データDの上下左右のそれぞれの側縁から連続する10画素分の背景2aを示す画素が判別されない場合に、ボタンBの背景2aからのはみ出しやボタンBの背景2aの中央から大幅のズレをチェックしているが、単に、デジタル画像データDの全体にわたって、縦方向と横方向それぞれについて10画素連続して背景2aとして判別できない部分が存在する場合に、同様の判定を行っても良い。
また、背景情報判別プログラム14cにより取得した境界線の画像データD中の位置によって、同様の判定を行っても良い。
Next, the background contour check program 14e will be described in detail. By executing the background contour check program 14e, the CPU 12 is arranged so that the button B is surrounded by a continuous range 2a of the background 2a, that is, a predetermined number of pixels over all directions of the contour portion. It is determined whether there is a continuous background 2a. That is, the background contour check program 14e checks whether the button B is not placed so as to protrude from the background 2a, or whether the button B is placed at a position greatly deviated from the center of the background 2a. In the image data D shown in FIG. 4, the CPU 12 has a row of 10 pixels (horizontal arrangement of pixels) continuous from the upper end indicated by numerical values 1 to 10 and a column of 10 pixels continuous from the left end (vertical pixels). It is checked whether the range of 10 pixels continuous from the lower end and the right end of the digital image data D (not shown) are all determined as the background 2a. That is, the CPU 12 places the button B so that it protrudes from the background 2a depending on whether or not the range (predetermined range) of 10 pixels continuous from the top, bottom, left, and right edges of the image data D is all determined as the background 2a. It is checked whether the button B is not placed at a position far from the center of the background 2a. When all the ranges are not determined as the background, that is, when the range determined as the button B is included in the range, the button B is placed so as to protrude from the background 2a or the background does not protrude. It is determined that it is placed at a position greatly deviated from the center of 2a. Therefore, the background contour check program 14e outputs an error indicating that the button B protrudes from the background 2a or is placed at a position greatly deviated from the center of the background 2a. On the other hand, if the entire range has been determined as the background, the button B is placed in a roughly correct position without protruding from the background 2a or being greatly displaced from the center of the background 2a. Determined. Therefore, the CPU 12 performs an output indicating that the button B is placed at the correct position. As a result, the size of the button BA is large as shown in FIG. 2C, so that the outline of the background 2a is partially covered, or the button B is placed as shown in FIG. 2D. It is possible to determine the digital image data D when the position is shifted from the center of the background 2a.
In the above description, 10 pixels are processed as the contour of the digital image data D, but it goes without saying that a different number of pixels from the above can be set as the contour.
Further, in the above description, when pixels indicating the background 2a for 10 pixels continuous from the respective upper, lower, left and right side edges of the digital image data D are not determined, the protrusion of the button B from the background 2a and the background 2a of the button B Although a large deviation is checked from the center, the same determination is simply made when there is a portion that cannot be determined as the background 2a continuously for 10 pixels in each of the vertical and horizontal directions over the entire digital image data D. You can go.
The same determination may be made according to the position of the boundary line acquired by the background information determination program 14c in the image data D.

次に、外形情報取得プログラム14fについて詳説する。CPU12は、外形情報取得プログラム14fを実行することで、背景情報取得プログラム14cによってボタンBとして判別された範囲の外周を示すデータ(外周データ)を合成する。具体的には、図5(c)に示すように、境界線L1と境界線L2とを合成して境界線L1の内側であって、かつ、境界線L2の内側である範囲をボタンBの範囲としてみなし、その範囲を取り巻く境界線L1、L2の一部分を連結してボタンBの外周データLとする。
また、後述する自動チェックモードがONの場合は、CPU12は外周データをEEPROM15に記憶する。
Next, the outline information acquisition program 14f will be described in detail. The CPU 12 synthesizes data (peripheral data) indicating the outer periphery of the range determined as the button B by the background information acquisition program 14c by executing the outer shape information acquisition program 14f. Specifically, as shown in FIG. 5 (c), the boundary line L1 and the boundary line L2 are combined and the range that is inside the boundary line L1 and inside the boundary line L2 is displayed on the button B. It is regarded as a range, and a part of the boundary lines L1 and L2 surrounding the range is connected as the outer peripheral data L of the button B.
When an automatic check mode, which will be described later, is ON, the CPU 12 stores the outer periphery data in the EEPROM 15.

次に、対象物エラーチェックプログラム14gについて詳説する。CPU12は、対象物エラーチェックプログラム14gを実行することで、ボタンBの外周チェックデータがあらかじめ記憶されていた場合に、外形情報取得プログラム14fの実行によって取得されたボタンBの外周データと外周チェックデータ15oとを比較する。
図6は外周チェックデータ15oと外周データLとの関係を示す説明図である。外周チェックデータ15oは、図6に示すボタンBの外周の境界線が位置すべき画素の範囲F1を示すデータであり、上述のようにEEPROM15に記憶されている。CPU12は、外周データLの示すボタンBの外周の位置が全て範囲F1内に含まれるかどうかの判定を行う。これによって、図2(e)に示すようにボタンBの一部が欠けているボタンBBが置かれた場合や、図2(f)に示すように所定の大きさよりも小さいボタンBCが置かれた場合、また背景2aに対してボタンBが大きく位置ズレを生じて配置されている場合のデジタル画像データDを判別できる。
Next, the object error check program 14g will be described in detail. The CPU 12 executes the object error check program 14g, and when the outer periphery check data of the button B is stored in advance, the outer periphery data and outer periphery check data of the button B acquired by executing the outer shape information acquisition program 14f. Compare 15o.
FIG. 6 is an explanatory diagram showing the relationship between the outer periphery check data 15o and the outer periphery data L. The outer periphery check data 15o is data indicating the pixel range F1 where the outer boundary of the button B shown in FIG. 6 is to be located, and is stored in the EEPROM 15 as described above. The CPU 12 determines whether all the positions of the outer periphery of the button B indicated by the outer periphery data L are included in the range F1. As a result, when a button BB in which a part of the button B is missing is placed as shown in FIG. 2 (e), or a button BC smaller than a predetermined size is placed as shown in FIG. 2 (f). In this case, the digital image data D when the button B is arranged with a large positional deviation with respect to the background 2a can be determined.

上述の比較処理により、CPU12はデジタル画像データDに写ったボタンBの外周の形状及びボタンBの大きさが外周チェックデータ15oに設定されたボタンと合致するかどうか判定する。このとき、ボタンBの外周データが外周チェックデータ15oに合致しないと判定された場合、CPU12はボタンBの形状、配置あるいは大きさが異常である旨を示すエラーを出力する。一方、ボタンBの外周データが外周チェックデータ15oに合致すると判定された場合、CPU12はボタンBの形状、配置及び大きさに問題がない旨を示す出力を行う。これによって、ボタンBの形状があらかじめ設定された外周チェックデータ15oと一致しない場合のデジタル画像データDを判別できる。   By the above comparison processing, the CPU 12 determines whether the outer shape of the button B and the size of the button B shown in the digital image data D match the buttons set in the outer periphery check data 15o. At this time, if it is determined that the outer periphery data of the button B does not match the outer periphery check data 15o, the CPU 12 outputs an error indicating that the shape, arrangement, or size of the button B is abnormal. On the other hand, when it is determined that the outer periphery data of the button B matches the outer periphery check data 15o, the CPU 12 outputs an output indicating that there is no problem in the shape, arrangement, and size of the button B. Accordingly, it is possible to determine the digital image data D when the shape of the button B does not match the preset outer periphery check data 15o.

次に、対象物内情報取得プログラム14hについて詳説する。CPU12は、対象物内情報取得プログラム14hを実行することにより、ボタンBとして判別された範囲内において背景2aとボタンBとの判別を行い、その後ボタンBの穴部の周囲を示すデータ(穴部データ)及び背景情報判別プログラム14cによってボタンBとして判別された範囲から穴部Baを除いた範囲の各画素の輝度を示す濃淡パターンデータを取得する処理を行う。
図7はボタンBの一つの穴部Baの周囲を拡大視したデジタル画像データDの一部を示す説明図である。ボタンBとして判別された範囲内における背景2aとボタンBとの判別処理については、上述の背景情報判別プログラム14cの処理と同様の仕組みで行う。具体的には、ボタンBの外周が位置する最も若い数値(最も左側)の列から順番に各列の一番上の画素から順次5画素単位で背景2aとボタンBとの判別処理を行う。このとき、ボタンBの範囲内で背景2aとして判別された範囲は、ボタンBの穴部Baとして判別される。つまり、図7に示すように、二点鎖線Q1の内側が穴部Baとして判別され、二点鎖線Q1は穴部Baのうちひとつの輪郭を示す。
なお、対象物内情報取得プログラム14hによる背景2aとボタンBとの判別処理範囲はあらかじめ設定した所定の範囲内に限ることも可能である。例えば、図2に示すボタンBの穴部Baが設けられているおおよその位置があらかじめ特定できる場合には、穴部Baが設けられている位置に対応する画素の位置及びその周辺を所定の範囲として設定することで、背景2aとボタンBとの判別処理を行う範囲を少なくして処理時間を短縮することが可能となる。
よって、CPU12は、上述の背景情報判別プログラム14c、外形情報取得プログラム14f及び対象物内情報取得プログラム14hを実行することで、背景2aの規則性(例えば5画素ずつの縞模様)を有する模様から背景2aを判別し、背景2aと判別されなかった部分をボタンBと判定する処理を行う「判別手段」として機能する。
上述の背景2aとボタンBとの判別処理が終わると、CPU12は、全ての穴部Baの輪郭の位置を穴部データとして取得すると共に、前述したボタンの外周データLと穴部データとに基づいて全撮像範囲の撮像データからボタンBの範囲内であって穴部を除いた範囲を抽出し、穴部を除いたボタンBの正面上の濃淡パターンデータを取得する。なお、穴部データには独立した穴部の数も併せて取得される。
なお、以降の対象物内に関わる処理では、穴部データに基づいて、デジタル画像データDまたはデジタル画像データDから取得した情報に対して、必要に応じて対象物の向きが正しくなるように、画像データDまたは対応する情報を変換する方向変換処理を行う。
Next, the in-object information acquisition program 14h will be described in detail. The CPU 12 determines the background 2a and the button B within the range determined as the button B by executing the in-object information acquisition program 14h, and then data (hole portion) indicating the periphery of the hole portion of the button B. Data) and grayscale pattern data indicating the luminance of each pixel in the range excluding the hole Ba from the range determined as the button B by the background information determination program 14c.
FIG. 7 is an explanatory view showing a part of the digital image data D in which the periphery of one hole Ba of the button B is enlarged. The discrimination process between the background 2a and the button B within the range discriminated as the button B is performed by the same mechanism as the process of the background information discrimination program 14c described above. Specifically, the background 2a and the button B are discriminated in units of 5 pixels in order from the topmost pixel in each column in order from the lowest numerical value (leftmost) column in which the outer periphery of the button B is located. At this time, the range determined as the background 2 a within the range of the button B is determined as the hole Ba of the button B. That is, as shown in FIG. 7, the inner side of the two-dot chain line Q1 is determined as the hole Ba, and the two-dot chain line Q1 indicates one outline of the hole Ba.
Note that the determination processing range between the background 2a and the button B by the in-object information acquisition program 14h can be limited to a predetermined range set in advance. For example, when the approximate position where the hole Ba of the button B shown in FIG. 2 is provided can be specified in advance, the position of the pixel corresponding to the position where the hole Ba is provided and the surrounding area are within a predetermined range. By setting as, it is possible to reduce the processing time by reducing the range in which the background 2a and the button B are discriminated.
Therefore, the CPU 12 executes the background information determination program 14c, the outer shape information acquisition program 14f, and the in-object information acquisition program 14h described above, so that the regularity of the background 2a (for example, a stripe pattern of 5 pixels) is obtained. It functions as a “discriminating unit” that performs processing for discriminating the background 2a and determining the portion that is not discriminated as the background 2a as the button B.
When the discrimination process between the background 2a and the button B is completed, the CPU 12 acquires the positions of the outlines of all the holes Ba as hole data, and based on the button outer periphery data L and the hole data described above. Then, the range within the range of the button B and excluding the hole portion is extracted from the imaging data of the entire imaging range, and the shading pattern data on the front of the button B excluding the hole portion is acquired. Note that the number of independent holes is also acquired in the hole data.
In the subsequent processes related to the object, the direction of the object is corrected as necessary for the digital image data D or information acquired from the digital image data D based on the hole data. A direction conversion process for converting the image data D or corresponding information is performed.

次に、対象物内エラーチェックプログラム14iについて詳説する。CPU12は、対象物内エラーチェックプログラム14iを実行することで、EEPROM15に穴部チェックデータ15pがあらかじめ記憶されていた場合、対象物内情報取得プログラム14hによって取得された穴部データと穴部チェックデータ15pとを比較する処理を行う。
図8は穴部チェックデータ15pと穴部データとの関係を示す説明図である。穴部チェックデータ15pは、図8に示すボタンBの穴部の輪郭が位置すべき範囲F2を示すと共に、独立したF2の範囲の数即ちボタンの穴部の数をチェックするデータであり、上述のようにEEPROM15に記憶されている。CPU12は、穴部データの示すボタンBの穴部Baの輪郭Qが全て範囲F2内に含まれるかどうかの判定を行うと共に、穴部データに含まれる独立した穴部の数と穴部チェックデータの独立したF2の範囲の数とを比較する。これによって、図2(g)に示すようにボタンBの複数の穴部の位置関係が正しい位置関係に対して傾いている場合、図2(h)に示すようにボタンの穴部の一部が誤って形成されたボタンBD及び図2(i)に示すようにボタンの穴部の一部が形成されていないボタンBEのデジタル画像データDを判別できる。
Next, the in-object error check program 14i will be described in detail. When the hole check data 15p is stored in the EEPROM 15 in advance by executing the in-object error check program 14i, the CPU 12 acquires the hole data and the hole check data acquired by the in-object information acquisition program 14h. A process of comparing with 15p is performed.
FIG. 8 is an explanatory diagram showing the relationship between the hole check data 15p and the hole data. The hole check data 15p is data for indicating the range F2 in which the outline of the hole of the button B shown in FIG. 8 is to be located and checking the number of independent F2 ranges, that is, the number of button holes. Is stored in the EEPROM 15 as shown in FIG. The CPU 12 determines whether or not the outline Q of the hole Ba of the button B indicated by the hole data is all included in the range F2, and the number of independent holes included in the hole data and the hole check data. To the number of independent F2 ranges. Accordingly, when the positional relationship of the plurality of hole portions of the button B is inclined with respect to the correct positional relationship as shown in FIG. 2G, a part of the hole portion of the button as shown in FIG. It is possible to discriminate between the button BD formed in error and the digital image data D of the button BE in which a part of the hole of the button is not formed as shown in FIG.

上述の比較処理により、CPU12はデジタル画像データDに写ったボタンBの穴部Baの大きさ、位置及び数が穴部チェックデータ15pと合致するかどうか判定する。デジタル画像データD穴部データと穴部チェックデータ15pとが合致しないと判定された場合、CPU12はボタンBの穴部Baに異常がある旨を示すエラーを出力する。一方、デジタル画像データD穴部データと穴部チェックデータ15pとが合致すると判定された場合、CPU12はボタンBの穴部Baに問題がない旨を示す出力を行う。   Through the above comparison process, the CPU 12 determines whether the size, position, and number of the hole Ba of the button B shown in the digital image data D match the hole check data 15p. When it is determined that the digital image data D hole data and the hole check data 15p do not match, the CPU 12 outputs an error indicating that the hole Ba of the button B is abnormal. On the other hand, when it is determined that the digital image data D hole data and the hole check data 15p match, the CPU 12 outputs an output indicating that there is no problem in the hole Ba of the button B.

次に、表裏判定プログラム14jについて詳説する。CPU12は、表裏判定プログラム14jを実行することで、EEPROM15に濃淡チェックデータ15qがあらかじめ記憶されていた場合に、対象物内情報取得プログラム14hによって取得されたボタンBとして判別された範囲の画像の濃淡パターンデータからボタンBの表裏を判定する。
図9はボタンBの表裏の一例を示す説明図である。なお、図9(a)はボタンの表を、図9(b)はボタンの裏を示す。
図9(a)に示すように、ボタンBの表に段差Bbが設けられている場合、段差Bbとその外周部Bcとの間で画像の濃淡差が生じる。一方、図9(b)に示すようにボタンBの裏には段差がないので、表の場合のような濃淡差は生じない。また、濃淡チェックデータ15qはボタンの表及び裏をそれぞれ撮像した場合の画像の濃淡を示すデータであり、そのデータ構造は対象物内情報取得プログラム14hによって取得された濃淡パターンデータと同様、穴を除いたボタン画像の各画素の輝度を示す濃淡パターンデータである。つまり、CPU12は対象物内情報取得プログラム14hで得られた濃淡パターンデータとボタンBの表側(裏側)を表すデータ(表パターン)として予め設定されていた濃淡チェックデータ15qとを比較し、デジタル画像データDに写ったボタンBの表裏を判定する。
Next, the front / back determination program 14j will be described in detail. The CPU 12 executes the front / back determination program 14j, so that the density of the image in the range determined as the button B acquired by the in-object information acquisition program 14h when the density check data 15q is stored in the EEPROM 15 in advance. The front and back of the button B are determined from the pattern data.
FIG. 9 is an explanatory diagram showing an example of the front and back of the button B. FIG. 9A shows a button table, and FIG. 9B shows the back of the button.
As shown in FIG. 9A, when a step Bb is provided on the table of the button B, an image density difference occurs between the step Bb and the outer peripheral portion Bc. On the other hand, since there is no step on the back of the button B as shown in FIG. The density check data 15q is data indicating the density of the image when the front and back of the button are imaged, and the data structure is similar to the density pattern data acquired by the in-object information acquisition program 14h. This is shade pattern data indicating the luminance of each pixel of the excluded button image. That is, the CPU 12 compares the light / dark pattern data obtained by the in-object information acquisition program 14h with the light / dark check data 15q set in advance as data (front pattern) representing the front side (back side) of the button B, and the digital image The front and back of the button B shown in the data D is determined.

当該判定は、濃淡チェックデータ15qを基準とした近似値判定処理を行う。具体的には、濃淡チェックデータ15qの各画素と濃淡パターンの各画素についてそれぞれ濃度を数値化し、対応する位置の画素の濃度について濃淡チェックデータ15qの濃度の数値に対して濃淡パターンの濃度の数値が所定の近似値の範囲内であるかどうかをチェックする。このとき、一定以上の割合の画素が近似値以内であれば合致したものとみなし、そうでなければ合致しないものとみなす。
よって、CPU12は近似値判定処理において濃淡パターンが濃淡チェックデータ15qの表パターンに合致した場合、即ち表向きであると判定した場合は問題がない旨を示す出力を行う。一方、濃淡パターンと表パターンとが合致しなかった場合、CPU12はさらに濃淡パターンと濃淡チェックデータ15qに含まれる裏を撮像した場合のデータ(裏パターン)とを比較する。このとき、濃淡パターンと裏パターンとが合致した場合、即ちデジタル画像データDに写ったボタンBが裏向きであると判定した場合にボタンが裏向きである旨を示すエラーを出力する。また、濃淡パターンが表パターン及び裏パターンのいずれにも一致しなかった場合は、ボタンBは濃淡チェックデータ15qに設定されたボタンの表でも裏でもない濃淡パターンを示すボタン、即ちボタンの色、文字や模様等の装飾又は立体構造等の特徴が異なることによって撮像時の濃淡パターンが異なる種類のボタンであると考えられる。よって、CPU12はボタンBが異なる種類のボタンであると判別し、ボタンの種類が異なる旨のエラーを出力する。これによって、ボタンの色、文字や模様等の装飾又は立体構造等の特徴が異なるボタンを判別することが可能となる。
よって、CPU12は、表裏判定プログラム14jを実行することによりデジタル画像データDに撮像されたボタンBの濃淡パターンデータがあらかじめ設定された濃淡チェックデータ15q即ちボタンの特徴によって撮像時に生じる濃淡パターンを有するかを判別する「特徴判別手段」として機能する。なお、表裏判定において用いる画像は、表裏判定が可能であれば、ボタンの表面または裏面の一部の画像でも良いことは勿論である。
In this determination, an approximate value determination process based on the density check data 15q is performed. Specifically, the density is numerically expressed for each pixel of the density check data 15q and each pixel of the density pattern, and the density value of the density pattern is compared with the density value of the density check data 15q for the density of the pixel at the corresponding position. Is checked if it is within a predetermined range of approximations. At this time, if a certain percentage of pixels are within the approximate value, they are considered to match, and otherwise, they are considered not to match.
Therefore, the CPU 12 performs an output indicating that there is no problem when the density pattern matches the table pattern of the density check data 15q in the approximate value determination process, that is, when it is determined to be face up. On the other hand, if the light and shade pattern does not match the front pattern, the CPU 12 further compares the light and shade pattern with data (back pattern) when the back side included in the light and shade check data 15q is captured. At this time, if the gray pattern matches the back pattern, that is, if it is determined that the button B shown in the digital image data D is face down, an error indicating that the button is face down is output. If the shade pattern does not match either the front pattern or the back pattern, the button B indicates a shade pattern that is neither the front nor the back of the button set in the shade check data 15q, that is, the button color, It can be considered that the buttons have different shade patterns at the time of imaging due to different features such as decorations such as letters and patterns or three-dimensional structures. Therefore, the CPU 12 determines that the button B is a different type of button, and outputs an error indicating that the button type is different. As a result, it is possible to distinguish buttons having different features such as button color, decoration such as characters and patterns, or three-dimensional structures.
Therefore, whether the CPU 12 executes the front / back determination program 14j, the density pattern data of the button B imaged in the digital image data D has the density pattern generated at the time of imaging according to the density check data 15q that is set in advance, that is, the button characteristics. It functions as a “feature discriminating means”. Of course, the image used in the front / back determination may be an image of a part of the front surface or the back surface of the button as long as the front / back determination is possible.

なお、ボタンが段差Bbのように回転しても一定の形状ではないような表面上の特徴を有する場合には、表裏判定プログラム14jによる表裏判定に替えて以下の方向判定プログラム14lによる方向判定を行っても良い。
次に、方向判定プログラム14lについて詳説する。CPU12は、方向判定プログラム14lを実行することで、EEPROM15に方向チェックデータ15rがあらかじめ設定されていた場合に、対象物内情報取得プログラム14hの実行によって取得されたボタンBとして判別された範囲の画像の濃淡パターンデータからボタンBがあらかじめ設定されたボタンBの向きであるかどうかを判定する。
If the button has a surface feature such that it does not have a constant shape even if it rotates like a step Bb, the direction determination by the following direction determination program 14l is performed instead of the front / back determination program 14j. You can go.
Next, the direction determination program 141 will be described in detail. The CPU 12 executes the direction determination program 14l, and when the direction check data 15r is previously set in the EEPROM 15, the image in the range determined as the button B acquired by the execution of the in-object information acquisition program 14h. It is determined whether or not the button B is in the direction of the button B set in advance from the light and shade pattern data.

図10は方向判定プログラム14lによるボタンBの判定領域の一例を示す説明図である。図10(a)はボタンBに文字Aがプリントされている場合の方向判定を行う際の判定領域B1の一例を示す説明図、図10(b)は方向チェックデータ15rであるb1の一例を示す説明図である。
例えば、図10(a)に示すように、ボタンBに文字Aがプリントされている場合、CPU12は、文字Aの向きを判定するための判定領域B1を設定して当該領域内の画像の濃淡パターンデータをそれぞれ取得する。次に、方向判定プログラム14lはあらかじめ設定された文字Aの正しい方向を示す方向チェックデータ15rをEEPROM15から呼び出して、上述のB1から取得した画像の濃淡パターンデータとそれぞれ比較する。なお、方向チェックデータ15rは、図10(b)に示すように、ボタンとして判定される範囲内においてボタンの方向を判定するためのb1に示す一部分のみに限定した濃淡パターンデータである。当該比較は、デジタル画像データDに対し、方向チェックデータ15rを基準として方向チェックデータ15rに対応する位置のボタンBの画像の濃淡パターンの近似値判定処理を行う。このとき、図10(a)と図10(b)の対応関係のように、B1とb1が一致した場合、CPU12はボタンBの方向が正しい方向であると判定し、ボタンBに問題がない旨を示す出力を行う。一方、B1とb1が一致しなかった場合、ボタンBの方向が異なっていると判定し、デジタル画像データDまたは方向チェックデータ15rを回転させ、両者が一致した場合には、その回転方向と回転角度とを外部に出力し、デジタル画像データDまたは方向チェックデータ15rのいずれか一方を360°回転させても一致しない場合には、エラーを出力する。
FIG. 10 is an explanatory diagram showing an example of the determination region of the button B by the direction determination program 14l. FIG. 10A is an explanatory diagram showing an example of the determination area B1 when the direction is determined when the character A is printed on the button B, and FIG. 10B is an example of b1 which is the direction check data 15r. It is explanatory drawing shown.
For example, as shown in FIG. 10A, when the character A is printed on the button B, the CPU 12 sets a determination region B1 for determining the orientation of the character A, and the density of the image in the region is determined. Get each pattern data. Next, the direction determination program 14l calls the direction check data 15r indicating the correct direction of the preset character A from the EEPROM 15 and compares it with the grayscale pattern data of the image acquired from B1 described above. As shown in FIG. 10B, the direction check data 15r is shading pattern data limited to only a part indicated by b1 for determining the direction of the button within the range determined as the button. In the comparison, the digital image data D is subjected to an approximate value determination process for the image of the button B at a position corresponding to the direction check data 15r with reference to the direction check data 15r. At this time, if B1 and b1 match as shown in the correspondence relationship in FIGS. 10A and 10B, the CPU 12 determines that the direction of the button B is the correct direction, and there is no problem with the button B. Outputs that effect. On the other hand, if B1 and b1 do not match, it is determined that the direction of the button B is different, and the digital image data D or the direction check data 15r is rotated. When the angle is output to the outside, and either one of the digital image data D and the direction check data 15r is rotated by 360 °, the error is output.

なお、上述の判定領域B1の位置、領域の広さ、形状及びあらかじめ設定される濃淡パターンb1はあくまで一例であり、ボタンBの方向判定の基準となる模様その他の特徴によって個別に設定可能である。また、方向チェックデータ15rはボタンBに施された文字Aの濃淡パターンに限らず、濃淡パターンの比較処理によってボタンBの方向を判別できる特徴であれば何でもよい。
よって、CPU12は、方向判定プログラム14lを実行することによりデジタル画像データDに撮像されたボタンBの濃淡パターンがあらかじめ設定されたボタンの特徴によって撮像時に生じる濃淡パターンを有するかを判別する「特徴判別手段」として機能する。
The position of the determination area B1, the area width, the shape, and the light / dark pattern b1 set in advance are merely examples, and can be individually set according to the pattern and other characteristics that serve as a reference for determining the direction of the button B. . The direction check data 15r is not limited to the shade pattern of the character A applied to the button B, and may be any feature as long as the direction of the button B can be determined by the shade pattern comparison process.
Therefore, the CPU 12 determines whether the shading pattern of the button B imaged in the digital image data D has a shading pattern generated at the time of imaging according to the preset button feature by executing the direction determination program 141. Functions as a means.

(自動チェックモード)
次に、自動チェックモードについて説明する。自動チェックモードは、外形情報取得プログラム15fによって取得されたボタンBの外周データを外周チェックデータ15oとしてEEPROM15に記憶し、対象物内情報取得プログラム14hによって取得された穴部データを穴部チェックデータ15pとして、濃淡パターンデータを濃淡チェックデータ15qとして記憶する画像処理装置10の設定である。つまり、自動チェックモードを用いることで、カメラ3によって撮像されたボタンBの画像を元に外周チェックデータ15o、穴部チェックデータ15p及び濃淡パターンデータを設定可能となる。なお、外周データLから外周チェックデータ15oを設定する場合、外周データLが示す外周の位置を基準とした閾値の範囲を別途設定しておく必要がある。つまり、CPU12は外周データLが示すボタンの外周の形状を中心線として、設定された閾値の範囲の誤差を持った範囲データを外周チェックデータ15oとしてEEPROM15に記憶する。また、穴部データから穴部チェックデータ15pを設定する場合も同様に穴部データが示す穴部の輪郭を基準とした閾値の範囲を別途設定しておく必要がある。つまり、CPU12は穴部データが示すボタンの穴部の形状を中心線として、設定された閾値の範囲の誤差を持った範囲データを穴部チェックデータ15pとしてEEPROM15に記憶する。このとき、穴部チェックデータ15pには独立した穴部の数も併せて記憶される。また、濃淡パターン設定時は、取得された濃淡パターンが表の画像の濃淡(表パターン)であるか、裏の画像の濃淡(裏パターン)であるかを別途設定する必要がある。自動チェックモードの設定は図示しない操作パネルによってON/OFFの切替が可能である。
よって、CPU12は、対象物内情報取得プログラム14hを実行することで以前に撮像されたボタンの撮像画像であるデジタル画像データDからボタンBの特徴を示すボタンBの画像の濃淡パターンを取得して設定する「特徴取得手段」として機能する。
(Automatic check mode)
Next, the automatic check mode will be described. In the automatic check mode, the outer periphery data of the button B acquired by the outer shape information acquisition program 15f is stored in the EEPROM 15 as the outer periphery check data 15o, and the hole data acquired by the in-object information acquisition program 14h is stored in the hole check data 15p. Is the setting of the image processing apparatus 10 that stores the light and shade pattern data as the light and shade check data 15q. That is, by using the automatic check mode, it is possible to set the outer periphery check data 15o, the hole check data 15p, and the shading pattern data based on the image of the button B captured by the camera 3. When the outer periphery check data 15o is set from the outer periphery data L, it is necessary to separately set a threshold range based on the outer periphery position indicated by the outer periphery data L. That is, the CPU 12 stores the range data having an error in the set threshold range in the EEPROM 15 as the outer peripheral check data 15o with the outer peripheral shape of the button indicated by the outer peripheral data L as the center line. Similarly, when setting the hole check data 15p from the hole data, it is necessary to separately set a threshold range based on the outline of the hole indicated by the hole data. That is, the CPU 12 stores in the EEPROM 15 range data having a set threshold range error as the hole check data 15p with the shape of the hole of the button indicated by the hole data as the center line. At this time, the number of independent holes is also stored in the hole check data 15p. Further, when setting the shading pattern, it is necessary to separately set whether the acquired shading pattern is the shading of the front image (front pattern) or the shading of the back image (back pattern). The automatic check mode can be set ON / OFF by an operation panel (not shown).
Therefore, the CPU 12 acquires the shading pattern of the image of the button B indicating the feature of the button B from the digital image data D that is a captured image of the button previously captured by executing the in-object information acquisition program 14h. It functions as a “feature acquisition unit” to be set.

なお、自動チェックモードは、最近のボタンBのデジタル画像データDを逐次記憶するようにしてもよいし、最初に記憶されたボタンBのデジタル画像データDを以後継続して用いるようにしてもよい。また、ひとつのデジタル画像データDに限らず、数回分の撮像によって得られたボタンBのデジタル画像データDに基づく平均値(画素の位置又は画素の濃度値)を算出して記憶し、当該平均値を用いるようにしてもよい。
また、自動チェックモードの実行時でも、背景輪郭チェックプログラム14e、対象物エラーチェックプログラム14g、対象物内エラーチェックプログラム14iの実行時にエラー判定がなされた場合には、その時の撮像によるデジタル画像データDに基づく外周チェックデータ15o、穴部チェックデータ15p及び濃淡パターンの設定は行わないように処理することが望ましい。表裏判定プログラム14jにより表面以外の判定がされた場合も同様である。
また、自動チェックモードにおいて取得された濃淡パターンの一部を用いて方向チェックデータ15rとするよう設定可能にしてもよい。
In the automatic check mode, the digital image data D of the latest button B may be sequentially stored, or the digital image data D of the button B stored first may be used continuously thereafter. . Further, not only one digital image data D but also an average value (pixel position or pixel density value) based on the digital image data D of the button B obtained by imaging several times is calculated and stored. A value may be used.
Even when the automatic check mode is executed, if an error determination is made when the background contour check program 14e, the object error check program 14g, or the in-object error check program 14i is executed, the digital image data D obtained by imaging at that time is used. It is desirable to perform processing so as not to set the outer periphery check data 15o, the hole check data 15p, and the shading pattern based on the above. The same applies to the case where the front / back determination program 14j determines a surface other than the front surface.
Alternatively, the direction check data 15r may be set using a part of the shading pattern acquired in the automatic check mode.

(ミシンのボタン画像認識処理装置の動作)
次に、ミシンのボタン画像認識処理装置1の動作について詳説する。図11及び図12はミシンのボタン画像認識処理装置1の動作を示すフロー図である。なお、図11はステップS1からステップS10までを、図12はステップS11からステップS21までを示す。
まず、CPU12が撮像プログラム14aを実行することにより、カメラ3によってボタンBが背景2aごと撮像され、そのデジタル画像データDがRAM12に記憶される(ステップ1)。次に、CPU12は画質改善プログラム14bを実行してデジタル画像データDのノイズ除去処理を行う(ステップS2)。
(Operation of sewing machine button image recognition processing device)
Next, the operation of the button image recognition processing apparatus 1 of the sewing machine will be described in detail. 11 and 12 are flowcharts showing the operation of the button image recognition processing apparatus 1 of the sewing machine. 11 shows step S1 to step S10, and FIG. 12 shows step S11 to step S21.
First, when the CPU 12 executes the imaging program 14a, the button 3 is imaged together with the background 2a by the camera 3, and the digital image data D is stored in the RAM 12 (step 1). Next, the CPU 12 executes the image quality improvement program 14b to perform noise removal processing on the digital image data D (step S2).

次に、CPU12は背景情報判別プログラム14cを実行してデジタル画像データDの背景2aとボタンBとの判別を行う(ステップS3(判別工程))。次に、CPU12は対象物有無チェックプログラム14dを実行してステップS3において背景2aと判別された範囲がデジタル画像データD全体であるかどうかの判定を行う(ステップS4)。デジタル画像データDが全て背景2aであった場合(ステップS4:YES)、エラーを出力する(ステップS20)。デジタル画像データDが全て背景2aではなかった場合(ステップS4:NO)、CPU12は背景輪郭チェックプログラム14eを実行して輪郭に所定の画素数分の連続する背景2aがあるか否かにより、ボタンBが連続する所定範囲の背景2aに囲まれて配置されているかを判定する(ステップS5)。輪郭に所定の画素数分の連続する背景2aとして判別されなかった部分が含まれていた場合(ステップS5:NO)、エラーを出力する(ステップS20)。輪郭が全て所定の画素数分の連続する背景2aとして判別されていた場合(ステップS5:YES)、CPU12は外形情報取得プログラム14fを実行してボタンBの外周データを取得する(ステップS6)。   Next, the CPU 12 executes the background information determination program 14c to determine the background 2a of the digital image data D and the button B (step S3 (determination step)). Next, the CPU 12 executes the object presence / absence check program 14d and determines whether or not the range determined as the background 2a in step S3 is the entire digital image data D (step S4). If all the digital image data D is the background 2a (step S4: YES), an error is output (step S20). When all the digital image data D is not the background 2a (step S4: NO), the CPU 12 executes the background outline check program 14e, and determines whether or not there is a background 2a corresponding to the predetermined number of pixels in the outline. It is determined whether or not B is arranged so as to be surrounded by a predetermined range of the background 2a (step S5). If the contour includes a portion that has not been identified as the continuous background 2a for a predetermined number of pixels (step S5: NO), an error is output (step S20). When all the contours are determined as the continuous background 2a corresponding to the predetermined number of pixels (step S5: YES), the CPU 12 executes the outer shape information acquisition program 14f and acquires the outer peripheral data of the button B (step S6).

次に、CPU12は外周チェックデータ15oがEEPROM15に記憶されているかどうか判定する(ステップS7)。外周チェックデータ15oがあらかじめ記憶されている場合(ステップS7:YES)、CPU12は対象物エラーチェックプログラム14gを実行してステップS6で得られたボタンBの外周データが外周チェックデータ15oに合致するかどうか判定する(ステップS8)。合致しない場合(ステップS8:NO)、エラーを出力する(ステップS20)。合致する場合(ステップS8:YES)、CPU12は自動チェックモードがONであるかどうか判定する(ステップS9)。自動チェックモードがOFFの場合(ステップS9:NO)、CPU12は対象物内情報取得プログラム14hを実行して範囲内において背景2aとボタンBとの判別を行い(判別工程)、ボタンBの穴部データ及び濃淡パターンを取得する(ステップS11)。自動チェックモードがONの場合(ステップS9:YES)、ステップS6において取得されたボタンBの外周データを次のボタンBの撮像以降で使用される外周チェックデータ15oとしてEEPROM15に記憶し(ステップS10)、その後上述のステップS11の処理を行う。なお、ステップS7において外周チェックデータ15oが記憶されていない場合(ステップS7:NO)、ステップS9の処理に移行する。   Next, the CPU 12 determines whether or not the outer periphery check data 15o is stored in the EEPROM 15 (step S7). If the outer periphery check data 15o is stored in advance (step S7: YES), the CPU 12 executes the object error check program 14g and whether the outer periphery data of the button B obtained in step S6 matches the outer periphery check data 15o. It is determined whether or not (step S8). If they do not match (step S8: NO), an error is output (step S20). If they match (step S8: YES), the CPU 12 determines whether or not the automatic check mode is ON (step S9). When the automatic check mode is OFF (step S9: NO), the CPU 12 executes the in-object information acquisition program 14h to discriminate between the background 2a and the button B within the range (discrimination step), and the hole of the button B Data and shading patterns are acquired (step S11). When the automatic check mode is ON (step S9: YES), the outer periphery data of the button B acquired in step S6 is stored in the EEPROM 15 as the outer periphery check data 15o used after the next button B is imaged (step S10). Thereafter, the process of step S11 described above is performed. If the outer periphery check data 15o is not stored in step S7 (step S7: NO), the process proceeds to step S9.

次に、CPU12はEEPROM15に穴部チェックデータ15pが記憶されているかどうか判定する(ステップS12)。穴部チェックデータ15pが記憶されている場合(ステップS12:YES)、CPU12は対象物内エラーチェックプログラム14iを実行してステップS11で得られたボタンBの穴部データが穴部チェックデータ15pに合致するかどうか判定する(ステップS13)。合致しない場合(ステップS13:NO)、エラーを出力する(ステップS20)。合致する場合(ステップS13:YES)、CPU12は自動チェックモードがONであるかどうか判定する(ステップS14)。自動チェックモードがOFFの場合(ステップS14:NO)、CPU12はEEPROM15に濃淡チェックデータ15qが記憶されているかどうか判定する(ステップS16)。自動チェックモードがONの場合(ステップS14:YES)、ステップS11において取得されたボタンBの穴部データを次のボタンBの撮像以降で使用される穴部チェックデータ15pとして記憶し、濃淡パターンデータを次のボタンBの撮像以降で使用される濃淡チェックデータ15qとしてEEPROM15に記憶し(ステップS15(特徴取得工程))、その後上述のステップS16の処理を行う。なお、ステップS12において穴部チェックデータ15pが記憶されていない場合(ステップS12:NO)、ステップS14の処理に移行する。   Next, the CPU 12 determines whether or not the hole check data 15p is stored in the EEPROM 15 (step S12). When the hole check data 15p is stored (step S12: YES), the CPU 12 executes the in-object error check program 14i, and the hole data of the button B obtained in step S11 is stored in the hole check data 15p. It is determined whether or not they match (step S13). If they do not match (step S13: NO), an error is output (step S20). If they match (step S13: YES), the CPU 12 determines whether or not the automatic check mode is ON (step S14). When the automatic check mode is OFF (step S14: NO), the CPU 12 determines whether the density check data 15q is stored in the EEPROM 15 (step S16). When the automatic check mode is ON (step S14: YES), the hole data of the button B acquired in step S11 is stored as the hole check data 15p used after the next button B is imaged, and the shade pattern data is stored. Is stored in the EEPROM 15 as the density check data 15q used after the next button B is imaged (step S15 (feature acquisition step)), and then the process of step S16 described above is performed. In addition, when the hole check data 15p is not memorize | stored in step S12 (step S12: NO), it transfers to the process of step S14.

ステップS16において濃淡チェックデータ15qが記憶されている場合(ステップS16:YES)、CPU12は表裏判定プログラム14jを実行してステップS11で得られた濃淡パターンとEEPROM15の濃淡チェックデータ15qの表パターンとからボタンBが表向きであるかどうか判別する(ステップS17(特徴判別工程))。ステップS17においてボタンBが表ではないと判定された場合(ステップS17:NO)、CPU12は濃淡パターンとEEPROM15の濃淡チェックデータ15qの裏パターンとからボタンBが裏向きであるかどうか判別する(ステップS18(特徴判別工程))。ステップ18においてボタンが裏と判定された場合(ステップS18:YES)、ボタンが裏である旨のエラーを出力する(ステップS20)。ステップS18においてボタンが裏でない、即ち表パターンとも裏パターンとも合致しない場合(ステップS18:NO)、ボタンが異なる種類であると判別され(ステップS19)、ボタンの種類が異なる旨のエラーを出力する(ステップS20)。   When the density check data 15q is stored in step S16 (step S16: YES), the CPU 12 executes the front / back determination program 14j and uses the density pattern obtained in step S11 and the table pattern of the density check data 15q in the EEPROM 15 as a result. It is determined whether or not the button B is face up (step S17 (feature determination step)). If it is determined in step S17 that the button B is not front (step S17: NO), the CPU 12 determines whether or not the button B is face down from the light / dark pattern and the reverse pattern of the light / dark check data 15q of the EEPROM 15 (step S17). S18 (feature discrimination step)). If it is determined in step 18 that the button is back (step S18: YES), an error indicating that the button is back is output (step S20). If the button is not back in step S18, that is, if the front and back patterns do not match (step S18: NO), it is determined that the button is a different type (step S19), and an error indicating that the button type is different is output. (Step S20).

ステップS4〜18において何らかのエラー出力が行われるか(ステップS20)、あるいはステップS17においてボタンBが表向きと判定された場合、モニタ5にボタンBの判定結果が表示される(ステップS21)。なお、モニタ5に表示されるボタンBの判定結果は、エラーの有無を示す情報でもよいし、エラーの種別を示す情報でもよい。また、撮像されたデジタル画像データDを表示してもよい。
また、ボタン画像認識処理装置がボタン供給装置に搭載されている場合には、ステップS17でボタンが表向きと判定された場合に、ミシンへの供給が行われることとなる。
If any error output is performed in steps S4 to S18 (step S20), or if it is determined that the button B is face up in step S17, the determination result of the button B is displayed on the monitor 5 (step S21). Note that the determination result of the button B displayed on the monitor 5 may be information indicating the presence or absence of an error or information indicating the type of error. Further, the captured digital image data D may be displayed.
In the case where the button image recognition processing device is mounted on the button supply device, supply to the sewing machine is performed when the button is determined to be face up in step S17.

(本実施の形態によるボタン画像認識処理装置の作用効果)
上述の実施の形態によれば、CPU12が背景情報判別プログラム14c及び対象物内情報取得プログラム14hを実行することで実施される判別工程において背景2aの規則的な白黒の縞模様を有しない範囲をボタンBとして判別する。このとき、背景2aのパターン(例えば縦方向に5画素ずつ白黒の縞模様があるパターン)に従っているかにより識別を行うので、例えボタンBに背景2aと濃度が近い部分が存在したとしても、その前後の部分を含めて背景のパターンと一致しない限り誤認を生じない。また、ボタンの模様や凹凸とボタンの穴との識別も正確に行うことが可能である。よって、ボタンBの形状、色、模様その他の特徴に関らず背景の規則的な模様を有するか否かのみでボタンBを判別することが可能となる。よって、より好適にボタンBを判別できる。
また、ボタンBの穴部Baは、背景2aの規則的な模様が覗くことにより背景2aとして判別される。よって、従来技術のように撮像対象物の内側に設けられた穴部(例えばボタンの穴部等)を抽出できないといった問題点を解消でき、より好適にボタンBの形状を判別することが可能となる。よって、より一層好適にボタンBを判別できる。
さらに、ボタンBが透過性を有する場合であっても、背景2aがボタンBを透過することで屈折を生じる場合であれば、屈折を生じた部分は背景2aの規則性を失うので背景2aとして判別されず、ボタンBとして判別される。よって、透過性を有する撮像対象物の場合、背景と撮像対象物との濃度の急変部分が生じず、撮像対象物の外周の形状が抽出できないことがあるといった従来技術の問題点を解消できる。よって、より一層好適にボタンBを判別できる。
(Operational effect of the button image recognition processing device according to the present embodiment)
According to the above-described embodiment, the range in which the background 2a does not have the regular black and white stripe pattern in the determination process performed by the CPU 12 executing the background information determination program 14c and the in-object information acquisition program 14h. It is determined as button B. At this time, since identification is performed based on whether the pattern follows the background 2a (for example, a pattern having a black and white striped pattern of 5 pixels in the vertical direction), even if the portion close to the background 2a is present in the button B, for example, No misunderstanding will occur as long as it does not match the background pattern. In addition, it is possible to accurately identify the button pattern or unevenness and the button hole. Therefore, it is possible to determine the button B only by whether or not the button B has a regular pattern regardless of the shape, color, pattern and other characteristics of the button B. Therefore, the button B can be more suitably discriminated.
Further, the hole Ba of the button B is determined as the background 2a by looking into the regular pattern of the background 2a. Therefore, it is possible to solve the problem that the hole provided inside the imaging target object (for example, the hole of the button) cannot be extracted as in the prior art, and the shape of the button B can be more suitably determined. Become. Therefore, the button B can be identified more suitably.
Further, even if the button B has transparency, if the background 2a is refracted by passing through the button B, the portion where the refraction has occurred will lose the regularity of the background 2a. The button B is determined without being determined. Therefore, in the case of an imaging object having transparency, the problem of the prior art that the density change between the background and the imaging object does not occur and the shape of the outer periphery of the imaging object may not be extracted can be solved. Therefore, the button B can be identified more suitably.

さらに、カメラ3のピントを背景2aに合わせるので、ボタンの厚みや立体構造に関らず背景2aを常に好適に撮像可能となる。よって、より好適に背景2aの規則的な模様を判別可能となり、背景2aとボタンBとの誤認の可能性を大幅に低減することが可能となる。よって、より一層好適にボタンBを判別できる。   Furthermore, since the focus of the camera 3 is adjusted to the background 2a, the background 2a can always be suitably imaged regardless of the thickness of the button and the three-dimensional structure. Therefore, the regular pattern of the background 2a can be more preferably discriminated, and the possibility of misidentification of the background 2a and the button B can be greatly reduced. Therefore, the button B can be identified more suitably.

さらに、CPU12が表裏判定プログラム14j及び方向判定プログラム14lを実行することで実施される特徴判別工程において、ボタンBとして判別された画像の範囲の濃淡パターンからあらかじめ設定された濃淡チェックデータ15qあるいは方向チェックデータ15rと合致するかどうかを判別する。つまり、まずデジタル画像データDから背景2aとして判別される範囲を除外してボタンBとして判別される範囲を特定した後、ボタンBの範囲の濃淡パターンに対して濃淡チェックデータ15qと合致するかどうかを判別する。これによって、濃淡チェックデータ15qと合致するする範囲をデジタル画像データDの全体から探す場合に比べ、比較処理の範囲をボタンBとして判別された範囲に限定することができる。よって、比較処理の負荷を軽減し、処理時間を短縮することができる。   Further, in the feature determination step performed by the CPU 12 executing the front / back determination program 14j and the direction determination program 14l, the light / dark check data 15q or direction check set in advance from the light / dark pattern of the range of the image determined as the button B. It is determined whether or not the data 15r matches. That is, first, after identifying the range identified as the button B by excluding the range identified as the background 2a from the digital image data D, whether the density pattern of the range of the button B matches the density check data 15q. Is determined. Thus, the range of comparison processing can be limited to the range determined as the button B, compared to the case where the entire range of the digital image data D is searched for a range that matches the density check data 15q. Therefore, the load of the comparison process can be reduced and the processing time can be shortened.

また、CPU12が表裏判定プログラム14jを実行することで、ボタンの表を撮像した場合の画像の濃淡チェックデータ15qとデジタル画像データDのボタンBの濃淡パターンとから、ボタンBの表裏を判別する。これによって、ボタンBが裏向きになっていないかどうかを判別することが可能となる。従って、例えば縫い付け前にボタンBの表裏判定を行うことで、誤ってボタンBを裏返した状態で縫い付けてしまうといった事態をなくすことができ、縫い品質が大幅に向上する。
さらに、CPU12が方向判定プログラム14lを実行することで、ボタンBの向きを判別する。これによって、撮像対象物に施された文字や模様等の装飾の向きを判別できないといった従来技術の問題点を解消でき、撮像対象物の特徴をより詳細に判別できる。
Further, the CPU 12 executes the front / back determination program 14j to determine the front / back of the button B from the density check data 15q of the image when the front / back of the button is imaged and the density pattern of the button B of the digital image data D. This makes it possible to determine whether the button B is not facing down. Therefore, for example, by performing the front / back determination of the button B before sewing, it is possible to eliminate a situation where the button B is accidentally sewn with the button B turned upside down, and the sewing quality is greatly improved.
Further, the CPU 12 executes the direction determination program 141 to determine the direction of the button B. As a result, it is possible to solve the problems of the prior art that the orientation of decorations such as characters and patterns applied to the imaging object cannot be determined, and the characteristics of the imaging object can be determined in more detail.

さらに、自動チェックモードがONの場合、CPU12が背景情報判別プログラム12c及び対象物内情報取得プログラム14hを実行することにより実施される特徴取得工程において、デジタル画像データDのボタンBの範囲からボタンBの外周データ、穴部データ及び濃淡パターンを取得して、外周チェックデータ15o、穴部チェックデータ15p及び濃淡チェックデータ15qとして設定する。よって、ボタンBを正しく撮像した場合のデジタル画像データDを以後の外周チェックデータ15o、穴部チェックデータ15p及び濃淡チェックデータ15qとして利用することが可能となる。従って、外周チェックデータ15o、穴部チェックデータ15p及び濃淡チェックデータ15qを設定するための専用の情報やデータ等を別途設ける必要がなくなる。よって、外周チェックデータ15o、穴部チェックデータ15p及び濃淡チェックデータ15qの設定の手間を大幅に軽減することが可能となる。   Further, when the automatic check mode is ON, in the feature acquisition step performed by the CPU 12 executing the background information determination program 12c and the in-object information acquisition program 14h, the button B from the range of the button B of the digital image data D is displayed. Peripheral data, hole data, and shading pattern are acquired and set as outer circumference check data 15o, hole check data 15p, and shading check data 15q. Therefore, the digital image data D when the button B is correctly imaged can be used as the outer periphery check data 15o, the hole check data 15p, and the density check data 15q. Therefore, it is not necessary to separately provide dedicated information and data for setting the outer periphery check data 15o, the hole check data 15p, and the density check data 15q. Therefore, it is possible to greatly reduce the trouble of setting the outer periphery check data 15o, the hole check data 15p, and the density check data 15q.

(その他)
なお、上述の実施の形態ではミシンのボタン画像認識処理装置について記載しているが、ボタン画像認識処理装置1と同様の特徴を有する構成及びその動作の工程によってミシンのボタン以外の画像認識処理を行うことも可能である。
(Other)
In the above-described embodiment, the button image recognition processing device for the sewing machine is described. However, the image recognition processing other than the buttons of the sewing machine is performed by the configuration having the same characteristics as the button image recognition processing device 1 and the operation process thereof. It is also possible to do this.

また、上述の実施の形態における背景部材2の背景2aは縞模様に限定されない。
図13は、実施の形態における背景2aとは異なる規則性を有する背景の一例を示す説明図である。なお、図13(a)は規則的なチェック模様の背景2b、図13(b)は規則的な斜めの縞模様の背景2cの説明図である。
例えば、図13(a),(b)に示すように、規則性を有する背景であれば背景として判別されない範囲を撮像対象物(例えばボタン)として判別可能である。この場合、パターンデータHにも図13(a),(b)に対応するデータを記憶させておく必要がある。なお、規則性を有する模様であれば他の模様でもよいことは言うまでもない。
また、背景2aを判別する際の方向に関しては、上述の実施の形態では、縦方向であるが、使用する模様の形状によっては、横方向や斜め方向でも良い。
Further, the background 2a of the background member 2 in the above-described embodiment is not limited to a striped pattern.
FIG. 13 is an explanatory diagram illustrating an example of a background having regularity different from the background 2a in the embodiment. 13A is an explanatory diagram of a regular check pattern background 2b, and FIG. 13B is an explanatory diagram of a regular diagonal striped background 2c.
For example, as shown in FIGS. 13A and 13B, if the background has regularity, a range that cannot be determined as a background can be determined as an imaging target (for example, a button). In this case, it is necessary to store data corresponding to FIGS. 13A and 13B in the pattern data H as well. Needless to say, other patterns may be used as long as they have regularity.
The direction for determining the background 2a is the vertical direction in the above-described embodiment, but may be a horizontal direction or an oblique direction depending on the shape of the pattern to be used.

また、上述の実施の形態ではカメラ3の撮像画像を白黒の多値画像(グレースケール)としているが、カラー画像でもよい。その場合、濃淡パターンはカラーパターン、濃淡チェックデータ15qはあらかじめ設定されたカラーパターンデータとして比較処理を行う。
また、上述の実施の形態ではカメラ3によって撮像されたアナログ画像をA/Dコンバータ11でデジタル画像データDに変換しているが、カメラ3をCCDイメージセンサやCMOSイメージセンサ等を用いたデジタルカメラとして直接デジタル画像データDをCPU12に出力し、A/Dコンバータ11を省略してもよい。
また、上述の実施の形態における背景2aの縞模様の規則性の基準となる画素数(5画素)や、背景の輪郭の画素数(10画素)といった各数値設定はあくまで一例であり、他の数値設定を用いてもよいことは言うまでもない。また、背景2aの縞模様の規則性の閾値を一意の値(5画素)ではなく、一定の数値範囲内(例えば4〜6画素)としてもよい。
また、背景に用いる模様の濃淡の度合いや形状及び濃淡部分の割合等は、規則的であれば、種々利用可能である。
また、本発明においては、撮像対象物の判別において撮像画像の背景の規則性を有する範囲とそうでない範囲の区別ができればよく、背景の規則性を有する範囲の判別処理方法は上述の実施の形態に限定されない。例えば、デジタル画像データDをフーリエ変換して、背景模様の周波数成分を特定の値として他の部分の周波数成分と区別した上で、フーリエ逆変換した画像から背景模様と対称物の画像のそれぞれを2値画像として抽出し、エッジ検出やラベリングなどの既存の画像認識方法で位置情報を取得しても良い。
In the above-described embodiment, the image captured by the camera 3 is a black and white multi-value image (grayscale), but may be a color image. In this case, the comparison process is performed using the gray pattern as a color pattern and the gray check data 15q as preset color pattern data.
In the above-described embodiment, the analog image captured by the camera 3 is converted into the digital image data D by the A / D converter 11, but the camera 3 is a digital camera using a CCD image sensor, a CMOS image sensor, or the like. The digital image data D may be directly output to the CPU 12 and the A / D converter 11 may be omitted.
In addition, each numerical value setting such as the number of pixels (5 pixels) serving as a basis for the regularity of the striped pattern of the background 2a in the above-described embodiment and the number of pixels of the background outline (10 pixels) is merely an example. It goes without saying that numerical settings may be used. Further, the regularity threshold value of the striped pattern of the background 2a may be set within a certain numerical range (for example, 4 to 6 pixels) instead of a unique value (5 pixels).
In addition, the degree and shape of the pattern used for the background, the ratio of the shaded portion, and the like can be variously used as long as they are regular.
In the present invention, it is only necessary to be able to distinguish between a range having regularity of the background of the captured image and a range having no regularity in the discrimination of the imaging target, and the discrimination processing method for the range having regularity of the background is the above-described embodiment. It is not limited to. For example, the digital image data D is subjected to Fourier transform, the frequency component of the background pattern is differentiated from the frequency components of other parts with a specific value, and the background pattern and the symmetrical object image are respectively converted from the inverse Fourier transform image. It may be extracted as a binary image, and the position information may be acquired by an existing image recognition method such as edge detection or labeling.

ボタン画像認識処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of a button image recognition processing apparatus. ボタンと背景部材の背景2aとの関係の一例を示す上面図である。なお、図2(a)は整形不良がなく、かつ、所定の大きさのボタンが正しい向きで背景のほぼ中央に置かれた場合、図2(b)はボタンがない場合、図2(c)は所定の大きさよりも大きいボタンが置かれた場合、図2(d)はボタンの位置が背景の中央からずれて置かれた場合、図2(e)はボタンの一部が欠けている場合、図2(f)は所定の大きさよりも小さいボタンが置かれた場合、図2(g)はボタンの複数の穴部の位置関係が図2(a)に示す当該位置関係に対して傾いている場合、図2(h)は穴部の一部が誤った位置に形成されたボタンが置かれた場合、図2(i)は穴部の一部が形成されていないボタンが置かれた場合の説明図である。It is a top view which shows an example of the relationship between the button and the background 2a of a background member. 2 (a) shows no malformation, and a button of a predetermined size is placed in the center of the background in the correct orientation, FIG. 2 (b) shows a case where there is no button, and FIG. ) Shows a case where a button larger than a predetermined size is placed, FIG. 2D shows a case where the position of the button is shifted from the center of the background, and FIG. In FIG. 2 (f), when a button smaller than a predetermined size is placed, FIG. 2 (g) shows that the positional relationship between the plurality of hole portions of the button is relative to the positional relationship shown in FIG. 2 (a). When tilted, FIG. 2 (h) shows a button with a part of the hole formed in the wrong position. FIG. 2 (i) shows a button with no part of the hole formed. FIG. ROMに記憶された各種プログラム及びEEPROMに記憶された各種データを示す説明図である。図3(a)はROM14に記憶された各種プログラムを、図3(b)はEEPROM15に記憶された各種プログラムを示す。It is explanatory drawing which shows the various programs memorize | stored in the various programs memorize | stored in EEPROM and various programs. FIG. 3A shows various programs stored in the ROM 14, and FIG. 3B shows various programs stored in the EEPROM 15. デジタル画像データの一部を拡大した説明図である。なお、デジタル画像データの周囲に付された数値はデジタル画像データの画素の位置を説明するための指標である。It is explanatory drawing which expanded some digital image data. The numerical values attached to the periphery of the digital image data are indices for explaining the pixel positions of the digital image data. 背景とボタンとの境界線を示す説明図である。なお、図5(a)は背景情報判別プログラムの判別によるボタンの上半分の境界線を示す図、図5(b)は背景情報判別プログラムの判別によるボタンの下半分の境界線を示す図、図5(c)は外形情報取得プログラムによって合成されたボタンの外周データを示す説明図である。It is explanatory drawing which shows the boundary line of a background and a button. 5A shows a boundary line of the upper half of the button determined by the background information determination program, FIG. 5B shows a boundary line of the lower half of the button determined by the background information determination program, FIG. 5C is an explanatory view showing the outer periphery data of the button synthesized by the outer shape information acquisition program. 外周チェックデータと外周データとの関係を示す説明図である。It is explanatory drawing which shows the relationship between outer periphery check data and outer periphery data. ボタンの穴部のうちひとつが含まれるデジタル画像データの一部を示す説明図である。It is explanatory drawing which shows a part of digital image data in which one of the hole parts of a button is contained. 穴部チェックデータと穴部データとの関係を示す説明図である。It is explanatory drawing which shows the relationship between hole part check data and hole part data. ボタンの表裏の一例を示す説明図である。なお、図9(a)はボタンの表を、図9(b)はボタンの裏を示す。It is explanatory drawing which shows an example of the front and back of a button. FIG. 9A shows a button table, and FIG. 9B shows the back of the button. 方向判定プログラム14lによるボタンBの判定領域の一例を示す説明図である。図10(a)はボタンBに文字Aがプリントされている場合の方向判定を行う際の判定領域B1の一例を示す説明図、図10(b)は方向チェックデータ15rであるb1の一例を示す説明図である。It is explanatory drawing which shows an example of the determination area | region of the button B by the direction determination program 141. FIG. 10A is an explanatory diagram showing an example of the determination area B1 when the direction is determined when the character A is printed on the button B, and FIG. 10B is an example of b1 which is the direction check data 15r. It is explanatory drawing shown. ミシンのボタン画像認識処理装置の動作を示すフロー図のうち、ステップS1からステップS11までを示すフロー図である。It is a flowchart which shows step S1 to step S11 among the flowcharts which show operation | movement of the button image recognition processing apparatus of a sewing machine. ミシンのボタン画像認識処理装置の動作を示すフロー図のうち、ステップS12からステップS21までを示すフロー図である。It is a flowchart which shows step S12 to step S21 among the flowcharts which show operation | movement of the button image recognition processing apparatus of a sewing machine. 実施の形態における背景とは異なる規則性を有する背景の一例を示す説明図である。なお、図13(a)は規則的なチェック模様の背景、図13(b)は規則的な斜めの縞模様の背景の説明図である。It is explanatory drawing which shows an example of the background which has the regularity different from the background in embodiment. 13A is an explanatory diagram of a background of a regular check pattern, and FIG. 13B is an explanatory diagram of a background of a regular diagonal stripe pattern.

符号の説明Explanation of symbols

2 背景部材
2a 背景
3 カメラ
10 画像処理装置
11 A/Dコンバータ
12 CPU
14 ROM
15 EEPROM
B ボタン
2 background member 2a background 3 camera 10 image processing apparatus 11 A / D converter 12 CPU
14 ROM
15 EEPROM
B button

Claims (13)

既知の規則的な模様が付された平面を有し、当該平面が背景とされる背景部材と、前記模様が付された平面の範囲内にある撮像対象物を前記背景ごと撮像するカメラと、を用いて前記カメラによって撮像された画像から前記撮像対象物を認識する画像認識処理方法において、
前記撮像画像において前記背景の規則的な模様を有しない範囲を前記撮像対象物として判別する判別工程を含むことを特徴とする画像認識処理方法。
A plane member having a known regular pattern, a background member having the plane as a background, a camera for imaging an imaging object within the range of the plane with the pattern together with the background, In an image recognition processing method for recognizing the imaging object from an image captured by the camera using
An image recognition processing method comprising: a discrimination step of discriminating, as the imaging object, a range having no regular background pattern in the captured image.
前記カメラは、前記背景にピントを合わせて前記撮像画像を撮像することを特徴とする請求項1に記載の画像認識処理方法。   The image recognition processing method according to claim 1, wherein the camera captures the captured image while focusing on the background. 前記撮像対象物として判別された画像の範囲からあらかじめ設定された前記撮像対象物の特徴を有するかどうかを判別する特徴判別工程を含むことを特徴とする請求項1又は2に記載の画像認識処理方法。   The image recognition process according to claim 1, further comprising a feature determination step of determining whether or not the image pickup object has a preset characteristic from the range of the image determined as the image pickup object. Method. 前記特徴判別工程では、前回以前の撮像対象物の撮像画像から取得された前記撮像対象物の特徴となる画像を利用することを特徴とする請求項3に記載の画像認識処理方法。   The image recognition processing method according to claim 3, wherein in the feature determination step, an image that is a feature of the imaging object acquired from a captured image of the imaging object before the previous time is used. 既知の規則的な模様が付された平面を有し、当該平面が背景とされる背景部材と、前記模様が付された平面の範囲内にある撮像対象物を前記背景ごと撮像するカメラとを備え、前記カメラによって撮像された画像から前記撮像対象物を認識する画像認識処理装置において、
前記撮像画像において前記背景の規則的な模様を有しない範囲を前記撮像対象物として判別する判別手段を備えることを特徴とする画像認識処理装置。
A background member having a plane with a known regular pattern, the background of which is a background, and a camera for imaging an imaging object within the range of the plane with the pattern together with the background An image recognition processing apparatus for recognizing the imaging object from an image captured by the camera,
An image recognition processing apparatus comprising: a determination unit configured to determine, as the imaging object, a range that does not have the regular pattern of the background in the captured image.
前記カメラは、前記背景にピントを合わせて前記撮像画像を撮像することを特徴とする請求項5に記載の画像認識処理装置。   The image recognition processing apparatus according to claim 5, wherein the camera captures the captured image while focusing on the background. 前記撮像対象物として判別された画像の範囲からあらかじめ設定された前記撮像対象物の特徴を有するかどうかを判別する特徴判別手段を備えることを特徴とする請求項5又は6に記載の画像認識処理装置。   The image recognition process according to claim 5, further comprising: a feature determination unit configured to determine whether or not the image pickup object has a preset characteristic from the range of the image determined as the image pickup object. apparatus. 前回以前の撮像対象物の撮像画像から前記撮像対象物の特徴となる画像を取得する特徴取得手段を備えることを特徴とする請求項7に記載の画像認識処理装置。   The image recognition processing apparatus according to claim 7, further comprising a feature acquisition unit configured to acquire an image that is a characteristic of the imaging target from a previous captured image of the imaging target. 既知の規則的な模様が付された平面を有し、当該平面が背景とされる背景部材と、前記模様が付された平面の範囲内にある衣類のボタンを前記背景ごと撮像するカメラとを備え、前記カメラによって撮像された画像から前記ボタンを認識するボタン画像認識処理装置において、
前記撮像画像において前記背景の規則的な模様を有しない範囲を前記ボタンとして判別する判別手段を備えることを特徴とするボタン画像認識処理装置。
A background member having a plane with a known regular pattern, the background of which is a background, and a camera for imaging a button of clothing within the range of the plane with the pattern together with the background A button image recognition processing device for recognizing the button from an image captured by the camera,
A button image recognition processing apparatus comprising: a determination unit configured to determine, as the button, a range having no regular background pattern in the captured image.
前記カメラは、前記背景にピントを合わせて前記撮像画像を撮像することを特徴とする請求項9に記載のボタン画像認識処理装置。   The button image recognition processing apparatus according to claim 9, wherein the camera captures the captured image while focusing on the background. 前記ボタンとして判別された画像の範囲からあらかじめ設定された前記ボタンの特徴を有するかどうかを判別する特徴判別手段を備えることを特徴とする請求項9又は10に記載のボタン画像認識処理装置。   11. The button image recognition processing apparatus according to claim 9, further comprising a feature determining unit that determines whether or not the button has a preset feature from the range of the image determined as the button. 前回以前のボタンの撮像画像から前記ボタンの特徴となる画像を取得する特徴取得手段を備えることを特徴とする請求項11に記載のボタン画像認識処理装置。   The button image recognition processing apparatus according to claim 11, further comprising a feature acquisition unit configured to acquire an image that is a feature of the button from a captured image of the button before the previous time. 前記特徴判別手段は、あらかじめ設定された少なくとも前記ボタンの表あるいは裏のいずれか一方を撮像した場合の画像の濃淡パターンデータから、前記ボタンの表裏を判別することを特徴とする請求項11又は12に記載のボタン画像認識処理装置。   The feature discriminating unit discriminates the front and back of the button from at least one of the front and back of the button when the image is obtained by capturing at least one of the front and back of the button. A button image recognition processing apparatus according to claim 1.
JP2008157603A 2008-06-17 2008-06-17 Image recognition processing method, image recognition processor and button image recognition processor Pending JP2009301464A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008157603A JP2009301464A (en) 2008-06-17 2008-06-17 Image recognition processing method, image recognition processor and button image recognition processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008157603A JP2009301464A (en) 2008-06-17 2008-06-17 Image recognition processing method, image recognition processor and button image recognition processor

Publications (1)

Publication Number Publication Date
JP2009301464A true JP2009301464A (en) 2009-12-24

Family

ID=41548266

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008157603A Pending JP2009301464A (en) 2008-06-17 2008-06-17 Image recognition processing method, image recognition processor and button image recognition processor

Country Status (1)

Country Link
JP (1) JP2009301464A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017223457A (en) * 2016-06-13 2017-12-21 株式会社キーエンス Image processing sensor, image processing method, image processing program, computer readable recording medium, and recorded device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63212393A (en) * 1987-02-27 1988-09-05 ジューキ株式会社 Apparatus for stitch direction of button
JPH06126685A (en) * 1992-10-13 1994-05-10 Toyota Motor Corp Intrusion detector
JPH06129835A (en) * 1992-10-15 1994-05-13 Sumitomo Metal Ind Ltd Picture image analyzing device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63212393A (en) * 1987-02-27 1988-09-05 ジューキ株式会社 Apparatus for stitch direction of button
JPH06126685A (en) * 1992-10-13 1994-05-10 Toyota Motor Corp Intrusion detector
JPH06129835A (en) * 1992-10-15 1994-05-13 Sumitomo Metal Ind Ltd Picture image analyzing device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017223457A (en) * 2016-06-13 2017-12-21 株式会社キーエンス Image processing sensor, image processing method, image processing program, computer readable recording medium, and recorded device

Similar Documents

Publication Publication Date Title
JP6630545B2 (en) Positioning method, positioning device, program, and computer-readable recording medium
US7916893B2 (en) Image processing apparatus, image processing method, and program
JP5564349B2 (en) Image processing apparatus and appearance inspection method
JP5861462B2 (en) Inspection standard registration method for solder inspection and board inspection apparatus using the method
JP4190819B2 (en) Electronic component mounting apparatus and image recognition method selection method
JP5654801B2 (en) Image measuring apparatus and image measuring method
CN113506243A (en) PCB welding defect detection method and device and storage medium
US6320977B1 (en) Method and apparatus for positional detection using pattern matching process
JP7075246B2 (en) Seam inspection device
JP6140255B2 (en) Image processing apparatus and image processing method
JP2009301464A (en) Image recognition processing method, image recognition processor and button image recognition processor
JP3993107B2 (en) Component recognition data creation method and creation apparatus, and component recognition data creation program
WO2020129140A1 (en) Testing device, testing system and testing method
JP5960433B2 (en) Image processing apparatus and image processing method
JP2007233299A (en) Device and method for correcting color filter defect
JP4707598B2 (en) Method for detecting the center of gravity of an object
JP5084634B2 (en) Button front / back judgment method
JPH06258226A (en) Appearance inspection method for tablet
TWI703320B (en) Marking inspection apparatus, marking inspection method and article inspection apparatus
JP4420796B2 (en) Container appearance inspection method
JP3823642B2 (en) Inspection device for electronic component mounting status
JP4852454B2 (en) Eye tilt detection device and program
JP5947168B2 (en) Appearance inspection apparatus, control method and program for appearance inspection apparatus
CN115876785B (en) Visual identification system for product defect detection
JP3826646B2 (en) Electronic component mounting condition inspection system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110613

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120508

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120925