JP2000276598A - Method for recognizing image - Google Patents

Method for recognizing image

Info

Publication number
JP2000276598A
JP2000276598A JP11082895A JP8289599A JP2000276598A JP 2000276598 A JP2000276598 A JP 2000276598A JP 11082895 A JP11082895 A JP 11082895A JP 8289599 A JP8289599 A JP 8289599A JP 2000276598 A JP2000276598 A JP 2000276598A
Authority
JP
Japan
Prior art keywords
angle
target
line segment
recognition
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP11082895A
Other languages
Japanese (ja)
Inventor
Takashi Kakiuchi
崇 垣内
Yoritsugu Hiraishi
順嗣 平石
Keitaro Taniguchi
桂太郎 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP11082895A priority Critical patent/JP2000276598A/en
Publication of JP2000276598A publication Critical patent/JP2000276598A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To make accurately performable the recognition processing and to make recognizable a recognition target even though the scale factors of an image are changed and the size of an input image is mutually different. SOLUTION: A recognition target composed of line segments passing through one point and has the angular information of an angle made by adjacent line segments with each other as characteristic quantity. A line segment detecting part 11 detects line segments in received image date, and an angle detecting part detects the angular information (angle plus array information) of an angle made by adjacent line segments with each other among detected line segments. A target matching part 13 judges whether or not calculated angular information coincides with a correct recognition target, and a non-target condition checking part 14 judges whether or not angles and line segments that do not exist in the correct recognition target, exist. A judging part 15 judges that a recognition target exists when the angular information is correct and non-target information does not exist.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像認識方法に関
するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image recognition method.

【0002】[0002]

【従来の技術】例えば、FAシステムにおいて搬送ライ
ン上を流れるワークの適否や種類をチェックする場合
に、ワーク表面に印刷などしたマーク(パターン)をみ
て判断する手法がとられる。そして、係る判断をするた
めに画像認識方法を利用することがある。
2. Description of the Related Art For example, when checking the suitability and type of a work flowing on a transport line in an FA system, a method is employed in which a mark (pattern) printed on the work surface is determined. Then, an image recognition method may be used to make such a determination.

【0003】よく知られているように、認識判定(パタ
ーンマッチング)する際の手法の1として、基準となる
認識パターン(テンプレート)と、認識対象の画像(対
象物)との間でのテンプレート間距離や相互相関を用い
て評価するようになっている。したがって、上記したF
Aに適用する場合、ワーク表面に印刷するマークと同一
のマーク(パターン)を基準となる認識パターンとして
記憶保持する。そして、搬送ライン上を流れるワークを
カメラで撮像し、得られた画像データに対して認識パタ
ーンとのマッチングを行い、一致するか否かを判断す
る。これにより、ワークの種類を特定したり、マークに
欠けがないかなどの判断をすることができる。
[0003] As is well known, one of the techniques for performing recognition determination (pattern matching) is that a template between a reference recognition pattern (template) and a recognition target image (object) is used. Evaluation is performed using distance and cross-correlation. Therefore, F
When applied to A, the same mark (pattern) as the mark to be printed on the work surface is stored and held as a reference recognition pattern. Then, the workpiece flowing on the transport line is imaged by a camera, and the obtained image data is matched with a recognition pattern, and it is determined whether or not they match. As a result, it is possible to specify the type of the work and determine whether or not the mark is missing.

【0004】[0004]

【発明が解決しようとする課題】上記した画像認識方法
では、以下に示す問題がある。すなわち、搬送ラインに
一定の幅があり、その搬送ライン上をランダムにワーク
が搬送される場合、ワークのライン上の存在位置により
カメラからの距離が異なることがある。すると当然のこ
とながら、係る距離が相違すると、同一物体を撮像した
場合に得られる画像データ上の寸法は異なる(遠いもの
ほど小さくなる)。
The above-described image recognition method has the following problems. In other words, when the transfer line has a certain width and the work is transferred randomly on the transfer line, the distance from the camera may vary depending on the position of the work on the line. Then, naturally, if the distances are different, dimensions on image data obtained when the same object is imaged are different (the farther the distance, the smaller the size).

【0005】ところで、上記した評価(認識処理)は、
大きさの同一性も重要な要素の1つとなる。すなわち、
仮に形状は同じ(相似形)であっても、寸法が異なって
いる場合には、認識パターンではないと認識されてしま
う。したがって、上記のようにカメラとワークの距離が
変動するようなシステムの場合、同一ワークであっても
カメラまでの距離によって認識パターンと同一と判断さ
れたり、同一でないと判断されてしまうことがある。
By the way, the above-mentioned evaluation (recognition processing)
Size identity is also an important factor. That is,
Even if the shapes are the same (similar), if the dimensions are different, it is recognized as not a recognition pattern. Therefore, in the case of a system in which the distance between the camera and the work fluctuates as described above, even if the work is the same, it may be determined that the recognition pattern is the same or not the same depending on the distance to the camera. .

【0006】そこで、係る寸法の差の影響を受けないよ
うにするためには、異なる寸法の認識パターンを複数用
意し、それらと逐次マッチングをとる方法がある。この
方式の場合には、マッチング回数が増えて高速処理を疎
外するばかりで無く、基準となる認識パターンを複数保
持することは辞書のメモリ容量も多く必要となるという
問題がある。
In order to avoid the influence of such a difference in dimensions, there is a method of preparing a plurality of recognition patterns of different dimensions and sequentially matching them. In the case of this method, not only does the number of matchings increase, alienating high-speed processing, but also holding a plurality of reference recognition patterns requires a large memory capacity of the dictionary.

【0007】また、例えば距離を別の装置により計測す
るなどして変倍率がわかっているような場合には、撮像
した画像に対して間引き処理をしたり、補間処理をする
ことにより撮像したデータ自体を拡大・縮小して正規化
し、それと基準となる認識パターンとマッチングを採る
方法もある。このようにすると、寸法の差に基づく認識
パターンは1種類に1個作成すればよくなり、マッチン
グ処理は1回で済むようになる。しかし、この方法は正
確な変倍率を知る必要が前提となるので、FA等におい
ては別途距離測定装置を必要とするため、システムが大
型化するので好ましくない。
If the magnification is known, for example, by measuring the distance with another device, the data obtained by thinning out the captured image or performing interpolation processing is used. There is also a method of normalizing the image by enlarging / reducing itself, and matching it with a reference recognition pattern. In this case, it is only necessary to create one recognition pattern based on the difference in size, and the matching process can be performed only once. However, this method is based on the premise that it is necessary to know an accurate magnification ratio, so that an FA or the like requires a separate distance measuring device, which is not preferable because the system becomes large.

【0008】一方、人間の視覚は物の形状を複雑な過程
で認識していると考えられるが、絶対的な大きさの評価
は不得手であり、わずかな大きさの差を認識(区別)す
ることが困難である。したがって、画像認識では同一と
判断されずに区別されてしまうものでもその差が微差の
場合には、目視では同一と認識してしまうことがある。
On the other hand, it is considered that human vision recognizes the shape of an object in a complicated process, but the evaluation of the absolute size is not good, and the slight difference in size is recognized (distinguished). Is difficult to do. Therefore, even if images are distinguished without being determined to be the same in image recognition, if the difference is a slight difference, the same may be visually recognized as the same.

【0009】特に、認識パターンに比べてその拡大・縮
小率(以下、「変倍率」と称する)が数%〜10数%程
度の場合では、両者(認識パターンと認識対象物)を並
べて直接対比して比較すればその大きさが異なるためす
ぐにわかるが、認識対象物のみを単体で見た場合にはわ
かりにくい。
In particular, when the enlargement / reduction rate (hereinafter referred to as "magnification ratio") of the recognition pattern is about several percent to several tens percent, the two (the recognition pattern and the object to be recognized) are arranged side by side and directly compared. When compared, it is easy to understand because the size is different, but it is difficult to understand when only the recognition target is viewed alone.

【0010】この性質を利用し、例えば上記のように搬
送ラインに検査員がたち、搬送されるワークのマークを
見た場合に、上記したワークの搬送ライン上の位置ずれ
があったとしても、係る位置ずれに伴うマークの寸法の
差は吸収され、認識パターンと同じものか否かの判断を
することができる。
[0010] By utilizing this property, for example, when the inspector moves on the transfer line and looks at the mark of the transferred work as described above, even if there is a displacement of the work on the transfer line as described above, The difference in the size of the mark due to the displacement is absorbed, and it can be determined whether or not the mark is the same as the recognition pattern.

【0011】そこで、画像認識装置における認識アルゴ
リズムでも、上記の人間のように距離の差に基づく程度
の小さい変倍率の場合、特に寸法差を吸収するための前
処理を必要とせず、簡単で少ない回数で認識することの
できる装置・方法の開発が望まれている。
Therefore, even in the recognition algorithm of the image recognition apparatus, in the case of a small magnification ratio based on the difference in distance as in the case of the above-mentioned human, there is no need for a pre-processing for absorbing the dimensional difference, and it is simple and small. It is desired to develop a device / method that can be recognized by the number of times.

【0012】本発明は、上記した背景に鑑みてなされた
もので、その目的とするところは、たとえ変倍されて処
理中の画像データの大きさが異なっても、正確に認識処
理を行い、所定の画像を判定可能とする画像認識方法を
提供することにある。
The present invention has been made in view of the above background, and an object of the present invention is to perform accurate recognition processing even if the size of image data being processed is different due to scaling. An object of the present invention is to provide an image recognition method capable of determining a predetermined image.

【0013】[0013]

【課題を解決するための手段】上記した目的を達成する
ために、本発明に係る画像認識方法では、画像に含まれ
る認識ターゲットを認識する認識装置における認識方法
であって、前記認識ターゲットは線分で構成されるとと
もに、線分同士のなす角の角度情報を特徴量とする。そ
して、受け取った画像データ中の線分を検出する線分検
出工程を行い、次いで検出された線分のうち所定の線分
同士のなす角の角度情報を求める角度検出工程を行い、
前記求めた角度情報に基づいて、前記画像データ中に前
記認識ターゲットが存在するか否かを判定する判定工程
を有するようにした(請求項1)。
In order to achieve the above object, an image recognition method according to the present invention is a recognition method for a recognition device for recognizing a recognition target included in an image, wherein the recognition target is a line. And the angle information of the angle between the line segments is used as the feature amount. Then, perform a line segment detection step of detecting a line segment in the received image data, and then perform an angle detection step of obtaining angle information of an angle between predetermined line segments among the detected line segments,
A determination step is provided for determining whether or not the recognition target exists in the image data based on the obtained angle information (claim 1).

【0014】元画像(基準となる大きさが100%の画
像)に対して処理対象の画像が拡大/縮小等の倍率が変
化したとしても、角度情報はその影響を受けない。そこ
で、係る角度情報に基づいて画像認識をすることによ
り、変倍に強くなり、確実に認識ターゲットを含む画像
を認識することができる。
Even if the magnification of the image to be processed such as enlargement / reduction changes with respect to the original image (the image whose reference size is 100%), the angle information is not affected. Therefore, by performing image recognition based on the angle information, the magnification becomes strong, and an image including the recognition target can be reliably recognized.

【0015】そして、好ましくは、前記角度情報は、角
度と、その角度の配列順序とすることである(請求項
2)。配列順序まで判断基準に加えることにより、誤認
識するのを抑制し、しかも、配列順序を判定条件に入れ
たとしても、それに伴う処理の負荷はさほど大きくなら
ない。
[0015] Preferably, the angle information is an angle and an arrangement order of the angle. By adding the arrangement order to the judgment criteria, erroneous recognition is suppressed, and even if the arrangement order is included in the judgment condition, the processing load associated therewith does not increase significantly.

【0016】また、画像に含まれる認識ターゲットを認
識する認識装置における認識方法であって、前記認識タ
ーゲットは線分で構成されるとともに、線分の傾き情報
を特徴量とし、受け取った画像データ中の線分を検出す
る線分検出工程を行い、検出された線分のうち所定の線
分の傾き情報を求める傾き検出工程を行い、前記求めた
傾き情報に基づいて、前記画像データ中に前記認識ター
ゲットが存在するか否かを判定する判定工程を有するよ
うにしてもよい(請求項3)。
A recognition method in a recognition apparatus for recognizing a recognition target included in an image, wherein the recognition target is constituted by a line segment, and the inclination information of the line segment is used as a feature amount, and Performing a line segment detection step of detecting a line segment of the detected line segment, performing a tilt detection step of obtaining inclination information of a predetermined line segment among the detected line segments, based on the obtained inclination information, A determination step for determining whether or not a recognition target exists may be provided (claim 3).

【0017】請求項1の発明と同様に、元画像に対して
倍率が変化したとしても、傾き情報はその影響を受けな
い。そこで、係る傾き情報に基づいて画像認識をするこ
とにより、変倍に強くなり、確実に認識ターゲットを含
む画像を認識することができる。
Similar to the first aspect, even if the magnification changes with respect to the original image, the inclination information is not affected. Therefore, by performing image recognition based on such tilt information, the magnification becomes strong, and an image including the recognition target can be reliably recognized.

【0018】さらに好ましくは、前記認識ターゲットで
は存在しない非ターゲット情報(実施の形態では、「存
在しない角度や、一点を通らない線分」に相当)を記憶
保持し、前記判定工程は、前記画像データ中に前記非タ
ーゲット情報が存在するか否かの情報を加味して行うよ
うにするとなおよい(請求項4)。
[0018] More preferably, non-target information (corresponding to an angle that does not exist or a line segment that does not pass through a point in the embodiment) that does not exist in the recognition target is stored and held. It is more preferable to perform the process by taking into account information on whether or not the non-target information exists in the data (claim 4).

【0019】画像データ中に非ターゲット情報を含む場
合には、その画像データ中には認識ターゲットはない可
能性が高い。したがって、係る情報も加味することによ
り、認識率がより向上する。なお、加味する方法として
は、実施の形態のように一種のアンド(特徴量が存在
し、非ターゲット情報がない場合に初めて認識ターゲッ
トありと判断する)にしたが、適宜重み付けを行い、総
合的に判断するようにしてももちろんよい。
When non-target information is included in image data, there is a high possibility that there is no recognition target in the image data. Therefore, by taking such information into account, the recognition rate is further improved. As a method of taking into account, as in the embodiment, a kind of AND (determining that there is a recognition target for the first time when there is a feature amount and there is no non-target information) is appropriately weighted and comprehensively performed. Of course, it may be determined.

【0020】[0020]

【発明の実施の形態】以下、本発明に係る画像認識方法
の好適な実施の形態を添付図面を参照にして詳述する。
図1は、本発明で用いられる認識ターゲットの一例を示
している。同図に示すように、本形態の認識ターゲット
1は、一点Pで交わる複数の線分1a〜1fにより構成
されている。この線分の条件としては、線分1d,1f
のように、一端が一点Pに位置する場合と、他の線分1
a〜1c,1eのように一転Pから離れているが、延長
線上に一点Pが存在する場合のいずれも採り得る。但
し、一点Pを貫通するような線分、つまり、線上に一点
Pがあるような線分は使用しない。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the image recognition method according to the present invention will be described below in detail with reference to the accompanying drawings.
FIG. 1 shows an example of a recognition target used in the present invention. As shown in the figure, the recognition target 1 of the present embodiment is constituted by a plurality of line segments 1a to 1f intersecting at one point P. The conditions for this line segment are line segments 1d, 1f
, One end is located at one point P, and the other line segment 1
Although it is separated from the turn P as in a to 1c and 1e, any case where a point P exists on the extension line can be adopted. However, a line segment penetrating the point P, that is, a line segment having the point P on the line is not used.

【0021】このようにすることにより、一般的な印刷
物や物体等にありがちな放射状の模様,直方体の集合,
複数形状の重ね合わせ等を誤って検出するおそれを可及
的に抑制できる。また、係る点からいうと、隣接する線
分のなす角の角度も、30度,45度,60度,90度
等の一般に良く用いられる角度にならないようにすると
好ましい。
By doing so, a radial pattern, a set of rectangular parallelepipeds, and the like, which are common in general printed matter and objects, etc.
The possibility of erroneously detecting a plurality of overlapping shapes or the like can be suppressed as much as possible. Also, from this point, it is preferable that the angle between adjacent line segments does not become a commonly used angle such as 30 degrees, 45 degrees, 60 degrees, and 90 degrees.

【0022】そして、認識する際の基準データとして
は、上記の認識ターゲット1を構成する線分間のなす角
の角度情報としている。そして、本形態では隣接する線
分間の角度とし、しかも順番も考慮するようにしたた
め、同図(b)に示すように角度情報として[a,b,
c,d,e,f]の6つの角度とその順番を関連付ける
ようにしている。
The reference data for recognition is angle information of the angle between the line segments constituting the recognition target 1. In the present embodiment, the angle between adjacent line segments is used, and the order is also taken into account. Therefore, as shown in FIG.
c, d, e, f] and their order.

【0023】そして、本形態では、入力された画像デー
タ中に、上記した形状の認識ターゲット1が存在するか
否かを角度情報に基づいて認識するようにしている。具
体的な装置構成としては、図2に示すように、入力され
た画像データを線分検出部11に送り、画像データ中に
存在する線分を抽出するようになっている。
In the present embodiment, whether or not the recognition target 1 having the above-described shape exists in the input image data is recognized based on the angle information. As a specific device configuration, as shown in FIG. 2, the input image data is sent to the line segment detection unit 11, and a line segment existing in the image data is extracted.

【0024】この線分検出部11における線分抽出方法
としては、例えばテンプレートマッチングやハフ変換に
よる方法など各種の方法をとることができる。そして、
本形態では、テンプレートマッチングを用いて抽出する
ようにし、具体的には図3に示すフローチャートを実行
する機能を有している。
As the line segment extraction method in the line segment detection section 11, various methods such as a template matching method and a Hough transform method can be used. And
In the present embodiment, extraction is performed using template matching, and more specifically, it has a function of executing the flowchart shown in FIG.

【0025】すなわち、入力された画像データに対しテ
ンプレートをあて、線分の抽出を行う(ST1,ST
2)。次いで、処理対象画素(上記の各線分の中心とな
る一点P)を基準として一定の距離の範囲内に存在する
各線分に対し、その線分の処理対象画素上に位置してい
る(一端が接する場合と、線分の両端が処理対象画素を
跨いで両側に存在するような線分の上に処理対象画素が
あるもの等いずれも含む)か、或いは線分の延長線上に
処理対象画素が存在するような処理対象画素(一点)を
通る線分か否かを判断する(ST3)。
That is, a template is applied to the input image data to extract a line segment (ST1, ST1).
2). Next, with respect to each line segment existing within a certain distance range with respect to the pixel to be processed (the above-mentioned one point P at the center of each line segment), the line segment is located on the pixel to be processed (one end is located at one end). In the case where the pixel touches the line segment, both ends of the line segment are located on both sides of the pixel to be processed. It is determined whether or not the line segment passes through the processing target pixel (one point) as existing (ST3).

【0026】そして、ステップ3の分岐判断がYesの
場合には、線分の諸元(例えば両端の位置座標等)を角
度検出部12に出力し(ST4)、ステップ3の分岐判
断がNoの場合には、線分の諸元(例えば両端の位置座
標等)を非ターゲットマッチング部に出力する(ST
4)。
If the branch determination in step 3 is Yes, the specifications of the line segment (for example, the position coordinates of both ends) are output to the angle detector 12 (ST4), and the branch determination in step 3 is No. In this case, the specifications of the line segment (for example, position coordinates of both ends) are output to the non-target matching unit (ST
4).

【0027】一方、角度検出部12は、隣接する線分間
の角度を求めるもので、具体的には図4に示すフローチ
ャートに示すような機能を実施する。つまり、与えられ
た線分のうち任意の線分を最初の線分に決定し、時計回
りで順次線分の諸元を取り出す(ST11,ST1
2)。これにより、隣接する2本の線分の位置がわかる
ので角度を求め(ST13)、当該角度を出力、つまり
ターゲットマッチング部13及び非ターゲット条件チェ
ック部14に与える(ST14)。
On the other hand, the angle detecting section 12 calculates the angle between adjacent line segments, and specifically implements the function shown in the flowchart of FIG. That is, an arbitrary line segment among the given line segments is determined as the first line segment, and the specifications of the line segments are sequentially extracted clockwise (ST11, ST1).
2). As a result, the position of two adjacent line segments is known, and the angle is obtained (ST13), and the angle is output, that is, given to the target matching unit 13 and the non-target condition check unit 14 (ST14).

【0028】そして、最後の線分の処理、つまり、次の
線分が最初に抽出した線分になった場合には、その角度
を求めるとともに出力した状態で処理を終了する(ST
14)。
When the last line segment is processed, that is, when the next line segment is the first extracted line segment, the angle is obtained and the process is terminated with the output state (ST).
14).

【0029】これにより、例えば、図5に示すような線
分が検出された場合、斜め上下方向に延びる線分L1を
最初に選択し(ST11)、その後ステップ12から1
4を繰り返し実行することにより、隣接する線分の角度
として、順番に[f,a,b,c,d,e]が得られ、
この角度群を出力するようになる。なお、実際には、各
角度を計算する都度出力してもよいし、最後まで求めた
後、まとめて一括して出力してもよい。
As a result, for example, when a line segment as shown in FIG. 5 is detected, a line segment L1 extending diagonally up and down is selected first (ST11), and then from step 12 to 1
By repeatedly executing step 4, [f, a, b, c, d, e] are obtained in order as the angle of the adjacent line segment,
This angle group is output. Actually, the angle may be output each time the angle is calculated, or may be output all at once after the angle is calculated.

【0030】また、ターゲットマッチング部13は、第
1辞書13aに格納された正しいターゲットの角度とそ
の順番を関連付けたデータを参照し、線分検出部11で
検出された処理対象画素を通る線分のうち、隣接する線
分間の角度が正しい順番で並んでいるか否かを判断する
もので、具体的には図6に示すようなフローチャートを
実現する機能となっている。
The target matching unit 13 refers to the data stored in the first dictionary 13a in which the correct target angles are associated with the order of the targets. Of these, it is determined whether or not the angles between adjacent line segments are arranged in the correct order, and more specifically, it has a function of realizing a flowchart as shown in FIG.

【0031】すなわち、まず角度検出部12から与えら
れた角度群が、順番と角度の両法とも正しいターゲット
と一致するか否かを判断する(ST21)。そして、一
致すれば、検出対象物と判断し、ターゲットマッチング
(ターゲットあり)の情報(真)を出力する(ST2
4)。一方、一致しない場合には、ステップ22に飛
び、角度群の先頭の角度を最後尾に回し(ST22)、
係る回す処理で角度群が一周、つまり、最初の状態に戻
ったか否かを判断する(ST23)。そして、一周して
いない場合にはステップ21に戻り、再度正しいターゲ
ットと一致するか否かを判断する。
That is, first, it is determined whether or not the angle group given from the angle detection unit 12 matches the correct target in both the order and the angle method (ST21). If they match, the object is determined to be a detection target, and information (true) of target matching (with target) is output (ST2).
4). On the other hand, if they do not match, the process jumps to step 22, turning the head angle of the angle group to the tail (ST22),
In this turning process, it is determined whether the angle group has made one round, that is, whether the angle group has returned to the initial state (ST23). If it has not completed one round, the process returns to step 21 to determine again whether or not it matches the correct target.

【0032】そして、角度の並び替えを一周行っても一
致しない場合には、ステップ23からステップ25に進
み、処理対象のものは認識ターゲットではないと判断
し、ターゲットなし情報(偽)を出力する。
If there is no match even after one round of the angle rearrangement, the process proceeds from step 23 to step 25, where it is determined that the object to be processed is not a recognition target, and no target information (false) is output. .

【0033】具体例をあげて説明すると、基準データと
して図1(b)に示すように角度群[a,b,c,d,
e,f]が第1辞書13aに格納されているとする。す
ると、ターゲットマッチング部13は、第1辞書13a
を参照することにより当該正しい角度群の情報を取得し
ておく。
To explain with a specific example, as shown in FIG. 1B, the angle groups [a, b, c, d,
e, f] are stored in the first dictionary 13a. Then, the target matching unit 13 sets the first dictionary 13a
To obtain the information of the correct angle group.

【0034】この場合において、図5に示すような線分
が検出され、上記のように角度群として、[f,a,
b,c,d,e]が得られた場合、一回目のステップ2
1の判断では一致しないためステップ22に進み、先頭
の角度fを最後尾に回すことにより、[a,b,c,
d,e,f]という角度群が得られる。すると、基準デ
ータと一致するのでステップ21でYesとなり、ター
ゲットマッチングの情報が出力される。
In this case, a line segment as shown in FIG. 5 is detected, and as described above, [f, a,
b, c, d, e], the first step 2
Since the judgment at 1 does not match, the process proceeds to step 22, and by turning the head angle f to the tail, [a, b, c,
d, e, f] are obtained. Then, since it matches the reference data, the result is Yes in step 21 and the information of the target matching is output.

【0035】一方、例えば図7(A)のような線分(正
しいターゲットの線分に比べて矢印で示す線分が多い)
が検出された場合には、角度情報としては、[a,b,
c,d,e,g,h]となり、角度群の先頭をどの角度
にしても正しいターゲットの場合と一致しない。したが
って、最終的にターゲットなしの情報を出力することに
なる。
On the other hand, for example, a line segment as shown in FIG. 7A (the number of line segments indicated by arrows is larger than the line segment of a correct target).
Is detected, the angle information is [a, b,
c, d, e, g, h], and any angle at the head of the angle group does not match the case of the correct target. Therefore, information without a target is finally output.

【0036】また、非ターゲット条件チェック部14
は、角度検出部12から与えられた角度群と、線分検出
部11から「一点を通らない線分」の情報に基づいて、
非ターゲットであるか否かを判断するようになってい
る。そして、角度群のチェックに際しては、第2辞書1
4aに格納された正しいターゲットには存在しない角度
に関する情報を参照し判断する。ここで、正しいターゲ
ットに存在しない角度に関する情報は、存在しない全て
の角度を入れると適合処理が多大となるので実際には、
ターゲットを構成する角度(順番の情報まで入れない)
を格納しておき、当該角度以外の角度が検出された場合
に、「ターゲットに含まれない角度あり」と判断するよ
うにしている。
The non-target condition checking unit 14
Is based on the angle group given from the angle detection unit 12 and the information of the “line segment that does not pass through one point” from the line segment detection unit 11,
It is determined whether or not it is a non-target. When checking the angle group, the second dictionary 1
The determination is made with reference to the information on the angle that does not exist in the correct target stored in 4a. Here, information about angles that do not exist in the correct target can be significantly increased if all the non-existing angles are included.
Angles that make up the target (does not include order information)
Is stored, and when an angle other than the angle is detected, it is determined that “there is an angle not included in the target”.

【0037】また、これ以外の情報としては、例えば9
0度,60度,45度などのターゲットを構成する線分
間の角度として使用しない角度があらかじめ定められて
いる場合には、当該角度を格納するようにしてもよい。
その場合には、その格納した角度と一致した場合には、
「ターゲットに含まれない角度あり」と判断するように
なる。
Further, as other information, for example, 9
If an angle that is not used as an angle of a line segment constituting the target, such as 0, 60, or 45 degrees, is determined in advance, the angle may be stored.
In that case, if it matches the stored angle,
It is determined that there is an angle that is not included in the target.

【0038】そして、具体的な処理は、図8に示すフロ
ーチャートのようになっている。すなわち、まず与えら
れた角度群を構成する各角度情報を、第2辞書14aに
格納された角度情報に基づいて、正しいターゲットに含
まれない角度があるか否かを判断する(ST31)。そ
して、含まれない角度がある場合には、それは正しいタ
ーゲットではないと判断できるので、ステップ34に進
み、ターゲットマッチング無効(真:非ターゲット条件
に合致する)を出力する。
The specific processing is as shown in the flowchart of FIG. That is, first, it is determined whether or not there is an angle that is not included in a correct target, based on the angle information stored in the second dictionary 14a, for each piece of angle information constituting the given angle group (ST31). If there is an angle that is not included, it can be determined that the angle is not a correct target, and the process proceeds to step 34, where target matching invalidity (true: matches the non-target condition) is output.

【0039】また、正しいタ−ゲットに含まれない角度
がない場合には、ステップ32に進み、線分検出部11
からターゲットに一点を通らない無効な線分があるか否
かを判断する。この処理は、実際には線分検出部11か
ら検出信号があれば、Yesとなり、ステップ34に進
みターゲットマッチング無効(真)を出力する。また、
無効な線分がない場合には、ステップ33に進み、ター
ゲットマッチング有効(偽:非ターゲット条件を満たさ
ない)を出力する。
If there is no angle that is not included in the correct target, the process proceeds to step 32, where the line segment detector 11
It is determined whether there is an invalid line segment that does not pass through one point from the target. In this process, if there is actually a detection signal from the line segment detection unit 11, the determination is Yes, and the process proceeds to step 34, and the target matching invalid (true) is output. Also,
If there is no invalid line segment, the process proceeds to step 33 and outputs target matching validity (false: does not satisfy the non-target condition).

【0040】具体例をあげて説明すると、第2辞書14
aには、(a,b,c,d,e,f:順番に関する情報
なし)が格納されているとする。すると、非ターゲット
条件としては、上記角度以外の角度となる。
A specific example will be described.
It is assumed that (a, b, c, d, e, f: no information on the order) is stored in a. Then, the non-target condition is an angle other than the above angle.

【0041】この場合において、図7(a)のような線
分(正しいターゲットの線分に比べて矢印で示す線分が
多い)が検出された場合には、正しいターゲットにはな
い角度g,hが検出されるので、ステップ31の判断で
条件合致(Yes)となりターゲットマッチング無効
(真)を出力する。
In this case, when a line segment as shown in FIG. 7A (the number of line segments indicated by arrows is larger than the line segment of the correct target) is detected, the angles g, Since h is detected, the condition is met (Yes) in step 31 and target matching invalid (true) is output.

【0042】また同図(b)のような線分(矢印で示す
一点を通らない線分がある)が検出された場合には、正
しいターゲットに含まれない角度はないが、矢印で示す
線分が処理対象画素を通らないので、ステップ32の判
断で条件合致(Yes)となりターゲットマッチング無
効(偽)を出力する。
When a line segment as shown in FIG. 3B (a line segment that does not pass through one point indicated by an arrow) is detected, there is no angle not included in the correct target, but a line indicated by an arrow is detected. Since the minute does not pass through the pixel to be processed, the condition is met (Yes) in the judgment of step 32, and target matching invalid (false) is output.

【0043】そして、判定部15は、ターゲットマッチ
ング部13の出力が「真」で、非ターゲット条件チェッ
ク部14の出力が「偽」の場合に、出力が「真」とな
り、認識ターゲットが存在すると判断し、その認識結果
を出力部16で出力する。
When the output of the target matching unit 13 is “true” and the output of the non-target condition checking unit 14 is “false”, the determination unit 15 determines that the output is “true” and that the recognition target exists. Judgment is made and the recognition result is output by the output unit 16.

【0044】なお、上記した処理は、与えられた画像デ
ータに対し、例えばラスタスキャンなどにより処理対象
画素(上記の各線分の中心となる一点P)を順次移動
し、その都度行うことになる。
The above-described processing is performed each time the pixel to be processed (one point P at the center of each line segment) is sequentially moved with respect to the given image data by, for example, raster scanning.

【0045】なおまた、第2辞書14aに格納する辞書
データが、正しいターゲットの角度のみとすると、ター
ゲットマッチング部13のステップ21がYesであれ
ば非ターゲット条件チェック部14のステップ31の判
断は必ずNoとなり、ステップ21がNoであればステ
ップ31はYesとなる。
If the dictionary data stored in the second dictionary 14a is only a correct target angle, if the step 21 of the target matching unit 13 is Yes, the judgment of the step 31 of the non-target condition check unit 14 must be performed. No, and if Step 21 is No, Step 31 becomes Yes.

【0046】それにもかかわらずこの分岐判断を入れて
いるのは、両方でダブルチェックをかけることにより、
誤判断する確率を可及的に抑制したり、異なる角度があ
る場合には、すぐに異常とわかるので早期に対象ではな
いと判断するようにしたり、上記のように、使用しない
角度を入れるアルゴリズムとの共通化を図るためなどの
理由からである。
Nevertheless, the reason why this branch decision is made is that by performing a double check on both,
The algorithm that minimizes the probability of misjudgment as much as possible, if there is a different angle, immediately recognizes that it is abnormal and decides that it is not the target as soon as possible. This is for the purpose of commonality with the above.

【0047】したがって、判断処理を簡易にするために
は、ステップ31を設けなくてもよい。その場合には、
ステップ32の判断は、線分検出部11からの出力の有
無に一義的に対応するため、その線分検出部11の出力
を直接或いは遅延部等を介して判定部15に与えるよう
にしてもよい。
Therefore, in order to simplify the determination process, step 31 need not be provided. In that case,
Since the determination in step 32 uniquely corresponds to the presence or absence of the output from the line segment detection unit 11, the output of the line segment detection unit 11 may be provided to the determination unit 15 directly or via a delay unit or the like. Good.

【0048】また、上記した実施の形態では、隣接する
線分同士のなす角の角度を角度情報として使用したが、
本発明はこれに限ることはなく、例えば1つおきとした
り、ある線分を基準とした各線分とのなす角の角度とす
るなどの他、各種の対応が採れる。但し、上記した隣接
する線分間の角度を採ると、処理が簡単で高速に処理で
きる点で好ましい。
In the above embodiment, the angle between adjacent line segments is used as angle information.
The present invention is not limited to this. For example, it is possible to take various measures such as, for example, setting every other line, setting the angle between each line segment with respect to a certain line segment, and the like. However, taking the angle between the adjacent line segments is preferable in that the processing is simple and the processing can be performed at high speed.

【0049】さらにまた、上記した実施の形態では、角
度+順番(配列順序)を条件としたが、順番の情報を検
索条件からなくし、角度情報のみに基づいて行ってもよ
い。また、その場合に、例えば隣接する線分同士のなす
角のみならず、例えば任意の組み合わせの線分が構成す
る180度以下の全ての角度を抽出し、配列の情報を角
度の組み合わせとして抽出してもよい。具体例を示す
と、図5の場合には、(a,b,c,d,e,f,a+
b,b+c,c+d,d+e,e+f,f+a,a+b
+c,b+c+d,f+a+b)となる。
Furthermore, in the above-described embodiment, the condition of angle + order (arrangement order) is used as a condition. However, information of order may be omitted from the search condition, and the search may be performed based on only angle information. In that case, for example, not only angles formed by adjacent line segments but also all angles of 180 degrees or less formed by any combination of line segments are extracted, and array information is extracted as a combination of angles. You may. As a specific example, in the case of FIG. 5, (a, b, c, d, e, f, a +
b, b + c, c + d, d + e, e + f, f + a, a + b
+ C, b + c + d, f + a + b).

【0050】図9〜図11は本発明の第2の実施の形態
を示している。同図に示すように、入力画像データ10
をターゲットマッチング部13′と非ターゲットマッチ
ング部14′にそれぞれ直接与え、両マッチング1
3′,14′の出力を判定部15に与え、正しいパター
ンか否かを判断する。つまり、ターゲットマッチング部
13′で合致するパターンが検出(真)され、非ターゲ
ットマッチング部14′で合致するパターンが検出され
ない(偽)場合に、判定部15の出力は真となり検出と
判断される。
FIGS. 9 to 11 show a second embodiment of the present invention. As shown in FIG.
Are directly applied to the target matching unit 13 'and the non-target matching unit 14', respectively.
The outputs of 3 'and 14' are supplied to a determination unit 15 to determine whether or not the pattern is correct. That is, when the matching pattern is detected (true) by the target matching unit 13 'and the matching pattern is not detected (false) by the non-target matching unit 14', the output of the determination unit 15 is true and the detection is determined. .

【0051】そして、具体的にはターゲットマッチング
部13′は、図10に示すように黒画素を検知する第1
マスク領域M1と、その両側に位置する白画素を検出す
る第2マスク領域M2を備えたマスクMを用意し、当該
マスクMを、正しいターゲットの各線分の所定位置に配
置したものを用いる。
More specifically, the target matching unit 13 'detects the first black pixel as shown in FIG.
A mask M having a mask region M1 and a second mask region M2 for detecting white pixels located on both sides of the mask region M1 is prepared, and the mask M is arranged at a predetermined position of each line of a correct target.

【0052】係る構成にすると、多少倍率が変化したと
しても角度は変わらないので正しいターゲットの場合
に、「真」が出力される。つまり、本来あるべきところ
に線分がない場合には、「偽」が出力される。但し、正
しいターゲットの線分は全て有し、しかも線分が多い場
合には、「真」が出力されるが、この場合には、非ター
ゲットマッチング部で当該多い線分が検出されるので問
題はない。
With this configuration, even if the magnification changes slightly, the angle does not change, so that "true" is output for a correct target. That is, if there is no line segment where it should be, "false" is output. However, if all the line segments of the correct target are present and there are many line segments, “true” is output. In this case, however, the non-target matching unit detects such a large number of line segments. There is no.

【0053】一方、非ターゲットマッチング部14′
は、図11に示すように、ある一点P(ターゲットの各
線分が通る点)を中心として一定のターゲットエリア内
で、線分が存在する部分とその延長線上を除いた領域
を、マスク領域M3を有するテンプレートを用いる。そ
して、そのマスク領域M3内に黒画素が存在するか否か
を判断し、存在する場合には「真」を出力する。
On the other hand, the non-target matching section 14 '
As shown in FIG. 11, in a certain target area centered on a certain point P (a point through which each line segment of the target passes), a region excluding a portion where a line segment exists and an extension thereof is defined as a mask region M3. Is used. Then, it is determined whether or not a black pixel exists in the mask area M3, and if so, “true” is output.

【0054】なお、本実施の形態では、線分を直接する
のではなく、本来線分があるべき箇所に黒画素(線を構
成する画素)が存在し、本来線分がない場所に白画素が
あることを認識することにより、間接的に線分の存在を
認識し、テンプレートにより線分間の角度が所定の条件
にあることを判定できるので、簡易的な回路で簡単に実
現でき、しかも、テンプレートマッチングであるので、
迅速に判断することができる。
In this embodiment, instead of directly forming a line segment, a black pixel (a pixel forming a line) exists at a position where a line segment should originally exist, and a white pixel exists at a position where there is no line segment. By recognizing that there is, it is possible to indirectly recognize the presence of a line segment and determine that the angle of the line segment is in a predetermined condition by using a template, so that it can be easily realized with a simple circuit, and Since it is template matching,
You can make a quick decision.

【0055】但し、ノイズなどが極端に多い状況下では
誤認識するおそれがあるので、必要に応じて非ターゲッ
ト条件の閾値を上げたり、前処理としてノイズ除去処理
等をする。
However, since there is a possibility of erroneous recognition in a situation where noise or the like is extremely large, the threshold value of the non-target condition is increased if necessary, and noise removal processing or the like is performed as preprocessing.

【0056】また、ターゲットの姿勢(回転角度)の影
響を受けるので、ターゲットマッチング部13′並びに
非ターゲットマッチング14′のいずれにおいてもそこ
で用いられるマスク(テンプレート)は、異なる回転角
度に合わせた複数のテンプレートを用意しておいたり、
或いは判断時にテンプレートを回転させる必要がある。
Further, since the target is affected by the attitude (rotation angle) of the target, the mask (template) used in both the target matching unit 13 'and the non-target matching 14' has a plurality of masks corresponding to different rotation angles. I have prepared a template,
Alternatively, it is necessary to rotate the template at the time of determination.

【0057】なお、上記した各実施の形態並びに変形例
は、いずれも任意の線分間のなす角の角度情報に基づい
て判定を行っているが、本発明はこれに限ることはな
く、線分そのものの傾きの組み合わせに基づいて判断す
るようにしてもよい。
In each of the above-described embodiments and modified examples, the determination is made based on the angle information of the angle formed by an arbitrary line segment. However, the present invention is not limited to this. The determination may be made based on the combination of the inclination of the object itself.

【0058】すなわち、図12に示すようにある基準線
(例えば水平線)から各線分Lの傾き(a′,b′,
c′,d′,e′,f′)を求め、それを基準データと
する。そして、ハードウェア構成としては、図1に示し
た第1の実施の形態のものをそのまま使用できる。そし
て、異なるのは角度検出部がステップ12の処理が線分
間の角度を求めるのではなく、基準線(例えば水平線)
からの角度を求めることで傾きを算出するようにするこ
とである。
That is, as shown in FIG. 12, the inclination (a ', b',
c ', d', e ', f'), and use them as reference data. The hardware configuration of the first embodiment shown in FIG. 1 can be used as it is. The difference is that the angle detection unit does not calculate the angle of the line segment in the process of step 12, but uses a reference line (for example, a horizontal line).
The inclination is calculated by obtaining an angle from the angle.

【0059】また、ターゲットマッチング部では、検出
された各線分の傾き(角度群)があらかじめ登録された
基準データと一致するか否かを判断することになる。そ
して、一致すれば「真」を出力し、最終的に一致しなけ
れば「偽」を出力することになる。このとき、認識対象
のターゲットの姿勢(回転角度)が基準データのものと
そもそも異なっているおそれがある。したがって、適宜
回転処理し回転角度の姿勢による影響を受けないように
補正する必要はある。
The target matching unit determines whether or not the detected inclination (group of angles) of each line segment matches the reference data registered in advance. If they match, "true" is output, and if they do not finally match, "false" is output. At this time, the posture (rotation angle) of the recognition target may be different from that of the reference data. Therefore, it is necessary to correct the rotation so that the rotation angle is not affected by the posture.

【0060】また、非ターゲット条件チェック部の機能
としては、回転角度の補正を考えると、図8に示すステ
ップ31は設けず、ステップ32の分岐判断のみにする
と処理が簡単となる(もちろん、ステップ31を設けて
もよい)。
As for the function of the non-target condition checking unit, considering the correction of the rotation angle, the process is simplified if the step 31 shown in FIG. 31 may be provided).

【0061】[0061]

【発明の効果】以上のように、本発明に係る画像認識方
法では、たとえ変形されて入力画像の大きさが元画像
(認識パターンと同一の100%の画像)と異なって
も、線分間の角度や傾きは変化しない。したがって、係
る角度(傾き)情報に基づいて判断すれば、変形の有無
にかかわらず正しいターゲットであるか否かを精度よく
判定することができる。
As described above, in the image recognition method according to the present invention, even if the size of the input image is different from that of the original image (100% of the same image as the recognition pattern), the line segment The angle and tilt do not change. Therefore, if the determination is made based on the angle (inclination) information, it can be accurately determined whether or not the target is correct regardless of the presence or absence of deformation.

【0062】そして、請求項2の発明では、角度の配列
情報が加味されるので誤認識が減る。さらに請求項4の
発明では、非ターゲット情報も加味して判断されるの
で、誤認識の確率がさらに減少する。
According to the second aspect of the present invention, misrecognition is reduced because array information of angles is added. Further, in the invention according to claim 4, since the judgment is made in consideration of the non-target information, the probability of erroneous recognition is further reduced.

【図面の簡単な説明】[Brief description of the drawings]

【図1】認識ターゲットの一例を示す図である。FIG. 1 is a diagram illustrating an example of a recognition target.

【図2】本発明に係る画像認識方法の第1の実施の形態
を実施するに適した画像認識装置を示すブロック図であ
る。
FIG. 2 is a block diagram showing an image recognition device suitable for implementing the first embodiment of the image recognition method according to the present invention.

【図3】線分検出部の機能を示すフローチャートであ
る。
FIG. 3 is a flowchart illustrating a function of a line segment detection unit.

【図4】角度検出部の機能を示すフローチャートであ
る。
FIG. 4 is a flowchart illustrating a function of an angle detection unit.

【図5】角度検出部の作用を説明する図である。FIG. 5 is a diagram illustrating the operation of an angle detection unit.

【図6】ターゲットマッチング部の機能を示すフローチ
ャートである。
FIG. 6 is a flowchart illustrating functions of a target matching unit.

【図7】作用を説明する図である。FIG. 7 is a diagram illustrating an operation.

【図8】非ターゲット条件チェック部の機能を示すフロ
ーチャートである。
FIG. 8 is a flowchart illustrating a function of a non-target condition checking unit.

【図9】本発明に係る画像認識方法の第2の実施の形態
を実施するに適した画像認識装置を示すブロック図であ
る。
FIG. 9 is a block diagram showing an image recognition device suitable for carrying out the second embodiment of the image recognition method according to the present invention.

【図10】ターゲットマッチング部で用いられるテンプ
レートの一例を示す図である。
FIG. 10 is a diagram illustrating an example of a template used in a target matching unit.

【図11】非ターゲットマッチング部で用いられるテン
プレートの一例を示す図である。
FIG. 11 is a diagram illustrating an example of a template used in a non-target matching unit.

【図12】本発明の第3の実施の形態を説明する図であ
る。
FIG. 12 is a diagram illustrating a third embodiment of the present invention.

【符号の説明】 1 認識ターゲット 1a〜1f 線分 11 線分検出部 12 角度検出部 13,13′ ターゲットマッチング部 14 非ターゲット条件チェック部 14′ 非ターゲットマッチング部 15 判定部[Description of Signs] 1 Recognition target 1a to 1f Line segment 11 Line segment detection unit 12 Angle detection unit 13, 13 'Target matching unit 14 Non-target condition checking unit 14' Non-target matching unit 15 Judgment unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 谷口 桂太郎 京都府京都市右京区花園土堂町10番地 オ ムロン株式会社内 Fターム(参考) 5L096 BA03 CA02 DA02 FA03 FA67 HA07 JA11 JA16 KA01 KA04 ──────────────────────────────────────────────────続 き Continued on the front page (72) Inventor Keitaro Taniguchi F-term 5L096 BA03 CA02 DA02 FA03 FA67 HA07 JA11 JA16 KA01 KA04 in Omron Co., Ltd.

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 画像に含まれる認識ターゲットを認識す
る認識装置における認識方法であって、 前記認識ターゲットは線分で構成されるとともに、線分
同士のなす角の角度情報を特徴量とし、 受け取った画像データ中の線分を検出する線分検出工程
を行い、 検出された線分のうち所定の線分同士のなす角の角度情
報を求める角度検出工程を行い、 前記求めた角度情報に基づいて、前記画像データ中に前
記認識ターゲットが存在するか否かを判定する判定工程
を有することを特徴とする画像認識方法。
1. A recognition method in a recognition device for recognizing a recognition target included in an image, wherein the recognition target is formed of line segments, and angle information of an angle between the line segments is used as a feature amount. Performing a line segment detection step of detecting a line segment in the detected image data, performing an angle detection step of obtaining angle information of an angle formed by predetermined line segments among the detected line segments, based on the obtained angle information. And determining whether the recognition target exists in the image data.
【請求項2】 前記角度情報は、角度と、その角度の配
列順序であることを特徴とする請求項1に記載の画像認
識方法。
2. The image recognition method according to claim 1, wherein the angle information is an angle and an arrangement order of the angle.
【請求項3】 画像に含まれる認識ターゲットを認識す
る認識装置における認識方法であって、 前記認識ターゲットは線分で構成されるとともに、線分
の傾き情報を特徴量とし、 受け取った画像データ中の線分を検出する線分検出工程
を行い、 検出された線分のうち所定の線分の傾き情報を求める傾
き検出工程を行い、 前記求めた傾き情報に基づいて、前記画像データ中に前
記認識ターゲットが存在するか否かを判定する判定工程
を有することを特徴とする画像認識方法。
3. A recognition method in a recognition device for recognizing a recognition target included in an image, wherein the recognition target is constituted by a line segment, and the inclination information of the line segment is used as a feature amount. Performing a line segment detection step of detecting a line segment of the line segment; performing a tilt detection step of obtaining inclination information of a predetermined line segment among the detected line segments; based on the obtained inclination information, An image recognition method comprising: a determination step of determining whether a recognition target exists.
【請求項4】 前記認識ターゲットでは存在しない非タ
ーゲット情報を記憶保持し、 前記判定工程は、前記画像データ中に前記非ターゲット
情報が存在するか否かの情報を加味して行うことを特徴
とする請求項1〜3のいずれか1項に記載の画像認識方
法。
4. The non-target information that does not exist in the recognition target is stored and held, and the determination step is performed in consideration of information on whether or not the non-target information exists in the image data. The image recognition method according to claim 1.
JP11082895A 1999-03-26 1999-03-26 Method for recognizing image Withdrawn JP2000276598A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11082895A JP2000276598A (en) 1999-03-26 1999-03-26 Method for recognizing image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11082895A JP2000276598A (en) 1999-03-26 1999-03-26 Method for recognizing image

Publications (1)

Publication Number Publication Date
JP2000276598A true JP2000276598A (en) 2000-10-06

Family

ID=13787015

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11082895A Withdrawn JP2000276598A (en) 1999-03-26 1999-03-26 Method for recognizing image

Country Status (1)

Country Link
JP (1) JP2000276598A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002001505A1 (en) * 2000-06-26 2002-01-03 Iwane Laboratories, Ltd. Information converting system
CN112204674A (en) * 2018-03-07 2021-01-08 维迪控股私人有限公司 Method for identifying biological material by microscopy
CN112862889A (en) * 2021-01-29 2021-05-28 珠海迪沃航空工程有限公司 Recognition correction system, method and device based on image recognition

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002001505A1 (en) * 2000-06-26 2002-01-03 Iwane Laboratories, Ltd. Information converting system
US7031554B2 (en) 2000-06-26 2006-04-18 Iwane Laboratories, Ltd. Information converting system
JP4582995B2 (en) * 2000-06-26 2010-11-17 株式会社岩根研究所 Information conversion system
CN112204674A (en) * 2018-03-07 2021-01-08 维迪控股私人有限公司 Method for identifying biological material by microscopy
CN112862889A (en) * 2021-01-29 2021-05-28 珠海迪沃航空工程有限公司 Recognition correction system, method and device based on image recognition

Similar Documents

Publication Publication Date Title
US7376247B2 (en) Target detection system using radar and image processing
EP2189944A1 (en) Image processing device and image processing method
TWI384408B (en) Method and system for identifying image and outputting identification result
US7206437B2 (en) Method to conduct fingerprint verification and a fingerprint verification system
EP0480023A1 (en) A hybrid feature-based and template matching based optical character recognition system and method
JPH0944666A (en) Classifying device for skin pattern and fingerprint pattern
JP2003098424A (en) Range finder based on image processing
WO2006026688A2 (en) Method and apparatus for classifying an object
CN110322727A (en) The method for identifying the object in traffic space
JP2007121111A (en) Target identifying technique using synthetic aperture radar image and device therof
JP4128837B2 (en) Road lane detection device
JP2000276598A (en) Method for recognizing image
JP3667905B2 (en) Paper sheet serial number recognition apparatus and method
CN111860113A (en) Lane line detection method and system
JP2001256505A (en) Recognition device recognition method, paper sheet processor and paper sheet processing method
JP3494388B2 (en) Fingerprint matching method and fingerprint matching device
JP3287166B2 (en) Distance measuring device
JP2944650B1 (en) Fingerprint matching device and method
JP4070448B2 (en) Moving object recognition apparatus and recognition method
JP2007141167A (en) Lane detector, lane detection method, and lane detection program
JPH11219435A (en) White line detector for automobile
JPH05189546A (en) Device for discriminating authenticity of fingerprint featured point
JP2009043184A (en) Image processing method and image processor
JP3444123B2 (en) Author identification device and author identification method
JPH0933216A (en) Image processor carried on vehicle

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060606