JPS63284687A - Image processor - Google Patents

Image processor

Info

Publication number
JPS63284687A
JPS63284687A JP11995087A JP11995087A JPS63284687A JP S63284687 A JPS63284687 A JP S63284687A JP 11995087 A JP11995087 A JP 11995087A JP 11995087 A JP11995087 A JP 11995087A JP S63284687 A JPS63284687 A JP S63284687A
Authority
JP
Japan
Prior art keywords
image
feature pattern
processed
feature
attributes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11995087A
Other languages
Japanese (ja)
Inventor
Atsushi Kuno
敦司 久野
Masachika Watanabe
渡邊 正誓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Tateisi Electronics Co filed Critical Omron Tateisi Electronics Co
Priority to JP11995087A priority Critical patent/JPS63284687A/en
Publication of JPS63284687A publication Critical patent/JPS63284687A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To obtain the titled processor which surely extracts a feature pattern without requiring an unnecessary time for window setting, by labeling each extracted feature pattern by using the attribute of the feature pattern as a key. CONSTITUTION:Before the processing of a image to be processed, the image of a standard model is picked up and plural feature patterns of this image are obtained and one or more attributes are generated for each feature pattern and are preliminarily stored in an attribute storage part 5. Thereafter, a plural feature patterns are obtained in a CPU 1 with respect to the image to be processed generated by an image pickup device 8 and attributes of respective feature patterns are generated in the CPU 1. The CPU 1 collates attributes of respective feature patterns of the image to be processed with those of the standard label to label each feature pattern of the image to be processed.

Description

【発明の詳細な説明】 〈産業上の利用分野〉 この発明は、産業ロボット等における視覚認識技術に関
連し、殊にこの発明は、例えば被処理画像の端点や屈曲
点のように、その画像の特徴を構成する点や線等(これ
らを1特徴パターン」という)を抽出して、各特徴パタ
ーンをラベル付けするための画像処理装置に関する。
DETAILED DESCRIPTION OF THE INVENTION <Industrial Application Field> The present invention relates to visual recognition technology in industrial robots and the like. The present invention relates to an image processing apparatus for extracting points, lines, etc. (these are referred to as "one feature pattern") constituting the features of a computer, and labeling each feature pattern.

〈従来の技術〉 従来この種画像処理装置として、第17図(1)に示す
如く、被処理画像50上に所定の大きさをもつ複数個の
ウィンドウ51〜53を設定して、各ウィンドウ51〜
53より例えば被処理画像50の屈曲点を特徴パターン
50A〜50Cとして抽出している。この場合に通常1
個のうイントウに1個の特徴パターンを対応させている
ため、被処理画像50より抽出された各特徴パターンが
いずれのウィンドウ51〜53より抽出されたかによっ
て、その特徴パターンを特定することが可能であり、特
別なラベル付は処理は全く必要としない。
<Prior Art> Conventionally, as shown in FIG. 17(1), in this type of image processing apparatus, a plurality of windows 51 to 53 having a predetermined size are set on an image to be processed 50, and each window 51 is ~
53, for example, bending points of the image to be processed 50 are extracted as characteristic patterns 50A to 50C. In this case, usually 1
Since one feature pattern corresponds to each window, it is possible to identify each feature pattern extracted from the image to be processed 50 depending on which window 51 to 53 the feature pattern was extracted from. , and no special labeling or processing is required.

〈発明が解決しようとする問題点〉 ところが被処理画像より多数個の特徴パターンを抽出す
るような場合は、特徴パターンの数に応じた数のウィン
ドウを設定することが必要となるため、ウィンドウ設定
に時間がかかるという問題がある。
<Problem to be solved by the invention> However, when extracting a large number of feature patterns from an image to be processed, it is necessary to set a number of windows corresponding to the number of feature patterns, so the window settings The problem is that it takes time.

またウィンドウの数を増加させると、その分各ウィンド
ウの大きさを小さく設定する必要があるが、第17図(
2)のように、被処理画像50の所定位置に対する位置
ずれ量ΔSが僅かであれば問題ないが、もし第17図(
3)のように、その位置ずれ量ΔSが大きくなると、各
特徴パターン50A〜50Cがそれぞれウィンドウ51
〜53の外側へはみ出て、特徴パターン50A〜50C
の抽出が困難となる。
Also, if the number of windows increases, the size of each window must be set smaller accordingly, but as shown in Figure 17 (
2), there is no problem if the amount of positional deviation ΔS from the predetermined position of the image to be processed 50 is small, but if
As shown in 3), when the positional deviation amount ΔS becomes large, each of the characteristic patterns 50A to 50C moves to the window 51.
Characteristic patterns 50A to 50C protrude outside of ~53
It becomes difficult to extract.

この発明は、上記問題に着目してなされたものであって
、各特徴パターンの属性を手掛りとして、抽出した各特
徴パターンのラベル付けを可能とすることによって、ウ
ィンドウ設定のための余計な時間を必要とせず、特徴パ
ターンを確実に抽出できる新規な画像処理装置を提供す
ることを目的とする。
This invention was made with attention to the above problem, and by making it possible to label each extracted feature pattern using the attributes of each feature pattern as clues, unnecessary time for setting windows can be saved. It is an object of the present invention to provide a novel image processing device that can reliably extract feature patterns without the need for a feature pattern.

〈問題点を解決するための手段〉 上記目的を達成するため、この発明の画像処理装置では
、被処理画像を生成する画像生成手段と、被処理画像よ
りその画像の特徴を構成する複数個の特徴パターンを抽
出するための特徴パターン抽出手段と、被処理画像の各
特徴パターンにつき1以上の属性を生成するための属性
生成手段と、標準モデルの各特徴パターンにつき1以上
の属性を予め記憶しておくための属性記憶手段と、前記
属性生成手段で生成された被処理画像についての各特徴
パターンの属性と前記属性記憶手段に記憶された標準モ
デルについての各特徴パターンの属性とを照合して、被
処理画像の各特徴パターンをラベル付けする属性照合手
段とを具備させることにした。
<Means for Solving the Problems> In order to achieve the above object, the image processing apparatus of the present invention includes an image generation means for generating an image to be processed, and a plurality of image generating means constituting the characteristics of the image from the image to be processed. Feature pattern extraction means for extracting feature patterns; attribute generation means for producing one or more attributes for each feature pattern of the image to be processed; and one or more attributes for each feature pattern of the standard model are stored in advance. an attribute storage means for storing the image, and an attribute of each feature pattern for the processed image generated by the attribute generation means and an attribute of each feature pattern for the standard model stored in the attribute storage means. , and attribute matching means for labeling each feature pattern of the image to be processed.

〈作用〉 被処理画像の処理に先立ち、標準モデルを撮像してその
画像の特徴パターンを複数個求め、各特徴パターンにつ
き1以上の属性を生成して属性記憶手段に予め記憶して
おく。
<Operation> Prior to processing the image to be processed, a standard model is imaged, a plurality of characteristic patterns of the image are obtained, and one or more attributes are generated for each characteristic pattern and stored in advance in the attribute storage means.

しかる後に画像生成手段で生成した被処理画像につき複
数個の特徴パターンを特徴パターン抽出手段で求めると
共に、属性生成手段において各特徴パターンの属性を生
成する。ついで属性照合手段は、被処理画像についての
各特徴パターンの属性と標準モデルについての各特徴パ
ターンの属性とを照合して、被処理画像の各特徴パター
ンをラベル付けするものである。
After that, a plurality of characteristic patterns are obtained from the image to be processed generated by the image generation means by the characteristic pattern extraction means, and an attribute of each characteristic pattern is generated by the attribute generation means. Next, the attribute matching means compares the attributes of each feature pattern of the image to be processed with the attributes of each feature pattern of the standard model, and labels each feature pattern of the image to be processed.

この発明によれば、特徴パターンの抽出に小さなウィン
ドウを多数個設定する必要がないから、ウィンドウ設定
のための余計な時間は必要とせず、また画像の位置ずれ
により特徴パターンがウィンドウより外れて抽出困難と
なる等の虞れもない。
According to this invention, there is no need to set many small windows for extracting feature patterns, so extra time for window settings is not required, and feature patterns may be extracted outside of the window due to positional shift of the image. There is no risk that it will be difficult.

〈実施例〉 第1図は、この発明の一実施例にかかる画像処理装置の
回路構成例を示す。図示例のものはCPUIを制御主体
とし、このCPUIに対し、プログラムが格納されるR
OM2.演算用に供される第1のRAM3.画像記憶部
4としての第2のRAM、属性記憶部5としてのバッテ
リでバックアップされた第3のRAMの他、CRTより
成る表示部6やキーボードより成る操作部7が、それぞ
れ接続されている。前記画像記憶部4にはインターフェ
イス回路9を介して撮像装置8が接続され、この撮像装
置8で生成された画像が画像記憶部4に格納される。こ
の実施例の場合、図示しない投光装置で板状のスリット
光を物体に照射し、その物体表面に形成されたスリット
光の交わり線を撮像装置8で撮像して、被処理画像とし
てのスリット像を得ている。
<Embodiment> FIG. 1 shows an example of a circuit configuration of an image processing apparatus according to an embodiment of the present invention. In the illustrated example, the CPU is the main control body, and the CPU is connected to the R
OM2. A first RAM 3 used for calculations. In addition to a second RAM as the image storage section 4 and a third RAM backed up by a battery as the attribute storage section 5, a display section 6 consisting of a CRT and an operation section 7 consisting of a keyboard are connected. An imaging device 8 is connected to the image storage section 4 via an interface circuit 9, and images generated by this imaging device 8 are stored in the image storage section 4. In the case of this embodiment, a plate-shaped slit light is irradiated onto the object using a light projection device (not shown), and the intersection line of the slit light formed on the surface of the object is imaged by the imaging device 8, and the slit is used as an image to be processed. I'm getting a statue.

第2図は、そのスリット像のセグメント21〜23を示
すもので、前記投光装置の向きを適宜選ぶことによりこ
のスリット像はほぼ水平状態になる。このスリット像の
各セグメント21〜23には特徴パターンとして抽出ず
べき端点PA−P、と屈曲点QAとを含んでおり、これ
ら各点はひとつの大きなウィンドウ24内で抽出される
。なお同図には従来の特徴パターン抽出方式における小
面積のウィンドウ25〜29が併せて示してあり、さら
に第2図(2)には各スリット像が僅かに位置ずれした
状態が、また第2図(3)には各スリット像が大きく位
置ずれした状態が、それぞれ示されている。従来方式の
場合、各端点PA−P、や屈曲点QAは僅かな位置ずれ
に対しては対応する各ウィンドウ25〜29内に位置す
るが、大きな位置ずれに対しては各ウィンドウ25〜2
9よりはみ出ているのがわかる。これに対し大きなウィ
ンドウ24を用いれば、大小いずれの位置ずれに対しも
各端点PA〜PDや屈曲点Q、はウィンドウ24よりは
み出ることはなく、特徴パターンの抽出に何等の支障も
生じない。
FIG. 2 shows the segments 21 to 23 of the slit image, and by appropriately selecting the direction of the light projecting device, the slit image becomes approximately horizontal. Each segment 21 to 23 of this slit image includes end points PA-P and bending points QA to be extracted as a feature pattern, and each of these points is extracted within one large window 24. The same figure also shows the small-area windows 25 to 29 in the conventional feature pattern extraction method, and FIG. 2 (2) shows a state in which each slit image is slightly shifted, and FIG. 3(3) shows a state in which each slit image is largely misaligned. In the case of the conventional method, each end point PA-P or bending point QA is located within the corresponding window 25 to 29 for a slight positional deviation, but for a large positional deviation, each end point PA-P or bending point QA is located within the corresponding window 25 to 29.
You can see that it sticks out from 9. On the other hand, if a large window 24 is used, the end points PA to PD and the bending point Q will not protrude beyond the window 24 regardless of the size of the positional shift, and no problem will occur in extracting the characteristic pattern.

第1図に戻って、属性記憶部5は標準モデルについての
各特徴パターン(この実施例では端点および屈曲点)の
属性を示すデータ、すなわち標準モデルに板状のスリッ
ト光を照射することにより得たスリット像の各特徴パタ
ーンにつき、それが画像領域のどのあたりに位置するの
か、各特徴パターンは3次元空間のどの高さ位置に存在
するのか、各特徴パターンは端点であるのか屈曲点であ
るのか、各特徴パターンは所定の画像領域において何番
目のものなのか、各特徴パターンはどのセグメントのも
のなのか等を示すデータを格納する。
Returning to FIG. 1, the attribute storage unit 5 stores data indicating the attributes of each characteristic pattern (end points and bending points in this embodiment) for the standard model, that is, data obtained by irradiating the standard model with plate-shaped slit light. For each feature pattern of the slit image, where in the image area is it located? At what height in three-dimensional space is each feature pattern? Is each feature pattern an end point or an inflection point? , the number of each feature pattern in a predetermined image area, and which segment each feature pattern belongs to are stored.

CPUIは、ROM2のプログラムを解読実行し、RA
M3.画像記憶部4.属性記憶部5に対するデータの読
み書きを行いつつ必要な演算や処理を実行するもので、
この場合のcpulは被処理画像につき所定の特徴パタ
ーンを抽出する機能、各特徴パターンにつきその属性を
生成する機能、被処理画像についての各特徴パターンの
属性と前記属性記憶部5に記憶された標準モデルについ
ての各特徴パターンの属性トを照合して、被処理画像の
各特徴パターンをラベル付けする機能等の各機能を具備
している。
The CPU decodes and executes the program in ROM2, and
M3. Image storage unit 4. It executes necessary calculations and processing while reading and writing data to the attribute storage unit 5.
In this case, cpul is a function for extracting a predetermined feature pattern from an image to be processed, a function for generating an attribute for each feature pattern, and a function for storing attributes of each feature pattern for an image to be processed and a standard stored in the attribute storage unit 5. It has various functions such as a function of collating the attributes of each characteristic pattern of the model and labeling each characteristic pattern of the image to be processed.

なお特徴パターンの抽出や属性の照合およびラベル付け
は、上記実施例の如くプログラムによるソフト処理で実
行する他、第3図に示す如く、特徴パターン抽出部10
や属性照合部11のような専用回路を設けてこれをハー
ド化してもよい。
Note that extraction of feature patterns, collation of attributes, and labeling are performed by software processing using a program as in the above embodiment, and also by the feature pattern extraction unit 10 as shown in FIG.
Alternatively, a dedicated circuit such as the attribute matching section 11 may be provided to make this hardware.

また第1図および第3図の各実施例では、属性記憶部5
に対して特徴パターンの属性データを設定するのに、操
作部7を操作し表示部6で設定内容を確認しつつ行うが
、前記属性記憶部5として例えばROMを用いて予め特
定の属性データを固定しておく場合には、第4図に示す
如く、前記実施例の操作部7や表示部6に相当する構成
は不要となる。
Furthermore, in each of the embodiments shown in FIGS. 1 and 3, the attribute storage unit 5
To set the attribute data of the characteristic pattern for the object, the operator operates the operation unit 7 and confirms the setting contents on the display unit 6. However, it is possible to set the attribute data of the characteristic pattern in advance by using a ROM as the attribute storage unit 5, for example. If it is fixed, as shown in FIG. 4, the configuration corresponding to the operation section 7 and display section 6 of the embodiment described above becomes unnecessary.

第5図は、属性記憶部5に対する属性データの設定手順
を示している。同図のスタート時点で標準モデルに板状
のスリット光を照射して、その表面にスリット光の交わ
り線を形成する。
FIG. 5 shows a procedure for setting attribute data in the attribute storage section 5. As shown in FIG. At the start point in the figure, a standard model is irradiated with a plate-shaped slit light to form an intersection line of the slit lights on its surface.

この交わり線は、ステップ1 (図中rsT 1 jで
示す)で撮像装置8により撮像され、そのスリット画像
が画像記憶部4に格納される。
This intersection line is imaged by the imaging device 8 in step 1 (indicated by rsT 1 j in the figure), and the slit image is stored in the image storage unit 4.

つぎのステップ2は、このスリット画像に対し着目領域
を区画するかどうかを判断しており、その判定が“YE
S”のときは、ステップ3で操作部7により領域を区画
するためのデータ入力を行うが、もしその判定が“NO
”のときは、画像の全体をひとつの着目領域と定めるこ
とになる(ステップ4)。この実施例では、第6図に示
す如く、IJ座標平面上の画像領域30内にarl〜a
r4で示す複数の着目領域を区画設定しており、つぎの
ステップ3ではまず第1番目の着目領域arlの区画デ
ータを入力している。
In the next step 2, it is determined whether or not to partition the region of interest for this slit image, and the determination is "YES".
If the result is ``S'', data for partitioning the area is input using the operation unit 7 in step 3, but if the determination is ``NO''.
”, the entire image is defined as one region of interest (step 4). In this embodiment, as shown in FIG.
A plurality of regions of interest are defined as r4, and in the next step 3, the section data of the first region of interest arl is input.

つぎにステップ5において、CPUIは最初の着目領域
arl内のスリット画像につき特徴バターン(この実施
例では端点および屈曲点)の抽出を行う。
Next, in step 5, the CPUI extracts feature patterns (end points and bending points in this embodiment) for the slit image in the first region of interest arl.

第7図および第8図は、端点の抽出方法を、また第9図
および第10図は屈曲点の抽出方法を、それぞれ示して
いる。
7 and 8 show a method for extracting end points, and FIGS. 9 and 10 show a method for extracting bending points, respectively.

第7図において、ar(i)はi番目の着目領域であり
、この着目領域ar(i)内に画像追跡用の小型ウィン
ドウ31を設定して、これを図中矢印の方向へ移行させ
る。これにより着目領域ar(i)内のスリット画像3
2の追跡が行われ、このウィンドウ31内の明るさが所
定のしきい値以下となる直前の画素位置をスリット画像
32の端点Pとして抽出する。なおこの場合に追跡開始
点34.追跡の方向、明るさのしきい値などは外部より
与えられるが、追跡開始点34は画像を一定方向に走査
することにより求めてもよい。
In FIG. 7, ar(i) is the i-th region of interest, and a small window 31 for image tracking is set within this region of interest ar(i) and moved in the direction of the arrow in the figure. As a result, the slit image 3 in the region of interest ar(i)
2 is performed, and the pixel position immediately before the brightness within this window 31 becomes equal to or less than a predetermined threshold value is extracted as the end point P of the slit image 32. In this case, the tracking starting point 34. Although the tracking direction, brightness threshold, etc. are given from the outside, the tracking starting point 34 may be determined by scanning the image in a fixed direction.

いま追跡用のウィンドウ31の左下点の座標を(+w、
 jw)、ウィンドウ31の1方向およびJ方向の各軸
をdi、dj、9イントウ31内の明るさの総和をsg
i とすると、このウィンドウ31はつぎの0式を満足
するとき、端点Pの外側位置(第8図中、Soで示す位
置)に位置すると判断し、つぎの0式を満足するとき、
端点Pの内側位置(第8図中、S、で示す位置)に位置
すると判断する。
Now, the coordinates of the lower left point of the tracking window 31 are (+w,
jw), each axis of the window 31 in one direction and the J direction is di, dj, and the sum of the brightness within the 9-into 31 is sg.
i, this window 31 is determined to be located at a position outside the end point P (the position indicated by So in FIG. 8) when the following equation 0 is satisfied, and when the following equation 0 is satisfied,
It is determined that the position is located inside the end point P (the position indicated by S in FIG. 8).

なお00式中、th、は明るさのしきい値である。Note that in formula 00, th is a brightness threshold.

その結果、もしウィンドウ31が81位置にあると判断
した場合、追跡方向が正方向のときはつぎの■■式によ
り、また追跡方向が負方向のときは00式により、それ
ぞれ次のウィンドウ位置(iヮ ′、jい ′)を設定
する。
As a result, if it is determined that the window 31 is at the 81st position, the next window position (i Set ヮ ′, ji ′).

なお上式中、5g1jはウィンドウ31内の明るさとJ
座標値との積和であり、5kipはウィンドウ31の1
ステツプ移動距離である。
In the above equation, 5g1j is the brightness inside the window 31 and J
It is the sum of products with the coordinate value, and 5kip is 1 of the window 31.
This is the step movement distance.

またもしウィンドウ31がS。位置にあると判断した場
合、追跡方向が正方向のときには、直前の81位置から
現在のS。位置までの間に2個のペアウィンドウ35.
36を設定して、1画素ずつ移動させる。このとき各画
素位置で両ウィンドウ35.36内の明るさを求めてゆ
き、一方のウィンドウ35内の明るさから他方のウィン
ドウ36内の明るさを差し引いた値が最大となる位置(
Iw、  Iw)を端点Pの位置とする。追跡方向が負
方向のときは、ペアウィンドウ35.36の移動方向が
逆となり、同様の演算を行って端点位置を求めることに
なる。
Again, window 31 is S. When it is determined that the tracking direction is in the forward direction, the current S is moved from the previous position 81. Two paired windows 35.
36 and move it one pixel at a time. At this time, the brightness within both windows 35 and 36 is determined at each pixel position, and the position where the value obtained by subtracting the brightness within one window 35 from the brightness within the other window 36 is maximum (
Let Iw, Iw) be the position of the end point P. When the tracking direction is in the negative direction, the moving directions of the pair windows 35 and 36 are reversed, and similar calculations are performed to find the end point positions.

つぎに屈曲点を抽出するには、第9図に示す如く、前記
と同様に着目領域ar(i)内に画像追跡用の小型ウィ
ンドウ31を設定し、これを図中矢印の方向に動かすこ
とにより、着目領域ar(i)内の画像32を追跡する
。この場合にウィンドウ31の各移動位置で、ウィンド
ウ31内の画像32の中心点38を算出し、着目する中
心点をはさむ両側の中心点とのJ座標値の変位量の差が
、しきい値以上となったときに、屈曲点Qの抽出を行う
ものである。
Next, to extract the bending point, as shown in FIG. 9, set a small window 31 for image tracking within the region of interest ar(i) in the same way as above, and move it in the direction of the arrow in the figure. Accordingly, the image 32 within the region of interest ar(i) is tracked. In this case, at each movement position of the window 31, the center point 38 of the image 32 within the window 31 is calculated, and the difference in displacement of the J coordinate value with the center points on both sides of the center point of interest is determined as the threshold value. When the above conditions occur, the bending point Q is extracted.

いま追跡用ウィンドウ31の左下点の座標を(tt、l
、jw)、ウィンドウ31の正方向およびJ方向の各軸
をd++dJ 、ウィンドウ31内の明るさの総和をs
gi、ウィンドウ31内の明るさとJ座標値との積和を
sgi jとすると、追跡方向が正方向の場合では次の
ウィンドウ位置(jw  ’。
Now, the coordinates of the lower left point of the tracking window 31 are (tt, l
, jw), each axis of the window 31 in the positive direction and the J direction is d++dJ, and the total brightness within the window 31 is s
gi, the sum of products of the brightness in the window 31 and the J coordinate value is sgi j, and when the tracking direction is the positive direction, the next window position (jw'.

jw  ′)はつぎの■■弐によって求める。jw ′) is obtained by the following ■■2.

なお上式中、5kipはウィンドウ31の1ステツプ移
動距離である。
In the above equation, 5 kip is the distance that the window 31 moves in one step.

この追跡は、ウィンドウ31の位置Nw  ’。This tracking shows the position Nw' of the window 31.

jw’)が着目領域arci)の外側に出るか、或いは
端点に衝突するまで行うもので、これにより中心点につ
いてのI座標データ系列1c(k)(ただしk −0,
1,・・・+、  n c−+ )およびJ座標データ
系列jc(k)を得る。なおnCは中心点の抽出数であ
る。
jw') goes outside the region of interest arci) or collides with an end point, and as a result, the I coordinate data series 1c(k) (k - 0,
1,...+, n c-+ ) and a J coordinate data series jc(k) are obtained. Note that nC is the number of central points extracted.

いまに番目の中心点における屈曲度β(k)をつぎの0
式によって定義する(ただしO<k<’Hc−,)。
The degree of curvature β(k) at the center point is now 0
Defined by the formula (O<k<'Hc-,).

1 (k) −abs(2Jc (k)  jc (k
−1)−jc (k+1)  )  ・・・・■なお上
式中absは絶対値を示す。
1 (k) −abs(2Jc (k) jc (k
-1)-jc (k+1)) ...■ In the above formula, abs indicates an absolute value.

この0式の演算を実行した結果、! (k)>th2 
 (ただしth2はしきい値)を満足するときは、その
に番目の中心点をm番目の屈曲部分lβ 〔m〕とする
。ただしm=o、1.・・・・・・。
As a result of executing this 0 expression calculation, ! (k)>th2
(However, when th2 is a threshold value), the second center point is set as the mth bent portion lβ [m]. However, m=o, 1. .......

nn−1であり、このn7!は屈曲部分の個数を示して
いる。
nn-1, and this n7! indicates the number of bent parts.

第10図は0番目から12番目の中心点における屈曲度
N [klを求めた結果、3番目、5番目、9番目の各
中心点位置に屈曲部分が存在すると判断されたものであ
る。
FIG. 10 shows that as a result of calculating the degree of curvature N [kl at the 0th to 12th center points, it was determined that bent portions exist at each of the 3rd, 5th, and 9th center points.

つぎにm番目の屈曲部分βjl!(m)に対応する屈曲
点Qの座標を求めるには、まずm−1番目の屈曲部分(
11cm−1)の中心点データからm番目の屈曲部分β
A(m)の中心点データに対して最小2乗法によって直
線を当てはめて、つぎの直線方程式で示す直線L1を得
る。
Next, the m-th bending portion βjl! To find the coordinates of the bending point Q corresponding to (m), first the m-1th bending part (
m-th bending portion β from the center point data of 11cm-1)
A straight line is applied to the center point data of A(m) by the least squares method to obtain a straight line L1 shown by the following linear equation.

al ・I +bl ・J +cl= O・−−−(m
上式中、al、 bl、 clはこの直線方程式のパラ
メータである。
al ・I +bl ・J +cl= O・---(m
In the above formula, al, bl, and cl are parameters of this linear equation.

つぎにm番目の屈曲部分β/(m)の中心点データから
m+1番目の屈曲部分7!A[m+1)の中心点データ
に対して最小2乗法によって直線を当てはめると、a2
. b2. c2をパラメータとする次式で表される直
線L2を得る。
Next, from the center point data of the m-th bending part β/(m), m+1-th bending part 7! When a straight line is applied to the center point data of A[m+1) by the least squares method, a2
.. b2. A straight line L2 expressed by the following equation with c2 as a parameter is obtained.

a2 ・I 十b2 ・J +c2= O−−−・■か
くしてm番目の屈曲部分lβ[m)における屈曲点の座
標(iβ (m)、jβ 〔m〕)は、上記の2直線L
I、 L2の交点として求めることになる。
a2 ・I b2 ・J +c2= O----・■Thus, the coordinates (iβ (m), jβ [m]) of the bending point at the m-th bending portion lβ[m] are the above two straight lines L
It is found as the intersection of I and L2.

なお上記の最小2乗法の適用に際し、m−1番目の屈曲
部分βN(m−1)が存在しない場合には、画像32の
追跡開始点の座標データを用いるものとし、またn1+
1番目の屈曲部分子fj!(m+l)が存在しない場合
には、画像32の追跡終了点の座標データを用いるもの
とする。
In addition, when applying the above least squares method, if the m-1th bent portion βN (m-1) does not exist, the coordinate data of the tracking start point of the image 32 is used, and n1+
1st bending part molecule fj! If (m+l) does not exist, the coordinate data of the tracking end point of image 32 is used.

第5図に戻って、CPUIはステップ5で上記の特徴パ
ターン抽出方法を実施することにより、最初の着目領域
ar(i)内の画像につき特徴パターンとしての端点お
よび屈曲点を抽出する。ここで抽出された各特徴パター
ンは、つぎのステップ6で表示部6に表示される。つぎ
にステップ7で操作部7の操作によりいずれか特徴パタ
ーンを選択すると、その特徴パターンのいくつかの属性
が生成されて、それらが属性記憶部5に格納される。
Returning to FIG. 5, in step 5, the CPUI extracts end points and bending points as feature patterns for the image in the first region of interest ar(i) by implementing the feature pattern extraction method described above. Each feature pattern extracted here is displayed on the display unit 6 in the next step 6. Next, in step 7, when any characteristic pattern is selected by operating the operating section 7, several attributes of that characteristic pattern are generated and stored in the attribute storage section 5.

第6図は、画像領域30に設定された4個の着目領域a
rl〜ar4を示すもので、特徴パターンがこれら着目
領域のうち、いずれの着目領域に含まれるのかを特徴パ
ターンの属性のひとつとする。そのために着目領域の番
号arを属性デtl −タとするが、もしそのデータ値が負であるときは、領
域指定はないものとみなす。
FIG. 6 shows four areas of interest a set in the image area 30.
rl to ar4, and one of the attributes of the feature pattern is which region of interest the feature pattern is included in among these regions of interest. For this purpose, the number ar of the region of interest is used as the attribute data, but if the data value is negative, it is assumed that there is no region specification.

第11図は、特徴パターン40の3次元空間における高
さphを示しており、この高さphはカメラモデル、ス
リット光、像点座標を用いて立体視することで得られる
。この高さphは、撮像対象が安定姿勢にある限り一定
であるから、特徴パターンの属性のひとつとするが、も
しそのデータ値が負であるときは、高さ指定はないとみ
なす。
FIG. 11 shows the height ph of the feature pattern 40 in three-dimensional space, and this height ph can be obtained by stereoscopic viewing using a camera model, slit light, and image point coordinates. This height ph is constant as long as the object to be imaged is in a stable posture, so it is treated as one of the attributes of the characteristic pattern, but if the data value is negative, it is assumed that there is no height specification.

第12図は、特徴パターンの種類psについての属性デ
ータのフォーマットを示しており、これには特徴パター
ンが端点であるか屈曲点であるか、端点てあれば左端点
か右端点か、屈曲点であればその型番は何かなどを示す
情報が含まれている。ここで屈曲点の型番とは、屈曲点
の形状やその屈曲度合に応じてクラス分けを行って番号
設定したものであり、第13図にその一例が示しである
。第13図中、aLbLa2.b2は前記直線方程式の
パラメータである。なお種類psが0のときは、種類指
定はないものとみなす。
Figure 12 shows the format of attribute data for the feature pattern type ps, including whether the feature pattern is an end point or an inflection point, if there is an end point, whether it is a left end point or a right end point, and the inflection point. If so, information such as what the model number is is included. Here, the model number of the bending point is a number set by classifying the bending point according to its shape and degree of bending, and an example thereof is shown in FIG. In FIG. 13, aLbLa2. b2 is a parameter of the linear equation. Note that when the type ps is 0, it is assumed that there is no type specification.

第14図は、前記着目領域ar(i)における特徴パタ
ーン40の順序を示しており、各特徴パターン40の■
座標データが小さい順に属性データとしての順序数pp
が与えられる。なおここでも順序数ppが負のときは、
順序数指定はないものとみなす。
FIG. 14 shows the order of the feature patterns 40 in the region of interest ar(i).
Ordinal number pp as attribute data in descending order of coordinate data
is given. Note that here too, when the ordinal number pp is negative,
It is assumed that there is no ordinal specification.

第15図は、0〜mp−1のラベルが割り当てられてい
る各特徴パターンについての属性データの構造を示して
おり、例えばiのラベルが付与された特徴パターンは着
目領域がar(i)、3次元空間における高さがph[
i)、特徴パターンの種類がpSC1〕、着目領域の順
序数がppC1〕、セグメント番号がpi(i)の各属
性データとなっている。なおここでセグメント番号とは
、特徴パターンはスリット像の何番目のセグメントのも
のなのかを示しており、もしこの値が負のときは、この
番号指定はないものとみなす。
FIG. 15 shows the structure of attribute data for each feature pattern to which labels from 0 to mp-1 are assigned. For example, for a feature pattern assigned a label of i, the region of interest is ar(i), The height in three-dimensional space is ph[
i), the type of feature pattern is pSC1], the ordinal number of the region of interest is ppC1], and the segment number is pi(i). Note that the segment number here indicates which segment of the slit image the feature pattern belongs to, and if this value is negative, it is assumed that this number is not specified.

第5図に戻って、ステップ9でひとつの特徴パターンに
ついての上記の各属性データが生成されて属性記憶部5
に格納されると、つぎの特徴パターンが選択されて同様
の属性データの生成手順が実行される。そして最初の着
目領域における全ての特徴パターンにつき属性データの
生成が終了すると、ステップ10の判定が“YES”と
なってステップ11へ進む。このステップ11は、別の
着目領域を設定するかどうかを判定しており、その判定
が“YES”のときはステップ2へ戻り、新たな着目領
域を指定して、同様に特徴パターンの抽出や各特徴パタ
ーンの属性の生成を順次実行することになる。
Returning to FIG. 5, in step 9, each of the above attribute data for one feature pattern is generated and stored in the attribute storage unit 5.
, the next feature pattern is selected and a similar attribute data generation procedure is executed. When the generation of attribute data for all feature patterns in the first region of interest is completed, the determination in step 10 becomes "YES" and the process proceeds to step 11. In this step 11, it is determined whether or not to set another region of interest. If the determination is "YES", return to step 2, specify a new region of interest, and extract the feature pattern in the same way. Attributes for each feature pattern are generated sequentially.

第16図は被処理画像の処理手順を示している。同図の
スタート時点で撮像対象に板状のスリット光を照射して
、その表面にスリット光の交わり線を形成すると、この
交わり線は、ステップ21で撮像装置8により撮像され
、そのスリット画像が画像記憶部4に格納される。
FIG. 16 shows the processing procedure for the image to be processed. At the start point in the figure, when a plate-shaped slit light beam is irradiated onto the imaging target to form an intersection line of the slit lights on its surface, this intersection line is imaged by the imaging device 8 in step 21, and the slit image is The image is stored in the image storage unit 4.

つぎのステップ22は、このスリット画像に対し着目領
域の設定があるかどうかを判断しており、その判定が“
YES”のとき、ステップ23で操作部7によりいずれ
か着目領域の設定を行うが、もしその判定が“NO′の
ときは、画像の全体をひとつの着目領域と定めることに
なる(ステップ24)。この実施例では、前述のとおり
、複数の着目領域arl〜ar4が区画設定されるから
、ステップ22が“YES”であり、ステップ23で、
まず第1番目の着目領域arlの設定が行われることに
なる。
In the next step 22, it is determined whether or not a region of interest has been set for this slit image, and the determination is "
If the answer is "YES", one of the regions of interest is set using the operation unit 7 in step 23, but if the determination is "NO", the entire image is determined as one region of interest (step 24). . In this embodiment, as described above, a plurality of regions of interest arl to ar4 are sectioned, so step 22 is "YES", and step 23 is
First, the first region of interest arl is set.

つぎにステップ25でCPUIは着目領域arl内の画
像につき特徴パターンとしての端点および屈曲点の抽出
を前記と同様の方法で実行した後、ステップ26で各特
徴パターンにつき前記属性データ、すなわち着目領域、
3次元空間における高さ、特徴パターンの種類、着目領
域の順序数、セグメント番号の各属性データを生成する
Next, in step 25, the CPU extracts end points and bending points as feature patterns from the image in the region of interest arl in the same manner as described above, and then in step 26, extracts the attribute data for each feature pattern, that is, the region of interest,
Attribute data such as the height in the three-dimensional space, the type of feature pattern, the ordinal number of the region of interest, and the segment number are generated.

つぎにCPUIはステップ27において、各特徴パター
ンのこれら属性データと前記属性記憶部5に記憶された
標準モデルについての各特徴パターンの属性データとを
照合して、各特徴パターンに対してラベル付けを行う。
Next, in step 27, the CPUI compares these attribute data of each feature pattern with the attribute data of each feature pattern for the standard model stored in the attribute storage section 5, and labels each feature pattern. conduct.

いまステップ26で生成されたある特徴パターンの属性
データを、着目領域がar’、3次元空間における高さ
がph′、特徴パターンの種類がps’、着目領域の順
序数がpp’、セグメント番号がp1′であるとすると
、この特徴パターンに対し標準モデルの特徴パターンの
ラベルiを与えるか否かは、つぎの0式の関数v (i
)の値が11」か「0」かにより決定される。すなわち
v (i) −1のときはうベルiはその特徴パターン
のラベル候補であると判断し、v (i)−〇のときは
ラベルiはその特徴パターンのラベル候補ではないと判
断するのである。
Now, attribute data of a certain feature pattern generated in step 26 is defined as: the region of interest is ar', the height in three-dimensional space is ph', the type of feature pattern is ps', the ordinal number of the region of interest is pp', and the segment number. is p1', whether or not to give the standard model feature pattern label i to this feature pattern is determined by the function v (i
) is determined by whether the value is 11 or 0. In other words, when v (i) - 1, it is determined that the label i is a label candidate for that feature pattern, and when v (i) - 0, it is determined that label i is not a label candidate for that feature pattern. be.

v (i) =v、、、(ar’、 ar (t) )
 &&Vh  (ph’ 、 ph (i) ) &&
Vs (ps’、ps (i))&& Vp(pp’、 pp (il ) &&VL  (p
l’ 、 pi (i) ) 1.・・@なお上式中、
vllr+  vh +  v、 +  vll + 
 ”Lは、着目領域、3次元空間における高さ、特徴パ
ターンの種類2着目領域の順序数、セグメント番号の各
属性につき標準モデルのものと比較する論理関数を示し
、また&&はその論理積を示している。
v (i) = v, , (ar', ar (t) )
&&Vh (ph', ph (i)) &&
Vs (ps', ps (i)) && Vp (pp', pp (il) && VL (p
l', pi (i)) 1.・・・ @ During the above ceremony,
vllr + vh + v, + vll +
``L indicates a logical function to be compared with that of the standard model for each attribute of the region of interest, height in three-dimensional space, type of feature pattern, ordinal number of the second region of interest, and segment number, and && is the logical product of the two. It shows.

上記の各論理関数のうち、着目領域の論理関数v、r(
ar’、ar (i))は、ar’ −ar (i)ま
たはar(i)<Qのときは「1」であり、その他は「
0」である。
Among the above logical functions, the logical functions v, r(
ar', ar (i)) is "1" when ar' - ar (i) or ar (i) < Q, otherwise "
0".

高さの論理関数Vh  (ph’、 ph (i) )
は、abs  (ph’ −ph Ci) ) <th
h  (ただしthhはしきい値である)またはphc
+)<0のときは「1」であり、その他は「0」である
Logical function of height Vh (ph', ph (i))
is abs (ph' - ph Ci) ) <th
h (where thh is the threshold) or phc
+)<0, it is "1", and otherwise it is "0".

種類の論理関数Vs (ps’、ps C1))は、p
s’−ps(i)またはps(i)=Oまたはps′・
pS(i)=1のときは「1」であり、その他は「0」
である。
The logical function Vs (ps', ps C1)) of type is p
s'-ps(i) or ps(i)=O or ps'・
When pS(i)=1, it is "1", otherwise it is "0"
It is.

順序数の論理関数Vp (pp’、pp [i))は、
pp’−ppci〕またはpp(i)<Oのときは「1
」であり、その他は「0」である。
The ordinal logical function Vp (pp', pp [i)) is
pp'-ppci] or "1" when pp(i)<O
”, and the others are “0”.

す9 セグメント番号の論理関数ML  (Ill’、Ill
〔i〕)は、pH−pl[i)またはpl(i)<0の
ときは「1」であり、その他は「0」である。
9 Logical function ML of segment number (Ill', Ill
[i]) is "1" when pH-pl[i) or pl(i)<0, and is "0" otherwise.

CPUIは、上記のような演算を実行した結果、着目す
る特徴パターンについてv (i) −1を与えるラベ
ルiが唯一のとき、この唯一のラベルをその特徴パター
ンのラベルとする。
When, as a result of performing the above calculation, there is only one label i that gives v (i) −1 for the characteristic pattern of interest, the CPUI sets this unique label as the label of the characteristic pattern.

なおこのv (i) −1を与えるラベルが存在しない
か、または複数個ある場合にはラベル付けは失敗とする
Note that if there is no label that gives this v (i) −1 or if there are multiple labels, labeling is determined to be a failure.

第16図に戻って、ステップ27〜29でひとつの特徴
パターンについてのラベル付けが完了すると、さらに他
の特徴パターンの属性データの照合およびラベル付けが
ステップ31の「照合終了か?」の判定が“YES”と
なるまで繰り返し実行される。なお属性データを照合し
た結果、一致判定が得られないときは、ステップ30で
未処理データがあるかどうかが確認されて、ステップ2
7またはステップ32へ移行する。
Returning to FIG. 16, when labeling for one feature pattern is completed in steps 27 to 29, collation and labeling of attribute data of other feature patterns is completed, and a determination as to whether "verification is complete" is made in step 31. This process is repeated until "YES" is returned. Note that if no match is found as a result of comparing the attribute data, it is checked in step 30 whether there is any unprocessed data, and step 2 is performed.
7 or proceed to step 32.

ステップ32は、全ての着目領域についての処理が完了
したかどうかを判定しており、その判定が“NO”のと
きはステップ23へ戻り、新たな着目領域を指定して、
同様に特徴パターンの抽出、各特徴パターンの属性の生
成、属性データの照合を順次実行することになる。そし
てステップ32の「全領域路わりか?」の判定が“YE
S”のとき、ステップ33へ進んで、撮像対象の認識等
のシステム制御処理が実行されて、つぎの対象の撮像に
待機することになる。
In step 32, it is determined whether the processing for all regions of interest has been completed, and if the determination is "NO", the process returns to step 23, and a new region of interest is designated.
Similarly, feature pattern extraction, attribute generation for each feature pattern, and attribute data matching are sequentially executed. Then, in step 32, the judgment of “Is the whole area covered?” is “YES”.
S'', the process advances to step 33, where system control processing such as recognition of the object to be imaged is executed, and the process waits for the next object to be imaged.

〈発明の効果〉 この発明は上記の如く、特徴パターンの抽出に小さなウ
ィンドウを多数個設定する必要がないから、ウィンドウ
設定のための余計な時間を必要としない。また画像の位
置ずれにより特徴パターンがウィンドウよりはみ出て、
抽出困難となる虞れもない等、発明目的を達成した顕著
な効果を奏する。
<Effects of the Invention> As described above, the present invention does not require setting a large number of small windows for extracting feature patterns, and thus does not require extra time for window setting. Also, due to the positional shift of the image, the feature pattern may protrude beyond the window.
There is no possibility that extraction will become difficult, and the invention has a remarkable effect of achieving the purpose of the invention.

【図面の簡単な説明】[Brief explanation of drawings]

第1図はこの発明の一実施例にかかる画像処理装置の回
路構成を示すブロック図、第2図はスリット像の各セグ
メントおよびその位置ずれ状態を示す説明図、第3図お
よび第4図はこの発明の他の実施例を示すブロック図、
第5図は属性記憶部に対する属性データの設定手順を示
すフローチャート、第6図は画像領域内に区画された複
数の着目領域を示す説明図、第7図および第8図は端点
抽出方法を示す説明図、第9図および第10図は屈曲点
抽出方法を示す説明図、第11図は特徴パターンの3次
元空間における高さを示す説明図、第12図は特徴パタ
ーンの種類についての属性データのフォーマットを示す
説明図、第13図は屈曲点の型番を示す説明図、第14
図は着目領域における特徴パターンの順序を示す説明図
、第15図はラベル付与された各特徴パターンの属性デ
ータ構造を示す説明図、第16図は被処理画像の処理手
順を示すフローチャート、第17図は従来方式における
被処理画像に設定されたウィンドウと被処理画像の位置
ずれ状態を示す説明図である。
FIG. 1 is a block diagram showing the circuit configuration of an image processing apparatus according to an embodiment of the present invention, FIG. 2 is an explanatory diagram showing each segment of a slit image and its positional deviation state, and FIGS. 3 and 4 are A block diagram showing another embodiment of this invention,
FIG. 5 is a flowchart showing the procedure for setting attribute data in the attribute storage unit, FIG. 6 is an explanatory diagram showing a plurality of regions of interest divided within an image area, and FIGS. 7 and 8 show an end point extraction method. Explanatory diagrams, Figures 9 and 10 are explanatory diagrams showing the bending point extraction method, Figure 11 is an explanatory diagram showing the height of the feature pattern in three-dimensional space, and Figure 12 is attribute data about the type of feature pattern. Figure 13 is an explanatory diagram showing the format of the bending point, Figure 14 is an explanatory diagram showing the model number of the bending point.
FIG. 15 is an explanatory diagram showing the order of feature patterns in the region of interest; FIG. 15 is an explanatory diagram showing the attribute data structure of each labeled feature pattern; FIG. The figure is an explanatory diagram showing a positional shift state between a window set for an image to be processed and the image to be processed in a conventional method.

Claims (3)

【特許請求の範囲】[Claims] (1)被処理画像を生成する画像生成手段と、被処理画
像よりその画像の特徴を構成する複数個の特徴パターン
を抽出するための特徴パターン抽出手段と、 被処理画像の各特徴パターンにつき1以上の属性を生成
するための属性生成手段と、 標準モデルの各特徴パターンにつき1以上の属性を予め
記憶しておくための属性記憶手段と、前記属性生成手段
で生成された被処理画像についての各特徴パターンの属
性と前記属性記憶手段に記憶された標準モデルについて
の各特徴パターンの属性とを照合して、被処理画像の各
特徴パターンをラベル付けする属性照合手段とを具備し
て成る画像処理装置。
(1) Image generation means for generating an image to be processed; feature pattern extraction means for extracting from the image to be processed a plurality of feature patterns constituting features of the image; and one feature pattern for each feature pattern of the image to be processed. Attribute generation means for generating the above-mentioned attributes; Attribute storage means for previously storing one or more attributes for each feature pattern of the standard model; An image comprising attribute matching means for labeling each feature pattern of the image to be processed by comparing the attributes of each feature pattern with the attributes of each feature pattern for the standard model stored in the attribute storage means. Processing equipment.
(2)前記特徴パターンは、画像の端点および屈曲点で
ある特許請求の範囲第1項記載の画像処理装置。
(2) The image processing device according to claim 1, wherein the characteristic pattern is an end point and a bending point of an image.
(3)前記属性は、各特徴パターンが位置する画像領域
や3次元空間における高さ、特徴パターンの種類や前記
画像領域内における番号、さらには特徴パターンが属す
る被処理画像の番号である特許請求の範囲第1項記載の
画像処理装置。
(3) A patent claim in which the attributes include the image area where each feature pattern is located, the height in three-dimensional space, the type of feature pattern, the number within the image area, and the number of the image to be processed to which the feature pattern belongs. The image processing device according to item 1.
JP11995087A 1987-05-15 1987-05-15 Image processor Pending JPS63284687A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11995087A JPS63284687A (en) 1987-05-15 1987-05-15 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11995087A JPS63284687A (en) 1987-05-15 1987-05-15 Image processor

Publications (1)

Publication Number Publication Date
JPS63284687A true JPS63284687A (en) 1988-11-21

Family

ID=14774200

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11995087A Pending JPS63284687A (en) 1987-05-15 1987-05-15 Image processor

Country Status (1)

Country Link
JP (1) JPS63284687A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS4959535A (en) * 1972-10-06 1974-06-10
JPS5034385A (en) * 1973-07-06 1975-04-02
JPS6279580A (en) * 1985-10-03 1987-04-11 Sumitomo Electric Ind Ltd Picture processor
JPS62133588A (en) * 1985-12-06 1987-06-16 Oki Electric Ind Co Ltd Graphic recognizing device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS4959535A (en) * 1972-10-06 1974-06-10
JPS5034385A (en) * 1973-07-06 1975-04-02
JPS6279580A (en) * 1985-10-03 1987-04-11 Sumitomo Electric Ind Ltd Picture processor
JPS62133588A (en) * 1985-12-06 1987-06-16 Oki Electric Ind Co Ltd Graphic recognizing device

Similar Documents

Publication Publication Date Title
DE69636693T2 (en) Method for interference monitoring
DE102020004960A1 (en) Changing the shape of textiles using a multi-scale patch adversative loss
CN110363817B (en) Target pose estimation method, electronic device, and medium
US7362922B2 (en) Image database apparatus and method of controlling operation of same
JP2009070314A (en) Image processor and image processing method, and program
EP1933270B1 (en) Image search method and device
US9008364B2 (en) Method for detecting a target in stereoscopic images by learning and statistical classification on the basis of a probability law
JP2000259827A (en) Method and system for recognizing physical object by using template
Ozbay et al. A hybrid method for skeleton extraction on Kinect sensor data: Combination of L1-Median and Laplacian shrinking algorithms
JP2007025902A (en) Image processor and image processing method
JP2022553990A (en) Keypoint detection method and apparatus, electronic equipment, storage medium, and computer program
JP2010039617A (en) Object tracking device and program
Cho et al. Robust facial expression recognition using a smartphone working against illumination variation
JPS63284687A (en) Image processor
CN113269008A (en) Pedestrian trajectory prediction method and device, electronic equipment and storage medium
CN112860060B (en) Image recognition method, device and storage medium
JP2002304415A (en) Image search device
Sharma et al. Applications of hand gesture recognition
JP2005182660A (en) Recognition method of character/figure
JP3680658B2 (en) Image recognition method and image recognition apparatus
JP6265370B2 (en) Object tracking method and object tracking system
Ruiz-Del-Solar et al. Robot head pose detection and gaze direction determination using local invariant features
JP3677253B2 (en) Video editing method and program
US11508083B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP2803736B2 (en) Character recognition method