JPH10269364A - Method for processing image of mobile object, its device and recording medium for recording program - Google Patents

Method for processing image of mobile object, its device and recording medium for recording program

Info

Publication number
JPH10269364A
JPH10269364A JP9088906A JP8890697A JPH10269364A JP H10269364 A JPH10269364 A JP H10269364A JP 9088906 A JP9088906 A JP 9088906A JP 8890697 A JP8890697 A JP 8890697A JP H10269364 A JPH10269364 A JP H10269364A
Authority
JP
Japan
Prior art keywords
image
moving
input
same
previous
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9088906A
Other languages
Japanese (ja)
Inventor
Yoshiharu Maruta
義晴 丸田
Atsushi Tsuboi
敦 坪井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Seiki Co Ltd
Original Assignee
Hitachi Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Seiki Co Ltd filed Critical Hitachi Seiki Co Ltd
Priority to JP9088906A priority Critical patent/JPH10269364A/en
Publication of JPH10269364A publication Critical patent/JPH10269364A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To process the image of an object in a random arrayal by preventing the output of data of the image which is discriminated to be the same object as the last time image by means of a same object discriminating processing and outputting data of the image except it. SOLUTION: A robot controller 41 judges the position and the posture of the object on a conveyor 3 by an output signal from an image processor 1 and controls a robot 4 so as to execute work. The feature value of the inputted image which is picked-up by a camera is extracted and the mobile quantity of the image corresponding to the object by the movement of the object from the input of the last time image to the input of the this time image, that is, an image mobile quantity is obtained. The image inputted this time is compared with the last time one so as to execute the same object discriminating processing for discriminating the image by the object being the same as the one corresponding to the last time image from the this time images by considering the image mobile quantity. Data of the image which is discriminated to be the same as the last time image by the discriminating processing is not outputted and data of the image except it is outputted.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、コンベア等により
一定方向に搬送されてくる対象物の画像を取り込んでそ
のデータをロボット制御装置等の外部機器に出力する移
動対象物の画像処理方法および装置に関するものであ
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing method and apparatus for a moving object which captures an image of the object conveyed in a fixed direction by a conveyor or the like and outputs the data to an external device such as a robot controller. It is about.

【0002】[0002]

【従来の技術】部品や製品等の対象物をコンベア等によ
り搬送し、ロボット等により自動的に組み立て作業や箱
詰め作業等を行う場合、ロボットの目に相当する対象物
の位置検出手段が必要となる。位置検出手段としては、
ビデオカメラ等の画像入力機器により対象物の画像を取
り込み、その画像を解析して対象物の形状、位置等のデ
ータをロボットの制御装置等に送ってロボットの制御を
行っていた。画像入力のタイミングは、画像入力機器に
対する画像入力を指令するトリガー信号によって決めら
れる。従来、トリガー信号は、対象物が画面視野内に入
ったことを光検出素子、マイクロスイッチ等により検出
して、その検出信号を利用していた。
2. Description of the Related Art When an object such as a part or a product is conveyed by a conveyor or the like and automatically assembled or packed by a robot or the like, a means for detecting the position of the object corresponding to the eyes of the robot is required. Become. As the position detecting means,
An image of an object is captured by an image input device such as a video camera, the image is analyzed, and data such as the shape and position of the object is sent to a robot controller or the like to control the robot. The timing of image input is determined by a trigger signal that commands image input to the image input device. Conventionally, as a trigger signal, the fact that an object has entered the visual field of a screen is detected by a light detection element, a microswitch, or the like, and the detection signal is used.

【0003】[0003]

【発明が解決しようとする課題】従来の画像処理装置で
は、画像入力のタイミングを指示するトリガー信号を対
象物の検出装置によって発生していたので、検出装置の
設置作業、調整作業等の熟練を要する複雑で面倒な作業
が必要であった。また、対象物の検出が確実に行えるの
は、対象物が1列にほぼ等間隔に配列されて搬送される
場合に限られ、対象物がランダムに分布し、かつ、コン
ベアの幅方向にも複数個の対象物が存在するような場合
は、それぞれの対象物に対応して画面視野内に入ったこ
とを検出する検出信号を出力することは困難である。ま
た、それぞれの検出信号と各対象物の画像とを対応付け
ることも困難である。したがって、従来の画像処理装置
により、ランダム配列の対象物の画像処理を行うことは
できなかった。
In the conventional image processing apparatus, the trigger signal for instructing the timing of image input is generated by the object detecting device. It required complicated and cumbersome work. In addition, the detection of an object can be reliably performed only when the objects are conveyed in a row at substantially equal intervals, the objects are randomly distributed, and also in the width direction of the conveyor. When there are a plurality of objects, it is difficult to output a detection signal for detecting that the object has entered the visual field of view corresponding to each object. It is also difficult to associate each detection signal with an image of each object. Therefore, it was not possible to perform image processing on a random array of objects using a conventional image processing apparatus.

【0004】そこで、本発明は、対象物の検出装置を必
要とせずに対象物の画像処理を行うことができ、ランダ
ム配列の対象物の画像処理を行うことができる移動対象
物の画像処理方法および装置を提供することを目的とす
る。
Accordingly, the present invention provides an image processing method for a moving object, which can perform image processing of an object without requiring a device for detecting the object, and can perform image processing of an object having a random arrangement. And an apparatus.

【0005】[0005]

【課題を解決するための手段】上記目的を達成するため
に、本発明の移動対象物の画像処理方法は、画面視野内
を一定方向に移動する対象物の画像を取り込んでそのデ
ータを出力する画像処理方法であって、対象物が画面視
野内を通過する時間よりも短い時間間隔で画面視野全体
の画像を入力して記憶手段に記憶し、かつ、前回入力し
た画像も記憶手段に記憶しておき、入力した画像の特徴
値を抽出し、前回の画像の入力から今回の画像の入力ま
での間に対象物が移動することによる当該対象物に対応
する画像の移動量すなわち画像移動量を求め、今回入力
した画像を前回の画像と比較して、前記画像移動量を考
慮して今回の画像の中から前回の画像に対応する対象物
と同一の対象物による画像を判別する同一対象物判別処
理を行い、前記同一対象物判別処理により前回の画像と
同一の対象物であると判別された画像のデータは出力せ
ず、それ以外の画像のデータを出力するようにしたもの
である。
In order to achieve the above object, a moving object image processing method according to the present invention captures an image of a moving object in a fixed direction within a visual field of a screen and outputs the data. An image processing method, wherein an image of the entire screen visual field is input at a time interval shorter than the time when an object passes through the screen visual field and stored in the storage means, and the previously input image is also stored in the storage means. In advance, the feature value of the input image is extracted, and the movement amount of the image corresponding to the target object due to the movement of the target object between the input of the previous image and the input of the current image, that is, the image movement amount is calculated. Calculate and compare the currently input image with the previous image, and determine the image of the same object as the object corresponding to the previous image from the current image in consideration of the image movement amount. Perform the discrimination process and Data of an image is determined to be the same object and the previous image by the object discriminating process does not output, is obtained so as to output the data of the other image.

【0006】また、上記の移動対象物の画像処理方法に
おいて、前記同一対象物判別処理としては、前回の画像
を前記画像移動量から所定量だけ減算した量だけ移動さ
せた位置を検索開始位置とし、その検索開始位置から移
動方向に存在して前記特徴値の一致する今回の画像を同
一の対象物であるとすることが可能である。
In the image processing method for a moving object, the same object discriminating process includes, as a search start position, a position obtained by moving a previous image by a predetermined amount from the image moving amount. The images present in the moving direction from the search start position and having the same characteristic value can be regarded as the same object.

【0007】また、上記の移動対象物の画像処理方法に
おいて、前記同一対象物判別処理としては、前回の画像
を前記画像移動量だけ移動させた位置から所定の範囲内
の近傍にあり前記特徴値の一致する今回の画像を同一の
対象物であるとすることが可能である。
In the above-mentioned moving object image processing method, the same object discriminating processing includes the step of moving the previous image by the image moving amount within a predetermined range. Can be determined to be the same object.

【0008】また、本発明の移動対象物の画像処理装置
は、画面視野内を一定方向に移動する対象物の画像を取
り込んでそのデータを出力する画像処理装置であって、
対象物が画面視野内を通過する時間よりも短い時間間隔
で画面視野全体の画像を入力するための画像入力信号を
発生する画像入力信号発生手段と、入力した画像を記憶
しておく画像記憶手段と、前回入力した画像を記憶して
おく前回画像記憶手段と、入力した画像の特徴値を抽出
する特徴値抽出手段と、前回の画像の入力から今回の画
像の入力までの間に対象物が移動することによる当該対
象物に対応する画像の移動量すなわち画像移動量を求め
る画像移動量取得手段と、今回入力した画像を前回の画
像と比較して、前記画像移動量を考慮して今回の画像の
中から前回の画像に対応する対象物と同一の対象物によ
る画像を判別する同一対象物判別手段と、前記同一対象
物判別手段により前回の画像と同一の対象物であると判
別された画像のデータは出力せず、それ以外の画像のデ
ータを出力する画像情報出力手段とを有する。
Further, the image processing apparatus for a moving object according to the present invention is an image processing apparatus for capturing an image of an object moving in a fixed direction within a visual field of a screen and outputting the data.
Image input signal generating means for generating an image input signal for inputting an image of the entire screen visual field at a time interval shorter than the time when the object passes through the screen visual field, and image storing means for storing the input image A previous image storage means for storing the previously input image, a feature value extracting means for extracting a feature value of the input image, and a target object between the input of the previous image and the input of the current image. Image moving amount obtaining means for obtaining the moving amount of the image corresponding to the target object by moving, that is, the image moving amount, comparing the image input this time with the previous image, and considering the image moving amount, The same object discriminating means for discriminating an image of the same object as the object corresponding to the previous image from the images, and the same object as the previous image is discriminated by the same object discriminating means. Image de Data is not output, and an image information output means for outputting the data of the other image.

【0009】また、上記の移動対象物の画像処理装置に
おいて、前記同一対象物判別手段としては、前回の画像
を前記画像移動量から所定量だけ減算した量だけ移動さ
せた位置を検索開始位置とし、その検索開始位置から移
動方向に存在して前記特徴値の一致する今回の画像を同
一の対象物であるとするものが使用できる。
In the moving object image processing apparatus, the same object discriminating means may use a position obtained by subtracting a previous image by a predetermined amount from the image moving amount as a search start position. In this case, it is possible to use an image which is present in the moving direction from the search start position and has the same feature value as the current image as the same object.

【0010】また、上記の移動対象物の画像処理装置に
おいて、前記同一対象物判別手段としては、前回の画像
を前記画像移動量だけ移動させた位置から所定の範囲内
の近傍にあり前記特徴値の一致する今回の画像を同一の
対象物であるとするものが使用できる。
In the image processing apparatus for a moving object, the same object discriminating means may be located within a predetermined range from a position at which a previous image has been moved by the image moving amount, and Can be used if the images of this time that match are the same object.

【0011】また、本発明の移動対象物の画像処理プロ
グラムを記録した記録媒体は、画面視野内を一定方向に
移動する対象物の画像を取り込んでそのデータを出力す
るためのコンピュータに、対象物が画面視野内を通過す
る時間よりも短い時間間隔で画面視野全体の画像を入力
して記憶手段に記憶する手順と、画像を記憶手段の別の
領域に記憶しておく手順と、入力した画像の特徴値を抽
出する手順と、前回の画像の入力から今回の画像の入力
までの間に対象物が移動することによる当該対象物に対
応する画像の移動量すなわち画像移動量を求める手順
と、今回入力した画像を前回の画像と比較して、前記画
像移動量を考慮して今回の画像の中から前回の画像に対
応する対象物と同一の対象物による画像を判別する同一
対象物判別処理を行う手順と、前記同一対象物判別処理
により前回の画像と同一の対象物であると判別された画
像のデータは出力せず、それ以外の画像のデータを出力
する手順とを実行させるためのプログラムを記録したも
のである。
Further, the recording medium in which the image processing program for a moving object of the present invention is recorded is provided on a computer for capturing an image of the object moving in a fixed direction within the visual field of the screen and outputting the data. A step of inputting an image of the entire screen view at a time interval shorter than a time when the image passes through the screen view and storing the image in the storage means, a procedure of storing the image in another area of the storage means, A procedure for extracting the feature value of, and a procedure for calculating the moving amount of the image corresponding to the target object due to the moving of the target object between the input of the previous image and the input of the current image, that is, the image moving amount, The same object discriminating process of comparing an image inputted this time with a previous image and discriminating an image of the same object as the object corresponding to the previous image from the current image in consideration of the image movement amount. Row A program for executing a procedure and a procedure of outputting data of other images without outputting data of an image determined to be the same target as the previous image by the same target object determination process. It is recorded.

【0012】ただし、本発明における「一致」とは、数
値の厳密な一致ではなく、誤差等を考慮した所定の範囲
内での一致を意味する。
However, the term "match" in the present invention does not mean exact matching of numerical values, but means matching within a predetermined range in consideration of errors and the like.

【0013】[0013]

【発明の実施の形態】本発明の実施の形態について図面
を参照して説明する。図1に本発明の移動対象物の画像
処理装置の構成を示す。画像処理装置1としては、いわ
ゆるパーソナルコンピュータ等の小型コンピュータが利
用できる。画像処理装置1は、種々のデータ処理を行う
情報処理手段としてのマイクロプロセッサ等のCPU1
0を備えており、CPU10にはバス11を介して主記
憶装置としてROM12およびRAM13が接続されて
いる。CPU10は、ROM12に記憶されているシス
テムプログラムおよびデータと、RAM13にロードさ
れたプログラムおよびデータに従って動作する。RAM
13にロードされたプログラムとしては、後述する画像
処理プログラム133がある。さらにRAM13には、
今回入力した画像のデータを記憶する画像メモリ131
の領域、前回入力した画像のデータを記憶する前回画像
メモリ132の領域が設定されている。
Embodiments of the present invention will be described with reference to the drawings. FIG. 1 shows a configuration of an image processing apparatus for a moving object according to the present invention. As the image processing apparatus 1, a small computer such as a so-called personal computer can be used. The image processing apparatus 1 includes a CPU 1 such as a microprocessor as information processing means for performing various data processing.
0, and a ROM 12 and a RAM 13 are connected to the CPU 10 via a bus 11 as main storage devices. The CPU 10 operates according to the system programs and data stored in the ROM 12 and the programs and data loaded in the RAM 13. RAM
The image processing program 133, which will be described later, is an example of the program loaded into the memory 13. Furthermore, the RAM 13
Image memory 131 for storing the data of the image input this time
And an area of the previous image memory 132 for storing the data of the previously input image.

【0014】また、CPU10にはバス11を介して補
助記憶装置として固定ディスク装置14が接続されてい
る。固定ディスク装置14からRAM13にCPU10
によって実行されるべきプログラム等がロードされる。
さらに、CPU10にはバス11を介して入出力装置1
5が接続されている。入出力装置15は、フレキシブル
ディスク、光磁気ディスク、CD−ROM等の外部記憶
媒体の入出力装置を含むものである。入出力装置15に
挿入された外部記憶媒体から、プログラムやデータをR
AM13や固定ディスク装置14に読み込んだり、逆に
RAM13や固定ディスク装置14内のプログラムやデ
ータを外部記憶媒体に保存したりすることができる。
A fixed disk device 14 is connected to the CPU 10 via a bus 11 as an auxiliary storage device. The CPU 10 is transferred from the fixed disk device 14 to the RAM 13.
A program to be executed is loaded.
Further, the CPU 10 is connected to the input / output device 1 via a bus 11.
5 is connected. The input / output device 15 includes an input / output device for an external storage medium such as a flexible disk, a magneto-optical disk, and a CD-ROM. From an external storage medium inserted into the input / output device 15,
The program can be read into the AM 13 or the fixed disk device 14 or, conversely, the programs or data in the RAM 13 or the fixed disk device 14 can be stored in an external storage medium.

【0015】CPU10にはバス11およびインターフ
ェース回路を介して、文字および図形を表示する表示手
段16、操作者がデータを入力するための入力手段17
が接続されている。表示手段16としてはCRT、EL
表示パネルや液晶表示板(液晶ディスプレイ)等が使用
でき、入力手段17としてはキーボード等が使用でき
る。また、バス11にはタイマ18が接続されている。
CPU10はタイマ18から時間情報を読み取って、一
定時間間隔で処理を行ったり、所定の時刻に処理を行っ
たりすることができる。
A display means 16 for displaying characters and graphics via a bus 11 and an interface circuit to the CPU 10 and an input means 17 for an operator to input data.
Is connected. CRT, EL as display means 16
A display panel, a liquid crystal display panel (liquid crystal display) or the like can be used, and a keyboard or the like can be used as the input means 17. Further, a timer 18 is connected to the bus 11.
The CPU 10 can read time information from the timer 18 and perform processing at regular time intervals or perform processing at a predetermined time.

【0016】バス11には、カメラ2に対して画像を撮
影するためのトリガー信号を発生するトリガー発生回路
19が接続されている。トリガー発生回路19は、CP
U10によって制御され、一定時間間隔でトリガー信号
を発生したり、コンベア3の移動距離によってトリガー
信号を発生したり等、任意の条件でトリガー信号を発生
できる。カメラ2はコンベア3上の移動する対象物の画
像をトリガー信号によって撮影する。撮影した画像デー
タは、CPU10によってインターフェース回路を介し
て入力され、画像メモリ131に記憶される。
The bus 11 is connected to a trigger generation circuit 19 for generating a trigger signal for capturing an image with the camera 2. The trigger generation circuit 19 has a CP
Controlled by U10, a trigger signal can be generated under arbitrary conditions, such as generating a trigger signal at fixed time intervals or generating a trigger signal according to the moving distance of the conveyor 3. The camera 2 captures an image of a moving object on the conveyor 3 by a trigger signal. The captured image data is input by the CPU 10 via an interface circuit and stored in the image memory 131.

【0017】コンベア3は、ベルトコンベア、ローラコ
ンベア等の搬送装置であり、部品、製品等の対象物を一
定方向に搬送する。コンベア3からは搬送距離を示す信
号が画像処理装置1に入力されており、CPU10はコ
ンベア3の搬送距離すなわち対象物の移動距離を知るこ
とができる。ただし、コンベア3から画像処理装置1に
搬送距離を示す信号を入力することは必須ではない。コ
ンベア3の速度はほぼ一定しているので、コンベア3の
速度を定数として入力したり、搬送中の対象物を所定の
時間間隔で撮影して、その画像の移動量からコンベア3
の速度を演算したりしてもよい。
The conveyor 3 is a conveyor such as a belt conveyor or a roller conveyor, and conveys an object such as a part or a product in a certain direction. From the conveyor 3, a signal indicating the transport distance is input to the image processing apparatus 1, and the CPU 10 can know the transport distance of the conveyor 3, that is, the moving distance of the object. However, it is not essential to input a signal indicating the transport distance from the conveyor 3 to the image processing apparatus 1. Since the speed of the conveyor 3 is substantially constant, the speed of the conveyor 3 is input as a constant, or the object being transported is photographed at predetermined time intervals, and the conveyor 3 is determined based on the amount of movement of the image.
May be calculated.

【0018】ロボット制御装置41は画像処理装置1か
らの出力信号によって、コンベア3上の対象物の位置、
姿勢等を判断し、ロボット4を制御して対象物の組み立
て作業や箱詰め作業等を行う。
The robot controller 41 receives the output signal from the image processing apparatus 1 and determines the position of the object on the conveyor 3
The posture and the like are determined, and the robot 4 is controlled to perform an assembling work, a packing work, and the like of the target object.

【0019】図2は、カメラ2により撮影し、画像メモ
リ131に記憶された画像データを示す図である。画像
データを直交するX,Y軸による直交座標で表示する。
画像データはX軸方向、Y軸方向にそれぞれ512個の
ピクセルを有し、画像の左上角部を原点とする座標値に
より位置を表される。すなわち、画像の左上角部は
(X,Y)=(0,0)となり、画像の右下角部は(5
11,511)となる。図2の画像中には、5角形の対
象物の画像Pが含まれている。ここでは、対象物の移動
方向がX軸方向となるように、カメラ2の取り付け位置
が設定されている。ただし、移動方向がX軸方向である
ことは必須ではなく、Y軸方向であってもよいし、斜め
方向であってもよい。
FIG. 2 is a diagram showing image data taken by the camera 2 and stored in the image memory 131. The image data is displayed in orthogonal coordinates by orthogonal X and Y axes.
The image data has 512 pixels in each of the X-axis direction and the Y-axis direction, and the position is represented by a coordinate value having the origin at the upper left corner of the image. That is, the upper left corner of the image is (X, Y) = (0, 0), and the lower right corner of the image is (5, 5).
11, 511). The image in FIG. 2 includes an image P of a pentagonal object. Here, the mounting position of the camera 2 is set so that the moving direction of the target object is in the X-axis direction. However, it is not essential that the moving direction be the X-axis direction, and the moving direction may be the Y-axis direction or the oblique direction.

【0020】画像処理プログラム133によって画像P
の輪郭線が抽出され、次に画像Pの重心の位置が演算さ
れて画像Pの内部に表示されるとともに画像メモリ13
1にも記憶される。画像処理プログラム133は、必要
に応じて、重心以外にも画像の種々の特徴値を抽出す
る。画像が多角形であれば各頂点の位置、画像が円形で
あれば半径等の特徴値を抽出する。ここでは、説明を簡
略化するために、特徴値としては重心の位置のみを抽出
するものとする。画像Pの特徴値の情報は、インターフ
ェース回路を介してロボット制御装置41に出力され
る。そして、画像メモリ131に記憶された画像データ
は、前回画像メモリ132に複写されて記憶される。
The image processing program 133 generates an image P
Are extracted, and then the position of the center of gravity of the image P is calculated and displayed inside the image P, and the image memory 13
1 is also stored. The image processing program 133 extracts various characteristic values of the image other than the center of gravity, if necessary. If the image is a polygon, the position of each vertex is extracted, and if the image is a circle, feature values such as a radius are extracted. Here, in order to simplify the description, it is assumed that only the position of the center of gravity is extracted as the feature value. Information on the characteristic values of the image P is output to the robot control device 41 via the interface circuit. Then, the image data stored in the image memory 131 is copied and stored in the image memory 132 last time.

【0021】その後、所定の時間の経過またはコンベア
3の所定の搬送距離の移動によって、再びカメラ2にト
リガー信号が出力され、図3の画像データが取り込まれ
る。トリガー信号間の時間間隔は、コンベア3上の全て
の対象物の画像が取り込めるように、対象物が画面視野
内を通過する時間よりも短く設定される。コンベア3の
搬送距離によってトリガー信号を発生する場合は、画面
視野のX軸方向の長さに対応する搬送距離よりも短い搬
送距離ごとにトリガー信号を発生する。
Thereafter, when a predetermined time elapses or the conveyor 3 moves by a predetermined transport distance, a trigger signal is output to the camera 2 again, and the image data of FIG. 3 is captured. The time interval between the trigger signals is set shorter than the time during which the object passes through the visual field of the screen so that images of all the objects on the conveyor 3 can be captured. When the trigger signal is generated based on the transport distance of the conveyor 3, the trigger signal is generated for each transport distance shorter than the transport distance corresponding to the length of the screen visual field in the X-axis direction.

【0022】図3の画像データが、画像メモリ131に
記憶され画像データに含まれる画像Nの特徴値が抽出さ
れると、前回画像メモリ132内の前回取り込んだ画像
データと比較される。この画像Nは、前回取り込んだ画
像Pの対象物が移動したことによる画像であって、前回
の画像データと同一の対象物を表すものである。このよ
うな画像は、前回に画像データがロボット制御装置41
に出力されており、再び出力する必要はない。再度出力
するとロボットの制御を混乱させることになる。そこ
で、このように同一の対象物に対して2度以上取り込ん
だ画像データをチェックして、ロボット制御装置41に
は出力しないようにする。
When the image data of FIG. 3 is stored in the image memory 131 and the characteristic value of the image N included in the image data is extracted, the image data is compared with the previously fetched image data in the previous image memory 132. This image N is an image obtained by moving the object of the previously captured image P, and represents the same object as the previous image data. For such an image, the image data was previously stored in the robot controller 41.
And need not be output again. Outputting again will confuse the control of the robot. Therefore, the image data captured twice or more for the same object is checked and is not output to the robot controller 41.

【0023】画像Pから画像Nまでの画面上での移動量
すなわち画像移動量Dは、前回のトリガー信号から今回
のトリガー信号までの間のコンベアの移動によって生じ
るものであり、画面上のX座標値と搬送距離との関係、
および、コンベア3の搬送距離により演算することがで
きる。また、コンベア3の搬送距離は、コンベア3から
の搬送距離を示す信号、または、コンベア3の搬送速度
とトリガー信号間の時間間隔によって求めることができ
る。
The amount of movement on the screen from the image P to the image N, that is, the amount of image movement D, is caused by the movement of the conveyor between the previous trigger signal and the present trigger signal. The relationship between the value and the transport distance,
And, it can be calculated by the transport distance of the conveyor 3. Further, the transport distance of the conveyor 3 can be obtained by a signal indicating the transport distance from the conveyor 3 or a time interval between the transport speed of the conveyor 3 and the trigger signal.

【0024】また、画像処理装置1の初期設定時に、対
象物をコンベア3により搬送して、図2、図3のように
所定の時間間隔で画像を取り込み、その間の画像の移動
量から画像移動量Dを直接測定することができる。この
画像移動量Dの測定を、画像処理装置1により自動的に
行うようにしてもよいし、操作者が画面上で測定し入力
手段16から入力するようにしてもよい。画像移動量D
は、コンベア3の搬送距離またはトリガー信号間の時間
間隔に比例するから、それらの比例定数を演算してRA
M13に記憶しておけば、画像移動量Dを簡単に演算で
きる。
At the time of initial setting of the image processing apparatus 1, an object is conveyed by the conveyor 3, and images are taken in at predetermined time intervals as shown in FIGS. The quantity D can be measured directly. The measurement of the image movement amount D may be automatically performed by the image processing apparatus 1, or may be measured on a screen and input by the input unit 16. Image movement amount D
Is proportional to the transport distance of the conveyor 3 or the time interval between the trigger signals, so that their proportional constants are calculated and RA
If it is stored in M13, the image movement amount D can be easily calculated.

【0025】図4は、複数の対象物がコンベア3上にラ
ンダムに配置され搬送される場合の取り込み画像の一例
を示す図である。対象物は円形の画像P1〜P4で示さ
れる。内部の点は画像P1〜P4の重心を表している。
図5は、画像メモリ131に記憶される画像データの内
容を示す図である。画像メモリ131には、それぞれの
対象物に対応する画像ごとに付与された画像番号と、そ
の画像の重心の位置と、その画像が同一の対象物の2度
目以降の取り込み画像であることを示す同一フラグとが
記憶されている。また必要に応じて、重心位置以外の特
徴値の情報を記憶するようにしてもよい。
FIG. 4 is a view showing an example of a captured image when a plurality of objects are randomly arranged and conveyed on the conveyor 3. The object is represented by circular images P1 to P4. The points inside represent the centers of gravity of the images P1 to P4.
FIG. 5 is a diagram showing the contents of image data stored in the image memory 131. The image memory 131 indicates the image number assigned to each image corresponding to each object, the position of the center of gravity of the image, and indicates that the image is the second or later captured image of the same object. The same flag is stored. If necessary, information on characteristic values other than the position of the center of gravity may be stored.

【0026】画像番号1〜4の画像データは、画像P1
〜P4に対応している。ここでは画像P1〜P3は新規
の画像であるので、画像データの同一フラグがオンにな
っておらず、画像P1〜P3の画像データがロボット制
御装置41に出力される。画像P4の画像データは同一
フラグがオンであり、画像P4の画像データは出力され
ない。また出力が行われる前に、画像番号1〜4の画像
データは前回画像メモリ132に新しい前回画像データ
として記憶される。
The image data of the image numbers 1 to 4 corresponds to the image P1
~ P4. Here, since the images P1 to P3 are new images, the same flag of the image data is not turned on, and the image data of the images P1 to P3 is output to the robot control device 41. The same flag is turned on for the image data of the image P4, and the image data of the image P4 is not output. Before output, the image data of the image numbers 1 to 4 is stored in the previous image memory 132 as new previous image data.

【0027】図6は、図4の複数の対象物が移動したと
きの取り込み画像を示す図である。画像N1,N2は、
図4には表示されていない新規の対象物の画像である。
画像N3〜N5は、図4での画像P1〜P3が示す対象
物と同一の対象物に対応するものである。画像移動量D
はD=209であり、画像N3〜N5は、図4での画像
P1〜P3をX軸方向に209ピクセルだけ移動した画
像になっている。画像N6は画像P4を209ピクセル
移動した画像になっているが、画像N6の全体が画面視
野内に入っていないので、画像N6には画像番号が付与
されることもなく、重心位置等の特徴値等も画像メモリ
131には記憶されない。このように全体が画面視野内
に入っていない画像は画像メモリ131には記憶されな
い。
FIG. 6 is a view showing a captured image when a plurality of objects in FIG. 4 have moved. Images N1 and N2 are
It is an image of a new object not displayed in FIG.
The images N3 to N5 correspond to the same object as the objects indicated by the images P1 to P3 in FIG. Image movement amount D
Is D = 209, and the images N3 to N5 are images obtained by moving the images P1 to P3 in FIG. 4 by 209 pixels in the X-axis direction. The image N6 is an image obtained by moving the image P4 by 209 pixels. However, since the entire image N6 is not within the field of view of the screen, the image N6 is not assigned an image number and has a characteristic such as a position of the center of gravity. The values and the like are not stored in the image memory 131. In this manner, an image that does not entirely fall within the screen visual field is not stored in the image memory 131.

【0028】図7は、画像メモリ131に記憶された画
像データの内容を示す図である。画像番号1〜5の画像
データは、画像N1〜N5に対応している。画像N1〜
N5の輪郭が抽出され、重心の位置が演算されて画像デ
ータとして記憶される。ここで、各画像データを前回画
像メモリ132に記憶された図5のような前回画像デー
タと比較して、前回画像データを画像移動量Dだけ移動
した画像データに対して同一フラグをオンにする。すな
わち、画像N3〜N5が画像P1〜P3を画像移動量D
だけ移動したものとなっているので、同一フラグがオン
となる。
FIG. 7 is a diagram showing the contents of the image data stored in the image memory 131. Image data of image numbers 1 to 5 correspond to images N1 to N5. Image N1
The contour of N5 is extracted, the position of the center of gravity is calculated, and stored as image data. Here, each image data is compared with the previous image data stored in the previous image memory 132 as shown in FIG. 5, and the same flag is turned on for the image data that has been moved the previous image data by the image movement amount D. . That is, the images N3 to N5 change the images P1 to P3 by the image movement amount D.
, The same flag is turned on.

【0029】図8は、画像処理プログラム133の処理
内容を示すフローチャートである。判断101において
CPU10はタイマ18のデータを読み取り、予め設定
してあった所定の設定時間が前回のトリガー信号から経
過したかどうか判断し、経過していれば処理103に進
む。経過していなければ判断102に進み、ロボット制
御装置41等の外部機器からのトリガー要求があるかど
うかを判断する。トリガー要求があれば処理103に進
み、なければ判断101に戻る。判断101と判断10
2とは、要するに、前回のトリガー信号から設定時間が
経過するか、または、外部機器からのトリガー要求によ
り処理103に進み、それ以外はループを繰り返すもの
である。
FIG. 8 is a flowchart showing the processing contents of the image processing program 133. In the judgment 101, the CPU 10 reads the data of the timer 18 and judges whether or not a predetermined time set in advance has elapsed from the previous trigger signal. If the time has not elapsed, the process proceeds to decision 102, where it is determined whether a trigger request is received from an external device such as the robot controller 41 or the like. If there is a trigger request, the process proceeds to step 103; Judgment 101 and Judgment 10
In short, 2 means that the set time elapses from the previous trigger signal or the processing proceeds to processing 103 in response to a trigger request from an external device, and otherwise repeats the loop.

【0030】処理103では、CPU10はタイマ18
をリセットするとともにトリガー発生回路19を制御し
てカメラ2に対するトリガー信号を発生させる。カメラ
2は、トリガー信号によって画像を取り込み、その画像
の画像処理装置1への伝送を開始する。処理104にお
いて、CPU10はカメラ2から伝送される画像データ
をインターフェース回路を介して入力し、画像メモリ1
31に記憶する。次に、処理105で画像メモリ131
に記憶された画像を解析し、対象物に対応する画像の輪
郭を抽出し、さらに、それぞれの対象物の画像の特徴値
を抽出する。特徴値としては重心の位置があるが、それ
以外の特徴値を抽出してもよい。
In the process 103, the CPU 10
Is reset, and the trigger generation circuit 19 is controlled to generate a trigger signal for the camera 2. The camera 2 captures an image according to the trigger signal, and starts transmitting the image to the image processing apparatus 1. In processing 104, the CPU 10 inputs image data transmitted from the camera 2 via the interface circuit, and
31. Next, in process 105, the image memory 131
Is analyzed, the contour of the image corresponding to the object is extracted, and the feature value of the image of each object is extracted. The feature value includes the position of the center of gravity, but other feature values may be extracted.

【0031】呼び出し処理106は同一フラグをセット
するための同一対象物判別の処理を行うサブルーチンを
呼び出すものである。同一対象物判別サブルーチンの処
理内容は図9の説明において詳述する。次に、処理10
7により画像メモリ131中の画像データを前回画像メ
モリ132に新しい前回画像データとして記憶する。次
に、処理108において画像メモリ131中の画像デー
タから同一フラグがオンとなっていない画像データをロ
ボット制御装置41等の外部機器に出力する。処理10
8が終わると判断101に戻り、以上の処理を繰り返
す。
The calling process 106 calls a subroutine for performing the same object discriminating process for setting the same flag. The processing content of the same object determination subroutine will be described in detail in the description of FIG. Next, processing 10
7, the image data in the image memory 131 is stored in the previous image memory 132 as new previous image data. Next, in a process 108, the image data in which the same flag is not turned on from the image data in the image memory 131 is output to an external device such as the robot controller 41. Processing 10
When 8 is completed, the process returns to the determination 101, and the above processing is repeated.

【0032】図9は、呼び出し処理106で呼び出され
る同一対象物判別サブルーチンの処理内容を示すフロー
チャートである。ここで前回画像データの各重心位置を
表す変数をXp,Ypとする。すなわち(Xp,Yp)
が重心を表す座標となる。さらに、今回の画像データの
重心位置を表す変数をXn,Ynとし、座標値を表す変
数をX,Yとする。まず、処理201において変数X
p,Ypに前回画像メモリ132中の前回画像データか
ら画像番号1の重心位置を代入する。例えば図5の画像
番号1は、図4の画像P1に対応する。
FIG. 9 is a flowchart showing the contents of the same object discriminating subroutine called in the calling process 106. Here, variables representing the positions of the respective centers of gravity of the previous image data are Xp and Yp. That is, (Xp, Yp)
Are coordinates representing the center of gravity. Further, variables representing the barycentric position of the current image data are represented by Xn and Yn, and variables representing coordinate values are represented by X and Y. First, in process 201, the variable X
The barycentric position of the image number 1 from the previous image data in the previous image memory 132 is substituted for p and Yp. For example, image number 1 in FIG. 5 corresponds to image P1 in FIG.

【0033】次に、処理202において変数X,Yに、
式(X=Xp+D−d)および式(Y=Yp)に従って
値を代入する。ただし、Dは前述の画像移動量であり、
dは画像の検索を開始する位置を示す所定の減算量であ
る。減算量dはコンベア3の搬送速度の誤差、時間計測
の誤差等を考慮して、数ピクセル〜数十ピクセル程度に
設定されている。重心位置(Xp,Yp)の前回画像と
同一対象物の今回画像が(X+1)の位置からX軸の正
方向に検索される。検索により同一対象物の今回画像が
見つかれば、その画像データの同一フラグがオンにされ
る。
Next, in process 202, variables X and Y are
A value is substituted according to the equation (X = Xp + D−d) and the equation (Y = Yp). Here, D is the image movement amount described above,
d is a predetermined subtraction amount indicating the position at which the search of the image is started. The subtraction amount d is set to several pixels to several tens of pixels in consideration of an error in the conveyor speed of the conveyor 3, an error in time measurement, and the like. The current image of the same object as the previous image at the center of gravity position (Xp, Yp) is searched from the position (X + 1) in the positive direction of the X axis. If the current image of the same object is found by the search, the same flag of the image data is turned on.

【0034】処理203では、変数Xの値に1が加算さ
れる。次に、判断204において画像メモリ131中の
画像データから計算式より求めた重心位置(X,Y)に
一致する重心位置(Xn,Yn)の画像を検索し、その
ような画像が存在するかどうかを判断する。重心位置
(X,Y)と重心位置(Xn,Yn)とが一致すること
の判断は、コンベア3の軌道の直線性、搬送速度誤差、
タイマ18の時間誤差等を考慮して、数ピクセル程度の
幅を持たせる。すなわち、両者に数ピクセル程度の差が
あっても一致したものと判断する。このように、本発明
における「一致」とは、数値の厳密な一致ではなく、誤
差等を考慮した所定の範囲内での一致を意味する。
In the process 203, 1 is added to the value of the variable X. Next, in judgment 204, an image at the position of the center of gravity (Xn, Yn) that matches the position of the center of gravity (X, Y) obtained from the image data in the image memory 131 by the calculation formula is searched, and such an image exists. Judge whether or not. The determination that the position of the center of gravity (X, Y) matches the position of the center of gravity (Xn, Yn) depends on the linearity of the trajectory of the conveyor 3, the transport speed error,
In consideration of the time error of the timer 18, a width of about several pixels is provided. That is, even if there is a difference of about several pixels between them, it is determined that they match. As described above, the term “match” in the present invention does not mean exact matching of numerical values, but means matching within a predetermined range in consideration of an error or the like.

【0035】重心位置(X,Y)と一致する重心位置
(Xn,Yn)の画像があれば、処理205に進み、そ
の画像データの同一フラグをオンとする。一致する画像
がなければ判断206に進む。判断206では変数Xの
値が画面のX座標の最大値511を超えたかどうかを判
断する。変数Xが511を超えていれば、処理207に
進み、超えていなければ処理203に戻って重心位置
(Xp,Yp)についての検索を続行する。処理205
および判断206の次の処理207は、現在の重心位置
(Xp,Yp)についての検索を終了し、変数Xp,Y
pに前回画像データの次の画像の重心位置をセットす
る。そして判断208で、次の重心のデータがあったか
どうかを判断し、あれば処理202に戻り、次の重心位
置(Xp,Yp)についての検索を開始し、なければ同
一対象物判別サブルーチンを終了して呼び出し元に帰
る。
If there is an image at the position of the center of gravity (Xn, Yn) which coincides with the position of the center of gravity (X, Y), the flow advances to step 205 to turn on the same flag of the image data. If there is no matching image, proceed to decision 206. In the judgment 206, it is judged whether or not the value of the variable X exceeds the maximum value 511 of the X coordinate of the screen. If the variable X exceeds 511, the process proceeds to step 207, and if not, the process returns to step 203 to continue the search for the position of the center of gravity (Xp, Yp). Process 205
And a process 207 next to the judgment 206 terminates the search for the current center of gravity position (Xp, Yp) and sets the variables Xp, Y
The position of the center of gravity of the image following the previous image data is set to p. Then, in the judgment 208, it is judged whether or not there is data of the next center of gravity. If there is, the process returns to the step 202 to start searching for the next position of the center of gravity (Xp, Yp). To return to the caller.

【0036】画像処理プログラム133は以上のような
処理を行う。前回の画像を画像移動量Dだけ移動させた
位置から減算量dだけ手前の位置を検索開始位置とし、
その検索開始位置から移動方向に存在して特徴値の一致
する同一対象物の画像を検索するようにしたものであ
る。この実施の形態では、特徴値としては重心のY座標
のみを考慮しているが、他の特徴値の一致をも同一判別
の条件としてもよい。このような検索方法の他にも、前
回の画像を画像移動量Dだけ移動させた位置の所定の範
囲の近傍にあり、特徴値の一致する今回の画像を検索す
るようにしてもよい。特徴値として重心の位置のみを考
慮する場合は、所定の範囲の近傍であって最も近いもの
を同一対象物とすればよい。
The image processing program 133 performs the above processing. A search start position is defined as a position which is before the position where the previous image is moved by the image movement amount D by the subtraction amount d,
An image of the same object which is present in the moving direction from the search start position and has the same feature value is searched. In this embodiment, only the Y-coordinate of the center of gravity is considered as the feature value, but the coincidence of other feature values may be used as the condition for the same determination. In addition to such a search method, a search may be made for a current image that is near a predetermined range of a position where the previous image has been moved by the image movement amount D and has the same characteristic value. When only the position of the center of gravity is considered as the feature value, the nearest one in the vicinity of the predetermined range may be set as the same object.

【0037】また、この実施の形態では、同一対象物判
別処理を画像処理装置1において行っているが、画像処
理装置1からロボット制御装置41へは全ての画像デー
タを出力し、同一対象物判別処理はロボット制御装置4
1で行うようにしてもよい。その場合は、ロボット制御
装置41からロボット4への出力段階で、同一対象物の
データを出力しないようにする。また、画面のX軸方向
に対象物が移動するものとしたが、移動方向がY軸方向
あるいは斜め方向である場合は、適宜の座標変換(座標
軸の回転等)を行って移動方向をX軸方向に変換してか
ら、この実施の形態に示したような処理を行うようにす
ればよい。
In this embodiment, the same object discriminating process is performed in the image processing apparatus 1. However, all image data is output from the image processing apparatus 1 to the robot controller 41, and the same object discriminating processing is performed. Processing is robot controller 4
1 may be performed. In that case, the data of the same object is not output in the output stage from the robot controller 41 to the robot 4. Although the object moves in the X-axis direction of the screen, if the moving direction is the Y-axis direction or the oblique direction, appropriate coordinate conversion (rotation of the coordinate axis, etc.) is performed to change the moving direction to the X-axis direction. After the conversion into the direction, the processing as described in this embodiment may be performed.

【0038】[0038]

【発明の効果】本発明は、以上説明したように構成され
ているので、以下のような効果を奏する。
Since the present invention is configured as described above, it has the following effects.

【0039】画像入力のタイミングを指示するトリガー
信号を発生するための対象物の検出装置が不要となり、
検出装置の設置作業、調整作業等の熟練を要する複雑で
面倒な作業が不要となるので、画像処理のためのコスト
が低減する。
An object detection device for generating a trigger signal for instructing the timing of image input is not required.
Since complicated and troublesome work requiring skill such as installation work and adjustment work of the detection device is not required, the cost for image processing is reduced.

【0040】対象物がランダムに分布し、かつ、コンベ
アの幅方向にも複数個の対象物が存在するような場合に
も、それぞれの対象物に対応した画像データの出力が可
能となる。また、同一の対象物に対しては画像データが
1回だけしか出力されないので、出力された画像データ
を利用するロボット等の制御が簡単になる。
Even when the objects are randomly distributed and a plurality of objects exist in the width direction of the conveyor, it is possible to output image data corresponding to each object. Further, since image data is output only once for the same target, control of a robot or the like using the output image data is simplified.

【図面の簡単な説明】[Brief description of the drawings]

【図1】図1は、本発明の画像処理装置の構成を示す図
である。
FIG. 1 is a diagram illustrating a configuration of an image processing apparatus according to the present invention.

【図2】図2は、取り込み画像の一例を示す図である。FIG. 2 is a diagram illustrating an example of a captured image;

【図3】図3は、移動した対象物の画像を示す図であ
る。
FIG. 3 is a diagram illustrating an image of a moving target object.

【図4】図4は、複数の対象物の取り込み画像の一例を
示す図である。
FIG. 4 is a diagram illustrating an example of captured images of a plurality of objects;

【図5】図5は、画像データの内容を示す図である。FIG. 5 is a diagram illustrating the contents of image data.

【図6】図6は、移動した複数の対象物の画像を示す図
である。
FIG. 6 is a diagram illustrating images of a plurality of moved objects.

【図7】図7は、画像データの内容を示す図である。FIG. 7 is a diagram illustrating the contents of image data;

【図8】図8は、画像処理プログラムの処理内容を示す
フローチャートである。
FIG. 8 is a flowchart illustrating processing contents of an image processing program.

【図9】図9は、同一対象物判別の処理内容を示すフロ
ーチャートである。
FIG. 9 is a flowchart illustrating a process of determining the same object;

【符号の説明】[Explanation of symbols]

1…画像処理装置 2…カメラ 3…コンベア 4…ロボット 10…CPU 11…バス 12…ROM 13…RAM 14…固定ディスク装置 15…入出力装置 16…表示手段 17…入力手段 18…タイマ 19…トリガー発生回路 41…ロボット制御装置 DESCRIPTION OF SYMBOLS 1 ... Image processing apparatus 2 ... Camera 3 ... Conveyor 4 ... Robot 10 ... CPU 11 ... Bus 12 ... ROM 13 ... RAM 14 ... Fixed disk device 15 ... Input / output device 16 ... Display means 17 ... Input means 18 ... Timer 19 ... Trigger Generation circuit 41: Robot controller

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】画面視野内を一定方向に移動する対象物の
画像を取り込んでそのデータを出力する画像処理方法で
あって、 対象物が画面視野内を通過する時間よりも短い時間間隔
で画面視野全体の画像を入力して記憶手段(131)に
記憶し、かつ、前回入力した画像も記憶手段(132)
に記憶しておき、 入力した画像の特徴値を抽出し、 前回の画像の入力から今回の画像の入力までの間に対象
物が移動することによる当該対象物に対応する画像の移
動量すなわち画像移動量を求め、 今回入力した画像を前回の画像と比較して、前記画像移
動量を考慮して今回の画像の中から前回の画像に対応す
る対象物と同一の対象物による画像を判別する同一対象
物判別処理(106)を行い、 前記同一対象物判別処理(106)により前回の画像と
同一の対象物であると判別された画像のデータは出力せ
ず、それ以外の画像のデータを出力するようにした移動
対象物の画像処理方法。
An image processing method for capturing an image of an object moving in a fixed direction within a screen visual field and outputting the data, wherein the screen is displayed at a time interval shorter than a time when the object passes through the screen visual field. An image of the entire field of view is input and stored in the storage means (131), and the previously input image is also stored in the storage means (132).
The feature value of the input image is extracted, and the movement amount of the image corresponding to the target object due to the movement of the target object between the previous image input and the current image input, that is, the image The moving amount is obtained, the image input this time is compared with the previous image, and an image based on the same object as the object corresponding to the previous image is determined from the current image in consideration of the moving amount of the image. The same object discriminating process (106) is performed. The data of the image determined to be the same object as the previous image by the same object discriminating process (106) is not output, and the data of the other images is not output. An image processing method for a moving object to be output.
【請求項2】請求項1に記載した移動対象物の画像処理
方法であって、 前記同一対象物判別処理(106)は、前回の画像を前
記画像移動量から所定量だけ減算した量だけ移動させた
位置を検索開始位置とし、その検索開始位置から移動方
向に存在して前記特徴値の一致する今回の画像を同一の
対象物であるとするものである移動対象物の画像処理方
法。
2. The image processing method for a moving object according to claim 1, wherein the same object discriminating process (106) moves the previous image by an amount obtained by subtracting a predetermined amount from the image moving amount. An image processing method for a moving object, in which the searched position is set as a search start position, and the current image existing in the movement direction from the search start position and having the same characteristic value is regarded as the same object.
【請求項3】請求項1に記載した移動対象物の画像処理
方法であって、 前記同一対象物判別処理(106)は、前回の画像を前
記画像移動量だけ移動させた位置から所定の範囲内の近
傍にあり前記特徴値の一致する今回の画像を同一の対象
物であるとするものである移動対象物の画像処理方法。
3. The image processing method for a moving object according to claim 1, wherein the same object discriminating processing (106) is performed within a predetermined range from a position at which a previous image is moved by the image moving amount. Image processing method for a moving object, in which the current image which is in the vicinity of and within which the feature values match is assumed to be the same object.
【請求項4】画面視野内を一定方向に移動する対象物の
画像を取り込んでそのデータを出力する画像処理装置で
あって、 対象物が画面視野内を通過する時間よりも短い時間間隔
で画面視野全体の画像を入力するための画像入力信号を
発生する画像入力信号発生手段(19)と、 入力した画像を記憶しておく画像記憶手段(131)
と、 前回入力した画像を記憶しておく前回画像記憶手段(1
32)と、 入力した画像の特徴値を抽出する特徴値抽出手段(10
5)と、 前回の画像の入力から今回の画像の入力までの間に対象
物が移動することによる当該対象物に対応する画像の移
動量すなわち画像移動量を求める画像移動量取得手段
(202)と、 今回入力した画像を前回の画像と比較して、前記画像移
動量を考慮して今回の画像の中から前回の画像に対応す
る対象物と同一の対象物による画像を判別する同一対象
物判別手段(106)と、 前記同一対象物判別手段(106)により前回の画像と
同一の対象物であると判別された画像のデータは出力せ
ず、それ以外の画像のデータを出力する画像情報出力手
段(108)とを有する移動対象物の画像処理装置。
4. An image processing apparatus for capturing an image of an object moving in a fixed direction in a screen visual field and outputting the data, wherein the screen is displayed at a time interval shorter than a time when the object passes through the screen visual field. Image input signal generation means (19) for generating an image input signal for inputting an image of the entire field of view, and image storage means (131) for storing the input image.
And a previous image storage means (1) for storing a previously input image.
32) and a feature value extracting means (10) for extracting feature values of the input image.
5) and an image moving amount obtaining means (202) for obtaining a moving amount of an image corresponding to the target object due to the moving of the target object between the previous image input and the present image input, that is, an image moving amount. And comparing the image input this time with the previous image, and determining an image based on the same object as the object corresponding to the previous image from the current image in consideration of the image movement amount. Discriminating means (106); image information for not outputting data of an image determined to be the same object as the previous image by the same object discriminating means (106), but outputting data of other images An image processing apparatus for a moving object, comprising: an output unit (108).
【請求項5】請求項4に記載した移動対象物の画像処理
装置であって、 前記同一対象物判別手段(106)は、前回の画像を前
記画像移動量から所定量だけ減算した量だけ移動させた
位置を検索開始位置とし、その検索開始位置から移動方
向に存在して前記特徴値の一致する今回の画像を同一の
対象物であるとするものである移動対象物の画像処理装
置。
5. The image processing apparatus for a moving object according to claim 4, wherein the same object discriminating means (106) moves the previous image by an amount obtained by subtracting a predetermined amount from the image moving amount. An image processing apparatus for a moving object, wherein the position thus set is set as a search starting position, and the current image existing in the moving direction from the search starting position and having the same feature value as the same object.
【請求項6】請求項4に記載した移動対象物の画像処理
装置であって、 前記同一対象物判別手段(106)は、前回の画像を前
記画像移動量だけ移動させた位置から所定の範囲内の近
傍にあり前記特徴値の一致する今回の画像を同一の対象
物であるとするものである移動対象物の画像処理装置。
6. An image processing apparatus for a moving object according to claim 4, wherein said same object discriminating means (106) is a predetermined range from a position at which a previous image has been moved by said image moving amount. An image processing apparatus for a moving object, in which the current image having the same characteristic value and being in the vicinity of the object is regarded as the same object.
【請求項7】画面視野内を一定方向に移動する対象物の
画像を取り込んでそのデータを出力するためのコンピュ
ータに、 対象物が画面視野内を通過する時間よりも短い時間間隔
で画面視野全体の画像を入力して記憶手段に記憶する手
順(101〜104)と、 画像を記憶手段の別の領域に記憶しておく手順(10
7)と、 入力した画像の特徴値を抽出する手順(105)と、 前回の画像の入力から今回の画像の入力までの間に対象
物が移動することによる当該対象物に対応する画像の移
動量すなわち画像移動量を求める手順(202)と、 今回入力した画像を前回の画像と比較して、前記画像移
動量を考慮して今回の画像の中から前回の画像に対応す
る対象物と同一の対象物による画像を判別する同一対象
物判別処理(106)を行う手順と、 前記同一対象物判別処理(106)により前回の画像と
同一の対象物であると判別された画像のデータは出力せ
ず、それ以外の画像のデータを出力する手順(108)
とを実行させるためのプログラムを記録した記録媒体。
7. A computer for capturing an image of an object moving in a fixed direction in a screen visual field and outputting data of the image, wherein the computer reads the image of the object at a time interval shorter than the time when the object passes through the screen visual field. (101-104) for inputting the image of the image and storing it in the storage means, and (10) for storing the image in another area of the storage means.
7), a step (105) of extracting the feature value of the input image, and the movement of the image corresponding to the object due to the movement of the object between the previous image input and the current image input. The procedure of obtaining the amount, that is, the image movement amount (202), comparing the image input this time with the previous image, and taking into account the image movement amount, the current image is the same as the object corresponding to the previous image. The same object discriminating process (106) for discriminating an image based on the object, and the data of the image determined to be the same object as the previous image by the same object discriminating process (106) are output. Procedure for outputting data of other images without performing (108)
Recording medium on which a program for executing the above is recorded.
JP9088906A 1997-03-24 1997-03-24 Method for processing image of mobile object, its device and recording medium for recording program Pending JPH10269364A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9088906A JPH10269364A (en) 1997-03-24 1997-03-24 Method for processing image of mobile object, its device and recording medium for recording program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9088906A JPH10269364A (en) 1997-03-24 1997-03-24 Method for processing image of mobile object, its device and recording medium for recording program

Publications (1)

Publication Number Publication Date
JPH10269364A true JPH10269364A (en) 1998-10-09

Family

ID=13956001

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9088906A Pending JPH10269364A (en) 1997-03-24 1997-03-24 Method for processing image of mobile object, its device and recording medium for recording program

Country Status (1)

Country Link
JP (1) JPH10269364A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007147507A (en) * 2005-11-29 2007-06-14 Kurabo Ind Ltd Spectrometry and optical spectrometer
KR100997656B1 (en) * 2008-06-18 2010-12-01 한양대학교 산학협력단 Obstacle detecting method of robot and apparatus therefor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007147507A (en) * 2005-11-29 2007-06-14 Kurabo Ind Ltd Spectrometry and optical spectrometer
KR100997656B1 (en) * 2008-06-18 2010-12-01 한양대학교 산학협력단 Obstacle detecting method of robot and apparatus therefor

Similar Documents

Publication Publication Date Title
US4903012A (en) Coordinate system input device providing registration calibration and a mouse function
US8009866B2 (en) Exercise support device, exercise support method and recording medium
CN101105715A (en) Simulation device of robot system
JPS6486937A (en) Measuring endoscopic apparatus
US5987191A (en) Model image registration method and apparatus therefor
JPH0810132B2 (en) Target pattern rotation angle detection method
JP2004532441A (en) System and method for extracting predetermined points of an object in front of a computer-controllable display captured by an imaging device
JPH10269364A (en) Method for processing image of mobile object, its device and recording medium for recording program
JP2002333826A (en) Skill improvement support device
CN107952240B (en) Game control method and device realized by using selfie stick and computing equipment
JP2007010419A (en) Three-dimensional shape of object verifying system
US8416985B2 (en) Method, system and computer program product for providing group interactivity with entertainment experiences
JP3474772B2 (en) Sensor calibration method and device, and recording medium recording sensor calibration program
US20240078822A1 (en) Image identification device and image identification method
JPH0763515B2 (en) Fire detection method in waste storage pit
CN114724267B (en) Body temperature detection method, storage medium and robot
JP2020103460A (en) Inspection device and inspection program
US9354706B2 (en) Storage medium having stored therein information processing program, information processing apparatus, information processing system, and method of calculating designated position
JP2599955B2 (en) Moving target detection method
KR960001753B1 (en) Directionally characteristic recognition system by binary image
JP7090458B2 (en) Defective article detection system, defective article detection method and program
JPH1091232A (en) Automatic monitoring device
JPH0821081B2 (en) Window control method
JPH04102005A (en) Image tracking system
JP2021179343A (en) Inspection device, inspection method and inspection program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061211

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070405