JP2014092904A - Method and apparatus for identifying workpiece - Google Patents

Method and apparatus for identifying workpiece Download PDF

Info

Publication number
JP2014092904A
JP2014092904A JP2012242587A JP2012242587A JP2014092904A JP 2014092904 A JP2014092904 A JP 2014092904A JP 2012242587 A JP2012242587 A JP 2012242587A JP 2012242587 A JP2012242587 A JP 2012242587A JP 2014092904 A JP2014092904 A JP 2014092904A
Authority
JP
Japan
Prior art keywords
image
workpiece
bumper
recognition
work
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012242587A
Other languages
Japanese (ja)
Inventor
Yukio Kanetani
幸夫 金谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2012242587A priority Critical patent/JP2014092904A/en
Publication of JP2014092904A publication Critical patent/JP2014092904A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a workpiece identifying method for identifying the kind of a workpiece with low rigidity.SOLUTION: A workpiece identifying method of identifying the kind of a workpiece to be identified with low rigidity includes: a step S100 of acquiring at least one local image of the workpiece to be identified; a step S200 of generating a feature image from the local image; a step S300 of collating the feature image with a plurality of reference images stored for each kind of the workpiece, to calculate correlation ratios between the reference images and the feature image, respectively; a step S800 of additionally storing the feature image as a new reference image when the maximum value of the calculated correlation ratios is lower than a set value; and a step S500 of identifying the kind of the workpiece of the reference image having the maximum correlation ratio value, as the kind of the workpiece to be identified, when the maximum value of the calculated correlation ratios is equal to or larger than the set value.

Description

本発明は、ワーク認識方法およびワーク認識装置に関する。   The present invention relates to a workpiece recognition method and a workpiece recognition apparatus.

従来、樹脂成型機で成型されたバンパーは、ゲートカットなどの加工が施された後、車種及び形式別に分類されて、生産ラインに搬送される。バンパーの車種及び形式別の分類には、撮像した画像からバンパーの形状を認識するワーク認識装置を用いる。   Conventionally, bumpers molded by a resin molding machine are subjected to processing such as gate cutting, and are then classified by vehicle type and type and transported to a production line. A work recognition device that recognizes the shape of the bumper from the captured image is used for classification of the bumper by vehicle type and type.

従来のワーク認識装置では、認識すべきワークの実画像を取得して、実画像から比較モデルを生成し、記憶されている基準モデルと照合することによりワークの種類を特定する。したがって、従来のワーク認識装置では、基準モデルの類型および数量によって、ワークの認識率の優劣および認識処理の時間が決まる。   In a conventional workpiece recognition apparatus, a real image of a workpiece to be recognized is acquired, a comparison model is generated from the real image, and the type of the workpiece is specified by collating with a stored reference model. Therefore, in the conventional workpiece recognition apparatus, the superiority or inferiority of the workpiece recognition rate and the recognition processing time are determined by the type and quantity of the reference model.

下記特許文献1では、ワークのあらゆる姿勢の映像データからワークの種類を識別できる参照点を抽出して、この参照点をもとに基準モデルを決定している。また、特許文献2では、ワークの画像から形状的に特徴のある特徴点を複数決めておき、各特徴点の幾何学的特徴量および位置関係を計算しておき、特徴量および各特徴点の位置関係を照合の基準としている。なお、特許文献3では、一つの基準モデルを、所定の条件に基づいて加工することにより複数の基準モデルを作成している。   In Patent Document 1 below, a reference point that can identify the type of workpiece is extracted from video data of all postures of the workpiece, and a standard model is determined based on this reference point. Further, in Patent Document 2, a plurality of feature points that are characteristic in shape are determined from a workpiece image, the geometric feature amounts and positional relationships of the feature points are calculated, and the feature amounts and the feature points are calculated. The positional relationship is used as a reference for collation. In Patent Document 3, a plurality of reference models are created by processing one reference model based on a predetermined condition.

特公昭56−40981号Japanese Examined Sho 56-40981 特開平2−167410号JP-A-2-167410 特開平10−213420号JP-A-10-213420

上述した特許文献の認識方法は、いずれも比較モデルと照合する基準モデルを予め全て記憶しておくことを前提としている。ところが、樹脂バンパーのような剛性が低いワークは、置き方が異なるだけでも違った形状になってしまう。このため、バンパーの車種を確実に特定するためには、あらゆる変形の態様を、基準モデルとして記憶させておくことが必要になる。あらゆる変形に対応できる照合には、全ての基準モデルが記憶できる膨大な記憶容量が必要となるばかりでなく、バンパーの車種を特定するための処理に多大の時間が掛かる。以上の理由から、タクト方式を採用するバンパー製造工程では、上述した特許文献の認識方法をそのまま採用できない。   The above-described patent document recognition methods are based on the premise that all reference models to be compared with the comparison model are stored in advance. However, a work with low rigidity such as a resin bumper has a different shape even if it is placed differently. For this reason, in order to reliably specify the vehicle type of the bumper, it is necessary to store all deformation modes as a reference model. The verification that can cope with all the deformations requires not only a huge storage capacity that can store all the reference models, but also takes a lot of time to process the bumper model. For the above reasons, in the bumper manufacturing process adopting the tact method, the above-described recognition method of the patent document cannot be adopted as it is.

本発明は、上述のような事情に鑑みてなされたものであり、剛性の低いワークの種類を特定するワーク認識方法および認識装置として、予め全ての基準モデルを記憶するのではなく、認識過程において基準モデルを追加記憶させ、認識率を向上させることができるワーク認識装置および認識方法を提供することを目的とする。   The present invention has been made in view of the circumstances as described above, and does not store all reference models in advance as a workpiece recognition method and recognition device for identifying a type of workpiece having low rigidity, but in a recognition process. It is an object of the present invention to provide a workpiece recognition apparatus and a recognition method capable of additionally storing a reference model and improving a recognition rate.

上記目的を達成するための本発明のワーク認識方法は、認識すべきワークの少なくとも一つの局部画像を取得するステップと、前記局部画像から特徴画像を生成するステップと、ワークの種類ごとに記憶されている複数の基準画像と特徴画像とを照合し、複数の基準画像と特徴画像の相関率をそれぞれ算出するステップと、複数の算出された相関率のうち、相関率の最大値が設定値より低い場合、特徴画像を新しい基準画像として追加記憶するステップと、複数の算出された相関率のうち、相関率の最大値が設定値以上である場合、相関率の最大値を算出した基準画像のワークの種類を、認識すべきワークの種類として特定するステップと、を有する。   In order to achieve the above object, a workpiece recognition method of the present invention stores at least one local image of a workpiece to be recognized, a feature image is generated from the local image, and stored for each type of workpiece. Comparing the plurality of reference images with the feature image, calculating the correlation rates of the plurality of reference images and the feature image, respectively, and the maximum value of the correlation rates among the plurality of calculated correlation rates from the set value If it is low, the step of additionally storing the feature image as a new reference image, and if the maximum value of the correlation rate is greater than or equal to the set value among the plurality of calculated correlation rates, Identifying the type of workpiece as the type of workpiece to be recognized.

上記目的を達成するための本発明のワーク認識装置は、カメラ、光源、認識部、記憶部及び入出力部を有する。   In order to achieve the above object, a workpiece recognition apparatus of the present invention includes a camera, a light source, a recognition unit, a storage unit, and an input / output unit.

カメラは、剛性の低い認識すべきワークの局部画像を取得する。光源は、カメラによるワークの撮像中、ワークを照射する。記憶部は、ワークの種類ごとに複数の基準画像を記憶する。認識部は、局部画像から特徴画像を生成し、特徴画像と複数の基準画像とを照合して相関率を算出し、複数の算出された相関率のうち、相関率の最大値が設定値より低い場合は特徴画像を新しい基準画像として追加記憶し、相関率の最大値が設定値以上である場合は相関率の最大値を算出した基準画像のワークの種類を認識すべきワークの種類として特定する。入出力部は、認識部と外部とのインターフェース機能を実行する。   The camera acquires a local image of a work to be recognized with low rigidity. The light source irradiates the workpiece during imaging of the workpiece by the camera. The storage unit stores a plurality of reference images for each type of work. The recognizing unit generates a feature image from the local image, compares the feature image with a plurality of reference images to calculate a correlation rate, and among the plurality of calculated correlation rates, the maximum value of the correlation rate is greater than a set value. If it is low, the feature image is additionally stored as a new reference image. If the maximum correlation rate is greater than or equal to the set value, the workpiece type of the reference image that calculated the maximum correlation rate is specified as the type of workpiece to be recognized. To do. The input / output unit performs an interface function between the recognition unit and the outside.

本発明のワーク認識方法およびワーク認識装置によれば、剛性が低く変形しやすいワーク、更にワークの位置を一定に出来なくても、ワークの認識率を向上でき、認識処理に掛かる時間を短縮できる。   According to the workpiece recognition method and workpiece recognition device of the present invention, a workpiece having low rigidity and easily deformed, and even if the workpiece position cannot be made constant, the workpiece recognition rate can be improved and the time required for recognition processing can be shortened. .

実施形態1に係るワーク認識装置の構成を示す図である。It is a figure which shows the structure of the workpiece | work recognition apparatus which concerns on Embodiment 1. FIG. 実施形態1に係るカメラ及び光源を示す平面図である。It is a top view which shows the camera and light source which concern on Embodiment 1. FIG. 共通部品台の構造を示す図である。It is a figure which shows the structure of a common parts stand. 共通部品台に搭載されたバンパーの位置姿勢を例示する図である。It is a figure which illustrates the position and orientation of the bumper mounted on the common parts table. バンパーの撮像部位を例示する図である。It is a figure which illustrates the imaging part of a bumper. 光源における光の照射方法の説明に供する図であるIt is a figure where it uses for description of the light irradiation method in a light source. 基準画像テーブルのイメージを示す図である。It is a figure which shows the image of a reference | standard image table. 実施形態1に係るワーク認識装置の動作フローチャートである。3 is an operation flowchart of the workpiece recognition apparatus according to the first embodiment. 実施形態1に係るワーク認識装置でバンパーの車種を認識する一例を説明するために供する図である。It is a figure provided in order to demonstrate an example which recognizes the vehicle type of a bumper with the workpiece | work recognition apparatus which concerns on Embodiment 1. FIG. 図9の例における基準画像テーブルのイメージを示す図である。It is a figure which shows the image of the reference | standard image table in the example of FIG. 実施形態1に係るワーク認識装置でバンパーの車種を認識する他の一例を説明するために供する図である。It is a figure provided in order to demonstrate another example which recognizes the vehicle type of a bumper with the workpiece | work recognition apparatus which concerns on Embodiment 1. FIG. 図11の例における基準画像テーブルのイメージを示す図である。It is a figure which shows the image of the reference | standard image table in the example of FIG. 実施形態1に係るワーク認識装置でバンパーの車種を認識するさらに他の一例を説明するために供する図である。It is a figure provided in order to demonstrate another example which recognizes the vehicle type of a bumper with the workpiece | work recognition apparatus which concerns on Embodiment 1. FIG. 図13の例における基準画像テーブルのイメージを示す図である。It is a figure which shows the image of the reference | standard image table in the example of FIG. 図8の動作フローチャートにおける実施形態1の画像取得ステップS100のサブルーチンフローチャートである。9 is a subroutine flowchart of an image acquisition step S100 of the first embodiment in the operation flowchart of FIG. 図8の動作フローチャートにおける実施形態1のステップS300のサブルーチンフローチャートである。It is a subroutine flowchart of step S300 of Embodiment 1 in the operation flowchart of FIG. 実施形態2に係るワーク認識装置の構成を示す図である。It is a figure which shows the structure of the workpiece | work recognition apparatus which concerns on Embodiment 2. FIG. 実施形態2に係るカメラおよび光源を示す平面図である。It is a top view which shows the camera and light source which concern on Embodiment 2. 実施形態2に係るワーク認識装置でバンパーを撮像するイメージの一例を示す図である。It is a figure which shows an example of the image which images a bumper with the workpiece | work recognition apparatus which concerns on Embodiment 2. FIG. 実施形態2に係るワーク認識装置で図19の例からバンパーが歪んだ場合の位置姿勢を撮像するイメージを示す図である。It is a figure which shows the image which images the position and orientation when a bumper is distorted from the example of FIG. 19 with the workpiece | work recognition apparatus which concerns on Embodiment 2. FIG. 実施形態2に係るワーク認識装置で図19の例からバンパーが捻れた場合の位置姿勢を撮像するイメージを示す図である。It is a figure which shows the image which images the position and orientation when a bumper twists from the example of FIG. 19 with the workpiece | work recognition apparatus which concerns on Embodiment 2. FIG. 図8の動作フローチャートにおける実施形態2の画像取得ステップS100のサブルーチンフローチャートである。9 is a subroutine flowchart of an image acquisition step S100 of the second embodiment in the operation flowchart of FIG. 図8の動作フローチャートにおける実施形態2のステップS300のサブルーチンフローチャートである。It is a subroutine flowchart of step S300 of Embodiment 2 in the operation flowchart of FIG. 実施形態2に係るワーク認識装置でバンパーの車種を認識する一例を説明するために供する図である。It is a figure provided in order to demonstrate an example which recognizes the vehicle type of a bumper with the workpiece | work recognition apparatus which concerns on Embodiment 2. FIG. 図24の例における基準画像テーブルのイメージを示す図である。It is a figure which shows the image of the reference | standard image table in the example of FIG.

以下、添付した図面を参照しながら、(実施形態1)と(実施形態2)に分けて、バンパー製造工程において、樹脂バンパーの車種を認識するワーク認識方法とワーク認識装置について詳細に説明する。(実施形態1)は1方向からバンパーを撮像して取得した局部画像から車種を認識し、(実施形態2)は2方向からバンパーを撮像して取得した局部画像から車種を認識する。   Hereinafter, a workpiece recognition method and a workpiece recognition apparatus for recognizing a vehicle type of a resin bumper in a bumper manufacturing process will be described in detail with reference to the accompanying drawings, divided into (Embodiment 1) and (Embodiment 2). (Embodiment 1) recognizes a vehicle type from a local image acquired by imaging a bumper from one direction, and (Embodiment 2) recognizes a vehicle type from a local image acquired by imaging a bumper from two directions.

(実施形態1)
<ワーク認識装置の構成>
図1は、実施形態1に係るワーク認識装置の構成を示す図である。図2は、実施形態1に係るカメラ及び光源を示す平面図である。図3は、共通部品台の構造を示す図である。図4は、共通部品台に搭載されたバンパーの位置姿勢を例示する図である。
(Embodiment 1)
<Configuration of workpiece recognition device>
FIG. 1 is a diagram illustrating a configuration of a workpiece recognition apparatus according to the first embodiment. FIG. 2 is a plan view showing the camera and the light source according to the first embodiment. FIG. 3 is a diagram showing the structure of the common parts table. FIG. 4 is a diagram illustrating the position and orientation of the bumper mounted on the common parts table.

実施形態1に係るワーク認識装置100は、剛性が低く変形しやすい樹脂製バンパー、さらにバンパーの位置姿勢を一定にできなくても、バンパーの車種の認識率を向上できるものである。   The workpiece recognition apparatus 100 according to the first embodiment can improve the recognition rate of a bumper vehicle type even if the bumper is made of a resin bumper having low rigidity and easily deformed, and the bumper's position and orientation cannot be made constant.

ワーク認識装置100の構成について詳細に説明する。図1に示すように、ワーク認識装置100は、カメラ110、光源120、認識部130、記憶部140及び入出力部150を有する。   The configuration of the workpiece recognition apparatus 100 will be described in detail. As illustrated in FIG. 1, the workpiece recognition apparatus 100 includes a camera 110, a light source 120, a recognition unit 130, a storage unit 140, and an input / output unit 150.

カメラ110は、バンパーの正面側からバンパーを撮像する。カメラ110は、たとえば、CCDやCMOSなどの素子を使用したモノクロカメラを用いる。カメラ110には、レンズが付いている。   The camera 110 images the bumper from the front side of the bumper. As the camera 110, for example, a monochrome camera using an element such as a CCD or a CMOS is used. The camera 110 has a lens.

光源120は、バンパーの背面側からバンパーを照射する。光源120は、照度均一化された面光源を用いる。光源120は、たとえば、蛍光灯やLEDなどに拡散板を付けた面光源を用いてよい。   The light source 120 irradiates the bumper from the back side of the bumper. The light source 120 uses a surface light source with uniform illuminance. As the light source 120, for example, a surface light source in which a diffusion plate is attached to a fluorescent lamp, an LED, or the like may be used.

認識部130は、カメラ110、光源120、記憶部140、入出力部150とそれぞれ交信する。認識部130は、カメラ110で取得した局部画像から車種を認識するための特徴画像を生成し、特徴画像と記憶部140に記憶されている複数の基準画像とを照合して相関率を算出し、バンパーの車種を認識する。認識部130は、相関率の最大値が設定値より低い場合、特徴画像を入出力部150により指定された車種の新しい基準画像として、記憶部140に追加記憶させる。一方、相関率の最大値が設定値以上である場合、相関率の最大値を算出した基準画像の対応する車種を、認識すべきバンパーの車種として自動特定する。認識部130は、たとえばCPUを含むコンピュータで構成されてよい。   The recognition unit 130 communicates with the camera 110, the light source 120, the storage unit 140, and the input / output unit 150. The recognizing unit 130 generates a feature image for recognizing the vehicle type from the local image acquired by the camera 110, and compares the feature image with a plurality of reference images stored in the storage unit 140 to calculate a correlation rate. Recognize bumper models. When the maximum value of the correlation rate is lower than the set value, the recognizing unit 130 additionally stores the feature image in the storage unit 140 as a new reference image of the vehicle type specified by the input / output unit 150. On the other hand, when the maximum value of the correlation rate is equal to or greater than the set value, the vehicle type corresponding to the reference image for which the maximum value of the correlation rate is calculated is automatically specified as the vehicle type of the bumper to be recognized. The recognition unit 130 may be configured by a computer including a CPU, for example.

記憶部140は、車種毎にバンパーの車種を自動特定するための基準画像を記憶する。記憶部140は、基準画像テーブルを有する。記憶部140は、たとえばHDDなどの記憶装置であってよい。   The storage unit 140 stores a reference image for automatically specifying the vehicle type of the bumper for each vehicle type. The storage unit 140 has a reference image table. The storage unit 140 may be a storage device such as an HDD.

入出力部150は、認識部130の処理内容及び車種を認識した結果をリアルタイムで目視確認できるように表示し、認識したバンパーの車種情報を下流側の外部装置に出力する。入出力部150は、外部からの指定情報を認識部130に入力する。入出力部150は、たとえばタッチパネルなどのI/O機器である。   The input / output unit 150 displays the processing contents of the recognition unit 130 and the result of recognizing the vehicle type so as to be visually confirmed in real time, and outputs the recognized bumper vehicle type information to the external device on the downstream side. The input / output unit 150 inputs designation information from the outside to the recognition unit 130. The input / output unit 150 is an I / O device such as a touch panel, for example.

図2に示すように、バンパーは、凹部を有する立体的形状であるため、通常、共通部品台Mにより支持された状態で、ワーク認識装置100で車種を認識する。バンパーの外表面には、空気の取入れやランプを取付けるための穴が複数開口されている。   As shown in FIG. 2, since the bumper has a three-dimensional shape having a concave portion, the work recognition device 100 normally recognizes the vehicle type while being supported by the common component base M. The outer surface of the bumper has a plurality of holes for taking in air and attaching a lamp.

図3に示すように、共通部品台Mは、異なる車種のバンパーが搭載できるように、複数のフレームでバンパーを下方から支持するだけで、治具によりバンパーの位置姿勢を固定しない。そのため、人手などによりバンパーを共通部品台Mに搭載するとき、バンパーの位置姿勢を一定にできないので、同車種のバンパーであっても、図4(a)〜(d)に例示したように共通部品台M上では異なる位置姿勢を有する。   As shown in FIG. 3, the common parts table M only supports the bumper from below with a plurality of frames so that bumpers of different vehicle types can be mounted, and does not fix the position and orientation of the bumper with a jig. For this reason, when the bumper is mounted on the common parts table M by hand or the like, the position and orientation of the bumper cannot be made constant, so even the bumper of the same vehicle type is common as illustrated in FIGS. 4 (a) to 4 (d). On the parts table M, they have different positions and orientations.

このように、位置姿勢が定まらないバンパーの車種を正確に把握するために、バンパーを撮像することに関しては、次のような工夫を凝らしている。   As described above, in order to accurately grasp the vehicle type of the bumper whose position and orientation are not determined, the following ingenuity has been devised for imaging the bumper.

図5は、バンパーの撮像部位を例示する図である。図5(a)は、車種Aのバンパーの外表面の一部分を示す図で、図5(b)は、車種Bのバンパーの外表面の一部分を示す図である。車種Aと車種Bのバンパーは、点鎖線で囲まれている開口部分だけが異なる酷似車種である。このように、異なる車種のバンパーの間では、開口部分の形状が異なる。   FIG. 5 is a diagram illustrating an imaging region of the bumper. 5A is a diagram showing a part of the outer surface of the bumper of the vehicle type A, and FIG. 5B is a diagram showing a part of the outer surface of the bumper of the vehicle type B. The bumpers of the vehicle type A and the vehicle type B are very similar vehicle types that differ only in the opening part surrounded by the dotted line. As described above, the shape of the opening portion is different between bumpers of different vehicle types.

カメラ110で広範囲を撮像して取得したバンパーの画像を車種の認識に使用すると、同車種であっても、剛性が低い部分で形状が変化し、酷似車種との区別ができなくなり、認識が不安定となる。   If a bumper image obtained by capturing a wide range with the camera 110 is used for vehicle type recognition, the shape changes at low rigidity even in the same vehicle type, making it impossible to distinguish it from a very similar vehicle type and recognition is not possible. It becomes stable.

したがって、比較的剛性が高く変形しにくい開口部分だけを撮像して、開口部分の画像を車種の認識に使用する。狭い範囲の画像を照合することにより、酷似車種の僅かな形状差異を判別する。   Therefore, only the opening portion that is relatively rigid and difficult to deform is imaged, and the image of the opening portion is used for vehicle type recognition. By collating images in a narrow range, a slight shape difference of a very similar vehicle type is determined.

図6は、光源における光の照射方法の説明に供する図である。   FIG. 6 is a diagram for explaining a light irradiation method in a light source.

図6(a)は、バンパーの開口部分である穴と切欠きのそれぞれからカメラ110までの撮像距離の差Δdを示す図である。仮に、正面側から光源120でバンパーを照射し、同じ正面側からカメラ110でバンパーの外表面を撮像する場合を考える。撮像距離の差Δdがレンズの焦点深度を超えると、カメラ110で取得した画像は、穴と切欠きの少なくとも一方がピンボケした画像となる。   FIG. 6A is a diagram illustrating the difference Δd in the imaging distance from each of the hole, which is the opening of the bumper, and the notch to the camera 110. Suppose that the bumper is irradiated with the light source 120 from the front side and the outer surface of the bumper is imaged with the camera 110 from the same front side. When the imaging distance difference Δd exceeds the focal depth of the lens, the image acquired by the camera 110 is an image in which at least one of the hole and the notch is out of focus.

図6(b)は、バンパーを共通部品台Mに搭載した場合に発生する位置ズレを示す図である。図6(a)の場合と同様に、撮像方向におけるバンパーの位置ズレ量Δd’がレンズの焦点深度を超えると、バンパーの位置によってカメラ110で取得した画像はピンボケする可能性がある。図6(a)、(b)いずれの場合であっても、ピンボケが発生すると、開口部分のエッジ形状は正確に認識できない。   FIG. 6B is a diagram showing a positional deviation that occurs when the bumper is mounted on the common parts table M. FIG. Similar to the case of FIG. 6A, when the bumper positional deviation amount Δd ′ in the imaging direction exceeds the focal depth of the lens, the image acquired by the camera 110 may be out of focus depending on the bumper position. In either case of FIGS. 6A and 6B, when the blur occurs, the edge shape of the opening cannot be accurately recognized.

したがって、光源120を図6に示したように、カメラ110と対向して他方側から面光源によりバンパーを照射して、バンパーのシルエットを作る。光源120からの光は、バンパーの開口部分を通り抜けるため、バンパーの正面側からみると、開口部分のエッジ形状が浮かび上がる。カメラ110は、バンパーの端面の明暗を撮像する。したがって、レンズの焦点深度によらずに開口部分のエッジ形状が認識しやすくなる。   Therefore, as shown in FIG. 6, the bumper is irradiated with the surface light source from the other side of the light source 120 so as to face the camera 110, thereby creating a bumper silhouette. Since the light from the light source 120 passes through the opening portion of the bumper, the edge shape of the opening portion appears when viewed from the front side of the bumper. The camera 110 images the brightness of the end face of the bumper. Therefore, it becomes easy to recognize the edge shape of the opening regardless of the focal depth of the lens.

図7は、基準画像テーブルのイメージを示す図である。行番号A、B、・・・、Xはバンパーの車種を示し、列番号1、2、・・・、Yは基準画像の順番を示す。行列座標(X、Y)に位置するRMXYは、車種Xの第Y番目基準画像を示す。たとえば、行列座標(C、2)に位置するRMC2は、車種Cの第2番目の基準画像を示す。行列座標(A、3)のようにリザーブの位置は、基準画像を追加記憶できる位置を示す。記憶部140は、基準画像テーブルの行列座標に応じて車種ごとに基準画像を管理する。認識部130から基準画像テーブルにアクセスして、基準画像の追加または削除ができる。 FIG. 7 is a diagram illustrating an image of the reference image table. Line numbers A, B,..., X indicate bumper vehicle types, and column numbers 1, 2,..., Y indicate the order of reference images. RM XY located at the matrix coordinates (X, Y) indicates the Yth reference image of the vehicle type X. For example, RM C2 located at the matrix coordinates (C, 2) indicates the second reference image of the vehicle type C. The reserve position, such as the matrix coordinates (A, 3), indicates a position where the reference image can be additionally stored. The storage unit 140 manages the reference image for each vehicle type according to the matrix coordinates of the reference image table. The reference image table can be accessed from the recognition unit 130 to add or delete the reference image.

<ワーク認識装置の動作>
図8は、実施形態1に係るワーク認識装置の動作フローチャートである。図8に示した動作フローチャートは、実施形態1に係るワーク認識方法の手順を示すものでもある。
<Operation of workpiece recognition device>
FIG. 8 is an operation flowchart of the workpiece recognition apparatus according to the first embodiment. The operation flowchart shown in FIG. 8 also shows the procedure of the workpiece recognition method according to the first embodiment.

実施形態1に係るワーク認識方法をより分かりやすくするため、同車種Bである3つのバンパーが順番に、ワーク認識装置100により認識される態様を例示しながら説明する。図9及び図10は、1番目のバンパーの認識を説明するために供する図である。図11及び図12は、2番目のバンパーの認識を説明するために供する図である。図13及び図14は、3番目のバンパーの認識を説明するために供する図である。   In order to make the workpiece recognition method according to the first embodiment easier to understand, an example in which three bumpers that are the same vehicle type B are sequentially recognized by the workpiece recognition apparatus 100 will be described. 9 and 10 are diagrams for explaining recognition of the first bumper. 11 and 12 are diagrams for explaining recognition of the second bumper. FIGS. 13 and 14 are diagrams for explaining recognition of the third bumper.

ここで、共通部品台M上のバンパーの位置姿勢として、1番目から2番目の場合は比較的大きな位置ズレが発生し、2番目から3番目の場合は比較的小さな位置ズレが発生している。すなわち、カメラ110で取得した画像において、図9(a)に示す1番目のバンパーの局部画像Iと図11(a)及び図13(a)に示す2番目及び3番目のバンパーの局部画像I及びIとは比較的大きく異なるが、2番目の局部画像Iと3番目の局部画像Iとは比較的小さく異なる。 Here, as the position and orientation of the bumper on the common parts table M, a relatively large positional deviation occurs in the first to second cases, and a relatively small positional deviation occurs in the second to third cases. . That is, in the images acquired by the camera 110, the second and third bumper local image shown in FIG. 9 (a) 1-th and the local image I A bumper shown in FIGS. 11 (a) and 13 (a) different relatively large and I B and I C, but the second local image I B and third local image I C different relatively small.

実施形態1に係るワーク認識方法は、2番目のバンパーの認識におけるワーク認識装置100の動作において、基準画像を記憶部140に追加記憶させるので、2番目以降の車種Bのバンパーの認識率を向上させている。   In the workpiece recognition method according to the first embodiment, the reference image is additionally stored in the storage unit 140 in the operation of the workpiece recognition apparatus 100 in the recognition of the second bumper. Therefore, the recognition rate of the second and subsequent vehicle type B bumpers is improved. I am letting.

以下、図9〜図14を参照しながら、図8の動作フローチャートに基づいて、実施形態1に係るワーク認識装置100の動作を詳細に説明する。   Hereinafter, the operation of the workpiece recognition apparatus 100 according to the first embodiment will be described in detail with reference to FIGS. 9 to 14 based on the operation flowchart of FIG.

<ステップS100>
カメラ110は、バンパーの局部画像を取得する。具体的には、カメラ110は、バンパーの正面側からバンパーの開口部分のシルエット画像を取得する。たとえば、1番目のバンパーの認識において、図9(a)に示す局部画像Iを取得する。同様に、2番目及び3番目のバンパーの認識において、図11(a)及び図13(a)に示す局部画像I及びIを取得する。局部画像の取得処理の詳細については、図15のサブルーチンフローチャートを用いて後述する。
<Step S100>
The camera 110 acquires a local image of the bumper. Specifically, the camera 110 acquires a silhouette image of the opening portion of the bumper from the front side of the bumper. For example, in the recognition of the first bumper, it obtains a local image I A shown in Figure 9 (a). Similarly, in the recognition of the second and third bumper, it obtains a local image I B and I C are shown in FIGS. 11 (a) and 13 (a). Details of the local image acquisition processing will be described later with reference to a subroutine flowchart of FIG.

<ステップS200>
認識部130は、ステップS100で取得した局部画像から特徴画像を生成する。具体的には、認識部130は、開口部分のシルエット画像をエッジ処理して開口部分のエッジライン画像を生成する。開口部分のエッジライン画像を特徴画像として使用する。たとえば、1番目のバンパーの認識において、図9(b)に示す特徴画像SMを生成する。同様に、2番目及び3番目のバンパーの認識において、図11(b)及び図13(b)に示す特徴画像SM及びSMを生成する。
<Step S200>
The recognition unit 130 generates a feature image from the local image acquired in step S100. Specifically, the recognition unit 130 performs edge processing on the silhouette image of the opening to generate an edge line image of the opening. An edge line image of the opening is used as a feature image. For example, in the recognition of the first bumper, it generates a feature image SM A shown in Figure 9 (b). Similarly, the feature images SM B and SM C shown in FIGS. 11B and 13B are generated in the recognition of the second and third bumpers.

<ステップS300>
認識部130は、基準画像テーブルにアクセスして記憶部140に記憶されている複数の基準画像を順番に呼び出し、ステップS200で生成した特徴画像との相関率の最大値RMAXを算出する。たとえば、1番目のバンパーの認識において、図10に示す基準画像テーブルにアクセスして、特徴画像SMと既に記憶されているすべての基準画像との相関率の最大値RMAXを算出する。同様に、2番目及び3番目のバンパーの認識において、それぞれ図12及び図14に示す基準画像テーブルにアクセスして、相関率の最大値RMAXを算出する。図9(c)、図11(c)及び図13(c)に、それぞれの認識において相関率の最大値RMAXを算出した基準画像RMB1、RMB1、RMB2を示す。図9(d)、図11(d)及び図13(d)に、それぞれの認識において認識部130でバンパーの車種を認識した結果の一部を示す。相関率の最大値RMAXの算出処理の詳細については、図16のサブルーチンフローチャートを用いて後述する。
<Step S300>
The recognizing unit 130 accesses the reference image table, sequentially calls a plurality of reference images stored in the storage unit 140, and calculates the maximum value R MAX of the correlation rate with the feature image generated in step S200. For example, calculated in the recognition of the first bumper accesses the reference image table shown in Figure 10, the maximum value R MAX of the correlation coefficient between the feature images SM A already with all the reference image stored. Similarly, in the recognition of the second and third bumpers, the reference image tables shown in FIGS. 12 and 14 are accessed to calculate the maximum correlation value R MAX . FIG. 9C, FIG. 11C, and FIG. 13C show reference images RM B1 , RM B1 , and RM B2 in which the maximum value R MAX of the correlation rate is calculated in each recognition. FIG. 9D, FIG. 11D, and FIG. 13D show a part of the result of recognizing the bumper vehicle type by the recognition unit 130 in each recognition. Details of the processing for calculating the maximum value R MAX of the correlation rate will be described later using the subroutine flowchart of FIG.

<ステップS400>
認識部130は、ステップS300で算出された相関率の最大値RMAXと設定値RThとの大きさを比較する。RMAXがRTh以上である場合はステップS500に移行し、そうでない場合はステップS600に移行する。
<Step S400>
The recognizing unit 130 compares the maximum correlation value R MAX calculated in step S300 with the set value R Th . If R MAX is equal to or greater than R Th , the process proceeds to step S500, and otherwise, the process proceeds to step S600.

<ステップS500>
ステップS300で算出されたRMAXがRTh以上であるため、認識部130は、当該RMAXを算出した基準画像が対応するバンパーの車種を、認識すべきバンパーの車種として自動特定する。たとえば、1番目のバンパーの認識において、図9(d)に示すように相関率の最大値75%が設定値60%以上であるため、図9(c)に示す基準画像RMB1の図10に示す基準画像テーブルにおける行座標Bを、バンパーの車種として自動特定する。また、3番目のバンパーの認識において、図13(d)に示すように相関率の最大値88%が設定値60%以上であるため、図13(c)に示す基準画像RMB2の図14に示す基準画像テーブルにおける行座標Bを、バンパーの車種として自動特定する。
<Step S500>
Since R MAX calculated in step S300 is equal to or greater than R Th , the recognition unit 130 automatically identifies the bumper vehicle type corresponding to the reference image for which the R MAX is calculated as the bumper vehicle type to be recognized. For example, in the recognition of the first bumper, since the maximum value 75% of the correlation rate is equal to or more than the set value 60% as shown in FIG. 9D, FIG. 10 of the reference image RM B1 shown in FIG. The line coordinates B in the reference image table shown in FIG. In the recognition of the third bumper, since the maximum value 88% of the correlation rate is 60% or more as shown in FIG. 13D , FIG. 14 of the reference image RM B2 shown in FIG. The line coordinates B in the reference image table shown in FIG.

上記の例において、図10に示す基準画像テーブルは、図7の基準画像テーブルと同様で、基準画像の数が変化していないが、図14に示す基準画像テーブルは、図7の基準画像テーブルに比べ、基準画像の数が1個増加している。増加された基準画像は、後述のステップS800で追加記憶された基準画像RMB2である。 In the above example, the reference image table shown in FIG. 10 is the same as the reference image table shown in FIG. 7, and the number of reference images is not changed. However, the reference image table shown in FIG. The number of reference images is increased by one. The increased reference image is a reference image RM B2 additionally stored in step S800 described later.

<ステップS600>
ステップS300で算出されたRMAXがRThより低いため、認識部130は、認識処理を中断させ、当該RMAXを算出した基準画像で車種を認識した結果を、入出力部150に表示させる。認識した結果には、認識結果(OK/NG)、基準画像、相関率RMAX、設定値RThなどの情報を含む。たとえば、2番目のバンパーの認識においては、図11(d)に示すように、相関率の最大値44%が設定値60%より低いため、図11(c)に示す基準画像RMB1で車種を認識した結果を表示させる。ここで、図12に示す基準画像テーブルは、図7の基準画像テーブルと同様で、基準画像の数は変化していない。
<Step S600>
Since R MAX calculated in step S300 is lower than R Th , the recognition unit 130 interrupts the recognition process, and causes the input / output unit 150 to display the result of recognizing the vehicle type with the reference image for which the R MAX is calculated. The recognition result includes information such as a recognition result (OK / NG), a reference image, a correlation rate R MAX , and a set value R Th . For example, in the recognition of the second bumper, as shown in FIG. 11 (d), the maximum value 44% of the correlation rate is lower than the set value 60%. Therefore, the vehicle type in the reference image RM B1 shown in FIG. The result of recognizing is displayed. Here, the reference image table shown in FIG. 12 is the same as the reference image table of FIG. 7, and the number of reference images does not change.

<ステップS700>
作業者は、バンパーを目視確認して、バンパーの車種を手動で指定して、入出力部150を通じて認識部130入力する。たとえば、2番目のバンパーの認識において、車種Bを手動で指定して認識部130に入力する。
<Step S700>
The operator visually confirms the bumper, manually designates the vehicle type of the bumper, and inputs the recognition unit 130 through the input / output unit 150. For example, in recognition of the second bumper, the vehicle type B is manually designated and input to the recognition unit 130.

<ステップS800>
認識部130は、基準画像テーブルを操作して、特徴画像を入出力部150により指定された車種の新たな基準画像として、記憶部140に記憶させ、認識処理を再開する。たとえば、2番目のバンパーの認識において、図12に示す基準画像テーブルから車種Bのリザーブ位置の行列座標(B、2)を探して、特徴画像SMを車種Bの新しい基準画像RMB2として記憶部140に追加記憶させる。
<Step S800>
The recognition unit 130 operates the reference image table to store the feature image in the storage unit 140 as a new reference image of the vehicle type specified by the input / output unit 150, and restarts the recognition process. For example, in the recognition of the second bumpers, looking for a matrix coordinate of the reserve position of the vehicle type B from the reference image table shown in FIG. 12 (B, 2), stores the feature image SM B as the new reference image RM B2 models B It is additionally stored in the unit 140.

したがって、基準画像テーブルにおいて、車種Bの基準画像が1個増加されるため、2番目以降の車種Bのバンパーの認識率が向上できる。たとえば、3番目のバンパーの認識において、基準画像RMB2が追加記憶されていなかった場合を考える。上述したように、共通部品台M上における3番目のバンパーの位置姿勢が2番目のバンパーの位置姿勢とそれほど変わらないため、2番目のバンパーの車種を認識した結果と同じく、車種を自動特定できないはずである。しかし、2番目のバンパーの認識において、ステップS800で基準画像テーブルに車種Bの基準画像RMB2を追加記憶させるので、上述したステップS500で3番目のバンパーも車種Bであると自動特定できている。 Therefore, in the reference image table, the reference image of the vehicle type B is increased by one, so that the recognition rate of the second and subsequent vehicle type B bumpers can be improved. For example, consider a case where the reference image RM B2 is not additionally stored in the recognition of the third bumper. As described above, since the position / posture of the third bumper on the common parts table M is not so different from the position / posture of the second bumper, the vehicle type cannot be automatically specified as in the result of recognizing the vehicle type of the second bumper. It should be. However, in the recognition of the second bumper, the reference image RM B2 of the vehicle type B is additionally stored in the reference image table in step S800, so that the third bumper can be automatically specified as the vehicle type B in step S500 described above. .

<ステップS900>
入出力部150は、バンパーの車種情報を下流側の外部装置に出力する。
<Step S900>
The input / output unit 150 outputs bumper vehicle type information to an external device on the downstream side.

以上のように、ワーク認識装置100は、ステップS800の動作を行う場合だけ、基準画像を記憶部140に追加記憶するので、必要以上に基準画像を記憶しなくてよい。たとえば、基準画像テーブルに既に記憶されている基準画像と、ステップS200で生成した特徴画像と、を照合するだけで車種を自動特定できる場合、当該車種に対してはそれ以上の基準画像を記憶しない。合理的かつ柔軟に基準画像を記憶させることで、バンパーの車種の認識率を向上しながら基準画像の数を最小限に抑えることができる。したがって、特徴画像との相関率の算出処理時間も短縮できる。   As described above, since the workpiece recognition apparatus 100 additionally stores the reference image in the storage unit 140 only when performing the operation of step S800, it is not necessary to store the reference image more than necessary. For example, when the vehicle type can be automatically specified only by comparing the reference image already stored in the reference image table with the feature image generated in step S200, no further reference image is stored for the vehicle type. . By storing the reference images reasonably and flexibly, the number of reference images can be minimized while improving the recognition rate of the bumper vehicle type. Therefore, the processing time for calculating the correlation rate with the feature image can be shortened.

さらに、バンパーの車種に変更がある場合や生産条件の変更によりバンパーの車種の基準画像が変更される場合でも、その都度基準画像テーブルを操作するだけで基準画像を削除または追加記憶できる。したがって、基準画像を記憶しなおすための製造ラインのストップを回避できる。   Further, even when the bumper vehicle type is changed or the reference image of the bumper vehicle type is changed due to a change in production conditions, the reference image can be deleted or additionally stored only by operating the reference image table each time. Therefore, it is possible to avoid stopping the production line for re-storing the reference image.

次に、局部画像の取得処理プロセスステップS100の詳細について説明する。図15は、図8の動作フローチャートにおける実施形態1の画像取得ステップS100のサブルーチンフローチャートである。   Next, details of the local image acquisition process step S100 will be described. FIG. 15 is a subroutine flowchart of the image acquisition step S100 of the first embodiment in the operation flowchart of FIG.

<ステップS1101>
光源120は、バンパーの背面側からバンパーを照射し、バンパーのシルエットを作る。光源120は、カメラ110の撮像中にバンパーを照射すればよい。
<Step S1101>
The light source 120 irradiates the bumper from the back side of the bumper to create a bumper silhouette. The light source 120 may irradiate the bumper while the camera 110 is imaging.

<ステップS1102>
カメラ110は、バンパーの正面側からバンパーの開口部分のシルエット画像を取得する。カメラ110の撮像後、光源120を消灯してもよい。
<Step S1102>
The camera 110 acquires a silhouette image of the opening portion of the bumper from the front side of the bumper. After imaging by the camera 110, the light source 120 may be turned off.

次に、特徴画像と基準画像との相関率の最大値RMAX算出プロセスステップS300の詳細の処理について詳細に説明する。図16は、図8の動作フローチャートにおける実施形態1のステップS300のサブルーチンフローチャートである。認識部130により、以下のステップS1301〜S1307の動作を行う。 Next, detailed processing of the maximum value R MAX calculation process step S300 of the correlation rate between the feature image and the reference image will be described in detail. FIG. 16 is a subroutine flowchart of step S300 of the first embodiment in the operation flowchart of FIG. The recognition unit 130 performs the following operations in steps S1301 to S1307.

<ステップS1301>
算出処理に用いる変数を初期化する。たとえば、相関率の最大値RMAXを0に初期化する。
<Step S1301>
Initialize variables used in the calculation process. For example, the maximum correlation value R MAX is initialized to zero.

<ステップS1302>
記憶部140の基準画像テーブルから現在記憶されている基準画像の個数Nを取得する。
<Step S1302>
The number N of reference images currently stored is acquired from the reference image table in the storage unit 140.

<ステップS1303>
N個の基準画像から一つの基準画像を選択する。基準画像の選択方法は任意であってよい。ただし、1回のサブルーチン処理において同じ基準画像の重複選択はしない。
<Step S1303>
One reference image is selected from the N reference images. The method for selecting the reference image may be arbitrary. However, the same reference image is not selected repeatedly in a single subroutine process.

<ステップS1304>
特徴画像と選択した基準画像との相関率を算出する。相関率の算出は通常のパターンマッチング手法を用いる。たとえば、エッジラインの形状のみに注目し、位置ズレや回転量を補正するパターンマッチングを行って、エッジラインという形状特徴の類似度を算出する。
<Step S1304>
A correlation rate between the feature image and the selected reference image is calculated. The correlation rate is calculated using a normal pattern matching method. For example, paying attention only to the shape of the edge line, pattern matching for correcting the positional deviation and the rotation amount is performed, and the similarity of the shape feature called the edge line is calculated.

<ステップS1305>
ステップS1304で算出した相関率をRMAXと比較する。相関率がRMAXより大きい場合はステップS1306に移行し、そうでない場合はステップS1307に移行する。
<Step S1305>
The correlation rate calculated in step S1304 is compared with R MAX . If the correlation rate is greater than R MAX, the process proceeds to step S1306, and otherwise, the process proceeds to step S1307.

<ステップS1306>
相関率をRMAXに代入する。したがって、RMAXは、特徴画像と基準画像との相関率を算出する度、常に最大値を有する。
<Step S1306>
Substituting the correlation rate into R MAX . Therefore, R MAX always has a maximum value every time the correlation rate between the feature image and the reference image is calculated.

<ステップS1307>
すべての基準画像との相関率算出を終えたか否か判断する。すべて終えた場合は図8のステップS400に移行し、そうでない場合はステップS1303に移行する。
<Step S1307>
It is determined whether or not calculation of correlation rates with all reference images has been completed. If all the processes are completed, the process proceeds to step S400 in FIG. 8, and otherwise, the process proceeds to step S1303.

実施形態1では、バンパーの正面側から局部画像を取得する場合を説明したが、これに限らず、他の方向、例えばバンパーの側面側から局部画像を取得してもよい。   In the first embodiment, the case where the local image is acquired from the front side of the bumper has been described. However, the present invention is not limited thereto, and the local image may be acquired from another direction, for example, the side surface side of the bumper.

実施形態1では、基準画像テーブルになんらかの基準画像が記憶されている前提から説明したが、基準画像が一つも記憶されていない空白状態から動作開始してもよい。この場合、基準画像が存在しないため、最初の特徴画像をそのまま基準画像として記憶させる。   Although the first embodiment has been described based on the assumption that some reference image is stored in the reference image table, the operation may be started from a blank state in which no reference image is stored. In this case, since there is no reference image, the first feature image is stored as it is as the reference image.

実施形態1に係るワーク認識方法およびワーク認識装置は、基準画像を必要に応じて追加記憶しながらバンパーの車種を認識する。同車種のバンパーが変形などによる形状変化や位置ズレが発生しても、認識形状の違いが発生した都度、同車種として記憶部140に追加記憶させる。したがって、バンパーの認識率を向上できる。   The workpiece recognition method and workpiece recognition apparatus according to the first embodiment recognize the bumper vehicle type while additionally storing a reference image as necessary. Even if the bumper of the same vehicle type changes in shape or displacement due to deformation or the like, it is additionally stored in the storage unit 140 as the same vehicle type whenever a difference in recognized shape occurs. Therefore, the recognition rate of the bumper can be improved.

実施形態1に係るワーク認識方法およびワーク認識装置は、面光源によりバンパーのシルエットを作り、カメラで開口部分のシルエット画像を撮像する。したがって、車種を認識できる開口部分の形状特徴が安定で、バンパーの認識率を向上できる。   The workpiece recognition method and workpiece recognition apparatus according to the first embodiment create a bumper silhouette with a surface light source, and capture a silhouette image of an opening with a camera. Therefore, the shape feature of the opening that can recognize the vehicle type is stable, and the recognition rate of the bumper can be improved.

(実施形態2)
<ワーク認識装置の構成>
図17は、実施形態2に係るワーク認識装置の構成を示す図である。図18は、実施形態2に係るカメラおよび光源を示す平面図である。
(Embodiment 2)
<Configuration of workpiece recognition device>
FIG. 17 is a diagram illustrating a configuration of a workpiece recognition apparatus according to the second embodiment. FIG. 18 is a plan view showing a camera and a light source according to the second embodiment.

ワーク認識装置200は、カメラ210及び211、光源220及び221、認識部230、記憶部240及び入出力部250を有する。ワーク認識装置200は、実施形態1に係るワーク認識装置100と同様のものを使用してよい。   The workpiece recognition apparatus 200 includes cameras 210 and 211, light sources 220 and 221, a recognition unit 230, a storage unit 240, and an input / output unit 250. The workpiece recognition apparatus 200 may be the same as the workpiece recognition apparatus 100 according to the first embodiment.

実施形態2と実施形態1に係るワーク認識装置の構成上の違いは、実施形態2に係るワーク認識装置200は、2方向からバンパーを撮像して車種を認識するところである。2方向から取得したバンパーの局部画像から特徴画像を生成し、それぞれの特徴画像と記憶部240に記憶されている基準画像との相関率を求め、相関率の最大値RMAXを算出して、バンパーの車種を認識する。 The difference in configuration between the workpiece recognition apparatuses according to the second embodiment and the first embodiment is that the workpiece recognition apparatus 200 according to the second embodiment recognizes the vehicle type by imaging the bumper from two directions. A feature image is generated from a local image of a bumper acquired from two directions, a correlation rate between each feature image and a reference image stored in the storage unit 240 is calculated, a maximum value R MAX of the correlation rate is calculated, Recognize bumper models.

図19〜図21を用いて、実施形態2に係るワーク認識装置200で同車種Bのバンパーを撮像するイメージを示す。図19〜図21において、図(a)、(b)にカメラ210、211とバンパーの位置関係を示し、図(c)にカメラ210で取得した画像より生成する特徴画像のエッジライン形状、図(d)にカメラ211で取得した画像より生成する特徴画像のエッジライン形状を示す。   The image which image | photographs the bumper of the same vehicle type B with the workpiece | work recognition apparatus 200 which concerns on Embodiment 2 is shown using FIGS. 19A to 21B, the positional relationship between the cameras 210 and 211 and the bumper is shown in FIGS. 19A and 21B, and the edge line shape of the feature image generated from the image acquired by the camera 210 is shown in FIG. (D) shows the edge line shape of the feature image generated from the image acquired by the camera 211.

図19は、実施形態2に係るワーク認識装置でバンパーを撮像するイメージの一例を示す図である。   FIG. 19 is a diagram illustrating an example of an image in which a bumper is imaged by the workpiece recognition apparatus according to the second embodiment.

図20は、実施形態2に係るワーク認識装置で図19の例からバンパーが歪んだ場合の位置姿勢を撮像するイメージを示す図である。図20(c)と図19(c)を比較すると、バンパーが歪んだ場合、正面側の開口部分のエッジライン形状は変化しない。一方、図20(d)と図19(d)を比較すると、バンパーが歪んだ場合、側面側の開口部分のエッジライン形状は変化する。   FIG. 20 is a diagram showing an image of the position and orientation when the bumper is distorted from the example of FIG. 19 in the work recognition apparatus according to the second embodiment. Comparing FIG. 20C and FIG. 19C, when the bumper is distorted, the edge line shape of the opening portion on the front side does not change. On the other hand, comparing FIG. 20D and FIG. 19D, when the bumper is distorted, the edge line shape of the opening portion on the side surface side changes.

図21は、実施形態2に係るワーク認識装置で図19の例からバンパーが捻れた場合の位置姿勢を撮像するイメージを示す図である。図21(c)と図19(c)を比較すると、バンパーが捻れた場合、正面側の開口部分のエッジライン形状は変化する。一方、図21(d)と図19(d)を比較すると、バンパーが捻れた場合、側面側の開口部分のエッジライン形状は変化しない。   FIG. 21 is a diagram showing an image of the position and orientation when the bumper is twisted from the example of FIG. 19 in the workpiece recognition apparatus according to the second embodiment. Comparing FIG. 21C and FIG. 19C, when the bumper is twisted, the edge line shape of the opening portion on the front side changes. On the other hand, comparing FIG. 21D and FIG. 19D, when the bumper is twisted, the edge line shape of the opening portion on the side surface side does not change.

バンパーが歪んだ場合、カメラ211よりも、正面側からバンパーを撮像するカメラ210で取得した画像からバンパーの車種を認識しやすい。一方、バンパーが捻れた場合、カメラ210よりも、側面側からバンパーを撮像するカメラ211で取得した画像からバンパーの車種を認識しやすい。   When the bumper is distorted, it is easier to recognize the vehicle type of the bumper from the image acquired by the camera 210 that images the bumper from the front side than the camera 211. On the other hand, when the bumper is twisted, it is easier to recognize the vehicle type of the bumper from the image acquired by the camera 211 that images the bumper from the side than the camera 210.

図19(c)のエッジライン形状を有する特徴画像が基準画像テーブルに基準画像として記憶されているとする。図21に示すようにバンパーが捻れた場合、捻れた角度によって図21(c)のエッジライン形状と図19(c)のエッジライン形状とは比較的大きく異なり、両者の相関率は低くなり得る。相関率の最大値が設定値より低いと、バンパーの車種を自動特定できない。したがって、同車種のバンパーであっても、認識率を向上させるために、捻れた方向で多数の基準画像を追加記憶しなければならない。   Assume that a feature image having the edge line shape of FIG. 19C is stored as a reference image in the reference image table. When the bumper is twisted as shown in FIG. 21, the edge line shape of FIG. 21 (c) and the edge line shape of FIG. 19 (c) are relatively different depending on the twist angle, and the correlation between the two can be low. . If the maximum correlation rate is lower than the set value, the bumper model cannot be automatically identified. Therefore, even in the case of the bumper of the same vehicle type, in order to improve the recognition rate, a large number of reference images must be additionally stored in the twisted direction.

一方、図19(d)のエッジライン形状を有する特徴画像が基準画像テーブルに基準画像として記憶されているなら、図21(d)のエッジライン形状と図19(d)のエッジライン形状はそれほど変わらないため、両者の相関率は高く、正面側のように多数の基準画像を追加記憶しなくても、十分に車種を自動特定できる。   On the other hand, if the feature image having the edge line shape of FIG. 19D is stored as the reference image in the reference image table, the edge line shape of FIG. 21D and the edge line shape of FIG. Since there is no change, the correlation rate between the two is high, and the vehicle type can be sufficiently automatically specified without additionally storing a large number of reference images as in the front side.

<ワーク認識装置の動作>
実施形態2に係るワーク認識装置の動作も、実施形態1と同様に図8の動作フローチャートで示すことができる。
<Operation of workpiece recognition device>
The operation of the workpiece recognition apparatus according to the second embodiment can also be shown in the operation flowchart of FIG.

実施形態2と実施形態1に係るワーク認識装置の動作上の違いは、図8における画像取得ステップS100と相関率の最大値RMAXの算出ステップS400のサブルーチンが異なるところである。 The difference in operation between the workpiece recognition apparatus according to the second embodiment and the first embodiment is that the subroutine of the image acquisition step S100 and the maximum correlation rate R MAX calculation step S400 in FIG. 8 is different.

図22は、図8の動作フローチャートにおける実施形態2の画像取得ステップS100のサブルーチンフローチャートである。   FIG. 22 is a subroutine flowchart of the image acquisition step S100 of the second embodiment in the operation flowchart of FIG.

ステップS2101およびステップS2103は、実施形態1のステップS1101と同様の動作を行い、光源220、221でバンパーのシルエットを作る。   Steps S2101 and S2103 perform the same operation as step S1101 of the first embodiment, and create a bumper silhouette with the light sources 220 and 221.

ステップS2102およびステップS2104は、実施形態1のステップS1102と同様の動作を行い、カメラ210、211でバンパーの開口部分のシルエット画像を取得する。   Steps S2102 and S2104 perform the same operation as in step S1102 of the first embodiment, and the silhouette images of the opening portions of the bumper are acquired by the cameras 210 and 211.

先にステップS2103およびステップS2104の動作を行い、その後にステップS2101およびステップS2102の動作を行ってもよい。より鮮明なシルエット画像を取得するために、光源220と221を同時に照射させカメラ210および211で撮像せず、順番に照射して撮像することがよい。   The operations of step S2103 and step S2104 may be performed first, and then the operations of step S2101 and step S2102 may be performed. In order to obtain a clearer silhouette image, it is preferable to irradiate the light sources 220 and 221 at the same time and not shoot with the cameras 210 and 211 but irradiate them in order.

図23は、図8の動作フローチャートにおける実施形態2のステップS300のサブルーチンフローチャートである。   FIG. 23 is a subroutine flowchart of step S300 of the second embodiment in the operation flowchart of FIG.

実施形態2のステップS2301は実施形態1のステップS1301と、実施形態2のステップS2304〜ステップS2308は実施形態1のステップS1302〜ステップS1306と、同様な動作を行う。   Step S2301 of the second embodiment performs the same operation as step S1301 of the first embodiment, and steps S2304 to S2308 of the second embodiment perform the same operations as steps S1302 to S1306 of the first embodiment.

以下、実施形態2において、実施形態1と異なる動作を行うステップS2302、ステップS2303、ステップS2309、ステップS2310の動作だけ説明する。   Hereinafter, only operations of Step S2302, Step S2303, Step S2309, and Step S2310 that perform operations different from those of the first embodiment will be described in the second embodiment.

<ステップS2302>
局部画像から生成した特徴画像の個数Mを取得する。たとえば、2つのカメラ210、211を用いて取得した2つの局部画像から特徴画像を生成する場合、特徴画像の個数Mを2とする。
<Step S2302>
The number M of feature images generated from the local images is acquired. For example, when a feature image is generated from two local images acquired using the two cameras 210 and 211, the number M of feature images is set to two.

<ステップS2303>
M個の特徴画像から一つの特徴画像を選択する。特徴画像の選択方法は任意であってよい。ステップS100でバンパーを撮像した順番に応じて、たとえば、先に撮像したカメラ210で取得した画像から生成する特徴画像を選択することでよい。ただし、1回のサブルーチン処理において同じ特徴画像の重複選択はしない。
<Step S2303>
One feature image is selected from the M feature images. The method for selecting the feature image may be arbitrary. According to the order in which the bumpers are imaged in step S100, for example, a feature image generated from the image acquired by the camera 210 previously captured may be selected. However, the same feature image is not selected repeatedly in a single subroutine process.

<ステップS2309>
すべての基準画像との相関率算出を終えたか否か判断する。すべて終えた場合はステップS2310に移行し、そうでない場合はステップS2305に移行する。
<Step S2309>
It is determined whether or not calculation of correlation rates with all reference images has been completed. If all are completed, the process proceeds to step S2310. Otherwise, the process proceeds to step S2305.

<ステップS2310>
すべての特徴画像とN個の基準画像との相関率算出を終えたか否か判断する。すべて終えた場合は図8のステップS400に移行し、そうでない場合はステップS2303に移行する。
<Step S2310>
It is determined whether or not calculation of correlation rates between all feature images and N reference images has been completed. If all the processes are completed, the process proceeds to step S400 in FIG. 8, and otherwise, the process proceeds to step S2303.

実施形態2に係るワーク認識方法の理解をより分かりやすくするため、車種Bであるバンパーが実施形態2に係るワーク認識装置200により認識されるステップを例示しながら説明する。   In order to make the understanding of the workpiece recognition method according to the second embodiment easier to understand, a step in which a bumper that is a vehicle type B is recognized by the workpiece recognition device 200 according to the second embodiment will be described.

図24は、実施形態2に係るワーク認識装置でバンパーの車種を認識する例を説明するために供する図である。図(a)にカメラ211により取得した局部画像Iを示し、図(b)に局部画像Iからエッジ処理して生成した特徴画像SMを示す。図(c)に相関率の最大値RMAXを算出した基準画像RMB2’を示し、図(d)に車種を認識した結果の一部を示す。比較として、実施形態2に係るワーク認識装置200の正面側のカメラ210で取得した局部画像Iおよび特徴画像SMが図11(a)、図11(b)に示すものであるとする。図25は、図24の例における基準画像テーブルのイメージを示す図である。 FIG. 24 is a diagram for explaining an example of recognizing a bumper vehicle type by the workpiece recognition apparatus according to the second embodiment. Shows the local image I D obtained by the camera 211 in FIG. (A), shows the feature image SM D generated by the edge processing from the local image I D in FIG. (B). The reference image RM B2 ′ from which the maximum correlation rate value R MAX is calculated is shown in FIG. (C), and part of the result of recognizing the vehicle type is shown in FIG. As a comparison, a local image I B, and wherein the image SM B obtained in the front side of the camera 210 of the workpiece recognition device 200 according to the second embodiment is assumed to be those shown in FIG. 11 (a), FIG. 11 (b). FIG. 25 is a diagram showing an image of the reference image table in the example of FIG.

カメラ210および211は、それぞれバンパーの局部画像I及びIを取得する(S100)。 Camera 210 and 211 obtains a local image I B and I D of the bumper, respectively (S100).

認識部230は、局部画像I及びIから特徴画像SM及びSMを生成する(S200)。 The recognition unit 230 generates feature images SM B and SM D from the local images I B and I D (S200).

認識部230は、図25に示す基準画像テーブルにアクセスして記憶部240に記憶されている複数の基準画像を順番に呼び出し、特徴画像SM及びSMとの相関率の最大値RMAXを算出する(S300)。 Recognition unit 230, a plurality of reference images stored in the storage unit 240 accesses the reference image table shown in Figure 25 call in turn, the maximum value R MAX of the correlation coefficient between the feature images SM B and SM D Calculate (S300).

図11(d)および図24(d)に示すように、基準モデルRMB2’の相関率80%が基準モデルRMB1の相関率44%より大きいため、ステップS300において、算出される相関率の最大値RMAXは80%となる。 As shown in FIGS. 11D and 24D , since the correlation rate 80% of the reference model RM B2 ′ is larger than the correlation rate 44% of the reference model RM B1 , the correlation rate calculated in step S300 is The maximum value R MAX is 80%.

認識部130は、相関率の最大値80%と設定値60%との大きさを比較する(S400)。   The recognizing unit 130 compares the maximum correlation rate value of 80% with the set value of 60% (S400).

MAXがRTh以上であるため、認識部130は、当該RMAXを算出した基準画像RMB2’が対応するバンパーの車種Bを、認識すべきバンパーの車種として自動特定できる(S500)。 Since R MAX is equal to or greater than R Th , the recognition unit 130 can automatically specify the bumper vehicle type B corresponding to the reference image RM B2 ′ for which the R MAX is calculated as the bumper vehicle type to be recognized (S500).

入出力部250は、バンパーの車種情報を下流側の外部装置に出力する(S900)。   The input / output unit 250 outputs bumper vehicle type information to an external device on the downstream side (S900).

以上のように、実施形態2に係るワーク認識装置200は、2つの方向からバンパーを撮像して、基準画像テーブルにおける2つの方向の基準画像と照合し、各方向における特徴画像と基準画像との相関率の最大値を算出して、バンパーの車種を認識することで、バンパーの認識率を向上させている。   As described above, the workpiece recognition apparatus 200 according to the second embodiment captures the bumper from two directions, compares the bumper with the reference image in the two directions in the reference image table, and compares the feature image and the reference image in each direction. By calculating the maximum correlation rate and recognizing the bumper model, the bumper recognition rate is improved.

図21に示したように、バンパーが捻れた場合を考えてみる。実施形態1の場合と同様に、正面側だけのカメラ210で局部画像を取得すると、実施形態1の2番目のバンパーを認識するときと同じく、図11(b)に示す特徴画像SMを車種Bの新たな基準画像RMB2として記憶部240に追加記憶させなければならない。正面側の位置ズレ量によっては、算出される相関率が大きく異なる可能性があるため、正面側の基準画像だけで多数追加記憶する必要性が出てくる。一方、実施形態2のように、正面側および側面側の両方のカメラ210、211で局部画像を取得すると、図25に示す1つの基準画像RMB2’を追加記憶するだけで、捻れ方向での位置ズレが発生してもバンパーの車種を自動特定できる。 Consider the case where the bumper is twisted as shown in FIG. As in the case of the first embodiment, when the local image is acquired by the camera 210 only on the front side, the characteristic image SM B shown in FIG. The new reference image RM B2 for B must be additionally stored in the storage unit 240. Depending on the amount of positional deviation on the front side, the calculated correlation rate may vary greatly, so that it becomes necessary to additionally store a large number only with the reference image on the front side. On the other hand, as in the second embodiment, when the local images are acquired by the cameras 210 and 211 on both the front side and the side side, only one reference image RM B2 ′ shown in FIG. Even if a misalignment occurs, the bumper model can be automatically identified.

したがって、記憶部240に記憶させる基準画像の数を最小限に抑え、相関率の算出時間を短縮できる。   Therefore, the number of reference images stored in the storage unit 240 can be minimized, and the correlation time calculation time can be shortened.

実施形態2に係るワーク認識装置200では、2つのカメラ210、211と光源220、221を用いて2つの方向からバンパーの局部を撮像する場合を説明したが、これに限らず、2つ以上の方向や2つ以上のカメラおよび光源を用いても本実施形態に係るワーク認識方法が適用できる。バンパーの車種の開口部分の形状特徴から、コストパフォーマンスの観点より、正面側に2つのカメラ(中央と端部)、側面側に1つのカメラを用いるほうがよい。   In the workpiece recognition apparatus 200 according to the second embodiment, the case where the local part of the bumper is imaged from two directions using the two cameras 210 and 211 and the light sources 220 and 221 has been described. The workpiece recognition method according to the present embodiment can be applied even when using a direction, two or more cameras, and a light source. From the viewpoint of cost performance, it is better to use two cameras (center and end) on the front side and one camera on the side side from the shape characteristics of the opening of the bumper vehicle type.

実施形態2に係るワーク認識装置および認識方法は、複数のカメラを用いて複数の局面画像を取得する。したがって、3次元方向でバンパーの位置ズレが発生しても、記憶する基準画像の数を最小限に抑え、相関率の算出時間を短縮でき、バンパーの認識率を向上できる。   The workpiece recognition apparatus and the recognition method according to the second embodiment acquire a plurality of situation images using a plurality of cameras. Therefore, even when the bumper is misaligned in the three-dimensional direction, the number of reference images to be stored can be minimized, the correlation rate calculation time can be shortened, and the bumper recognition rate can be improved.

100、200 ワーク認識装置、
110、210、211 カメラ、
120、220、221 光源、
130、230 認識部、
140、240 記憶部、
150、250 入出力部。
100, 200 Work recognition device,
110, 210, 211 cameras,
120, 220, 221 light source,
130, 230 recognition unit,
140, 240 storage unit,
150, 250 Input / output unit.

Claims (9)

剛性の低い認識すべきワークの種類を特定するワーク認識方法であって、
前記認識すべきワークの少なくとも一つの局部画像を取得するステップと、
前記局部画像から特徴画像を生成するステップと、
ワークの種類ごとに記憶されている複数の基準画像と前記特徴画像とを照合し、複数の前記基準画像と前記特徴画像の相関率をそれぞれ算出するステップと、
複数の前記算出された相関率のうち、相関率の最大値が設定値より低い場合、前記特徴画像を新しい基準画像として追加記憶するステップと、
複数の前記算出された相関率のうち、前記相関率の最大値が前記設定値以上である場合、前記相関率の最大値を算出した前記基準画像のワークの種類を、前記認識すべきワークの種類として特定するステップと、
を有することを特徴とするワーク認識方法。
A workpiece recognition method for identifying the type of workpiece to be recognized with low rigidity,
Obtaining at least one local image of the workpiece to be recognized;
Generating a feature image from the local image;
Collating a plurality of reference images stored for each type of workpiece and the feature image, and calculating a correlation rate between the plurality of reference images and the feature image, respectively;
A step of additionally storing the feature image as a new reference image when a maximum value of the correlation rate among the plurality of calculated correlation rates is lower than a set value;
Of the plurality of calculated correlation rates, when the maximum value of the correlation rate is equal to or greater than the set value, the type of workpiece of the reference image for which the maximum value of the correlation rate has been calculated is A step to identify as a type,
A workpiece recognition method characterized by comprising:
前記特徴画像のワーク種類を指定して、前記特徴画像を前記指定したワーク種類の前記新しい基準画像として追加記憶することを特徴とする請求項1に記載のワーク認識方法。   2. The work recognition method according to claim 1, wherein a work type of the feature image is designated, and the feature image is additionally stored as the new reference image of the designated work type. 前記相関率は、前記基準画像および前記特徴画像の形状特徴の相関率であることを特徴とする請求項1または2に記載のワーク認識方法。   The work recognition method according to claim 1, wherein the correlation rate is a correlation rate between shape characteristics of the reference image and the feature image. 前記ワークが樹脂成形品であることを特徴とする請求項1〜3のいずれかに記載のワーク認識方法。   The work recognition method according to claim 1, wherein the work is a resin molded product. 前記基準画像および前記局部画像は前記ワークのシルエット画像であることを特徴とする請求項1〜4のいずれかに記載のワーク認識方法。   The work recognition method according to claim 1, wherein the reference image and the local image are silhouette images of the work. 前記基準画像および前記局部画像は、前記ワークを正面側から撮像した正面画像と、前記ワークを側面側から撮像した側面画像と、を含むことを特徴とする請求項1〜5のいずれかに記載のワーク認識方法。   The said reference | standard image and the said local image include the front image which imaged the said workpiece | work from the front side, and the side image which imaged the said workpiece | work from the side surface side. Work recognition method. 剛性の低い認識すべきワークの局部画像を取得するカメラと、
前記カメラによる前記ワークの撮像中、前記ワークを照射する光源と、
前記ワークの種類ごとに複数の基準画像を記憶する記憶部と、
前記局部画像から特徴画像を生成し、前記特徴画像と複数の前記基準画像とを照合して相関率を算出し、複数の前記算出された相関率のうち、相関率の最大値が設定値より低い場合は前記特徴画像を新しい基準画像として追加記憶し、前記相関率の最大値が前記設定値以上である場合は前記相関率の最大値を算出した前記基準画像のワークの種類を前記認識すべきワークの種類として特定する認識部と、
前記認識部と外部とのインターフェース機能を実行する入出力部と、
を備えることを特徴とするワーク認識装置。
A camera that acquires a local image of a work to be recognized with low rigidity;
A light source for illuminating the workpiece during imaging of the workpiece by the camera;
A storage unit that stores a plurality of reference images for each type of the workpiece;
A feature image is generated from the local image, a correlation rate is calculated by collating the feature image with a plurality of the reference images, and a maximum value of the correlation rate among a plurality of the calculated correlation rates is greater than a set value If it is low, the feature image is additionally stored as a new reference image. If the maximum value of the correlation rate is greater than or equal to the set value, the type of workpiece of the reference image for which the maximum value of the correlation rate has been calculated is recognized. A recognition unit that identifies the type of workpiece to be
An input / output unit that performs an interface function between the recognition unit and the outside;
A work recognition apparatus comprising:
前記光源は、面光源であることを特徴とする請求項7に記載のワーク認識装置。   The workpiece recognition apparatus according to claim 7, wherein the light source is a surface light source. 前記ワークが樹脂成形品であることを特徴とする請求項7または8のいずれかに記載のワーク認識装置。   9. The workpiece recognition apparatus according to claim 7, wherein the workpiece is a resin molded product.
JP2012242587A 2012-11-02 2012-11-02 Method and apparatus for identifying workpiece Pending JP2014092904A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012242587A JP2014092904A (en) 2012-11-02 2012-11-02 Method and apparatus for identifying workpiece

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012242587A JP2014092904A (en) 2012-11-02 2012-11-02 Method and apparatus for identifying workpiece

Publications (1)

Publication Number Publication Date
JP2014092904A true JP2014092904A (en) 2014-05-19

Family

ID=50936941

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012242587A Pending JP2014092904A (en) 2012-11-02 2012-11-02 Method and apparatus for identifying workpiece

Country Status (1)

Country Link
JP (1) JP2014092904A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109523580A (en) * 2018-12-13 2019-03-26 法兰泰克重工股份有限公司 A kind of calculation method of image capture module, image capture module and sorting system

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6361374A (en) * 1986-08-30 1988-03-17 Mazda Motor Corp Parts inspection method
JPH08335236A (en) * 1995-06-07 1996-12-17 Sanyo Electric Co Ltd Restaurant payment system
JP2002247436A (en) * 2001-02-14 2002-08-30 Fuji Photo Film Co Ltd Digital camera
JP2004127157A (en) * 2002-10-07 2004-04-22 Denso Corp Image recognition method
JP2007226319A (en) * 2006-02-21 2007-09-06 Nec Corp Card user identification system using face image, face image management update method and program
JP2008197903A (en) * 2007-02-13 2008-08-28 Toshiba Corp Person recognition device, person recognition method and access control system
JP2009000367A (en) * 2007-06-22 2009-01-08 Omron Corp Monitor, method and program
WO2012020591A1 (en) * 2010-08-09 2012-02-16 日本電気株式会社 System for identifying individuals, feature value specification device, feature specification method, and recording medium
JP2012185769A (en) * 2011-03-08 2012-09-27 Canon Inc Authentication device, authentication method, authentication program, and storage medium
JP2012203634A (en) * 2011-03-25 2012-10-22 Toshiba Corp Recognition device, method and program

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6361374A (en) * 1986-08-30 1988-03-17 Mazda Motor Corp Parts inspection method
JPH08335236A (en) * 1995-06-07 1996-12-17 Sanyo Electric Co Ltd Restaurant payment system
JP2002247436A (en) * 2001-02-14 2002-08-30 Fuji Photo Film Co Ltd Digital camera
JP2004127157A (en) * 2002-10-07 2004-04-22 Denso Corp Image recognition method
JP2007226319A (en) * 2006-02-21 2007-09-06 Nec Corp Card user identification system using face image, face image management update method and program
JP2008197903A (en) * 2007-02-13 2008-08-28 Toshiba Corp Person recognition device, person recognition method and access control system
JP2009000367A (en) * 2007-06-22 2009-01-08 Omron Corp Monitor, method and program
WO2012020591A1 (en) * 2010-08-09 2012-02-16 日本電気株式会社 System for identifying individuals, feature value specification device, feature specification method, and recording medium
JP2012185769A (en) * 2011-03-08 2012-09-27 Canon Inc Authentication device, authentication method, authentication program, and storage medium
JP2012203634A (en) * 2011-03-25 2012-10-22 Toshiba Corp Recognition device, method and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6016037613; 中居 友弘、外3名: '"共起特徴とk近傍法による追加学習型オブジェクト認識システム"' 情報処理学会 シンポジウム 画像の認識・理解シンポジウム(MIRU) 2011 , 20110720, pp.1701-1702, 情報処理学会 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109523580A (en) * 2018-12-13 2019-03-26 法兰泰克重工股份有限公司 A kind of calculation method of image capture module, image capture module and sorting system
CN109523580B (en) * 2018-12-13 2021-01-26 法兰泰克重工股份有限公司 Calculation method of image acquisition module, image acquisition module and sorting system

Similar Documents

Publication Publication Date Title
US10447999B2 (en) Alignment of images of a three-dimensional object
CN109479082B (en) Image processing method and apparatus
US10607397B2 (en) Generating three dimensional models
JP2017045166A (en) Workpiece processing method, method for creating reference image, reference image creation device, workpiece processing device, program, and recording medium
CN111914693A (en) Face posture adjusting method, system, device, equipment and medium
KR20210038211A (en) Method of inspection using image masking operation
WO2017215246A1 (en) Input device recognition method and system, and input instruction recognition method and system
TWI420406B (en) Stereo vision based dice point recognition system and method for uncontrolled environments
JP2014092904A (en) Method and apparatus for identifying workpiece
WO2013187282A1 (en) Image pick-up image display device, image pick-up image display method, and storage medium
CN106534673A (en) Feature recognition-based photographing method and device
JP2021021577A (en) Image processing device and image processing method
JP2002042112A (en) Part mounting inspecting method for circuit board and its system
CN115841520A (en) Camera internal reference calibration method and device, electronic equipment and medium
WO2018132981A1 (en) Defective mark recognition device for matrix array chip
TW201537512A (en) Free space orientation and position determining method and system
CN108564070B (en) Method and device for extracting gestures
Yan et al. Exposing photo manipulation with inconsistent perspective geometry
JP2018136693A (en) Image processing device and image processing method
JP2017162251A (en) Three-dimensional noncontact input device
CN105282442B (en) Focusing method and device
TW202103043A (en) Face recognition device
US20100166296A1 (en) Method and program for extracting silhouette image and method and program for constructing three dimensional model
San Choi et al. Feature selection in source camera identification
WO2023112337A1 (en) Teaching device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160923

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161004

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161116

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161220