JP2008033819A - Object recognition device, monitoring system, object recognition method, object recognition program, and recording medium recording the program - Google Patents

Object recognition device, monitoring system, object recognition method, object recognition program, and recording medium recording the program Download PDF

Info

Publication number
JP2008033819A
JP2008033819A JP2006209009A JP2006209009A JP2008033819A JP 2008033819 A JP2008033819 A JP 2008033819A JP 2006209009 A JP2006209009 A JP 2006209009A JP 2006209009 A JP2006209009 A JP 2006209009A JP 2008033819 A JP2008033819 A JP 2008033819A
Authority
JP
Japan
Prior art keywords
cluster
clustering
unit
size
object recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006209009A
Other languages
Japanese (ja)
Other versions
JP4830696B2 (en
Inventor
Michihiro Nomura
光寛 野村
Takashi Iketani
崇 池谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2006209009A priority Critical patent/JP4830696B2/en
Publication of JP2008033819A publication Critical patent/JP2008033819A/en
Application granted granted Critical
Publication of JP4830696B2 publication Critical patent/JP4830696B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a monitoring system capable of specifying the kind of an object reliably. <P>SOLUTION: The monitoring system comprises a stereo camera 11 and a monitoring device 12. The monitoring device 12 comprises input image acquisition parts 41 and 42 for acquiring a photographed image from the stereo camera 11, a 3D information calculation part 50 for extracting a feature point from the acquired photographed image and calculating the spatial position of the extracted feature point, and an object recognition part 51 for recognizing an object based on the calculated spatial position of the feature point. The object recognition part 51 has a clustering part 54 for performing the clustering based on the calculated spatial position of the feature point, and a size determination part 55 for determining the object corresponding to the cluster based on the size of the cluster generated by the clustering. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、1または複数の物体の画像を含む撮影画像から物体を認識する物体認識装置、該装置を用いた監視システム、物体認識方法、物体認識プログラム、および該プログラムを記録した記録媒体に関するものである。特に、本発明は、前記物体認識装置を利用して、生産現場における自動化機械(生産設備)による労働災害を未然に防止する安全監視システムに関するものである。   The present invention relates to an object recognition apparatus for recognizing an object from a captured image including images of one or a plurality of objects, a monitoring system using the apparatus, an object recognition method, an object recognition program, and a recording medium on which the program is recorded. It is. In particular, the present invention relates to a safety monitoring system that uses the object recognition device to prevent an industrial accident caused by an automated machine (production facility) at a production site.

以前から、プレス機やロボットアームなどの自動化機械(生産設備)を用いる生産現場において、作業員が上記生産設備に巻き込まれるなどの労働災害が発生している。この労働災害の対策として、作業員が安全であるかを監視する安全監視装置を生産現場に導入することが進められている。   In the past, occupational accidents such as workers being involved in the above production facilities have occurred at production sites that use automated machines (production facilities) such as press machines and robot arms. As a countermeasure against this occupational accident, a safety monitoring device for monitoring whether a worker is safe is being introduced at a production site.

一般に、生産現場で作業員の安全を確保するには、災害が発生する虞のある生産設備およびその周辺の領域(危険領域)に対し、作業者の侵入を検知した時に、安全が損なわれたとして生産設備を停止すること(侵入検知)と、作業者の存在を検知した時に、上記危険領域の安全が確認されるまで生産設備を停止すること(存在検知)との2つが必要である。したがって、安全監視装置では、侵入検知および存在検知の両方を実現できることが望ましい。   In general, in order to ensure the safety of workers at the production site, safety was compromised when an operator intrusion was detected in a production facility and its surrounding area (dangerous area) where a disaster might occur. The production facility is stopped (intrusion detection), and when the presence of the worker is detected, the production facility is stopped until the safety of the dangerous area is confirmed (presence detection). Therefore, it is desirable that the safety monitoring device can realize both intrusion detection and presence detection.

従来の安全監視装置には、マットセンサ、光電センサ、レーザスキャナ、画像センサなどが利用されており、各センサの検知原理に基づく安全監視が行われている。   A conventional safety monitoring device uses a mat sensor, a photoelectric sensor, a laser scanner, an image sensor, and the like, and performs safety monitoring based on the detection principle of each sensor.

例えば、マットセンサは、該センサに印加される荷重の変動を検知する。したがって、マットセンサを用いた安全監視装置では、危険領域内に存在する作業員の荷重を検知するように、マットセンサを危険領域の床面に配置することで存在検知を実現している。   For example, the mat sensor detects a change in load applied to the sensor. Therefore, in the safety monitoring device using the mat sensor, the presence detection is realized by arranging the mat sensor on the floor surface of the dangerous area so as to detect the load of the worker existing in the dangerous area.

また、光電センサは、投受光器間の遮光状態を検知する。したがって、光電センサを用いた安全監視装置では、作業員の侵入により上記遮光状態を惹起するように、光電センサを危険領域の境界に配置することで侵入検知を実現している。   The photoelectric sensor detects a light shielding state between the light projector and the light receiver. Therefore, in the safety monitoring device using the photoelectric sensor, the intrusion detection is realized by arranging the photoelectric sensor at the boundary of the dangerous area so that the light shielding state is caused by the intrusion of the worker.

また、レーザスキャナは、レーザ光を出射してから、反射物にて反射し、その反射光を受光するまでの光の伝搬時間を計測することにより、レーザ光源と反射物との距離を測定できる。さらに、レーザ光を走査することにより、測定可能な反射物の存在領域を拡大することができる。したがって、レーザスキャナを用いた安全監視装置では、レーザスキャナが測定可能な反射物の存在領域が、危険領域を包含するようにレーザスキャナを配置し、測定した距離が作業者の有無によって異なることを利用して、侵入検知および存在検知を同時に実現している。   In addition, the laser scanner can measure the distance between the laser light source and the reflector by measuring the propagation time of the light from when the laser beam is emitted, reflected by the reflector, and received by the reflected light. . Further, by scanning the laser beam, the measurable reflection region can be enlarged. Therefore, in a safety monitoring device using a laser scanner, the laser scanner is arranged so that the reflection object's presence area that can be measured by the laser scanner includes the danger area, and the measured distance varies depending on the presence or absence of the operator. Intrusion detection and presence detection are realized at the same time.

また、画像センサは、2D(2次元)輝度情報の配列と時系列変化とを監視することにより、視覚的変化を検知する。したがって、画像センサを用いた安全監視装置では、危険領域を俯瞰するようにカメラを配置することで、レーザスキャナと同様に、侵入検知および存在検知を同時に実現している。   In addition, the image sensor detects a visual change by monitoring an array of 2D (two-dimensional) luminance information and a time-series change. Therefore, in a safety monitoring device using an image sensor, an intrusion detection and a presence detection are realized at the same time as a laser scanner by arranging a camera so that a dangerous area is looked down on.

また、最近では、画像センサの応用技術としてステレオカメラを用いた技術が提案されている(例えば、特許文献1を参照)。これによると、従来の画像センサは、1台のカメラによって撮影された2D画像を利用し、輝度情報の2D的配列と時系列的変化とを用いて計測しているため、周辺環境光の影響により検知性能が低下することがあり安全監視装置としての信頼度が低下するとされている。   Recently, a technique using a stereo camera has been proposed as an application technique of an image sensor (see, for example, Patent Document 1). According to this, since a conventional image sensor uses a 2D image captured by a single camera and measures using a 2D arrangement of luminance information and a time-series change, the influence of ambient ambient light As a result, the detection performance may be lowered, and the reliability as a safety monitoring device will be lowered.

これに対し、ステレオカメラを用いた場合には、カメラ間の視差情報を用いた三角測量の原理より、画像中の物体の3D情報を取得することができる。このため、従来の単眼画像センサよりも一般的に環境変動に強くなると考えられている。
国際公開第WO01/039513号パンフレット(2001年5月31日公開) 特開平5−50390号公報(1993年3月2日公開) 特開平11−66319号公報(1999年3月9日公開)
On the other hand, when a stereo camera is used, 3D information of an object in an image can be acquired based on the principle of triangulation using parallax information between cameras. For this reason, it is generally considered to be more resistant to environmental fluctuations than conventional monocular image sensors.
International Publication No. WO01 / 039513 (published on May 31, 2001) Japanese Patent Laid-Open No. 5-50390 (published March 2, 1993) Japanese Patent Laid-Open No. 11-66319 (published on March 9, 1999)

上述の既存センサから得られる情報は、基本的には、物体の有無により何らかの物理量に変化が生じたことを検知したバイナリ−情報である。したがって、上記情報のみを用いて、検知した物体(検知オブジェクト)がワークおよび作業者の何れであるかを区別することは出来ない。このため、従来は、検知オブジェクトが全て作業者であると判断し、生産設備の運転制御(具体的には運転停止)を行うことで作業員の安全確保を図っていた。   The information obtained from the above-described existing sensor is basically binary information that detects that a physical quantity has changed due to the presence or absence of an object. Therefore, it is impossible to distinguish whether the detected object (detected object) is a workpiece or an operator using only the above information. For this reason, conventionally, it has been determined that all detection objects are workers, and the operation of the production facility is controlled (specifically, the operation is stopped) to ensure the safety of workers.

しかしながら、実際の生産現場では、ワークが危険領域に搬入されるなど危険領域内に作業員以外の物体が存在する場合は十分考えられる。このような場合でも、従来は、検知オブジェクトを全て作業者と判断して生産設備の運転制御を行うため、ワークが侵入した場合でも設備が毎回停止することになり生産効率が低下するという問題が生じていた。   However, in an actual production site, it is sufficiently conceivable that an object other than an operator exists in the dangerous area such as when a work is carried into the dangerous area. Even in such a case, conventionally, since all the detected objects are judged as workers and the operation control of the production facility is performed, even when a workpiece enters, the facility stops every time, and the production efficiency is lowered. It was happening.

この問題点を解決するには、検知オブジェクトがワークおよび作業者の何れであるかを区別して、すなわち物体の種類を特定して、物体の種類毎に生産設備を運転制御する必要がある。例えば、特許文献2に記載の光電センサを用いた安全監視方法では、ワークが周期的に搬送される生産ラインで、その搬送周期に従わない検知オブジェクトを作業者と判定し、この場合のみ生産設備を停止することで、生産性を維持している。   In order to solve this problem, it is necessary to distinguish whether the detected object is a workpiece or an operator, that is, specify the type of the object, and control the operation of the production facility for each type of object. For example, in the safety monitoring method using the photoelectric sensor described in Patent Document 2, a detection object that does not follow the transfer cycle is determined as an operator in a production line in which workpieces are periodically transferred. By stopping the system, productivity is maintained.

しかしながら、上記の安全監視方法では、ワークの搬送周期に同期しながら、もしくはワークと共に作業者が危険領域へ侵入する場合、作業者の存在を特定する搬送周期外の検知信号が得られないため、ワークおよび作業者の区別が困難となり、その結果作業者の危険領域への侵入を見落とすことになる。つまり、作業者が危険領域へ侵入しても生産設備が稼動したままという状況が発生し安全監視装置として不十分である。   However, in the above safety monitoring method, a detection signal outside the transfer cycle that identifies the presence of the worker cannot be obtained when the worker enters the dangerous area in synchronization with the transfer cycle of the workpiece or together with the workpiece. It becomes difficult to distinguish between the work and the worker, and as a result, the operator's entry into the dangerous area is overlooked. That is, even if an operator enters the hazardous area, the production facility remains in operation, which is insufficient as a safety monitoring device.

本発明は、上記の問題点に鑑みてなされたものであり、物体の種類を確実に特定できる物体認識装置などを提供することにある。   The present invention has been made in view of the above problems, and it is an object of the present invention to provide an object recognition device and the like that can reliably identify the type of an object.

本発明に係る物体認識装置は、上記課題を解決するため、1または複数の物体の画像を含む撮影画像から物体を認識する物体認識装置であって、撮影画像を取得する画像取得手段と、取得した撮影画像から特徴点を抽出する特徴点抽出手段と、抽出した特徴点の空間位置を算出する空間位置算出手段と、算出した特徴点の空間位置に基づいて、前記物体を認識する物体認識手段とを備えており、前記物体認識手段は、前記算出した特徴点の空間位置に基づいてクラスタリングを行うクラスタリング手段と、該クラスタリングにより生成されたクラスタのサイズに基づいて、該クラスタに対応する物体を判定する物体判定手段とを備えることを特徴としている。   In order to solve the above problems, an object recognition apparatus according to the present invention is an object recognition apparatus that recognizes an object from a captured image including an image of one or a plurality of objects, an image acquisition unit that acquires the captured image, and an acquisition Feature point extracting means for extracting feature points from the captured image, spatial position calculating means for calculating the spatial position of the extracted feature points, and object recognition means for recognizing the object based on the calculated spatial position of the feature points The object recognition means comprises: clustering means for performing clustering based on the calculated spatial position of the feature points; and an object corresponding to the cluster based on the size of the cluster generated by the clustering. And an object determining means for determining.

上記の構成によると、撮影画像を取得し、取得した撮影画像から特徴点を抽出し、抽出した特徴点の空間位置を算出し、算出した特徴点の空間位置に基づいてクラスタリングを行う。これにより、物体の形状に類似するクラスタが生成される。   According to the above configuration, a captured image is acquired, feature points are extracted from the acquired captured image, a spatial position of the extracted feature points is calculated, and clustering is performed based on the calculated spatial position of the feature points. Thereby, a cluster similar to the shape of the object is generated.

ところで、一般に、物体は、物体の種類によってサイズ(幅、奥行き、高さ)が異なる。例えば、足っているヒトであれば、幅および奥行きが30〜80cm程度であり、高さが150〜180cm程度である。すなわち、物体のサイズから物体の種類を特定できることになる。したがって、本発明によると、物体の形状に類似する前記クラスタのサイズから、前記物体の種類を特定することができる。   By the way, in general, an object has a different size (width, depth, height) depending on the type of the object. For example, a sufficient human being has a width and depth of about 30 to 80 cm and a height of about 150 to 180 cm. That is, the type of the object can be specified from the size of the object. Therefore, according to the present invention, the type of the object can be specified from the size of the cluster similar to the shape of the object.

本発明に係る物体認識装置では、前記クラスタリング手段は、或る物体に対応するサイズでクラスタリングを行い、前記物体判定手段は、前記クラスタが前記物体に対応するか否かを判定し、前記クラスタリング手段は、前記物体判定手段が前記物体に対応しないと判定したクラスタを構成する特徴点に関して、別の物体に対応するサイズで再度クラスタリングを行うことが好ましい。この場合、物体のサイズごとにクラスタリングを繰り返すことになるので、各クラスタに対応する物体の種類を確実に特定することができる。   In the object recognition apparatus according to the present invention, the clustering means performs clustering with a size corresponding to a certain object, the object determining means determines whether or not the cluster corresponds to the object, and the clustering means It is preferable to perform clustering again with a size corresponding to another object with respect to feature points constituting a cluster that the object determination means determines not to correspond to the object. In this case, since clustering is repeated for each object size, the type of object corresponding to each cluster can be reliably identified.

本発明に係る物体認識装置では、前記クラスタリング手段は、認識すべき複数の物体に対応する複数のサイズのうち、最大のサイズでクラスタリングを行い、前記物体判定手段が前記物体に対応しないと判定したクラスタを構成する特徴点に関して、前記複数のサイズのうち最小のサイズで再度クラスタリングを行うことがさらに好ましい。   In the object recognition apparatus according to the present invention, the clustering unit performs clustering at a maximum size among a plurality of sizes corresponding to a plurality of objects to be recognized, and determines that the object determination unit does not correspond to the object. More preferably, clustering is performed again at the smallest size among the plurality of sizes with respect to the feature points constituting the cluster.

この場合、最大のサイズでのクラスタリングでクラスタを作成できなかった特徴点、または最小のサイズでのクラスタリングでクラスタを作成できなかった特徴点をクラスタリングの繰返しの初期の段階で除外できるので、物体の種類を迅速に特定することができる。   In this case, feature points that could not be clustered by clustering at the maximum size or feature points that could not be clustered by clustering at the minimum size can be excluded at the initial stage of clustering iteration. The type can be identified quickly.

なお、撮影画像から特徴点を抽出し、抽出した特徴点の空間位置を算出する手法の一例としては、ステレオカメラからの2つの撮影画像を取得して、前記2つの撮影画像における特徴点を利用して、特徴点の空間位置を算出することが挙げられる。また、別の例としては、アクティブセンサからの撮影画像を取得すると共に、前記撮影画像に関する空間位置の情報を前記アクティブセンサから取得し、取得した空間位置の情報に基づいて、前記特徴点の空間位置を算出することが挙げられる。   Note that, as an example of a method for extracting feature points from captured images and calculating a spatial position of the extracted feature points, two captured images from a stereo camera are acquired and feature points in the two captured images are used. Then, the spatial position of the feature point is calculated. As another example, a captured image from an active sensor is acquired, information on a spatial position related to the captured image is acquired from the active sensor, and the space of the feature point is acquired based on the acquired information on the spatial position. For example, the position is calculated.

本発明に係る物体認識装置では、前記物体判定手段は、前記クラスタリングにより生成されたクラスタのサイズと、該クラスタに関する存在位置、進行方向、移動速度、および個数の中の少なくとも1つとに基づいて、前記クラスタに対応する物体を判定することが好ましい。   In the object recognition device according to the present invention, the object determination means is based on the size of the cluster generated by the clustering and at least one of the existence position, the traveling direction, the moving speed, and the number related to the cluster. It is preferable to determine an object corresponding to the cluster.

一般に、物体は、物体の種類によって、存在位置、進行方向、移動速度、および個数が規定されることが多い。例えば、搬送機上には、ワークが搬送方向に所定の搬送速度で移動している。また、搬送機が搬送可能な重量には限界があるため、搬送機上に存在するワークの個数にも限度がある。   In general, there are many cases where the existence position, the traveling direction, the moving speed, and the number of objects are defined by the type of the object. For example, the work moves on the transport machine in the transport direction at a predetermined transport speed. In addition, since the weight that can be transported by the transporter is limited, the number of workpieces existing on the transporter is also limited.

したがって、上記の場合のように、物体の形状に類似するクラスタのサイズだけでなく、該クラスタに関する存在位置、進行方向、移動速度、および個数の中の少なくとも1つを用いて、クラスタに対応する物体を判定することにより、物体の種類をさらに確実に特定することができる。   Therefore, as described above, not only the size of the cluster similar to the shape of the object but also the existence position, the traveling direction, the moving speed, and the number of the cluster are used to correspond to the cluster. By determining the object, the type of the object can be more reliably specified.

なお、クラスタのサイズ、存在位置、進行方向、移動速度、および個数のそれぞれによって、物体判定の確からしさは異なっている。そこで、前記物体判定手段は、前記クラスタのサイズによる物体判定と、前記クラスタに関する存在位置、進行方向、移動速度、および個数の中の少なくとも1つによる物体判定とに対し統計的処理を施すことによって、前記クラスタに対応する物体を判定することがより好ましい。   Note that the probability of object determination differs depending on the size, existence position, traveling direction, moving speed, and number of clusters. Therefore, the object determination unit performs statistical processing on the object determination based on the size of the cluster and the object determination based on at least one of the existence position, the traveling direction, the moving speed, and the number related to the cluster. More preferably, an object corresponding to the cluster is determined.

本発明に係る物体認識装置では、前記物体の表面には、物体を識別可能なマークが施されており、前記物体判定手段は、前記クラスタリングにより生成されたクラスタの空間位置に対応する前記撮影画像の領域から前記マークを抽出し、抽出したマークと、前記クラスタのサイズとに基づいて、前記クラスタに対応する物体を判定してもよい。この場合、クラスタのサイズと、前記マークとを用いてクラスタに対応する物体を判定することにより、物体の種類をさらに確実に特定することができる。なお、上記クラスタの空間位置は、クラスタが占める空間領域でもよいし、クラスタの重心位置でもよい。   In the object recognition apparatus according to the present invention, the surface of the object is provided with a mark capable of identifying the object, and the object determination unit is configured to capture the captured image corresponding to the spatial position of the cluster generated by the clustering. The mark may be extracted from the region, and an object corresponding to the cluster may be determined based on the extracted mark and the size of the cluster. In this case, the type of the object can be more reliably identified by determining the object corresponding to the cluster using the size of the cluster and the mark. The spatial position of the cluster may be a spatial region occupied by the cluster, or may be the center of gravity of the cluster.

本発明に係る物体認識装置では、物体を検知するセンサから検知信号を取得する検知信号取得手段をさらに備えており、前記物体判定手段は、前記クラスタのサイズによる物体の判定と、前記検知信号取得手段による物体の検知とに基づいて、前記クラスタに対応する物体を判定してもよい。   The object recognition apparatus according to the present invention further includes detection signal acquisition means for acquiring a detection signal from a sensor for detecting an object, wherein the object determination means determines the object based on the size of the cluster and acquires the detection signal. An object corresponding to the cluster may be determined based on detection of the object by the means.

ここで、物体を検知するセンサとしては、物体の温度情報を取得できる赤外線カメラや、物体の荷重を検知できるマットセンサなどが挙げられる。   Here, examples of the sensor that detects an object include an infrared camera that can acquire temperature information of the object, a mat sensor that can detect the load of the object, and the like.

上記の場合では、クラスタのサイズによる物体の判定と、前記センサによる物体の検知とに基づいて、クラスタに対応する物体を判定するので、物体の種類をさらに確実に特定することができる。   In the above case, since the object corresponding to the cluster is determined based on the determination of the object based on the size of the cluster and the detection of the object by the sensor, the type of the object can be more reliably specified.

また、前記クラスタリングにより生成されたクラスタの空間位置の履歴情報を記憶する記憶手段と、前記クラスタの空間位置の履歴情報に基づいて、前記クラスタが次に位置する空間領域を推定する推定手段と、前記特徴点抽出手段が抽出した特徴点のうち、前記推定手段が推定した前記クラスタの空間領域に含まれる特徴点を抽出して、前記クラスタに統合するクラスタ統合手段とをさらに備えることが好ましい。この場合、過去のクラスタの空間位置から現在のクラスタの空間領域を推定し、推定した空間領域に含まれる特徴点を予めクラスタに統合するので、これらの特徴点を、クラスタリング処理の対象から除外でき、その結果、クラスタリング処理を迅速化できる。   Storage means for storing the history information of the spatial position of the cluster generated by the clustering; and estimation means for estimating a spatial region where the cluster is next located based on the history information of the spatial position of the cluster; It is preferable to further comprise cluster integration means for extracting feature points included in the spatial region of the cluster estimated by the estimation means from the feature points extracted by the feature point extraction means and integrating them into the clusters. In this case, the spatial region of the current cluster is estimated from the spatial position of the past cluster, and the feature points included in the estimated spatial region are integrated into the cluster in advance, so these feature points can be excluded from the clustering target. As a result, the clustering process can be speeded up.

本発明に係る監視システムは、上記の課題を解決するため、所定領域の監視を行う監視システムであって、前記所定領域の撮影を行う撮影手段と、該撮影手段が撮影した撮影画像から物体を認識する上記構成の物体認識装置とを備えることを特徴としている。   In order to solve the above problems, a monitoring system according to the present invention is a monitoring system that monitors a predetermined area, and includes an imaging unit that performs imaging of the predetermined area, and an object from the captured image captured by the imaging unit. And an object recognizing device configured as described above.

上記の構成によると、所定領域を撮影した撮影画像から物体認識装置が物体を認識できる。したがって、所定領域内に存在する物体を、種類を特定した上で監視することができる。   According to said structure, an object recognition apparatus can recognize an object from the picked-up image which image | photographed the predetermined area | region. Therefore, it is possible to monitor an object existing in a predetermined area after specifying the type.

本発明に係る監視システムでは、前記物体認識装置が認識した物体に基づいて、所定領域に設けられた設備の動作を制御する設備制御手段をさらに備えることが好ましい。ここで、設備の例としては、生産現場における生産設備、警告などを発するアラーム、所定領域に対し進入または退出を行うための自動扉などが挙げられる。上記の場合では、物体認識装置が認識した物体に応じた設備の動作を行うことができる。   The monitoring system according to the present invention preferably further includes equipment control means for controlling the operation of equipment provided in a predetermined area based on the object recognized by the object recognition device. Here, examples of equipment include production equipment at a production site, an alarm for issuing a warning, an automatic door for entering or leaving a predetermined area, and the like. In the above case, the operation of the equipment according to the object recognized by the object recognition device can be performed.

特に、上記設備が生産設備であり、認識する物体が作業者である場合には、作業者を認識した場合のみ生産設備を停止し、その他の場合に稼働することにより、生産設備の生産性を維持できる。また、所定領域内に存在する作業者を確実に認識できるので、作業者の安全性を確保できる。   In particular, when the above equipment is a production equipment and the object to be recognized is a worker, the production equipment is stopped only when the worker is recognized, and is operated in other cases, thereby improving the productivity of the production equipment. Can be maintained. Further, since the worker existing in the predetermined area can be surely recognized, the safety of the worker can be ensured.

本発明に係る監視システムでは、前記所定領域への物体の進入を検知する進入検知センサをさらに備えており、前記物体認識装置は、前記進入検知センサが前記物体の進入を検知すると、動作を開始することが好ましい。ここで、進入検知センサの例としては、超音波、電波、赤外線などの波動を所定領域の境界付近に出射し、上記波動を物体が遮蔽または反射することにより、物体の存在を検知するセンサが挙げられる。上記の場合では、所定領域内に特定の物体が進入するまで物体認識装置が停止しているので、消費電力を抑えることができる。   The monitoring system according to the present invention further includes an entry detection sensor that detects entry of an object into the predetermined area, and the object recognition device starts operation when the entry detection sensor detects entry of the object. It is preferable to do. Here, as an example of the approach detection sensor, there is a sensor that detects the presence of an object by emitting a wave such as an ultrasonic wave, a radio wave, and an infrared ray in the vicinity of a boundary of a predetermined region and shielding or reflecting the wave by the object. Can be mentioned. In the above case, since the object recognition apparatus is stopped until a specific object enters the predetermined area, power consumption can be suppressed.

本発明に係る物体認識方法は、上記の課題を解決するため、1または複数の物体の画像を含む撮影画像から物体を認識する物体認識方法であって、撮影画像を取得する画像取得ステップと、取得した撮影画像から特徴点を抽出する特徴点抽出ステップと、抽出した特徴点の空間位置を算出する空間位置算出ステップと、算出した特徴点の空間位置に基づいて、前記物体を認識する物体認識ステップとを含んでおり、前記物体認識ステップは、前記算出した特徴点の空間位置に基づいてクラスタリングを行うクラスタリングステップと、該クラスタリングにより生成されたクラスタのサイズに基づいて、該クラスタに対応する物体を判定する物体判定ステップとを含むことを特徴としている。   In order to solve the above problems, an object recognition method according to the present invention is an object recognition method for recognizing an object from a captured image including an image of one or a plurality of objects, and an image acquisition step for acquiring the captured image; A feature point extracting step for extracting feature points from the acquired captured image; a spatial position calculating step for calculating the spatial position of the extracted feature points; and object recognition for recognizing the object based on the calculated spatial position of the feature points. The object recognition step includes a clustering step for performing clustering based on the calculated spatial position of the feature points, and an object corresponding to the cluster based on the size of the cluster generated by the clustering. And an object determination step for determining.

上記の方法によると、撮影画像を取得し、取得した撮影画像から特徴点を抽出し、抽出した特徴点の空間位置を算出し、算出した特徴点の空間位置に基づいてクラスタリングを行う。これにより、物体の形状に類似するクラスタが生成される。そして、物体のサイズから物体の種類を特定できるので、上記クラスタのサイズから、前記物体の種類を特定することができる。   According to the above method, a captured image is acquired, feature points are extracted from the acquired captured image, a spatial position of the extracted feature points is calculated, and clustering is performed based on the calculated spatial position of the feature points. Thereby, a cluster similar to the shape of the object is generated. Since the object type can be specified from the object size, the object type can be specified from the cluster size.

なお、上記物体認識装置における各手段を、物体認識プログラムによりコンピュータ上で実行させることができる。さらに、上記物体認識プログラムをコンピュータ読取り可能な記録媒体に記憶させることにより、任意のコンピュータ上で上記物体認識プログラムを実行させることができる。   Each unit in the object recognition apparatus can be executed on a computer by an object recognition program. Furthermore, the object recognition program can be executed on an arbitrary computer by storing the object recognition program in a computer-readable recording medium.

以上のように、本発明に係る物体認識装置は、撮影画像を取得し、取得した撮影画像から特徴点を抽出し、抽出した特徴点の空間位置を算出し、算出した特徴点の空間位置に基づいてクラスタリングを行うことにより、物体の形状に類似するクラスタを生成するので、生成したクラスタのサイズから、前記物体の種類を特定できるという効果を奏する。   As described above, the object recognition device according to the present invention acquires a captured image, extracts a feature point from the acquired captured image, calculates a spatial position of the extracted feature point, and calculates the spatial position of the calculated feature point. By performing clustering based on this, a cluster similar to the shape of the object is generated, so that the type of the object can be specified from the size of the generated cluster.

〔実施の形態1〕
本発明の一実施形態について図1〜図10を参照しつつ説明する。図2は、本実施形態における監視システム10の概要を示している。図示のように、本実施形態の監視システム10は、自動化機械(生産設備P)を用いて生産を行う生産現場に適用されている。この生産現場では、生産設備Pに所定形状のワークWが搬送機Cにより搬送されている。
[Embodiment 1]
An embodiment of the present invention will be described with reference to FIGS. FIG. 2 shows an overview of the monitoring system 10 in the present embodiment. As shown in the figure, the monitoring system 10 of this embodiment is applied to a production site where production is performed using an automated machine (production equipment P). At this production site, a workpiece W having a predetermined shape is conveyed to the production facility P by the conveyor C.

図2に示されるように、監視システム10は、生産設備Pの周辺の危険領域Dを俯瞰するように撮影するステレオカメラ(撮像装置、撮影手段)11と、ステレオカメラ11が撮影した撮影画像に基づいて、危険領域D内の作業員Mを認識することにより、危険領域Dに対する作業者Mの存在検知および侵入検知を実行する監視装置(物体認識装置)12とを備える構成である。   As shown in FIG. 2, the monitoring system 10 includes a stereo camera (imaging device, imaging means) 11 that captures an image of the dangerous area D around the production facility P, and a captured image captured by the stereo camera 11. Based on this, it is configured to include a monitoring device (object recognition device) 12 that detects the presence of the worker M and the intrusion detection in the dangerous area D by recognizing the worker M in the dangerous area D.

図3は、監視システム10におけるステレオカメラ11および監視装置12内の具体的構成を示している。図示のように、ステレオカメラ11は、危険領域の撮影を行う複数台のカメラを備えている。本実施形態では、ステレオカメラ11は、2台のカメラによって構成され、それぞれ「第1画像入力装置13」および「第2画像入力装置14」と称する。第1および第2画像入力装置13・14は、それぞれ、上記撮影により取得した撮影画像信号を監視装置12に送信する。   FIG. 3 shows a specific configuration within the stereo camera 11 and the monitoring device 12 in the monitoring system 10. As shown in the figure, the stereo camera 11 includes a plurality of cameras that capture a dangerous area. In the present embodiment, the stereo camera 11 includes two cameras, which are referred to as “first image input device 13” and “second image input device 14”, respectively. Each of the first and second image input devices 13 and 14 transmits the captured image signal acquired by the imaging to the monitoring device 12.

なお、本実施形態では、撮影画像として、輝度情報のみを有する濃淡画像を利用しているが、輝度情報および色情報を有するカラー画像を利用することもできる。また、第1および第2画像入力装置13・14は、上記撮影に必要な各種パラメータが予め相互に校正されているものとする。   In the present embodiment, a grayscale image having only luminance information is used as a captured image, but a color image having luminance information and color information can also be used. The first and second image input devices 13 and 14 are preliminarily calibrated with each other for various parameters necessary for the above photographing.

また、図3に示されるように、監視装置12は、PC(Personal Computer)ベースのコンピュータによって構成される。すなわち、監視装置12は、各種機能を実現する制御プログラムの命令を実行するCPU(central processing unit)20、上記プログラムを格納したROM(read only memory)21、上記プログラムを展開するRAM(random access memory)22、上記プログラムおよび各種データを格納するメモリ23、外部から各種情報を受信する受信部24、および外部に各種情報を出力する出力部25を備えている。CPU20、ROM21、RAM22、メモリ23、および出力部25は、バス26を介して相互に接続されている。   Further, as shown in FIG. 3, the monitoring device 12 is configured by a PC (Personal Computer) -based computer. That is, the monitoring device 12 includes a CPU (central processing unit) 20 that executes instructions of a control program that realizes various functions, a ROM (read only memory) 21 that stores the program, and a RAM (random access memory) that expands the program. ) 22, a memory 23 for storing the program and various data, a receiving unit 24 for receiving various information from the outside, and an output unit 25 for outputting various information to the outside. The CPU 20, ROM 21, RAM 22, memory 23, and output unit 25 are connected to each other via a bus 26.

本実施形態では、メモリ23は、第1画像入力装置13が撮影した第1入力画像のデータを保存する第1入力画像メモリ30と、第2画像入力装置14が撮影した第2入力画像のデータを保存する第2入力画像メモリ31と、各種の画像のデータを保存する画像保存メモリ32と、特徴点座標を保存するメモリ33と、クラスタ座標を保存するクラスタ座標保存メモリ(記憶手段)34とを含んでいる。   In the present embodiment, the memory 23 includes a first input image memory 30 that stores data of a first input image captured by the first image input device 13 and data of a second input image captured by the second image input device 14. A second input image memory 31 for storing image data, an image storage memory 32 for storing data of various images, a memory 33 for storing feature point coordinates, and a cluster coordinate storage memory (storage means) 34 for storing cluster coordinates. Is included.

一方、受信部24は、第1および第2画像入力装置13・14からの撮影画像信号をそれぞれ取得してA/D(Analog to Digital)変換するA/D変換回路35・36を含んでいる。A/D変換回路35・36は、変換した撮影画像データを、第1および第2入力画像データとしてそれぞれ第1および第2入力画像メモリ30・31に送信する。   On the other hand, the receiving unit 24 includes A / D conversion circuits 35 and 36 that respectively acquire photographed image signals from the first and second image input devices 13 and 14 and perform A / D (Analog to Digital) conversion. . The A / D conversion circuits 35 and 36 transmit the converted captured image data to the first and second input image memories 30 and 31 as first and second input image data, respectively.

図1は、監視装置12の機能的構成を示している。図示のように、監視装置12は、制御部40、第1入力画像取得部(画像取得手段)41、第2入力画像取得部(画像取得手段)42、および出力部(設備制御手段)25を備える構成である。   FIG. 1 shows a functional configuration of the monitoring device 12. As illustrated, the monitoring device 12 includes a control unit 40, a first input image acquisition unit (image acquisition unit) 41, a second input image acquisition unit (image acquisition unit) 42, and an output unit (equipment control unit) 25. It is the composition provided.

制御部40は、監視装置12の各種構成の動作を統括的に制御するものであり、CPU20、ROM21、RAM22、およびメモリ23を備える構成である。なお、制御部40の詳細については後述する。   The control unit 40 controls the operation of various configurations of the monitoring device 12 in an integrated manner, and includes a CPU 20, a ROM 21, a RAM 22, and a memory 23. Details of the control unit 40 will be described later.

第1入力画像取得部41は、ステレオカメラ11の第1画像入力装置13が撮影した撮影画像を第1入力画像として取得して保存するものであり、A/D変換回路35および第1入力画像メモリ30を備える構成である。同様に、第2入力画像取得部42は、ステレオカメラ11の第2画像入力装置14が撮影した撮影画像を第2入力画像として取得して保存するものであり、A/D変換回路36および第2入力画像メモリ31を備える構成である。   The first input image acquisition unit 41 acquires and stores a photographed image captured by the first image input device 13 of the stereo camera 11 as a first input image. The A / D conversion circuit 35 and the first input image The memory 30 is provided. Similarly, the second input image acquisition unit 42 acquires and stores a captured image captured by the second image input device 14 of the stereo camera 11 as a second input image. The second input image acquisition unit 42 stores the A / D conversion circuit 36 and the second input image. The configuration includes a two-input image memory 31.

出力部25は、上述のように、外部に各種情報を出力するものである。出力部25の具体的構成の一例としては、表示出力を行うディスプレイ、音声出力を行うスピーカ、警報を発する警報器、印刷出力を行うプリンタ、外部へ出力信号を送信する送信デバイス、生産設備の稼働および稼働停止を制御する制御デバイスなどが挙げられる。   The output unit 25 outputs various information to the outside as described above. As an example of a specific configuration of the output unit 25, a display that performs display output, a speaker that performs audio output, an alarm device that issues an alarm, a printer that performs print output, a transmission device that transmits an output signal to the outside, and the operation of a production facility And a control device for controlling operation stop.

さらに、出力部25は、制御部40が生成したワーク用出力信号を出力するワーク用出力部43と、制御部40が生成した作業者用出力信号を出力する作業者用出力部44とを備える構成である。   Furthermore, the output unit 25 includes a work output unit 43 that outputs a work output signal generated by the control unit 40, and a worker output unit 44 that outputs a worker output signal generated by the control unit 40. It is a configuration.

次に、制御部40の詳細について説明する。図1に示されるように、制御部40は、3D(3次元)情報算出部(特徴点抽出手段、空間位置算出手段)50、オブジェクト認識部(物体認識手段)51、および出力信号生成部52を備える構成である。   Next, details of the control unit 40 will be described. As shown in FIG. 1, the control unit 40 includes a 3D (three-dimensional) information calculation unit (feature point extraction unit, spatial position calculation unit) 50, an object recognition unit (object recognition unit) 51, and an output signal generation unit 52. It is the structure provided with.

3D情報算出部50は、第1および第2の入力画像取得部41・42が取得した第1入力画像および第2入力画像を用いて、オブジェクト(物体)の特徴点の空間位置を算出するものである。3D情報算出部50は、算出した空間位置を示す3D情報をオブジェクト認識部51に送信する。   The 3D information calculation unit 50 calculates a spatial position of a feature point of an object (object) using the first input image and the second input image acquired by the first and second input image acquisition units 41 and 42. It is. The 3D information calculation unit 50 transmits 3D information indicating the calculated spatial position to the object recognition unit 51.

オブジェクト認識部51は、3D情報算出部50から全特徴点の3D情報を取得し、取得した全特徴点の3D情報に基づいてオブジェクトを認識するものである。具体的には、オブジェクト認識部51は、クラスタリング部(クラスタリング手段)54およびサイズ判定部(物体判定手段)55を備える構成である。   The object recognition unit 51 acquires 3D information of all feature points from the 3D information calculation unit 50, and recognizes an object based on the acquired 3D information of all feature points. Specifically, the object recognizing unit 51 includes a clustering unit (clustering unit) 54 and a size determining unit (object determining unit) 55.

クラスタリング部54は、3D情報算出部50から取得した全特徴点の3D情報に基づいて、特徴点のクラスタリング処理を行うものである。また、クラスタリング部54は、上記クラスタリング処理により生成される各クラスタjに関して、高さ・幅などの3Dサイズ情報SOjを算出してクラスタ座標保存メモリ34に記憶する。   The clustering unit 54 performs clustering processing of feature points based on the 3D information of all feature points acquired from the 3D information calculation unit 50. Further, the clustering unit 54 calculates 3D size information SOj such as height and width for each cluster j generated by the clustering process and stores it in the cluster coordinate storage memory 34.

サイズ判定部55は、クラスタリング部54が算出した各クラスタjの3Dサイズ情報SOjと所定の判定基準とを比較して、クラスタjに対応するオブジェクトの種類を特定するものである。より詳細には、サイズ判定部55は、各クラスタjの3Dサイズ情報SOjとオブジェクトiのサイズ判定閾値THiとの差が所定値TH以内であるとき、すなわち|SOj−THi|≦THであるとき、クラスタjに対応するオブジェクトの種類が、サイズ判定閾値THiが示すオブジェクトの種類(ワークまたは作業者)であると判定するものである。これにより、オブジェクトの形状に類似するクラスタのサイズから、オブジェクトの種類を特定することができる。   The size determination unit 55 compares the 3D size information SOj of each cluster j calculated by the clustering unit 54 with a predetermined determination criterion, and specifies the type of object corresponding to the cluster j. More specifically, when the difference between the 3D size information SOj of each cluster j and the size determination threshold THi of the object i is within a predetermined value TH, that is, | SOj−THi | ≦ TH. The object type corresponding to the cluster j is determined to be the object type (work or worker) indicated by the size determination threshold THi. Thereby, the type of the object can be specified from the size of the cluster similar to the shape of the object.

さらに、本実施形態では、クラスタリング部54は、サイズ判定部55がオブジェクトを判定できなかったクラスタを構成する特徴点に対し、クラスタサイズを小さくしてクラスタリング処理を行っている。このように、本実施形態では、クラスタリングおよびサイズ判定を、クラスタサイズを変更して繰り返すことにより、各クラスタに対応するオブジェクトの種類を確実に特定することができる。   Furthermore, in the present embodiment, the clustering unit 54 performs clustering processing by reducing the cluster size for the feature points constituting the cluster for which the size determination unit 55 cannot determine the object. As described above, in the present embodiment, by repeating the clustering and size determination while changing the cluster size, the type of object corresponding to each cluster can be reliably specified.

出力信号生成部52は、オブジェクト認識部51が認識したオブジェクトに対応する出力信号を生成するものである。より詳細には、出力信号生成部52は、上記クラスタがワークWに対応するとサイズ判定部55が判定した場合、ワーク用出力信号を生成するワーク用出力信号生成部56と、上記クラスタが作業者Mに対応するとサイズ判定部55が判定した場合、作業者用出力信号を生成する作業者用出力信号生成部57とを備える構成である。   The output signal generation unit 52 generates an output signal corresponding to the object recognized by the object recognition unit 51. More specifically, when the size determination unit 55 determines that the cluster corresponds to the workpiece W, the output signal generation unit 52 includes a workpiece output signal generation unit 56 that generates a workpiece output signal, and the cluster is an operator. When the size determination unit 55 determines that it corresponds to M, it includes a worker output signal generation unit 57 that generates a worker output signal.

ワーク用出力信号生成部56は、生成したワーク用出力信号を出力部25のワーク用出力部43に送信する。一方、作業者用出力信号生成部57は、生成した作業者用出力信号を出力部25の作業者用出力部44に送信する。   The work output signal generation unit 56 transmits the generated work output signal to the work output unit 43 of the output unit 25. On the other hand, the worker output signal generation unit 57 transmits the generated worker output signal to the worker output unit 44 of the output unit 25.

例えば、ワーク用出力信号として、生産設備Pの稼働を継続することを指示する信号を出力する一方、作業者用出力信号として、生産設備Pの稼働を停止することを指示する信号を出力する。この場合、ワークWの搬入時でも生産設備Pの稼働を停止することが無いので、生産性が維持される。また、作業者Mが存在する時に生産設備Pの稼働を停止するので、作業員の安全性が確保される。   For example, a signal instructing to continue the operation of the production facility P is output as the workpiece output signal, while a signal instructing to stop the operation of the production facility P is output as the worker output signal. In this case, since the operation of the production facility P is not stopped even when the workpiece W is carried in, productivity is maintained. Further, since the operation of the production facility P is stopped when the worker M exists, the safety of the worker is ensured.

次に、上記構成の監視装置12の制御部40における処理動作について図4〜図9を参照しつつ説明する。図4は、制御部40の3D情報算出部50における処理動作の流れを示している。   Next, processing operations in the control unit 40 of the monitoring device 12 having the above-described configuration will be described with reference to FIGS. FIG. 4 shows the flow of processing operations in the 3D information calculation unit 50 of the control unit 40.

図4に示されるように、3D情報算出部50は、第1入力画像取得部41の第1入力画像メモリ30と、第2入力画像取得部42の第2入力画像メモリ31とからそれぞれ第1入力画像データおよび第2入力画像データを読み出すと、予め設定されたオブジェクト出現領域内を対象に、Harrisオペレータなどのエッジ抽出オペレータによって特徴点を自動的に抽出する(ステップS10。以下、単に「S10」と記載することがある。他のステップについても同様である。)。なお、特徴点を抽出するアルゴリズムはこれに限定されるものではなく、例えばSobelオペレータ、ラプラシアンオペレータなどの公知の手法を用いることもできる。   As illustrated in FIG. 4, the 3D information calculation unit 50 includes a first input image memory 30 of the first input image acquisition unit 41 and a second input image memory 31 of the second input image acquisition unit 42. When the input image data and the second input image data are read out, feature points are automatically extracted by an edge extraction operator such as a Harris operator in a preset object appearance region (step S10; hereinafter, simply “S10”). As well as the other steps). Note that the algorithm for extracting the feature points is not limited to this, and a known method such as a Sobel operator or a Laplacian operator can also be used.

次に、3D情報算出部50は、第1入力画像の特徴点と、第2入力画像の特徴点との対応付けを行う(S11)。この対応付けには、エピポーラライン上を走査して正規化相関などの一般的な対応づけ手法を用いて行うことができる。   Next, the 3D information calculation unit 50 associates the feature points of the first input image with the feature points of the second input image (S11). This association can be performed by scanning the epipolar line and using a general association method such as normalized correlation.

次に、3D情報算出部50は、対応付けた特徴点同士の視差から、特徴点の空間位置を示す3D情報を算出する(S12)。この3D情報は、撮影画像(第1および第2の入力画像)の座標系である撮像素子(CCD)を基準とするCCD中心座標系から、2つのカメラを基準とするカメラ座標系に変換し、さらに、世界座標系に変換されることにより、実際の空間位置を示す情報となる。   Next, the 3D information calculation unit 50 calculates 3D information indicating the spatial position of the feature points from the parallax between the associated feature points (S12). This 3D information is converted from a CCD central coordinate system based on an imaging device (CCD), which is a coordinate system of captured images (first and second input images), to a camera coordinate system based on two cameras. Further, the information is converted into the world coordinate system to become information indicating the actual spatial position.

図5(a)〜(c)は、それぞれ、CCD中心座標系、カメラ座標系、および世界座標系を示している。同図(a)に示されるCCD中心座標系は、次式(1)を利用することにより、同図(b)に示されるカメラ座標系に変換できる。   FIGS. 5A to 5C show a CCD central coordinate system, a camera coordinate system, and a world coordinate system, respectively. The CCD central coordinate system shown in FIG. 6A can be converted into the camera coordinate system shown in FIG. 5B by using the following equation (1).

Figure 2008033819
Figure 2008033819

同様に、図5(b)に示されるカメラ座標系は、次式(2)を利用することにより、同図(c)に示される世界座標系に変換できる。   Similarly, the camera coordinate system shown in FIG. 5B can be converted into the world coordinate system shown in FIG. 5C by using the following equation (2).

Figure 2008033819
Figure 2008033819

そして、3D情報算出部50は、算出した各特徴点の3D情報を特徴点座標保存メモリ33に保存する。   Then, the 3D information calculation unit 50 stores the calculated 3D information of each feature point in the feature point coordinate storage memory 33.

図6は、制御部40における処理動作の流れを示している。また、図7は、図6に示される各種パラメータの意味を示している。図示のように、本実施形態において認識すべきオブジェクトは、オブジェクトID(i)が1であるワークWと、オブジェクトIDが2である作業者Mとの2種類である。また、ワークWのサイズは作業者Mのサイズよりも大きい。このため、本実施形態では、まず、ワークWのサイズでクラスタリングを行って、クラスタがワークWであるか否かを判定し、ワークWではない場合に、作業者Mのサイズでクラスタリングを行って、クラスタが作業者Mであるか否かを判定している。   FIG. 6 shows the flow of processing operations in the control unit 40. FIG. 7 shows the meanings of the various parameters shown in FIG. As shown in the figure, there are two types of objects to be recognized in the present embodiment: a work W having an object ID (i) of 1 and a worker M having an object ID of 2. Further, the size of the workpiece W is larger than the size of the worker M. For this reason, in the present embodiment, clustering is first performed with the size of the workpiece W to determine whether the cluster is the workpiece W. If the cluster is not the workpiece W, clustering is performed with the size of the worker M. Whether the cluster is the worker M or not is determined.

図6に示されるように、オブジェクト認識部51は、特徴点座標保存メモリ33から各特徴点の3D情報を読み出すと、オブジェクトID(i)およびクラスタID(j)の初期化を行う(S20)。   As shown in FIG. 6, when the object recognition unit 51 reads 3D information of each feature point from the feature point coordinate storage memory 33, the object recognition unit 51 initializes the object ID (i) and the cluster ID (j) (S20). .

次に、クラスタリング部54は、全特徴点について、上記特許文献3に記載のように、ユークリッド距離などの特徴点間距離を算出し(S21)、大きい方のクラスタリング閾値であるワークWのクラスタリング閾値TH1を用いたクラスタリング処理を行う(S22)。具体的には、上記特徴点間距離が上記クラスタリング閾値TH1以下である複数の特徴点を、1つのオブジェクトから抽出された特徴点であると仮定して同一クラスタに統合する。   Next, the clustering unit 54 calculates the distance between feature points such as the Euclidean distance for all feature points as described in Patent Document 3 (S21), and the clustering threshold value of the workpiece W which is the larger clustering threshold value. Clustering processing using TH1 is performed (S22). Specifically, a plurality of feature points whose distance between feature points is equal to or less than the clustering threshold TH1 are assumed to be feature points extracted from one object and integrated into the same cluster.

次に、クラスタリング部50は、上記クラスタリング処理により作成されたクラスタの個数Nと、各クラスタの属性とをクラスタ座標保存メモリ34に記憶し(S23)、各クラスタの高さ・幅などの3Dサイズ情報(SOj)(但し、1≦j≦N、かつNは整数である。)を算出してクラスタ座標保存メモリ34に記憶する(S24)。   Next, the clustering unit 50 stores the number N of clusters created by the clustering process and the attributes of each cluster in the cluster coordinate storage memory 34 (S23), and a 3D size such as the height and width of each cluster. Information (SOj) (where 1 ≦ j ≦ N and N is an integer) is calculated and stored in the cluster coordinate storage memory 34 (S24).

次に、サイズ判定部55は、各クラスタの3Dサイズ情報(SOj)を読み出し(S25)、3Dサイズ情報(SOj)とサイズ判定閾値(=クラスタリング閾値)(THi)との差が所定範囲(TH)未満であるか否かを判断する(S26)。   Next, the size determination unit 55 reads the 3D size information (SOj) of each cluster (S25), and the difference between the 3D size information (SOj) and the size determination threshold (= clustering threshold) (THi) is within a predetermined range (TH It is determined whether it is less than () (S26).

上記差が所定範囲未満である場合には(S26にてYES)、上記クラスタのオブジェクトの種類をクラスタリング閾値(THi)が示すオブジェクトの種類(ワークWまたは作業者M)であると判定する。これによりオブジェクトが認識される。そして、サイズ判定部55は、判定したオブジェクトの種類が作業者であるか否かを判断し(S27)、作業者であると判断した場合には(S27にてYES)、作業者用出力信号生成部57が、作業者Mその他を示す出力信号を生成して、作業者用出力部44を介して外部に出力する(S28)。その後、処理動作を終了する。   If the difference is less than the predetermined range (YES in S26), it is determined that the object type of the cluster is the object type (work W or worker M) indicated by the clustering threshold (THi). As a result, the object is recognized. Then, the size determination unit 55 determines whether or not the determined object type is a worker (S27). If it is determined that the object is a worker (YES in S27), the output signal for the worker is determined. The generation unit 57 generates an output signal indicating the worker M and others and outputs the output signal to the outside via the worker output unit 44 (S28). Thereafter, the processing operation is terminated.

一方、作業者でないと判断した場合には(S27にてNO)、クラスタID(j)がN以上であるか否かを判断する(S29)。クラスタID(j)がNより小さい場合には(S29にてNO)、調べるべきクラスタが残っているので、クラスタID(j)を増分した後(S30)、ステップS24に戻って上記処理動作を繰り返す。一方、クラスタID(j)がN以上である場合には(S29にてYES)、調べるべきクラスタが残っていないので、全てのクラスタがワークWに対応することになる。したがって、ワーク用出力信号生成部56が、ワークWを示す出力信号を生成して、ワーク用出力部43を介して外部に出力する(S31)。その後、処理動作を終了する。   On the other hand, when it is determined that the user is not an operator (NO in S27), it is determined whether or not the cluster ID (j) is N or more (S29). If cluster ID (j) is smaller than N (NO in S29), the cluster to be checked remains, so after incrementing cluster ID (j) (S30), the process returns to step S24 to perform the above processing operation. repeat. On the other hand, when cluster ID (j) is N or more (YES in S29), there is no cluster to be checked, so all clusters correspond to work W. Therefore, the work output signal generation unit 56 generates an output signal indicating the work W and outputs the output signal to the outside via the work output unit 43 (S31). Thereafter, the processing operation is terminated.

ステップS26に戻って、クラスタの3Dサイズ情報(SOj)とサイズ判定閾値(=クラスタリング閾値)(THi)との差が所定範囲(TH)以上である場合には(S26にてNO)、当該クラスタは、クラスタリング閾値(THi)に対応するオブジェクトではないと判断して、クラスタ解除を行う(S32)。   Returning to step S26, if the difference between the 3D size information (SOj) of the cluster and the size determination threshold (= clustering threshold) (THi) is greater than or equal to a predetermined range (TH) (NO in S26), the cluster Determines that the object does not correspond to the clustering threshold (THi), and cancels the cluster (S32).

次に、クラスタリング部54は、オブジェクトID(i)を増分して、クラスタリングの対象となるオブジェクトを変更する(S33)。次に、クラスタリング部54は、増分したオブジェクトID(i)が、オブジェクトの種類の数M以下であるか否かを判断する(S34)。オブジェクトの種類の数Mよりも多い場合には(S34にてNO)、オブジェクト認識部51は、対象としているオブジェクト以外のオブジェクトが存在すると判断して、作業者用出力信号生成部57が、作業者Mその他を示す出力信号を生成して、作業者用出力部44を介して外部に出力する(S28)。その後、処理動作を終了する。   Next, the clustering unit 54 increments the object ID (i) and changes the object to be clustered (S33). Next, the clustering unit 54 determines whether or not the incremented object ID (i) is equal to or less than the number M of object types (S34). If the number is greater than the number M of object types (NO in S34), the object recognition unit 51 determines that there is an object other than the target object, and the worker output signal generation unit 57 An output signal indicating the operator M and others is generated and output to the outside via the worker output unit 44 (S28). Thereafter, the processing operation is terminated.

一方、オブジェクトID(i)がオブジェクトの種類の数M以下である場合には(S34にてYES)、オブジェクト認識部51は、クラスタリングすべきオブジェクトが存在するので、オブジェクトID(i)のクラスタリング閾値THiを用いたクラスタリング(部分クラスタリング)を行う(S35)。その後、ステップS24に戻って上記処理動作を繰り返す。   On the other hand, when object ID (i) is equal to or less than the number M of object types (YES in S34), object recognition unit 51 has an object to be clustered, and therefore a clustering threshold for object ID (i). Clustering (partial clustering) using THi is performed (S35). Then, it returns to step S24 and repeats the said processing operation.

図8は、クラスタリング部54が行うクラスタリング処理を示している。図示のように、まず、最長距離法によるクラスタリングを行う(S40)。次に、クラスタの年齢を更新し(S41)、クラスタ間の距離行列を作成する(S42)。そして、クラスタを統合して(S43)、各種リストを更新する(S44)。その後、クラスタリング処理を終了する。   FIG. 8 shows a clustering process performed by the clustering unit 54. As shown in the figure, first, clustering by the longest distance method is performed (S40). Next, the age of the cluster is updated (S41), and a distance matrix between the clusters is created (S42). Then, the clusters are integrated (S43), and various lists are updated (S44). Thereafter, the clustering process is terminated.

図9は、クラスタリング部54が行うクラスタリング処理をさらに詳細に示している。図示において、iは特徴点の番号を示しており、nは特徴点の数を示している。まず、初期設定を行う(S50)。次に、或る特徴点について以下の処理を行い、これを全ての特徴点に関して行う(S51)。   FIG. 9 shows the clustering process performed by the clustering unit 54 in more detail. In the figure, i indicates the number of feature points, and n indicates the number of feature points. First, initial setting is performed (S50). Next, the following processing is performed for a certain feature point, and this is performed for all feature points (S51).

すなわち、まず、該当特徴点と前回のクラスタの組合せとに関して、最小距離と該当クラスタ番号とを求める(S52)。次に、最小距離が閾値よりも小さいか否かを判断し(S53)、最小距離が閾値以上である場合には(S53にてNO)、次の特徴点に移る(S57)。   That is, first, the minimum distance and the corresponding cluster number are obtained for the corresponding feature point and the previous cluster combination (S52). Next, it is determined whether or not the minimum distance is smaller than the threshold value (S53). If the minimum distance is equal to or larger than the threshold value (NO in S53), the process moves to the next feature point (S57).

一方、最小距離が閾値よりも小さい場合には(S53にてYES)、該当特徴点が未だクラスタに対応付けられていないかどうかを判断する(S54)。対応付けられていない場合には(S54にてYES)、クラスタの番号と特徴点の番号とをリンクすることにより、該当特徴点をクラスタに対応付ける(S55)。一方、対応付けられている場合には(S54にてNO)、クラスタとの距離を最小値に設定する(S56)。ステップS55またはステップS56の処理の後に、次の特徴点に移る(S57)。   On the other hand, if the minimum distance is smaller than the threshold value (YES in S53), it is determined whether the corresponding feature point is not yet associated with the cluster (S54). If not associated (YES in S54), the cluster number and the feature point number are linked to associate the corresponding feature point with the cluster (S55). On the other hand, if it is associated (NO in S54), the distance from the cluster is set to the minimum value (S56). After the process of step S55 or step S56, the process moves to the next feature point (S57).

図10(a)〜(f)は、危険領域Dに1個のワークAと作業者Mとが存在する場合に、監視装置12が行う処理を具体的に示すものである。同図(a)に示されるように、まず、第1および第2入力画像取得部41・42にて撮影画像を取得する。   FIGS. 10A to 10F specifically show processing performed by the monitoring device 12 when one work A and a worker M exist in the dangerous area D. FIG. As shown in FIG. 5A, first, the first and second input image acquisition units 41 and 42 acquire captured images.

次に、図10(b)に示されるように、3D情報算出部50が、取得した撮影画像から特徴点を抽出し、3D情報を算出する。次に、同図(c)に示されるように、クラスタリング部54が、ワークAのサイズでクラスタリングを行う。これにより、2つのクラスタが生成される。   Next, as illustrated in FIG. 10B, the 3D information calculation unit 50 extracts feature points from the acquired captured image and calculates 3D information. Next, as shown in FIG. 5C, the clustering unit 54 performs clustering with the size of the workpiece A. As a result, two clusters are generated.

次に、図10(d)に示されるように、クラスタリング部54が、各クラスタの3Dサイズ(幅、高さ、および奥行き)を取得し、サイズ判定部55が、各クラスタがワークであるか否かを判定基準に基づいて判定する。   Next, as shown in FIG. 10D, the clustering unit 54 acquires the 3D size (width, height, and depth) of each cluster, and the size determination unit 55 determines whether each cluster is a work. Whether or not is determined based on a criterion.

例えば、図10(d)に示されるように、クラスタ1は、高さが175cm、幅が50cm、かつ奥行きが50cmであり、クラスタ2は、高さが170cm、幅が170cm、かつ奥行きが170cmであるとする。そして、ワークの判定基準は、高さが165cm〜175cm、幅が165cm〜175cm、かつ奥行きが165cm〜175cmであるとする。この場合、サイズ判定部55は、クラスタ1がワークAではないと判定し、クラスタ2がワークAであると判定する。   For example, as shown in FIG. 10 (d), cluster 1 has a height of 175 cm, a width of 50 cm, and a depth of 50 cm, and cluster 2 has a height of 170 cm, a width of 170 cm, and a depth of 170 cm. Suppose that The workpiece judgment criteria are 165 cm to 175 cm in height, 165 cm to 175 cm in width, and 165 cm to 175 cm in depth. In this case, the size determination unit 55 determines that the cluster 1 is not the work A, and determines that the cluster 2 is the work A.

次に、クラスタリング部54は部分クラスタリングを行う。すなわち、図10(e)に示されるように、ワークAではないと判定されたクラスタ1の特徴点に対し、クラスタを解除して、作業者Mのサイズで再度クラスタリングを行う。これにより新たなクラスタ3が生成される。   Next, the clustering unit 54 performs partial clustering. That is, as illustrated in FIG. 10E, the cluster is canceled for the feature point of the cluster 1 determined not to be the work A, and the clustering is performed again with the size of the worker M. As a result, a new cluster 3 is generated.

次に、図10(f)に示されるように、クラスタリング部54が、クラスタ3の3Dサイズ(幅、高さ、および奥行き)を取得し、サイズ判定部55が、クラスタ3が作業者Mであるか否かを判定基準に基づいて判定する。   Next, as illustrated in FIG. 10F, the clustering unit 54 acquires the 3D size (width, height, and depth) of the cluster 3, and the size determination unit 55 determines that the cluster 3 is the worker M. Whether or not there is is determined based on a determination criterion.

例えば、図10(f)に示されるように、クラスタ3は、高さが175cm、幅が50cm、かつ奥行きが50cmであるとする。そして、作業者Mの判定基準は、高さが165cm〜175cm、幅が45cm〜55cm、かつ奥行きが45cm〜55cmであるとする。この場合、サイズ判定部55は、クラスタ3が作業者Mであると判定する。   For example, as shown in FIG. 10F, the cluster 3 has a height of 175 cm, a width of 50 cm, and a depth of 50 cm. The determination criterion for the worker M is that the height is 165 cm to 175 cm, the width is 45 cm to 55 cm, and the depth is 45 cm to 55 cm. In this case, the size determination unit 55 determines that the cluster 3 is the worker M.

そして、サイズ判定部55の判定結果に作業者Mが含まれる場合には、作業者用出力信号生成部57は、作業者用出力信号として危険信号を生成して出力する。一方、上記判定結果に作業者Mが含まれない場合には、ワーク用出力信号生成部56は、ワーク用出力信号として安全確認信号を生成して出力する。
〔実施の形態2〕
次に、本発明の別の実施形態について、図11〜図13を参照しつつ説明する。本実施形態の監視システムは、図1〜図10に示される監視システム10に比べて、ワークWよりも作業者Mの方がサイズが大きい点が異なり、その他の構成は同様である。なお、上記実施形態で説明した構成と同様の構成には同一の符号を付して、その説明を省略する。
Then, when the worker M is included in the determination result of the size determination unit 55, the worker output signal generation unit 57 generates and outputs a danger signal as the worker output signal. On the other hand, when the worker M is not included in the determination result, the work output signal generation unit 56 generates and outputs a safety confirmation signal as the work output signal.
[Embodiment 2]
Next, another embodiment of the present invention will be described with reference to FIGS. The monitoring system of the present embodiment is different from the monitoring system 10 shown in FIGS. 1 to 10 in that the worker M is larger in size than the work W, and the other configurations are the same. In addition, the same code | symbol is attached | subjected to the structure similar to the structure demonstrated in the said embodiment, and the description is abbreviate | omitted.

図11は、図6に示される各種パラメータの意味を示している。図示のように、本実施形態において認識すべきオブジェクトは、オブジェクトID(i)が1である作業者Mと、オブジェクトIDが2であるワークWとの2種類である。また、作業者MのサイズがワークWのサイズよりも大きいので、本実施形態では、まず、作業者Mのサイズでクラスタリングを行って、クラスタが作業者Mであるか否かを判定し、作業者Mではない場合に、ワークWのサイズでクラスタリングを行って、クラスタがワークWであるか否かを判定している。   FIG. 11 shows the meanings of the various parameters shown in FIG. As shown in the figure, there are two types of objects to be recognized in the present embodiment: an operator M whose object ID (i) is 1 and a work W whose object ID is 2. In addition, since the size of the worker M is larger than the size of the workpiece W, in the present embodiment, clustering is first performed with the size of the worker M, and it is determined whether or not the cluster is the worker M. If it is not the worker M, clustering is performed with the size of the work W, and it is determined whether or not the cluster is the work W.

図12(a)〜(d)は、危険領域Dに1個のワークBと作業者Mとが存在する場合に、監視装置12が行う処理を具体的に示すものである。また、図13(a)〜(c)は、危険領域Dに作業者Mが存在せず、1個のワークBのみが存在する場合に、監視装置12が行う処理を具体的に示すものである。   12A to 12D specifically show processing performed by the monitoring device 12 when one work B and a worker M exist in the dangerous area D. FIG. FIGS. 13A to 13C specifically show processing performed by the monitoring device 12 when the worker M does not exist in the dangerous area D and only one work B exists. is there.

まず、図12(a)に示されるように、第1および第2入力画像取得部41・42にて撮影画像を取得する。次に、図12(b)に示されるように、3D情報算出部50が、取得した撮影画像から特徴点を抽出し、3D情報を算出する。次に、同図(c)に示されるように、クラスタリング部54が、作業者Mのサイズでクラスタリングを行う。これにより、2つのクラスタが生成される。   First, as shown in FIG. 12A, the first and second input image acquisition units 41 and 42 acquire captured images. Next, as illustrated in FIG. 12B, the 3D information calculation unit 50 extracts feature points from the acquired captured image and calculates 3D information. Next, the clustering unit 54 performs clustering with the size of the worker M, as shown in FIG. As a result, two clusters are generated.

次に、図12(d)に示されるように、クラスタリング部54が、各クラスタの3Dサイズを取得し、サイズ判定部55が、各クラスタが作業者であるか否かを判定基準に基づいて判定する。   Next, as shown in FIG. 12D, the clustering unit 54 acquires the 3D size of each cluster, and the size determination unit 55 determines whether each cluster is an operator based on the determination criterion. judge.

例えば、図12(d)に示されるように、クラスタ1は、高さが175cm、幅が50cm、かつ奥行きが50cmであり、クラスタ2は、高さが30cm、幅が30cm、かつ奥行きが30cmであるとする。そして、作業者の判定基準は、高さが150cm〜180cm、幅が30cm〜80cm、かつ奥行きが30cm〜80cmであるとする。この場合、サイズ判定部55は、クラスタ1が作業者Mであると判定し、クラスタ2が作業者Mではないと判定する。サイズ判定部55の判定結果に作業者Mが含まれるので、作業者用出力信号生成部57は、作業者用出力信号として危険信号を生成して出力する。   For example, as shown in FIG. 12D, the cluster 1 has a height of 175 cm, a width of 50 cm, and a depth of 50 cm, and the cluster 2 has a height of 30 cm, a width of 30 cm, and a depth of 30 cm. Suppose that Then, the determination criteria of the worker are assumed to be 150 cm to 180 cm in height, 30 cm to 80 cm in width, and 30 cm to 80 cm in depth. In this case, the size determination unit 55 determines that the cluster 1 is the worker M and determines that the cluster 2 is not the worker M. Since the determination result of the size determination unit 55 includes the worker M, the worker output signal generation unit 57 generates and outputs a danger signal as the worker output signal.

なお、図13(a)に示されるように、危険領域Dに作業者Mが存在せず、1個のワークBのみが存在する場合、上記判定結果に作業者Mが含まれないので、クラスタリング部54は、クラスタを解除して、同図(b)に示されるように、ワークBのサイズで再度クラスタリングを行う。これにより、新たなクラスタ1が生成される。   As shown in FIG. 13A, when the worker M does not exist in the danger area D and only one work B exists, the worker M is not included in the determination result, so clustering is performed. The unit 54 releases the cluster and performs clustering again with the size of the work B as shown in FIG. As a result, a new cluster 1 is generated.

次に、図13(c)に示されるように、クラスタリング部54が、クラスタ1の3Dサイズを取得し、サイズ判定部55が、クラスタ1がワークBであるか否かを判定基準に基づいて判定する。   Next, as illustrated in FIG. 13C, the clustering unit 54 acquires the 3D size of the cluster 1, and the size determination unit 55 determines whether the cluster 1 is the work B based on the determination criterion. judge.

例えば、図13(c)に示されるように、クラスタ1は、高さが30cm、幅が30cm、かつ奥行きが30cmであるとする。そして、ワークBの判定基準は、高さが25cm〜35cm、幅が25cm〜35cm、かつ奥行きが25cm〜35cmであるとする。この場合、サイズ判定部55は、クラスタ1がワークBであると判定する。以上より、サイズ判定部55は、判定結果に作業者Mが含まれず、ワークBが含まれるので、ワーク用出力信号生成部56は、ワーク用出力信号として安全確認信号を生成して出力する。   For example, as shown in FIG. 13C, the cluster 1 has a height of 30 cm, a width of 30 cm, and a depth of 30 cm. The determination criteria for the workpiece B are 25 cm to 35 cm in height, 25 cm to 35 cm in width, and 25 cm to 35 cm in depth. In this case, the size determination unit 55 determines that the cluster 1 is the work B. As described above, since the size determination unit 55 does not include the worker M but includes the workpiece B, the workpiece output signal generation unit 56 generates and outputs a safety confirmation signal as the workpiece output signal.

したがって、本実施形態でも、上記実施形態と同様に、オブジェクトの形状に類似するクラスタのサイズから、オブジェクトの種類を特定することができる。また、オブジェクトのサイズごとにクラスタリングを繰り返すことになるので、各クラスタに対応するオブジェクトの種類を確実に特定することができる。
〔実施の形態3〕
次に、本発明の別の実施形態について、図14〜図17を参照しつつ説明する。本実施形態の監視システムは、図1〜図10に示される監視システム10に比べて、認識すべきオブジェクト数が異なり、その他の構成は同様である。なお、上記実施形態で説明した構成と同様の構成には同一の符号を付して、その説明を省略する。
Therefore, also in this embodiment, the type of object can be specified from the cluster size similar to the shape of the object, as in the above embodiment. In addition, since clustering is repeated for each object size, the type of object corresponding to each cluster can be reliably identified.
[Embodiment 3]
Next, another embodiment of the present invention will be described with reference to FIGS. The monitoring system of this embodiment differs from the monitoring system 10 shown in FIGS. 1 to 10 in the number of objects to be recognized, and the other configurations are the same. In addition, the same code | symbol is attached | subjected to the structure similar to the structure demonstrated in the said embodiment, and the description is abbreviate | omitted.

図14および図15は、制御部40における処理動作の流れを示している。また、図16は、図14および図15に示される各種パラメータの意味を示している。図示のように、本実施形態において認識すべきオブジェクトは、オブジェクトID(i)が1であるワークAと、オブジェクトIDが2である作業者Mと、オブジェクトIDが3であるワークBとの3種類である。また、ワークAのサイズは作業者Mのサイズよりも大きく、作業者MのサイズはワークBのサイズよりも大きい。   14 and 15 show the flow of processing operations in the control unit 40. FIG. 16 shows the meanings of various parameters shown in FIGS. 14 and 15. As shown in the figure, the objects to be recognized in the present embodiment are the work A having the object ID (i) of 1, the worker M having the object ID of 2, and the work B having the object ID of 3. It is a kind. The size of the workpiece A is larger than the size of the worker M, and the size of the worker M is larger than the size of the workpiece B.

このため、本実施形態では、まず、ワークAのサイズでクラスタリングを行って、クラスタがワークAであるか否かを判定し、ワークAではない場合に、作業者Mのサイズでクラスタリングを行って、クラスタが作業者Mであるか否かを判定し、作業者Mではない場合に、ワークBのサイズでクラスタリングを行って、クラスタがワークBであるか否かを判定している。   For this reason, in this embodiment, clustering is first performed with the size of the work A to determine whether or not the cluster is the work A. If the cluster is not the work A, the clustering is performed with the size of the worker M. It is determined whether or not the cluster is the worker M. If the cluster is not the worker M, clustering is performed with the size of the work B to determine whether or not the cluster is the work B.

具体的には、図14および図15に示されるように、まず、クラスタリング部54は、特徴点座標保存メモリ33から各特徴点の3D情報を読み出して、上記特許文献3に記載のように、ユークリッド距離などの特徴点間距離を算出し、最も大きいクラスタリング閾値であるワークAの上限のクラスタリング閾値TH1maxを用いたクラスタリング処理を行う(S60)。具体的には、上記特徴点間距離が上記クラスタリング閾値TH1max以下である複数の特徴点を、1つのオブジェクトから抽出された特徴点であると仮定して同一クラスタに統合する。   Specifically, as shown in FIGS. 14 and 15, the clustering unit 54 first reads the 3D information of each feature point from the feature point coordinate storage memory 33, as described in Patent Document 3 above, The distance between feature points such as the Euclidean distance is calculated, and clustering processing is performed using the upper clustering threshold TH1max of the work A, which is the largest clustering threshold (S60). Specifically, a plurality of feature points whose distance between the feature points is equal to or less than the clustering threshold TH1max are assumed to be feature points extracted from one object and integrated into the same cluster.

次に、クラスタリング部50は、上記クラスタリング処理により作成された各クラスタの高さ・幅などの3Dサイズ情報を求める(S61)。次に、或るクラスタに関して、サイズ判定部55は、上記クラスタの3Dサイズ情報が、ワークAのサイズ判定閾値(=クラスタリング閾値)の上限値TH1maxおよび下限値TH1min(図16参照)の間に含まれるか否か、すなわちワークAのサイズ判定閾値の範囲内であるか否かを判断する(S62)。   Next, the clustering unit 50 obtains 3D size information such as the height and width of each cluster created by the clustering process (S61). Next, for a certain cluster, the size determination unit 55 includes the 3D size information of the cluster between the upper limit value TH1max and the lower limit value TH1min (see FIG. 16) of the size determination threshold value (= clustering threshold value) of the workpiece A. It is determined whether it is within the range of the size determination threshold value of the workpiece A (S62).

上記クラスタの3Dサイズ情報が、ワークAのサイズ判定閾値の範囲内である場合には(S62にてYES)、サイズ判定部55は、上記クラスタのオブジェクトをワークAであると判定して、ワーク用出力信号生成部56がワークA出力信号を生成して出力する(S63)する。これによりオブジェクトが認識される。その後、ステップS75に進む。   If the 3D size information of the cluster is within the size determination threshold value of work A (YES in S62), size determination unit 55 determines that the object of the cluster is work A, and the work The output signal generator 56 generates and outputs a work A output signal (S63). As a result, the object is recognized. Thereafter, the process proceeds to step S75.

一方、上記クラスタの3Dサイズ情報が、ワークAのサイズ判定閾値の範囲外である場合には(S62にてNO)、サイズ判定部55は、さらに、上記クラスタの3Dサイズ情報が、ワークAのサイズ判定閾値の上限値TH1maxよりも小さいか否かを判断する(S64)。上記クラスタの3Dサイズ情報が、ワークAのサイズ判定閾値の上限値TH1max以上である場合には、サイズ判定部55は、上記クラスタが、ワークAよりも大きいオブジェクト、すなわち、ワークA、作業者、およびワークBの何れよりも大きいオブジェクトであると判断して、出力信号生成部52は、その他の出力信号を生成する(S65)。その後、ステップS75に進む。   On the other hand, when the 3D size information of the cluster is outside the range of the size determination threshold value of the workpiece A (NO in S62), the size determination unit 55 further determines that the 3D size information of the cluster is the workpiece A size. It is determined whether or not the size determination threshold value is smaller than the upper limit value TH1max (S64). When the 3D size information of the cluster is equal to or larger than the upper limit value TH1max of the size determination threshold value of the work A, the size determination unit 55 determines that the cluster is an object larger than the work A, that is, the work A, the worker, The output signal generator 52 determines that the object is larger than any of the workpiece B and the workpiece B, and generates another output signal (S65). Thereafter, the process proceeds to step S75.

一方、上記クラスタの3Dサイズ情報が、ワークAのサイズ判定閾値の上限値TH1maxよりも小さい場合には、クラスタリング部54は、上記クラスタを構成する特徴点に関して、最も小さいクラスタリング閾値であるワークBの上限のクラスタリング閾値TH2maxを用いて、上述のようにクラスタリング処理を行う(S66)。次に、クラスタリング部50は、上記クラスタリング処理により作成された各クラスタの高さ・幅などの3Dサイズ情報を求める(S67)。   On the other hand, when the 3D size information of the cluster is smaller than the upper limit value TH1max of the size determination threshold value of the workpiece A, the clustering unit 54 determines the workpiece B, which is the smallest clustering threshold value, for the feature points constituting the cluster. Using the upper limit clustering threshold TH2max, the clustering process is performed as described above (S66). Next, the clustering unit 50 obtains 3D size information such as the height and width of each cluster created by the clustering process (S67).

次に、或るクラスタに関して、サイズ判定部55は、上記クラスタの3Dサイズ情報が、ワークBのサイズ判定閾値(=クラスタリング閾値)の上限値TH2maxおよび下限値TH2min(図16参照)の間に含まれるか否か、すなわちワークBのサイズ判定閾値の範囲内であるか否かを判断する(S68)。   Next, for a certain cluster, the size determination unit 55 includes the 3D size information of the cluster between the upper limit value TH2max and the lower limit value TH2min (see FIG. 16) of the size determination threshold value (= clustering threshold value) of the work B. It is determined whether it is within the range of the size determination threshold value of the workpiece B (S68).

上記クラスタの3Dサイズ情報が、ワークBのサイズ判定閾値の範囲内である場合には(S68にてYES)、サイズ判定部55は、上記クラスタのオブジェクトをワークBであると判定して、ワーク用出力信号生成部56がワークB出力信号を生成して出力する(S69)。これによりオブジェクトが認識される。その後、ステップS75に進む。   When the 3D size information of the cluster is within the range of the size determination threshold value of work B (YES in S68), size determination unit 55 determines that the object of the cluster is work B, and the work The output signal generator 56 generates and outputs a work B output signal (S69). As a result, the object is recognized. Thereafter, the process proceeds to step S75.

一方、上記クラスタの3Dサイズ情報が、ワークBのサイズ判定閾値の範囲外である場合には(S68にてNO)、サイズ判定部55は、さらに、上記クラスタの3Dサイズ情報が、ワークBのサイズ判定閾値の下限値TH1minよりも大きいか否かを判断する(S70)。上記クラスタの3Dサイズ情報が、ワークBのサイズ判定閾値の下限値TH2min以下である場合には(S70にてNO)、サイズ判定部55は、ワークBよりも小さいオブジェクト、すなわち、ワークA、作業者、およびワークBの何れよりも小さいオブジェクトであると判断して、出力信号生成部52は、その他の出力信号を生成する(S65)。その後、ステップS75に進む。   On the other hand, when the 3D size information of the cluster is outside the range of the size determination threshold value for work B (NO in S68), size determination unit 55 further determines that the 3D size information of the cluster is the work B size. It is determined whether or not the size determination threshold value is larger than a lower limit value TH1min (S70). When the 3D size information of the cluster is equal to or smaller than the lower limit value TH2min of the workpiece B size determination threshold (NO in S70), the size determination unit 55 determines that the object is smaller than the workpiece B, that is, the workpiece A, work The output signal generation unit 52 determines that the object is smaller than either the worker or the work B, and generates another output signal (S65). Thereafter, the process proceeds to step S75.

一方、上記クラスタの3Dサイズ情報が、ワークBのサイズ判定閾値の下限値TH2minよりも大きい場合には(S70にてYES)、クラスタリング部54は、上記クラスタを構成する特徴点に関して、中間のクラスタリング閾値である作業者Mの上限のクラスタリング閾値TH3maxを用いて、上述のようにクラスタリング処理を行う(S71)。次に、クラスタリング部50は、上記クラスタリング処理により作成された各クラスタの高さ・幅などの3Dサイズ情報を求める(S72)。   On the other hand, when the 3D size information of the cluster is larger than the lower limit value TH2min of the size determination threshold value of work B (YES in S70), the clustering unit 54 performs intermediate clustering on the feature points constituting the cluster. The clustering process is performed as described above using the upper limit clustering threshold TH3max of the worker M, which is the threshold (S71). Next, the clustering unit 50 obtains 3D size information such as the height and width of each cluster created by the clustering process (S72).

次に、或るクラスタに関して、サイズ判定部55は、上記クラスタの3Dサイズ情報が、作業者Mのサイズ判定閾値(=クラスタリング閾値)の上限値TH3maxおよび下限値TH3min(図16参照)の間に含まれるか否か、すなわち作業者Mのサイズ判定閾値の範囲内であるか否かを判断する(S73)。   Next, for a certain cluster, the size determination unit 55 determines that the 3D size information of the cluster is between the upper limit value TH3max and the lower limit value TH3min (see FIG. 16) of the size determination threshold (= clustering threshold) of the worker M. It is determined whether it is included, that is, whether it is within the range of the size determination threshold value of the worker M (S73).

上記クラスタの3Dサイズ情報が、作業者Mのサイズ判定閾値の範囲内である場合には(S73にてYES)、サイズ判定部55は、上記クラスタのオブジェクトを作業者Mであると判定して、作業者用出力信号生成部57が作業者出力信号を生成して出力する(S74)。これによりオブジェクトが認識される。その後、ステップS75に進む。   When the 3D size information of the cluster is within the size determination threshold value of worker M (YES in S73), size determination unit 55 determines that the object of the cluster is worker M. The worker output signal generator 57 generates and outputs a worker output signal (S74). As a result, the object is recognized. Thereafter, the process proceeds to step S75.

一方、上記クラスタの3Dサイズ情報が、作業者Mのサイズ判定閾値の範囲外である場合には(S73にてNO)、オブジェクトの認識ができなかったとして、出力信号生成部52は、その他の出力信号を生成する(S65)。その後、ステップS75に進む。   On the other hand, when the 3D size information of the cluster is outside the range of the size determination threshold of worker M (NO in S73), the output signal generation unit 52 determines that the object could not be recognized, An output signal is generated (S65). Thereafter, the process proceeds to step S75.

ステップS75において、ワークAに関してステップS60により生成されたクラスタの全てが上記判定処理(S62〜S74)を行うまで繰り返す。同様に、ワークBに関してステップS66により生成されたクラスタの全てが上記判定処理(S65・S68〜S74)を行うまで繰り返す(S76)。さらに、作業者Mに関してステップS71により生成されたクラスタの全てが上記判定処理(S65・S73・S74)を行うまで繰り返す(S77)。その後、処理動作を終了する。   In step S75, it repeats until all the clusters produced | generated by step S60 regarding the workpiece | work A perform the said determination process (S62-S74). Similarly, all of the clusters generated in step S66 for the workpiece B are repeated until the above determination processing (S65, S68 to S74) is performed (S76). Furthermore, it repeats until all the clusters produced | generated by step S71 regarding the worker M perform the said determination process (S65 * S73 * S74) (S77). Thereafter, the processing operation is terminated.

図17(a)〜(h)は、危険領域Dに1個のワークAと1個のワークBと1人の作業者Mとが存在する場合に、監視装置12が行う処理を具体的に示すものである。同図(a)に示されるように、まず、第1および第2入力画像取得部41・42にて撮影画像を取得する。   17A to 17H specifically show the processing performed by the monitoring device 12 when there is one work A, one work B, and one worker M in the dangerous area D. FIG. It is shown. As shown in FIG. 5A, first, the first and second input image acquisition units 41 and 42 acquire captured images.

次に、図17(b)に示されるように、3D情報算出部50は、取得した撮影画像から特徴点を抽出し、3D情報を算出する。次に、同図(c)に示されるように、クラスタリング部54は、ワークAのサイズでクラスタリングを行う。これにより、2つのクラスタ1・2が生成される。   Next, as illustrated in FIG. 17B, the 3D information calculation unit 50 extracts feature points from the acquired captured image and calculates 3D information. Next, as shown in FIG. 5C, the clustering unit 54 performs clustering with the size of the workpiece A. As a result, two clusters 1 and 2 are generated.

次に、図17(d)に示されるように、クラスタリング部54は、クラスタ1・2の3Dサイズ(幅、高さ、および奥行き)を取得する。次に、サイズ判定部55は、クラスタ1がワークAであるか否かを判定基準に基づいて判定する。図示の場合、サイズ判定部55は、クラスタ1がワークAではないと判定するので、クラスタリング部54は、同図(e)に示されるように、クラスタ1を構成する特徴点に対して、ワークBのサイズでクラスタリングを行う。これにより、2つのクラスタ3・4が生成される。   Next, as illustrated in FIG. 17D, the clustering unit 54 acquires the 3D sizes (width, height, and depth) of the clusters 1 and 2. Next, the size determination unit 55 determines whether or not the cluster 1 is the work A based on the determination criterion. In the case shown in the figure, the size determination unit 55 determines that the cluster 1 is not the work A, so that the clustering unit 54 applies the work to the feature points constituting the cluster 1 as shown in FIG. Clustering is performed with the size of B. As a result, two clusters 3 and 4 are generated.

次に、クラスタリング部54は、クラスタ3・4の3Dサイズ(幅、高さ、および奥行き)を取得する。次に、サイズ判定部55は、クラスタ3がワークBであるか否かを判定基準に基づいて判定する。図示の場合、サイズ判定部55は、クラスタ3がワークBであると判定する。   Next, the clustering unit 54 acquires the 3D size (width, height, and depth) of the clusters 3 and 4. Next, the size determination unit 55 determines whether or not the cluster 3 is the work B based on the determination criterion. In the illustrated case, the size determination unit 55 determines that the cluster 3 is the work B.

同様に、サイズ判定部55は、クラスタ4がワークBであるか否かを判定基準に基づいて判定する。図示の場合、サイズ判定部55は、クラスタ4がワークAであると判定するので、クラスタリング部54は、クラスタ4を構成する特徴点に対して、作業者Mのサイズでクラスタリングを行う。これにより、1つのクラスタ4’が生成される。次に、クラスタリング部54は、クラスタ4’の3Dサイズ(幅、高さ、および奥行き)を取得し、サイズ判定部55は、クラスタ4’が作業者Mであるか否かを判定基準に基づいて判定する。図示の場合、サイズ判定部55は、クラスタ4’が作業者Mであると判定する。   Similarly, the size determination unit 55 determines whether or not the cluster 4 is the work B based on the determination criterion. In the illustrated case, since the size determination unit 55 determines that the cluster 4 is the work A, the clustering unit 54 performs clustering with the size of the worker M on the feature points constituting the cluster 4. Thereby, one cluster 4 'is generated. Next, the clustering unit 54 acquires the 3D size (width, height, and depth) of the cluster 4 ′, and the size determination unit 55 determines whether the cluster 4 ′ is the worker M based on the determination criterion. Judgment. In the illustrated case, the size determination unit 55 determines that the cluster 4 ′ is the worker M.

したがって、オブジェクト認識部51は、図17(f)に示されるように、クラスタ3をワークBとして認識し、クラスタ4’を作業者Mとして認識する。   Accordingly, the object recognizing unit 51 recognizes the cluster 3 as the work B and recognizes the cluster 4 ′ as the worker M as shown in FIG.

次に、サイズ判定部55は、図17(g)に示されるように、クラスタ2がワークAであるか否かを判定基準に基づいて判定する。図示の場合、サイズ判定部55は、クラスタ2がワークAであると判定する。   Next, as shown in FIG. 17G, the size determination unit 55 determines whether or not the cluster 2 is the work A based on the determination criterion. In the illustrated case, the size determination unit 55 determines that the cluster 2 is the work A.

以上より、オブジェクト認識部51は、図17(h)に示されるように、クラスタ2をワークAとして認識し、クラスタ3をワークBとして認識し、クラスタ4’を作業者Mとして認識して、出力信号生成部52は、それぞれのオブジェクトに対応する出力信号を出力する。   As described above, the object recognition unit 51 recognizes cluster 2 as work A, recognizes cluster 3 as work B, recognizes cluster 4 ′ as worker M, as shown in FIG. The output signal generation unit 52 outputs an output signal corresponding to each object.

したがって、本実施形態では、まず、特定すべきオブジェクトのうち、最大サイズのオブジェクトに関して、該オブジェクトのサイズに対応するクラスタサイズでクラスタリングを行った後、上記オブジェクトのサイズに対応するサイズ基準でクラスタのサイズ判定を行っている。次に、特定すべきオブジェクトのうち、最小サイズのオブジェクトに関して、同様にクラスタリングおよびサイズ判定を行っている。これにより、特定すべき物体のサイズ範囲を逸脱するサイズのクラスタを取得した場合に、直ちに異常を報せることができる。
〔実施の形態4〕
次に、本発明のさらに別の実施形態について、図18および図19を参照しつつ説明する。本実施形態の監視システムは、図1〜図10に示される監視システム10に比べて、或るクラスタがワークであるかを判定する判定条件に、クラスタの存在位置を追加する点が異なり、その他の構成は同様である。なお、上記実施形態で説明した構成と同様の構成には同一の符号を付して、その説明を省略する。
Therefore, in the present embodiment, first, with respect to the object of the maximum size among the objects to be specified, clustering is performed with a cluster size corresponding to the size of the object, and then the cluster reference is made on the basis of the size corresponding to the size of the object. Size determination is performed. Next, among the objects to be specified, clustering and size determination are performed in the same manner with respect to the object of the minimum size. Accordingly, when a cluster having a size that deviates from the size range of the object to be specified is acquired, an abnormality can be reported immediately.
[Embodiment 4]
Next, still another embodiment of the present invention will be described with reference to FIGS. The monitoring system of the present embodiment is different from the monitoring system 10 shown in FIGS. 1 to 10 in that a cluster location is added to a determination condition for determining whether a certain cluster is a work. The configuration of is the same. In addition, the same code | symbol is attached | subjected to the structure similar to the structure demonstrated in the said embodiment, and the description is abbreviate | omitted.

上記の実施形態では、或るクラスタがワークであるか否かを判定する判定条件として、クラスタの3Dサイズを利用している。しかしながら、ワークと作業者との3Dサイズが類似している場合、上記3Dサイズによる判定結果が確実とは言い難い場合がある。   In the above embodiment, the 3D size of a cluster is used as a determination condition for determining whether or not a certain cluster is a work. However, when the 3D size of the workpiece and the worker is similar, the determination result based on the 3D size may not be sure.

一方、ワークは、通常、生産現場において所定の領域内を移動している。例えば、図2に示される例では、ワークWは、搬送機C上を移動している。このため、ワークWは、存在位置が搬送機C上に限定されることになる。そこで、本実施形態では、上記判定条件として、クラスタの3Dサイズとともに、クラスタの存在位置を利用している。   On the other hand, the workpiece usually moves in a predetermined area at the production site. For example, in the example illustrated in FIG. 2, the workpiece W is moving on the transporter C. For this reason, the position where the workpiece W exists is limited to the transporting machine C. Therefore, in the present embodiment, as the determination condition, the cluster location is used together with the 3D size of the cluster.

図18は、本実施形態の監視システム10における制御部40の概略構成を示している。本実施形態の制御部40は、図1に示される制御部40に比べて、クラスタの重心位置が所定の範囲内に存在するか否かを判定する位置判定部(物体判定手段)60を、オブジェクト認識部51に含む点が異なり、その他の構成は同様である。この位置判定部60は、サイズ判定部55と出力信号生成部52との間に設けられている。   FIG. 18 shows a schematic configuration of the control unit 40 in the monitoring system 10 of the present embodiment. Compared with the control unit 40 shown in FIG. 1, the control unit 40 of the present embodiment includes a position determination unit (object determination unit) 60 that determines whether or not the center of gravity position of the cluster is within a predetermined range. The difference is included in the object recognition unit 51, and the other configurations are the same. The position determination unit 60 is provided between the size determination unit 55 and the output signal generation unit 52.

位置判定部60は、サイズ判定部55がワークと判定したクラスタの重心位置を算出し、算出した重心位置が、ワークが通常移動する領域に含まれるか否かを判断し、含まれる場合に上記クラスタをワークと判定し、含まれない場合に上記クラスタをワーク以外(例えば作業者)と判定するものである。   The position determination unit 60 calculates the centroid position of the cluster determined by the size determination unit 55 as a work, determines whether or not the calculated centroid position is included in an area where the work normally moves, and if it is included, A cluster is determined to be a work, and if it is not included, the cluster is determined to be other than a work (for example, an operator).

図19は、図6に示される制御部40の処理動作に対し、本実施形態において追加される処理動作を示している。本実施形態では、サイズ判定部55は、判定したオブジェクトの種類が作業者ではないと判断した場合には(S27にてNO)、位置判定部60は、判定したオブジェクトの種類に対応するクラスタの重心位置を算出する(S80)。次に、位置判定部60は、算出した重心位置が、ワークが通常移動する領域に含まれるか否か、すなわち、ワークの存在範囲内にあるか否かを判断する(S81)。   FIG. 19 shows a processing operation added in the present embodiment to the processing operation of the control unit 40 shown in FIG. In the present embodiment, when the size determination unit 55 determines that the determined object type is not a worker (NO in S27), the position determination unit 60 selects a cluster corresponding to the determined object type. The center of gravity position is calculated (S80). Next, the position determination unit 60 determines whether or not the calculated barycentric position is included in a region where the workpiece normally moves, that is, whether or not the workpiece is within the existing range (S81).

ワークの存在範囲内にある場合には(S81にてYES)、上記クラスタがワークであると判断して、ステップS29に進む。一方、ワークの存在範囲外にある場合には(S81にてNO)、上記クラスタがワークではなく、作業者であると判断して、ステップS28に進む。   If within the work existence range (YES in S81), it is determined that the cluster is a work, and the process proceeds to step S29. On the other hand, if the workpiece is out of the existing range (NO in S81), it is determined that the cluster is not a workpiece but an operator, and the process proceeds to step S28.

したがって、本実施形態の監視システム10では、クラスタのサイズと、クラスタの存在位置とに基づいてオブジェクトの種類を判定するので、オブジェクトのさらに確実な判定結果を得ることができる。   Therefore, in the monitoring system 10 of the present embodiment, the type of the object is determined based on the cluster size and the cluster location, so that a more reliable determination result of the object can be obtained.

なお、位置情報としては、危険領域Dを含む検知空間における絶対的な3D情報でもよいし、或るオブジェクトを基準とする相対的な3D情報でもよい。   The position information may be absolute 3D information in the detection space including the dangerous area D or may be relative 3D information based on a certain object.

また、ワークが通常移動する領域には、作業者が入ることができない場合が考えられる。そこで、位置判定部60は、サイズ判定部55が作業者と判定したクラスタの重心位置を算出し、算出した重心位置が、ワークが通常移動する領域に含まれるか否かを判断し、含まれる場合に上記クラスタを作業者以外と判定し、含まれない場合に上記クラスタを作業者と判定することもできる。
〔実施の形態5〕
次に、本発明のさらに別の実施形態について、図20および図21を参照しつつ説明する。本実施形態の監視システムは、図18および図19に示される監視システム10に比べて、或るクラスタがワークであるかを判定する判定条件に、クラスタの存在位置の代わりに、クラスタの移動速度を利用する点が異なり、その他の構成は同様である。なお、上記実施形態で説明した構成と同様の構成には同一の符号を付して、その説明を省略する。
Further, there may be a case where the worker cannot enter the area where the workpiece normally moves. Therefore, the position determination unit 60 calculates the center of gravity position of the cluster determined by the size determination unit 55 as an operator, determines whether or not the calculated center of gravity position is included in the region where the workpiece normally moves. In some cases, it is possible to determine that the cluster is not an operator, and to determine that the cluster is an operator if the cluster is not included.
[Embodiment 5]
Next, still another embodiment of the present invention will be described with reference to FIGS. Compared to the monitoring system 10 shown in FIGS. 18 and 19, the monitoring system of this embodiment uses a moving speed of a cluster instead of a cluster location as a determination condition for determining whether a certain cluster is a work. The other configurations are the same. In addition, the same code | symbol is attached | subjected to the structure similar to the structure demonstrated in the said embodiment, and the description is abbreviate | omitted.

通常、ワークは、生産現場において所定の速度範囲で移動している。例えば、図2に示される例では、ワークWの速度は、搬送機Cの搬送速度となる。そこで、本実施形態では、上記判定条件として、クラスタの3Dサイズとともに、クラスタの速度を利用している。   Usually, the workpiece moves at a predetermined speed range on the production site. For example, in the example illustrated in FIG. 2, the speed of the workpiece W is the transport speed of the transport machine C. Therefore, in this embodiment, the speed of the cluster is used together with the 3D size of the cluster as the determination condition.

図20は、本実施形態の監視システム10における制御部40の概略構成を示している。本実施形態における制御部40は、図18に示される制御部40に比べて、位置判定部60の代わりに、クラスタの重心位置の移動速度が所定の範囲内であるか否かを判定する速度判定部(物体判定手段)61を、オブジェクト認識部51に含む点が異なり、その他の構成は同様である。この速度判定部61は、サイズ判定部55と出力信号生成部52との間に設けられている。   FIG. 20 shows a schematic configuration of the control unit 40 in the monitoring system 10 of the present embodiment. Compared to the control unit 40 shown in FIG. 18, the control unit 40 in the present embodiment determines whether or not the moving speed of the center of gravity position of the cluster is within a predetermined range instead of the position determination unit 60. The difference is that the determination unit (object determination unit) 61 is included in the object recognition unit 51, and other configurations are the same. The speed determination unit 61 is provided between the size determination unit 55 and the output signal generation unit 52.

具体的には、速度判定部61は、サイズ判定部55がワークと判定したクラスタの重心位置を算出してクラスタ座標保存メモリ34に保存する。また、速度判定部61は、上記クラスタに対応する前回のクラスタを3Dサイズ等によって特定し、特定した前回のクラスタの重心位置をクラスタ座標保存メモリ34から読み出す。   Specifically, the speed determination unit 61 calculates the position of the center of gravity of the cluster determined by the size determination unit 55 as a work and stores it in the cluster coordinate storage memory 34. In addition, the speed determination unit 61 identifies the previous cluster corresponding to the cluster based on the 3D size or the like, and reads the center of gravity position of the identified previous cluster from the cluster coordinate storage memory 34.

次に、速度判定部61は、算出した重心位置と読み出した重心位置とに基づいてクラスタの移動距離を算出し、前回の画像を取得した時刻と今回の画像を取得した時刻との期間を用いて、クラスタの移動速度を算出する。そして、速度判定部61は、算出したクラスタの移動速度が、ワークが通常移動する移動速度の範囲内に含まれるか否かを判断し、含まれる場合に上記クラスタをワークと判定し、含まれない場合に上記クラスタをワーク以外と判定する。   Next, the speed determination unit 61 calculates the movement distance of the cluster based on the calculated center of gravity position and the read center of gravity position, and uses the period between the time when the previous image was acquired and the time when the current image was acquired. To calculate the movement speed of the cluster. Then, the speed determination unit 61 determines whether or not the calculated movement speed of the cluster is included in the range of the movement speed at which the work normally moves. If included, the speed determination unit 61 determines that the cluster is a work. If not, the cluster is determined to be other than work.

図21は、図6に示される制御部40の処理動作に対し、本実施形態において追加される処理動作を示している。図示のように、本実施形態では、サイズ判定部55は、判定したオブジェクトの種類が作業者ではないと判断した場合には(S27にてNO)、速度判定部61は、判定したオブジェクトの種類に対応するクラスタの重心位置を算出する(S80)。次に、速度判定部61は、上述のように、上記クラスタの移動距離を算出して(S82)、上記クラスタの移動速度を算出し、算出した移動速度が、ワークが通常移動する移動速度の範囲内に含まれるか否かを判断する(S83)。   FIG. 21 shows a processing operation added in the present embodiment to the processing operation of the control unit 40 shown in FIG. As illustrated, in this embodiment, when the size determination unit 55 determines that the determined object type is not an operator (NO in S27), the speed determination unit 61 determines the determined object type. The barycentric position of the cluster corresponding to is calculated (S80). Next, the speed determination unit 61 calculates the moving distance of the cluster as described above (S82), calculates the moving speed of the cluster, and the calculated moving speed is the moving speed at which the workpiece normally moves. It is determined whether it falls within the range (S83).

ワークの移動速度の範囲内にある場合には(S83にてYES)、上記クラスタがワークであると判断して、ステップS29に進む。一方、ワークの移動速度の範囲外にある場合には(S83にてNO)、上記クラスタがワークではなく、作業者であると判断して、ステップS28に進む。   If it is within the moving speed range of the workpiece (YES in S83), it is determined that the cluster is a workpiece, and the process proceeds to step S29. On the other hand, when the workpiece is out of the moving speed range (NO in S83), it is determined that the cluster is not a workpiece but an operator, and the process proceeds to step S28.

したがって、本実施形態の監視システム10では、クラスタのサイズと、クラスタの移動速度とに基づいてオブジェクトの種類を判定するので、オブジェクトのさらに確実な判定結果を得ることができる。
〔実施の形態6〕
次に、本発明のさらに別の実施形態について、図22および図23を参照しつつ説明する。本実施形態の監視システムは、図18および図19に示される監視システム10に比べて、或るクラスタがワークであるかを判定する判定条件に、クラスタの存在位置の代わりに、クラスタの進行方向を追加する点が異なり、その他の構成は同様である。なお、上記実施形態で説明した構成と同様の構成には同一の符号を付して、その説明を省略する。
Therefore, in the monitoring system 10 of the present embodiment, since the type of the object is determined based on the cluster size and the moving speed of the cluster, a more reliable determination result of the object can be obtained.
[Embodiment 6]
Next, still another embodiment of the present invention will be described with reference to FIG. 22 and FIG. Compared to the monitoring system 10 shown in FIGS. 18 and 19, the monitoring system according to the present embodiment uses a determination condition for determining whether a certain cluster is a work as a determination condition for determining whether a certain cluster is a work instead of the cluster location. Is different, and the other configurations are the same. In addition, the same code | symbol is attached | subjected to the structure similar to the structure demonstrated in the said embodiment, and the description is abbreviate | omitted.

通常、ワークは、生産現場において所定の軌跡で搬送される。例えば、図2に示される例では、ワークWの進行方向は、搬送機Cの搬送方向となる。そこで、本実施形態では、上記判定条件として、クラスタの3Dサイズとともに、クラスタの進行方向を利用している。   Usually, the workpiece is transported along a predetermined path at the production site. For example, in the example shown in FIG. 2, the traveling direction of the workpiece W is the conveyance direction of the conveyance machine C. Therefore, in this embodiment, the traveling direction of the cluster is used together with the 3D size of the cluster as the determination condition.

図22は、本実施形態の監視システム10における制御部40の概略構成を示している。本実施形態における制御部40は、図18に示される制御部40に比べて、位置判定部60の代わりに、クラスタの重心位置の進行方向が所定の範囲内であるか否かを判定する進行方向判定部(物体判定手段)62を、オブジェクト認識部51に含む点が異なり、その他の構成は同様である。この進行方向判定部62は、サイズ判定部55と出力信号生成部52との間に設けられている。   FIG. 22 shows a schematic configuration of the control unit 40 in the monitoring system 10 of the present embodiment. Compared with the control unit 40 shown in FIG. 18, the control unit 40 in this embodiment determines whether or not the traveling direction of the center of gravity position of the cluster is within a predetermined range instead of the position determination unit 60. The difference is that the direction recognition unit (object determination unit) 62 is included in the object recognition unit 51, and the other configurations are the same. The traveling direction determination unit 62 is provided between the size determination unit 55 and the output signal generation unit 52.

具体的には、進行方向判定部62は、サイズ判定部55がワークと判定したクラスタの重心位置を算出してクラスタ座標保存メモリ34に保存する。また、進行方向判定部62は、上記クラスタに対応する前回のクラスタを3Dサイズ等によって特定し、特定した前回のクラスタの重心位置をクラスタ座標保存メモリ34から読み出す。   Specifically, the traveling direction determination unit 62 calculates the position of the center of gravity of the cluster determined by the size determination unit 55 as a work and stores it in the cluster coordinate storage memory 34. In addition, the traveling direction determination unit 62 identifies the previous cluster corresponding to the cluster based on the 3D size or the like, and reads the center of gravity position of the identified previous cluster from the cluster coordinate storage memory 34.

次に、進行方向判定部62は、算出した重心位置と読み出した重心位置とに基づいてクラスタの進行方向を算出する。そして、進行方向判定部62は、算出したクラスタの進行方向が、ワークが通常移動する進行方向の範囲内に含まれるか否かを判断し、含まれる場合に上記クラスタをワークと判定し、含まれない場合に上記クラスタをワーク以外と判定する。   Next, the traveling direction determination unit 62 calculates the traveling direction of the cluster based on the calculated center of gravity position and the read center of gravity position. Then, the traveling direction determination unit 62 determines whether or not the calculated traveling direction of the cluster is included within a range of the traveling direction in which the workpiece normally moves. If included, the traveling direction determination unit 62 determines that the cluster is a workpiece. If not, the cluster is determined to be other than work.

図23は、図6に示される制御部40の処理動作に対し、本実施形態において追加される処理動作を示している。図示のように、本実施形態では、サイズ判定部55は、判定したオブジェクトの種類が作業者ではないと判断した場合には(S27にてNO)、進行方向判定部62は、判定したオブジェクトの種類に対応するクラスタの重心位置を算出する(S80)。次に、進行方向判定部62は、上述のように、上記クラスタの進行方向を算出し(S84)、算出した進行方向が、ワークが通常移動する進行方向の範囲内に含まれるか否かを判断する(S85)。   FIG. 23 shows a processing operation added in the present embodiment to the processing operation of the control unit 40 shown in FIG. As illustrated, in this embodiment, when the size determination unit 55 determines that the determined object type is not an operator (NO in S27), the traveling direction determination unit 62 determines the determined object type. The center-of-gravity position of the cluster corresponding to the type is calculated (S80). Next, the traveling direction determination unit 62 calculates the traveling direction of the cluster as described above (S84), and determines whether or not the calculated traveling direction is included in the traveling direction range in which the workpiece normally moves. Judgment is made (S85).

ワークの進行方向の範囲内にある場合には(S85にてYES)、上記クラスタがワークであると判断して、ステップS29に進む。一方、ワークの進行方向の範囲外にある場合には(S85にてNO)、上記クラスタがワークではなく、作業者であると判断して、ステップS28に進む。   If within the range of the workpiece traveling direction (YES in S85), it is determined that the cluster is a workpiece, and the process proceeds to step S29. On the other hand, if the workpiece is outside the range of the moving direction of the work (NO in S85), it is determined that the cluster is not a work but an operator, and the process proceeds to step S28.

したがって、本実施形態の監視システム10では、クラスタのサイズと、クラスタの進行方向とに基づいてオブジェクトの種類を判定するので、オブジェクトのさらに確実な判定結果を得ることができる。
〔実施の形態7〕
次に、本発明のさらに別の実施形態について、図24および図25を参照しつつ説明する。本実施形態の監視システムは、図18および図19に示される監視システム10に比べて、或るクラスタがワークであるかを判定する判定条件に、クラスタの存在位置の代わりに、クラスタの個数を利用する点が異なり、その他の構成は同様である。なお、上記実施形態で説明した構成と同様の構成には同一の符号を付して、その説明を省略する。
Therefore, in the monitoring system 10 according to the present embodiment, the type of the object is determined based on the cluster size and the traveling direction of the cluster, so that a more reliable determination result of the object can be obtained.
[Embodiment 7]
Next, still another embodiment of the present invention will be described with reference to FIGS. Compared with the monitoring system 10 shown in FIG. 18 and FIG. 19, the monitoring system of this embodiment uses the number of clusters instead of the cluster location as a determination condition for determining whether a certain cluster is a work. The point of use is different, and the other configurations are the same. In addition, the same code | symbol is attached | subjected to the structure similar to the structure demonstrated in the said embodiment, and the description is abbreviate | omitted.

通常、ワークは、生産現場において、ワークを搬送する搬送機の搬送容量(単位時間当たりの個数もしくは、単位面積当たりの個数)が限定される。例えば、図2に示される例では、危険領域D内にあるワークWの個数は4個である。そこで、本実施形態では、上記判定条件として、クラスタの3Dサイズとともに、クラスタの個数を利用している。   Usually, a workpiece is limited in its production capacity on the transfer capacity (the number per unit time or the number per unit area) of a transfer machine that transfers the workpiece. For example, in the example shown in FIG. 2, the number of workpieces W in the dangerous area D is four. Therefore, in the present embodiment, the number of clusters is used together with the 3D size of the clusters as the determination condition.

図24は、本実施形態の監視システム10における制御部40の概略構成を示している。本実施形態における制御部40は、図18に示される制御部40に比べて、位置判定部60の代わりに、クラスタの個数が所定の範囲内であるか否かを判定する個数判定部(物体判定手段)63を、オブジェクト認識部51に含む点が異なり、その他の構成は同様である。この個数判定部63は、サイズ判定部55と出力信号生成部52との間に設けられている。   FIG. 24 shows a schematic configuration of the control unit 40 in the monitoring system 10 of the present embodiment. Compared to the control unit 40 shown in FIG. 18, the control unit 40 in this embodiment is a number determination unit (object that determines whether the number of clusters is within a predetermined range, instead of the position determination unit 60. The determination unit 63 is included in the object recognition unit 51, and the other configurations are the same. The number determination unit 63 is provided between the size determination unit 55 and the output signal generation unit 52.

具体的には、個数判定部63は、サイズ判定部55がワークと判定したクラスタの重心位置を算出し、上記クラスタの個数を算出する。次に、個数判定部63は、算出した個数が、ワークが危険領域D内に通常存在する個数の範囲内に含まれるか否かを判断し、含まれる場合に上記クラスタをワークと判定し、含まれない場合に上記クラスタをワーク以外と判定する。   Specifically, the number determination unit 63 calculates the position of the center of gravity of the cluster determined by the size determination unit 55 as a work, and calculates the number of the clusters. Next, the number determination unit 63 determines whether or not the calculated number is included in the range of the number of workpieces that normally exist in the dangerous area D. If included, the number determination unit 63 determines the cluster as a workpiece, If not included, the cluster is determined to be other than work.

図25は、図6に示される制御部40の処理動作に対し、本実施形態において追加される処理動作を示している。図示のように、本実施形態では、サイズ判定部55は、判定したオブジェクトの種類が作業者ではないと判断した場合には(S27にてNO)、個数判定部63は、上述のように、判定したオブジェクトの種類に対応するクラスタの個数を算出する(S86)。次に、個数判定部63は、算出した個数が、ワークが危険領域D内に通常存在する個数(規定値)の範囲内に含まれるか否かを判断する(S87)。   FIG. 25 shows a processing operation added in the present embodiment to the processing operation of the control unit 40 shown in FIG. As illustrated, in this embodiment, when the size determination unit 55 determines that the determined object type is not a worker (NO in S27), the number determination unit 63, as described above, The number of clusters corresponding to the determined object type is calculated (S86). Next, the number determination unit 63 determines whether or not the calculated number is included in the range of the number of workpieces that normally exist in the dangerous area D (specified value) (S87).

上記個数の範囲内にある場合には(S87にてYES)、上記クラスタがワークであると判断して、ステップS29に進む。一方、上記個数の範囲外にある場合には(S87にてNO)、ワークが所定数では無い異常状態と判断して、作業者Mを検知したときと同様に、ステップS28に進む。   If the number is within the range (YES in S87), it is determined that the cluster is a work, and the process proceeds to step S29. On the other hand, if the number is out of the above range (NO in S87), it is determined that the workpiece is not in a predetermined number, and the process proceeds to step S28 as in the case where the worker M is detected.

したがって、本実施形態の監視システム10では、クラスタのサイズと、クラスタの個数とに基づいてオブジェクトの種類を判定するので、オブジェクトのさらに確実な判定結果を得ることができる。
〔実施の形態8〕
次に、本発明のさらに別の実施形態について、図26および図27を参照しつつ説明する。本実施形態の監視システム10は、上述の実施形態に記載された判定条件を組み合わせて統計的処理を行うことにより、或るクラスタがワークであるかを判定している。なお、上記実施形態で説明した構成と同様の構成には同一の符号を付して、その説明を省略する。
Therefore, in the monitoring system 10 of the present embodiment, the type of the object is determined based on the cluster size and the number of clusters, so that a more reliable determination result of the object can be obtained.
[Embodiment 8]
Next, still another embodiment of the present invention will be described with reference to FIGS. 26 and 27. FIG. The monitoring system 10 according to the present embodiment determines whether a certain cluster is a work by performing statistical processing by combining the determination conditions described in the above-described embodiments. In addition, the same code | symbol is attached | subjected to the structure similar to the structure demonstrated in the said embodiment, and the description is abbreviate | omitted.

図26は、本実施形態の監視システム10における制御部40の概略構成を示している。本実施形態における制御部40は、図1に示される制御部40に比べて、組合せ判定部(物体判定手段)64および統計的判定処理部(物体判定手段)65を、オブジェクト認識部51に含む点が異なり、その他の構成は同様である。これらの組合せ判定部64および統計的判定処理部65は、サイズ判定部55から出力信号生成部52までの間に順番に設けられている。   FIG. 26 shows a schematic configuration of the control unit 40 in the monitoring system 10 of the present embodiment. The control unit 40 in the present embodiment includes a combination determination unit (object determination unit) 64 and a statistical determination processing unit (object determination unit) 65 in the object recognition unit 51, as compared with the control unit 40 shown in FIG. In other respects, other configurations are the same. The combination determination unit 64 and the statistical determination processing unit 65 are sequentially provided between the size determination unit 55 and the output signal generation unit 52.

組合せ判定部64は、図18に示される位置判定部60、図20に示される速度判定部61、図22に示される進行方向判定部62、および図24に示される個数判定部63を含むものである。すなわち、組合せ判定部64は、サイズ判定部55がワークと判定したクラスタに関して、クラスタの存在位置、移動速度、進行方向、および個数から、上記クラスタがワークであるか否かをそれぞれ判定するものである。組合せ判定部64は、各判定結果を統計的判定処理部65に通知する。   The combination determining unit 64 includes a position determining unit 60 shown in FIG. 18, a speed determining unit 61 shown in FIG. 20, a traveling direction determining unit 62 shown in FIG. 22, and a number determining unit 63 shown in FIG. . That is, the combination determination unit 64 determines whether or not the cluster is a workpiece from the cluster existing position, moving speed, traveling direction, and number of clusters that the size determination unit 55 has determined as a workpiece. is there. The combination determination unit 64 notifies each determination result to the statistical determination processing unit 65.

統計的判定処理部65は、組合せ判定部64の各判定結果に対し、統計的処理を施すことにより、上記クラスタがワークであるかの判定を行うものである。具体的には、統計的判定処理部65は、次式(3)の評価関数を用いて演算することにより、上記判定を行っている。
f=αs×fs+αp×fp+αv×fv+αd×fd+αn×fn ・・・(3)
ここで、fxは、各判定結果を示している。また、αxは、各判定結果の重み係数であり、各判定処理の判定信頼度を表現している。また、添字s・p・v・d・nは、それぞれ、サイズ判定、存在位置判定、速度判定、進行方向判定、および個数判定を示すものである。なお、判定信頼度は、システム設計者などによって設定可能である。
The statistical determination processing unit 65 determines whether the cluster is a work by performing a statistical process on each determination result of the combination determination unit 64. Specifically, the statistical determination processing unit 65 performs the above determination by calculating using the evaluation function of the following equation (3).
f = αs × fs + αp × fp + αv × fv + αd × fd + αn × fn (3)
Here, fx indicates each determination result. Αx is a weighting coefficient of each determination result, and expresses the determination reliability of each determination process. The subscripts s, p, v, d, and n indicate size determination, existence position determination, speed determination, traveling direction determination, and number determination, respectively. Note that the determination reliability can be set by a system designer or the like.

図27は、図6に示される制御部40の処理動作に対し、本実施形態において追加される処理動作を示している。図示のように、本実施形態では、サイズ判定部55は、判定したオブジェクトの種類が作業者ではないと判断した場合には(S27にてNO)、組合せ判定部64は、上述のように、判定したオブジェクトの種類に対応するクラスタの重心位置を算出する(S80)。次に、組合せ判定部64は、図19に示されるような存在位置の判定処理S81と、図21に示されるような移動速度の判定処理S82・S83と、図23に示されるような進行方向の判定処理S84・S85と、図25に示されるような存在個数の判定処理S86・S87とを行って、それぞれの判定結果を取得する。   FIG. 27 illustrates a processing operation added in the present embodiment to the processing operation of the control unit 40 illustrated in FIG. 6. As illustrated, in the present embodiment, when the size determination unit 55 determines that the determined object type is not a worker (NO in S27), the combination determination unit 64 determines that the type of the object is as described above. The center-of-gravity position of the cluster corresponding to the determined object type is calculated (S80). Next, the combination determination unit 64 performs the presence position determination process S81 as shown in FIG. 19, the movement speed determination processes S82 and S83 as shown in FIG. 21, and the traveling direction as shown in FIG. The determination processes S84 and S85 and the existence number determination processes S86 and S87 as shown in FIG. 25 are performed to obtain the respective determination results.

次に、統計的判定処理部65は、組合せ判定部64が取得した各判定結果を上式(3)の評価関数に代入して算出し、その算出結果を最終的な判定結果とする(S88)。そして、上記クラスタがワークであるという判定結果の場合には(S88にてYES)、ステップS29に進む。一方、上記クラスタがワークではないという判定結果の場合には(S88にてNO)、上記クラスタが作業者であると判断して、ステップS28に進む。   Next, the statistical determination processing unit 65 calculates by assigning each determination result acquired by the combination determination unit 64 to the evaluation function of the above equation (3), and uses the calculation result as a final determination result (S88). ). If it is determined that the cluster is a work (YES in S88), the process proceeds to step S29. On the other hand, if it is determined that the cluster is not a work (NO in S88), it is determined that the cluster is an operator, and the process proceeds to step S28.

したがって、本実施形態の監視システム10では、種々の判定結果を利用するので、多種多様な環境下においても、クラスタがワークであるかを判定することが可能である。すなわち、よりロバストな判定が可能である。
〔実施の形態9〕
次に、本発明のさらに別の実施形態について、図28および図29を参照しつつ説明する。本実施形態の監視システム10は、図18および図19に示される監視システム10に比べて、或るクラスタがワークであるかを判定する判定条件に、クラスタの存在位置の代わりに、クラスタの2D(2次元)情報を追加する点が異なり、その他の構成は同様である。なお、上記実施形態で説明した構成と同様の構成には同一の符号を付して、その説明を省略する。
Therefore, since the monitoring system 10 of the present embodiment uses various determination results, it is possible to determine whether a cluster is a work even in a wide variety of environments. That is, more robust determination is possible.
[Embodiment 9]
Next, still another embodiment of the present invention will be described with reference to FIGS. Compared to the monitoring system 10 shown in FIG. 18 and FIG. 19, the monitoring system 10 of this embodiment uses a 2D of a cluster instead of a cluster location as a determination condition for determining whether a certain cluster is a work. The difference is that (two-dimensional) information is added, and the other configurations are the same. In addition, the same code | symbol is attached | subjected to the structure similar to the structure demonstrated in the said embodiment, and the description is abbreviate | omitted.

上記実施形態では、3D情報の中にワークを判定する基準となる特徴が存在する場合を想定しているが、上記特徴が存在しない場合も考えられる。この場合、上記実施形態ではワークの判定が困難となる。そこで、本実施形態では、オブジェクトの種類を識別可能な2Dマークを、ワークの表面の所定位置に予め施しておき、2D画像の中から上記2Dマークを抽出して認識することにより、ワークであるかを判定することができる。   In the above-described embodiment, it is assumed that a feature serving as a reference for determining a workpiece exists in the 3D information, but there may be a case where the feature does not exist. In this case, it is difficult to determine the workpiece in the above embodiment. Therefore, in the present embodiment, a 2D mark that can identify the type of object is applied in advance to a predetermined position on the surface of the workpiece, and the 2D mark is extracted from the 2D image and recognized to recognize the workpiece. Can be determined.

図28は、本実施形態の監視システム10における制御部40の概略構成を示している。本実施形態における制御部40は、図18に示される制御部40に比べて、位置判定部60の代わりに、2D画像情報からワークを判定する2D情報判定部(物体判定手段)66を、オブジェクト認識部51に含む点が異なり、その他の構成は同様である。この2D情報判定部66は、サイズ判定部55と出力信号生成部52との間に設けられている。   FIG. 28 shows a schematic configuration of the control unit 40 in the monitoring system 10 of the present embodiment. Compared with the control unit 40 shown in FIG. 18, the control unit 40 in this embodiment includes a 2D information determination unit (object determination unit) 66 that determines a workpiece from 2D image information instead of the position determination unit 60. The points included in the recognition unit 51 are different, and the other configurations are the same. The 2D information determination unit 66 is provided between the size determination unit 55 and the output signal generation unit 52.

具体的には、2D情報判定部66は、サイズ判定部55がオブジェクトの種類を特定できなかったクラスタの重心位置を算出する。次に、2D情報判定部66は、算出したクラスタの重心位置が、画像中の所定領域(図2に示される例では、搬送機C上においてワークが搬送される領域)にあり、かつ、画像中の上記クラスタに2Dマークが含まれるか否かを判断し、含まれる場合に上記クラスタをワークと判定し、含まれない場合に上記クラスタをワーク以外と判定する。   Specifically, the 2D information determination unit 66 calculates the center-of-gravity position of the cluster for which the size determination unit 55 could not identify the type of object. Next, the 2D information determination unit 66 has the calculated cluster center-of-gravity position in a predetermined area in the image (in the example shown in FIG. 2, the area where the workpiece is transferred on the transfer machine C), and the image It is determined whether or not the 2D mark is included in the above-described cluster. If the 2D mark is included, the cluster is determined as a work, and if not included, the cluster is determined as a non-work.

なお、上記画像は、2D画像でよいから、第1入力画像取得部41が取得した第1入力画像、および第2入力画像取得部42が取得した第2入力画像の何れか一方でよい。   Since the image may be a 2D image, it may be either the first input image acquired by the first input image acquisition unit 41 or the second input image acquired by the second input image acquisition unit 42.

図29は、図6に示される制御部40の処理動作に対し、本実施形態において追加される処理動作を示している。図示のように、本実施形態では、サイズ判定部55は、判定したオブジェクトの種類が作業者ではないと判断した場合には(S27にてNO)、2D情報判定部66は、判定したオブジェクトの種類に対応するクラスタの重心位置を算出する(S80)。   FIG. 29 shows a processing operation added in the present embodiment to the processing operation of the control unit 40 shown in FIG. As illustrated, in the present embodiment, when the size determination unit 55 determines that the determined object type is not a worker (NO in S27), the 2D information determination unit 66 determines the determined object type. The center-of-gravity position of the cluster corresponding to the type is calculated (S80).

次に、2D情報判定部66は、算出した重心位置が、2Dマークの読取位置、すなわち2Dマークの施されたワークが移動する領域に存在するか否かを判断する(S90)。ワークが移動する領域に存在しない場合には(S90にてNO)、上記クラスタがワークではなく、作業者であると判断して、ステップS28に進む。   Next, the 2D information determination unit 66 determines whether or not the calculated center of gravity position exists in the reading position of the 2D mark, that is, in the region where the workpiece to which the 2D mark is applied moves (S90). If the workpiece does not exist in the moving area (NO in S90), it is determined that the cluster is not a workpiece but an operator, and the process proceeds to step S28.

一方、ワークが移動する領域に存在する場合には(S90にてYES)、2D情報判定部66は、2D画像における上記領域から2Dマークを抽出して(S91)、認識する(S92)。この2Dマークの認識は、一般的なテンプレートマッチング技法を用いることにより実現できる。   On the other hand, if the workpiece exists in the moving area (YES in S90), the 2D information determination unit 66 extracts a 2D mark from the area in the 2D image (S91) and recognizes it (S92). The recognition of the 2D mark can be realized by using a general template matching technique.

そして、2D情報判定部66は、認識した2Dマークが規定のマークであるか否かを判断し(S93)、規定のマークである場合には(S93にてYES)、上記クラスタがワークであると判断して、ステップS29に進む。一方、規定のマークでは無い場合には(S93にてNO)、上記クラスタがワークではなく、作業者であると判断して、ステップS28に進む。   Then, the 2D information determination unit 66 determines whether or not the recognized 2D mark is a specified mark (S93). If it is a specified mark (YES in S93), the cluster is a work. The process proceeds to step S29. On the other hand, if the mark is not a prescribed mark (NO in S93), it is determined that the cluster is not a work but an operator, and the process proceeds to step S28.

したがって、本実施形態の監視システム10では、3D情報にワーク判定の基準となる特徴的な情報が存在しない場合でも、2D情報からワークを判定することができる。
〔実施の形態10〕
次に、本発明のさらに別の実施形態について、図30〜図33を参照しつつ説明する。本実施形態の監視システム10は、図1〜図10に示される監視システム10に比べて、クラスタの追跡を行う点が異なり、その他の構成は同様である。なお、上記実施形態で説明した構成と同様の構成には同一の符号を付して、その説明を省略する。
Therefore, the monitoring system 10 according to the present embodiment can determine a workpiece from 2D information even when there is no characteristic information serving as a criterion for workpiece determination in the 3D information.
[Embodiment 10]
Next, still another embodiment of the present invention will be described with reference to FIGS. The monitoring system 10 of this embodiment is different from the monitoring system 10 shown in FIGS. 1 to 10 in that the cluster is tracked, and the other configurations are the same. In addition, the same code | symbol is attached | subjected to the structure similar to the structure demonstrated in the said embodiment, and the description is abbreviate | omitted.

図30は、本実施形態の監視システム10における制御部40の概略構成を示している。本実施形態における制御部40は、図1に示される制御部40に比べて、クラスタの追跡を行う追跡処理部(推定手段、クラスタ統合手段)67をオブジェクト認識部51に含む点が異なり、その他の構成は同様である。この追跡処理部67は、クラスタリング部54と通信している。   FIG. 30 shows a schematic configuration of the control unit 40 in the monitoring system 10 of the present embodiment. The control unit 40 in the present embodiment is different from the control unit 40 shown in FIG. 1 in that the object recognition unit 51 includes a tracking processing unit (estimating unit, cluster integrating unit) 67 that performs cluster tracking. The configuration of is the same. The tracking processing unit 67 is in communication with the clustering unit 54.

追跡処理部67は、クラスタリング部54が上述のクラスタリング処理を行った後に、1または全てのクラスタに関する3D情報およびクラスタIDをクラスタ履歴情報としてクラスタ座標保存メモリ34に記憶する。また、追跡処理部67は、クラスタ座標保存メモリ34に記憶した過去の複数のフレームにおける上記クラスタ履歴情報を用いて、クラスタの移動量を算出し、これにより、現在のフレームにおけるクラスタの存在位置を推定する。そして、追跡処理部67は、推定したクラスタの存在位置に出現する現在のフレームの特徴点を、クラスタリング部54がクラスタリング処理を行う前に統合する。   After the clustering unit 54 performs the above-described clustering process, the tracking processing unit 67 stores 3D information and cluster IDs related to one or all clusters in the cluster coordinate storage memory 34 as cluster history information. In addition, the tracking processing unit 67 calculates the movement amount of the cluster using the cluster history information in the plurality of past frames stored in the cluster coordinate storage memory 34, and thereby determines the location of the cluster in the current frame. presume. Then, the tracking processing unit 67 integrates the feature points of the current frame that appear at the estimated location of the cluster before the clustering unit 54 performs the clustering process.

図31は、本実施形態における制御部40の処理動作の流れを示している。本実施形態における制御部40処理動作は、図6に示される制御部40の処理動作に比べて、追跡処理部67における処理動作が追加されている点が異なり、その他の処理動作は同様である。   FIG. 31 shows the flow of processing operations of the control unit 40 in the present embodiment. The processing operation of the control unit 40 in this embodiment is different from the processing operation of the control unit 40 shown in FIG. 6 in that a processing operation in the tracking processing unit 67 is added, and the other processing operations are the same. .

図31に示されるように、追跡処理部67は、クラスタIDごとに、クラスタ座標保存メモリ34から3D情報を読み出して移動量を算出する(S94)。次に、追跡処理部67は、次のフレームにおけるクラスタの出現位置を推定する(S95)。次に、追跡処理部67は、推定した出現位置のクラスタのクラスタリング対象となる特徴点を特徴点座標保存メモリ33から読み出して抽出する(S96)。次に、追跡処理部67は、抽出した特徴点を追跡クラスタとして事前に統合し(S97)、追跡クラスタの3D情報と、追跡クラスタを構成する特徴点の情報とをクラスタリング部54に通知する。   As shown in FIG. 31, the tracking processing unit 67 reads the 3D information from the cluster coordinate storage memory 34 and calculates the movement amount for each cluster ID (S94). Next, the tracking processing unit 67 estimates the appearance position of the cluster in the next frame (S95). Next, the tracking processing unit 67 reads out from the feature point coordinate storage memory 33 and extracts the feature points to be clustered for the cluster at the estimated appearance position (S96). Next, the tracking processing unit 67 integrates the extracted feature points in advance as a tracking cluster (S97), and notifies the clustering unit 54 of the 3D information of the tracking cluster and the information of the feature points constituting the tracking cluster.

したがって、本実施形態の監視システム10では、クラスタの過去の移動履歴から現在のクラスタの存在位置を推定するため、クラスタを精度良く特定でき、クラスタに対応するオブジェクトの種類を精度良く特定できる。また、推定したクラスタの存在位置に出現する特徴点を、クラスタリング部54がクラスタリング処理を行う前に統合するので、ユークリッド距離の算出など、クラスタリング処理にて実行される演算を軽減することができ、処理の高速化が可能になる。   Therefore, in the monitoring system 10 of this embodiment, since the current cluster location is estimated from the past movement history of the cluster, the cluster can be specified with high accuracy, and the type of object corresponding to the cluster can be specified with high accuracy. In addition, since the feature points appearing at the estimated positions of the clusters are integrated before the clustering unit 54 performs the clustering process, operations performed in the clustering process such as the calculation of the Euclidean distance can be reduced. The processing speed can be increased.

図32および図33は、上記追跡処理を具体的に示すものである。図32(a)に示されるように、まず、第1および第2入力画像取得部41・42にて、時刻tにおける撮影画像を取得する。   32 and 33 specifically show the tracking process. As shown in FIG. 32A, first, the first and second input image acquisition units 41 and 42 acquire a captured image at time t.

次に、3D情報算出部50が、取得した撮影画像から特徴点を抽出して、3D情報を算出し、図32(b)に示されるように、クラスタリング部54が、クラスタリングの対象領域にある特徴点に対してクラスタリングを行う。このときのクラスタリングの対象領域は、通常の広い領域である。クラスタリングの結果、同図(c)に示されるようなクラスタが生成され、生成されたクラスタの3D情報および重心位置がクラスタ座標保存メモリ34に記憶される。   Next, the 3D information calculation unit 50 extracts feature points from the acquired captured image to calculate 3D information, and as shown in FIG. 32B, the clustering unit 54 is in the clustering target region. Clustering is performed on feature points. The clustering target area at this time is a normal wide area. As a result of the clustering, a cluster as shown in FIG. 7C is generated, and the 3D information and the barycentric position of the generated cluster are stored in the cluster coordinate storage memory 34.

次に、図33(a)に示されるように、第1および第2入力画像取得部41・42にて、時刻t+1における撮影画像を取得する。次に、3D情報算出部50が、取得した撮影画像から特徴点を抽出して、3D情報を算出する。   Next, as shown in FIG. 33A, the first and second input image acquisition units 41 and 42 acquire a captured image at time t + 1. Next, the 3D information calculation unit 50 extracts feature points from the acquired captured image and calculates 3D information.

次に、追跡処理部67が、時刻tにおけるクラスタの3D情報および重心位置をクラスタ座標保存メモリ34から読み出して、時刻t+1におけるクラスタの出現領域を推定する。これにより、図33(b)に示されるように、クラスタリングの対象領域を限定することができる。   Next, the tracking processing unit 67 reads the cluster 3D information and the barycentric position at time t from the cluster coordinate storage memory 34, and estimates the appearance area of the cluster at time t + 1. Thereby, as shown in FIG. 33B, the clustering target region can be limited.

そして、クラスタリング部54が上記クラスタリングの対象領域においてクラスタリングを行うことにより、図33(c)に示されるようなクラスタが生成され、生成されたクラスタの3D情報および重心位置がクラスタ座標保存メモリ34に記憶される。   Then, the clustering unit 54 performs clustering in the clustering target region to generate a cluster as shown in FIG. 33C, and the 3D information and the centroid position of the generated cluster are stored in the cluster coordinate storage memory 34. Remembered.

クラスタ座標保存メモリ34に記憶された時刻tにおけるクラスタの重心位置と時刻t+1におけるクラスタの重心位置とを用いて、クラスタの移動量を算出できる。したがって、追跡処理部67が、算出した移動量を利用することにより、次回のクラスタの出現領域を精度良く推定できる。
〔実施の形態11〕
次に、本発明のさらに別の実施形態について、図34を参照しつつ説明する。本実施形態の監視システム10は、図1〜図10に示される監視システム10に比べて、ステレオカメラの代わりにアクティブセンサを利用する点が異なり、その他の構成は同様である。なお、上記実施形態で説明した構成と同様の構成には同一の符号を付して、その説明を省略する。アクティブセンサは、所定のパターンを有する光線をオブジェクトに照射し、オブジェクトを撮影して、オブジェクトの2D撮影画像を取得することにより、オブジェクトの3D情報を算出するものである。
Using the cluster centroid position at time t and the cluster centroid position at time t + 1 stored in the cluster coordinate storage memory 34, the movement amount of the cluster can be calculated. Therefore, the tracking processor 67 can estimate the appearance area of the next cluster with high accuracy by using the calculated movement amount.
[Embodiment 11]
Next, still another embodiment of the present invention will be described with reference to FIG. The monitoring system 10 of the present embodiment is different from the monitoring system 10 shown in FIGS. 1 to 10 in that an active sensor is used instead of a stereo camera, and the other configurations are the same. In addition, the same code | symbol is attached | subjected to the structure similar to the structure demonstrated in the said embodiment, and the description is abbreviate | omitted. The active sensor calculates 3D information of an object by irradiating the object with a light beam having a predetermined pattern, shooting the object, and acquiring a 2D captured image of the object.

図34は、本実施形態の監視システム10の概略構成を示している。本実施形態の監視システム10は、図1に示される監視システム10に比べて、ステレオカメラ11の代わりにアクティブセンサ(撮影手段)70を利用している。   FIG. 34 shows a schematic configuration of the monitoring system 10 of the present embodiment. The monitoring system 10 of this embodiment uses an active sensor (imaging means) 70 instead of the stereo camera 11 as compared with the monitoring system 10 shown in FIG.

アクティブセンサ70は、投光機71、画像入力装置72、および3D情報算出部73を備える構成である。投光機71は、所定のパターンを有する光線をオブジェクトに照射するものである。   The active sensor 70 includes a projector 71, an image input device 72, and a 3D information calculation unit 73. The projector 71 irradiates an object with a light beam having a predetermined pattern.

画像入力装置72は、所定のパターンが照射されたオブジェクトを撮影して、オブジェクトの2D撮影画像を取得するものである。画像入力装置72は、取得した2D撮影画像の情報を3D情報算出部73に送信する。   The image input device 72 captures an object irradiated with a predetermined pattern and acquires a 2D captured image of the object. The image input device 72 transmits the acquired 2D captured image information to the 3D information calculation unit 73.

3D情報算出部73は、画像入力装置72から取得した2D撮影画像を用いて、オブジェクトの3D情報を算出するものである。3D情報算出部73は、算出した3D情報をクラスタリング部54に送信する。なお、クラスタリング部54から下流側の構成は図1に示される構成と同様である。   The 3D information calculation unit 73 calculates 3D information of the object using the 2D captured image acquired from the image input device 72. The 3D information calculation unit 73 transmits the calculated 3D information to the clustering unit 54. The configuration downstream from the clustering unit 54 is the same as the configuration shown in FIG.

したがって、本実施形態の監視システム10のように、ステレオカメラ11の代わりにアクティブセンサ70を利用することができる。この場合、アクティブセンサ70がオブジェクトの3D情報を算出するので、監視装置12は、図1に示されるような第1入力画像取得部41、第2入力画像取得部42、および3D情報算出部50を省略できる。
〔実施の形態12〕
次に、本発明のさらに別の実施形態について、図35〜図37を参照しつつ説明する。本実施形態の監視システム10は、図1〜図10に示される監視システム10に比べて、或るクラスタがワークであるかを判定する判定条件に、他センサからの検知信号を追加する点が異なり、その他の構成は同様である。なお、上記実施形態で説明した構成と同様の構成には同一の符号を付して、その説明を省略する。
Accordingly, the active sensor 70 can be used instead of the stereo camera 11 as in the monitoring system 10 of the present embodiment. In this case, since the active sensor 70 calculates the 3D information of the object, the monitoring device 12 includes the first input image acquisition unit 41, the second input image acquisition unit 42, and the 3D information calculation unit 50 as illustrated in FIG. Can be omitted.
[Embodiment 12]
Next, still another embodiment of the present invention will be described with reference to FIGS. Compared with the monitoring system 10 shown in FIGS. 1 to 10, the monitoring system 10 according to the present embodiment adds a detection signal from another sensor to a determination condition for determining whether a certain cluster is a work. Differently, other configurations are the same. In addition, the same code | symbol is attached | subjected to the structure similar to the structure demonstrated in the said embodiment, and the description is abbreviate | omitted.

図35は、本実施形態における監視システム10の概要を示している。本実施形態の監視システム10は、図2に示される監視システム10に比べて、赤外線カメラ(物体検知センサ)75が追加されている点が異なり、その他の構成は同様である。赤外線カメラ75は、ステレオカメラ11が撮影する領域、すなわちオブジェクトの検知領域を俯瞰するように設置される。赤外線カメラ75は、上記検知領域を撮影し、撮影した赤外線画像の情報を監視装置12に送信する。   FIG. 35 shows an overview of the monitoring system 10 in the present embodiment. The monitoring system 10 of the present embodiment is different from the monitoring system 10 shown in FIG. 2 in that an infrared camera (object detection sensor) 75 is added, and other configurations are the same. The infrared camera 75 is installed so as to overlook an area where the stereo camera 11 captures an image, that is, an object detection area. The infrared camera 75 images the detection area and transmits information of the captured infrared image to the monitoring device 12.

図36は、監視装置12の要部の概略構成を示している。本実施形態の監視装置12は、図1に示される監視装置12に比べて、赤外線画像取得部(検知信号取得手段)76をさらに備える点と、他センサ判定部77(物体判定手段)をオブジェクト認識部51に含む点が異なり、その他の構成は同様である。この他センサ判定部77は、サイズ判定部55と出力信号生成部52との間に設けられている。   FIG. 36 shows a schematic configuration of a main part of the monitoring device 12. Compared with the monitoring device 12 shown in FIG. 1, the monitoring device 12 of the present embodiment further includes an infrared image acquisition unit (detection signal acquisition unit) 76, and the other sensor determination unit 77 (object determination unit) is an object. The points included in the recognition unit 51 are different, and the other configurations are the same. The other sensor determination unit 77 is provided between the size determination unit 55 and the output signal generation unit 52.

赤外線画像取得部76は、赤外線カメラ75から赤外線画像を取得するものである。赤外線画像取得部76は、取得した赤外線画像の情報を他センサ判定部77に送信する。   The infrared image acquisition unit 76 acquires an infrared image from the infrared camera 75. The infrared image acquisition unit 76 transmits information on the acquired infrared image to the other sensor determination unit 77.

他センサ判定部77は、赤外線画像取得部76から受信した赤外線画像を用いて、各クラスタの温度を求め、求めた温度に基づいてオブジェクトの種類を判定するものである。例えば、或るクラスタの温度が36℃付近であれば、他センサ判定部77は、当該クラスタが作業者であると判定できる。   The other sensor determination unit 77 calculates the temperature of each cluster using the infrared image received from the infrared image acquisition unit 76, and determines the type of the object based on the calculated temperature. For example, if the temperature of a certain cluster is around 36 ° C., the other sensor determination unit 77 can determine that the cluster is an operator.

図37は、図6に示される制御部40の処理動作に対し、本実施形態において追加される処理動作を示している。本実施形態では、サイズ判定部55は、判定したオブジェクトの種類が作業者ではないと判断した場合には(S27にてNO)、他センサ判定部77は、判定したオブジェクトの種類に対応するクラスタの重心位置を算出する(S80)。   FIG. 37 shows a processing operation added in the present embodiment to the processing operation of the control unit 40 shown in FIG. In the present embodiment, when the size determination unit 55 determines that the determined object type is not a worker (NO in S27), the other sensor determination unit 77 selects a cluster corresponding to the determined object type. Is calculated (S80).

次に、他センサ判定部77は、赤外線画像取得部76が取得した赤外線画像から、各クラスタの重心位置における領域を抽出することにより、各クラスタの測定温度を求める(S100)。次に、各クラスタの測定温度が所定の温度範囲(人体の体温の範囲)内であるか否かを判断する(S101)。   Next, the other sensor determination part 77 calculates | requires the measurement temperature of each cluster by extracting the area | region in the gravity center position of each cluster from the infrared image which the infrared image acquisition part 76 acquired (S100). Next, it is determined whether or not the measured temperature of each cluster is within a predetermined temperature range (body temperature range) (S101).

所定の温度範囲内である場合には(S101にてYES)、上記クラスタが作業者であると判断して、ステップS28に進む。一方、所定の温度範囲外である場合には(S101にてNO)、上記クラスタがワークであると判断して、ステップS29に進む。   If it is within the predetermined temperature range (YES in S101), it is determined that the cluster is an operator, and the process proceeds to step S28. On the other hand, if the temperature is outside the predetermined temperature range (NO in S101), it is determined that the cluster is a work, and the process proceeds to step S29.

したがって、本実施形態の監視システム10では、クラスタのサイズと、クラスタの測定温度とに基づいてオブジェクトの種類を判定するので、オブジェクトのさらに確実な判定結果を得ることができる。
〔実施の形態13〕
次に、本発明のさらに別の実施形態について、図38を参照しつつ説明する。本実施形態の監視システム10は、図1〜図10に示される監視システム10に比べて、検知領域にオブジェクトが進入すると、監視動作を開始する点が異なり、その他の構成は同様である。なお、上記実施形態で説明した構成と同様の構成には同一の符号を付して、その説明を省略する。
Therefore, in the monitoring system 10 of the present embodiment, since the type of the object is determined based on the cluster size and the measured temperature of the cluster, a more reliable determination result of the object can be obtained.
[Embodiment 13]
Next, still another embodiment of the present invention will be described with reference to FIG. The monitoring system 10 of the present embodiment is different from the monitoring system 10 shown in FIGS. 1 to 10 in that the monitoring operation is started when an object enters the detection area, and the other configurations are the same. In addition, the same code | symbol is attached | subjected to the structure similar to the structure demonstrated in the said embodiment, and the description is abbreviate | omitted.

図38は、本実施形態における監視システム10の概要を示している。本実施形態の監視システム10は、図2に示される監視システム10に比べて、検知領域にオブジェクトが進入したことを検知する進入検知センサ80を、検知領域の境界に設ける点が異なり、その他の構成は同様である。   FIG. 38 shows an overview of the monitoring system 10 in the present embodiment. The monitoring system 10 of the present embodiment is different from the monitoring system 10 shown in FIG. 2 in that an entry detection sensor 80 that detects that an object has entered the detection area is provided at the boundary of the detection area. The configuration is the same.

進入検知センサ80としては、超音波、電波、赤外線などの波動を境界付近に出射し、上記波動をオブジェクトが遮蔽または反射することにより、オブジェクトの存在を検知するものが利用される。進入検知センサ80は、オブジェクトの進入を検知すると、監視装置12に通知する。これにより、監視装置12は、ステレオカメラ11の撮影を開始させ、監視装置12内の各種構成の動作を開始させることにより、監視動作を開始する。   As the approach detection sensor 80, a sensor that detects the presence of an object by emitting a wave such as an ultrasonic wave, a radio wave, or an infrared ray in the vicinity of the boundary and shielding or reflecting the wave by the object is used. The entry detection sensor 80 notifies the monitoring device 12 when an entry of an object is detected. Thereby, the monitoring apparatus 12 starts the monitoring operation by starting the photographing of the stereo camera 11 and starting the operation of various components in the monitoring apparatus 12.

したがって、本実施形態の監視システム10では、検知領域にオブジェクトが存在しない場合には、監視動作を停止しているので、無駄な処理動作を回避できる。
〔実施の形態14〕
次に、本発明のさらに別の実施形態について、図39を参照しつつ説明する。図39は、本実施形態における監視システム10の概要を示している。本実施形態の監視システム10は、図2に示される監視システム10に比べて、オブジェクトの存在を検知するマットセンサ(物体検知センサ)81が設けられている点が異なり、その他の構成は同様である。なお、上記実施形態で説明した構成と同様の構成には同一の符号を付して、その説明を省略する。
Therefore, in the monitoring system 10 according to the present embodiment, when the object does not exist in the detection area, the monitoring operation is stopped, so that useless processing operations can be avoided.
[Embodiment 14]
Next, still another embodiment of the present invention will be described with reference to FIG. FIG. 39 shows an overview of the monitoring system 10 in the present embodiment. The monitoring system 10 of the present embodiment is different from the monitoring system 10 shown in FIG. 2 in that a mat sensor (object detection sensor) 81 for detecting the presence of an object is provided, and other configurations are the same. is there. In addition, the same code | symbol is attached | subjected to the structure similar to the structure demonstrated in the said embodiment, and the description is abbreviate | omitted.

ステレオカメラ(撮像装置)11が撮影を行う場合、図39に示されるように、オブジェクトaの裏側は死角となり、オブジェクトaの裏側に存在するオブジェクトbを認識することができない。そこで、本実施形態では、監視装置12は、ステレオカメラ11からの撮影画像に死角領域が存在する場合には、上記撮影画像を用いたオブジェクトの認識とともに、マットセンサ81によるオブジェクトの検知結果を利用している。これにより、ステレオカメラ11の撮影において死角となる領域でもオブジェクトを認識して安全性を確保することができる。
〔実施の形態15〕
次に、本発明の他の実施形態について、図40を参照しつつ説明する。本実施形態の監視システム10は、図1〜図10に示される監視システム10の応用例を示している。なお、上記実施形態で説明した構成と同様の構成には同一の符号を付して、その説明を省略する。
When the stereo camera (imaging device) 11 performs shooting, as shown in FIG. 39, the back side of the object a becomes a blind spot, and the object b existing on the back side of the object a cannot be recognized. Therefore, in the present embodiment, when a blind spot area exists in the captured image from the stereo camera 11, the monitoring device 12 uses the object detection result by the mat sensor 81 together with the recognition of the object using the captured image. is doing. Thereby, it is possible to ensure the safety by recognizing the object even in a blind spot in the shooting by the stereo camera 11.
[Embodiment 15]
Next, another embodiment of the present invention will be described with reference to FIG. The monitoring system 10 of this embodiment shows an application example of the monitoring system 10 shown in FIGS. In addition, the same code | symbol is attached | subjected to the structure similar to the structure demonstrated in the said embodiment, and the description is abbreviate | omitted.

図40は、本実施形態における監視システム10の概要を示している。本実施形態の監視システム10は、図2に示される監視システム10に比べて、検知領域の周囲に壁が設けられ、一部の壁が開設されて自動扉82が設けられている。   FIG. 40 shows an overview of the monitoring system 10 in the present embodiment. Compared to the monitoring system 10 shown in FIG. 2, the monitoring system 10 of the present embodiment is provided with a wall around the detection region, and a part of the wall is opened and an automatic door 82 is provided.

監視装置12は、自動扉82付近で作業者(ヒト)を認識する場合に自動扉82を動作させ、その他の場合に自動扉82の動作を停止するように制御している。これにより、自動扉82付近で、ヒト以外のワークや小動物が存在しても、自動扉82が開閉することを防止できる。   The monitoring device 12 controls the automatic door 82 to operate when an operator (human) is recognized near the automatic door 82 and stops the operation of the automatic door 82 in other cases. Thereby, even if a non-human work or a small animal exists near the automatic door 82, the automatic door 82 can be prevented from opening and closing.

なお、監視装置12は、自動扉82付近でワークを認識する場合に自動扉82を動作させ、その他の場合に自動扉82の動作を停止するように制御することもできる。この場合、自動扉82から出ていくものをワークのみに限定することができる。これは、ワークが生産現場から、例えば滅菌室のようなヒトや小動物が進入することが好ましくない部屋に運搬される場合などに好適である。   The monitoring device 12 can also be controlled to operate the automatic door 82 when recognizing a workpiece near the automatic door 82 and to stop the operation of the automatic door 82 in other cases. In this case, what comes out of the automatic door 82 can be limited to only workpieces. This is suitable when the work is transported from the production site to a room where it is not preferable for a human or a small animal to enter, such as a sterilization room.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention.

最後に、校正装置13の各ブロック、特に制御部16は、ハードウェアロジックによって構成してもよいし、次のようにCPUを用いてソフトウェアによって実現してもよい。   Finally, each block of the calibration device 13, particularly the control unit 16, may be configured by hardware logic, or may be realized by software using a CPU as follows.

すなわち、校正装置13は、各機能を実現する制御プログラムの命令を実行するCPU(central processing unit)、上記プログラムを格納したROM(read only memory)、上記プログラムを展開するRAM(random access memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアである校正装置13の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、校正装置13に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。   That is, the calibration device 13 includes a CPU (central processing unit) that executes instructions of a control program for realizing each function, a ROM (read only memory) that stores the program, a RAM (random access memory) that expands the program, A storage device (recording medium) such as a memory for storing the program and various data is provided. An object of the present invention is to provide a recording medium in which a program code (execution format program, intermediate code program, source program) of a control program of the calibration device 13 which is software that realizes the above-described functions is recorded so as to be readable by a computer. This can also be achieved by supplying the calibration device 13 and reading and executing the program code recorded on the recording medium by the computer (or CPU or MPU).

上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などを用いることができる。   Examples of the recording medium include tapes such as magnetic tapes and cassette tapes, magnetic disks such as floppy (registered trademark) disks / hard disks, and disks including optical disks such as CD-ROM / MO / MD / DVD / CD-R. Card system such as IC card, IC card (including memory card) / optical card, or semiconductor memory system such as mask ROM / EPROM / EEPROM / flash ROM.

また、校正装置13を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。   Further, the calibration device 13 may be configured to be connectable to a communication network, and the program code may be supplied via the communication network. The communication network is not particularly limited. For example, the Internet, intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication. A net or the like is available. Also, the transmission medium constituting the communication network is not particularly limited. For example, even in the case of wired such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL line, etc., infrared rays such as IrDA and remote control, Bluetooth ( (Registered trademark), 802.11 wireless, HDR, mobile phone network, satellite line, terrestrial digital network, and the like can also be used. The present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.

本発明は、撮影画像の特徴点からクラスタを作成して物体を特定するだけでなく、物体の空間位置を特定できるので、物体の追跡を行う監視システムにも適用可能である。   The present invention can be applied not only to a cluster by creating a cluster from feature points of a photographed image but also to specify a spatial position of the object, so that it can be applied to a monitoring system that tracks an object.

本発明の一実施形態である監視システムにおける監視装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the monitoring apparatus in the monitoring system which is one Embodiment of this invention. 上記監視システムの概要を示す斜視図である。It is a perspective view which shows the outline | summary of the said monitoring system. 監視システムにおけるステレオカメラおよび監視装置内の具体的構成を示すブロック図である。It is a block diagram which shows the specific structure in the stereo camera and monitoring apparatus in a monitoring system. 上記監視装置の制御部の3D情報算出部における処理動作の流れを示すフローチャートである。It is a flowchart which shows the flow of the processing operation in the 3D information calculation part of the control part of the said monitoring apparatus. 上記3D情報算出部で利用される座標系を示す図であり、同図(a)はCCD中心座標系を示しており、同図(b)はカメラ座標系を示しており、同図(c)は世界座標系を示している。It is a figure which shows the coordinate system utilized in the said 3D information calculation part, The figure (a) shows the CCD center coordinate system, The figure (b) shows the camera coordinate system, The figure (c) ) Indicates the world coordinate system. 上記制御部における処理動作の流れを示すフローチャートである。It is a flowchart which shows the flow of the processing operation in the said control part. 図6に示される各種パラメータの意味を表形式で示す図である。It is a figure which shows the meaning of the various parameters shown by FIG. 6 in a table format. 上記制御部のクラスタリング部における処理動作の流れを示すフローチャートである。It is a flowchart which shows the flow of the processing operation in the clustering part of the said control part. 上記クラスタリング部における処理動作の流れをさらに詳細に示すフローチャートである。It is a flowchart which shows the flow of the processing operation in the said clustering part in detail. 同図(a)〜(f)は、1個のワークと1人の作業者とが危険領域に存在する場合に、上記監視装置が行う処理を具体的に示す図である。FIGS. 4A to 4F are diagrams specifically showing processing performed by the monitoring apparatus when one work and one worker are present in the dangerous area. 本発明の別の実施形態である監視システムにおいて、図6に示される各種パラメータの意味を表形式で示す図である。In the monitoring system which is another embodiment of this invention, it is a figure which shows the meaning of the various parameters shown by FIG. 6 in a table format. 同図(a)〜(d)は、1個のワークと1人の作業者とが危険領域に存在する場合に、上記監視システムの監視装置が行う処理を具体的に示す図である。FIGS. 9A to 9D are diagrams specifically showing processing performed by the monitoring device of the monitoring system when one work and one worker are present in the dangerous area. 同図(a)〜(c)は、1個のワークのみが危険領域に存在する場合に、上記監視装置が行う処理を具体的に示す図である。FIGS. 9A to 9C are diagrams specifically showing processing performed by the monitoring apparatus when only one workpiece exists in the dangerous area. 本発明のさらに別の実施形態である監視システムの監視装置の制御部における処理動作の流れを示すフローチャートである。It is a flowchart which shows the flow of the processing operation in the control part of the monitoring apparatus of the monitoring system which is another embodiment of this invention. 上記制御部における処理動作の流れを示すフローチャートである。It is a flowchart which shows the flow of the processing operation in the said control part. 図14および図15に示される各種パラメータの意味を表形式で示す図である。It is a figure which shows the meaning of the various parameters shown by FIG. 14 and FIG. 15 in a table format. 同図(a)〜(h)は、2個のワークと1人の作業者とが危険領域に存在する場合に、監視装置12が行う処理を具体的に示す図である。FIGS. 11A to 11H are diagrams specifically showing processing performed by the monitoring device 12 when two works and one worker are present in the dangerous area. 本発明のさらに別の実施形態である監視システムの監視装置における制御部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the control part in the monitoring apparatus of the monitoring system which is further another embodiment of this invention. 上記制御部の処理動作を示すフローチャートであり、図6に示される処理動作に追加される処理動作を示している。It is a flowchart which shows the processing operation of the said control part, and has shown the processing operation added to the processing operation shown by FIG. 本発明のさらに別の実施形態である監視システムの監視装置における制御部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the control part in the monitoring apparatus of the monitoring system which is further another embodiment of this invention. 上記制御部の処理動作を示すフローチャートであり、図6に示される処理動作に追加される処理動作を示している。It is a flowchart which shows the processing operation of the said control part, and has shown the processing operation added to the processing operation shown by FIG. 本発明のさらに別の実施形態である監視システムの監視装置における制御部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the control part in the monitoring apparatus of the monitoring system which is further another embodiment of this invention. 上記制御部の処理動作を示すフローチャートであり、図6に示される処理動作に追加される処理動作を示している。It is a flowchart which shows the processing operation of the said control part, and has shown the processing operation added to the processing operation shown by FIG. 本発明のさらに別の実施形態である監視システムの監視装置における制御部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the control part in the monitoring apparatus of the monitoring system which is further another embodiment of this invention. 上記制御部の処理動作を示すフローチャートであり、図6に示される処理動作に追加される処理動作を示している。It is a flowchart which shows the processing operation of the said control part, and has shown the processing operation added to the processing operation shown by FIG. 本発明のさらに別の実施形態である監視システムの監視装置における制御部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the control part in the monitoring apparatus of the monitoring system which is further another embodiment of this invention. 上記制御部の処理動作を示すフローチャートであり、図6に示される処理動作に追加される処理動作を示している。It is a flowchart which shows the processing operation of the said control part, and has shown the processing operation added to the processing operation shown by FIG. 本発明のさらに別の実施形態である監視システムの監視装置における制御部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the control part in the monitoring apparatus of the monitoring system which is further another embodiment of this invention. 上記制御部の処理動作を示すフローチャートであり、図6に示される処理動作に追加される処理動作を示している。It is a flowchart which shows the processing operation of the said control part, and has shown the processing operation added to the processing operation shown by FIG. 本発明のさらに別の実施形態である監視システムの監視装置における制御部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the control part in the monitoring apparatus of the monitoring system which is further another embodiment of this invention. 上記制御部の処理動作を示すフローチャートである。It is a flowchart which shows the processing operation of the said control part. 同図(a)〜(c)は、上記制御部における追跡処理部が行う処理を具体的に示す図である。FIGS. 9A to 9C are diagrams specifically showing processing performed by the tracking processing unit in the control unit. 同図(a)〜(c)は、上記追跡処理部が行う処理を具体的に示す図である。FIGS. 9A to 9C are diagrams specifically showing processing performed by the tracking processing unit. 本発明のさらに別の実施形態である監視システムの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the monitoring system which is another embodiment of this invention. 本発明のさらに別の実施形態である監視システムの概要を示す斜視図である。It is a perspective view which shows the outline | summary of the monitoring system which is another embodiment of this invention. 上記監視システムにおける監視装置の要部の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the principal part of the monitoring apparatus in the said monitoring system. 上記監視装置の制御部の処理動作を示すフローチャートであり、図6に示される処理動作に追加される処理動作を示している。It is a flowchart which shows the processing operation of the control part of the said monitoring apparatus, and has shown the processing operation added to the processing operation shown by FIG. 本発明のさらに別の実施形態である監視システムの概要を示す斜視図である。It is a perspective view which shows the outline | summary of the monitoring system which is another embodiment of this invention. 本発明のさらに別の実施形態である監視システムの概要を示す斜視図である。It is a perspective view which shows the outline | summary of the monitoring system which is another embodiment of this invention. 本発明の他の実施形態である監視システムの概要を示す斜視図である。It is a perspective view which shows the outline | summary of the monitoring system which is other embodiment of this invention.

符号の説明Explanation of symbols

10 監視システム
11 ステレオカメラ(撮影手段)
12 監視装置(物体認識装置)
25 出力部(設備制御手段)
34 クラスタ座標保存メモリ(記憶手段)
41 第1入力画像取得部(画像取得手段)
42 第2入力画像取得部(画像取得手段)
50 3D情報算出部(特徴点抽出手段、空間位置算出手段)
51 オブジェクト認識部(物体認識手段)
54 クラスタリング部(クラスタリング手段)
55 サイズ判定部(物体判定手段)
60 位置判定部(物体判定手段)
61 速度判定部(物体判定手段)
62 進行方向判定部(物体判定手段)
63 個数判定部(物体判定手段)
64 組合せ判定部(物体判定手段)
65 統計的判定処理部(物体判定手段)
66 2D情報判定部(物体判定手段)
67 追跡処理部(推定手段、クラスタ統合手段)
70 アクティブセンサ(撮影手段)
75 赤外線カメラ(物体検知センサ)
76 赤外線画像取得部(検知信号取得手段)
77 他センサ判定部(物体判定手段)
80 進入検知センサ
81 マットセンサ(物体検知センサ)
10 surveillance system 11 stereo camera (photographing means)
12 Monitoring device (object recognition device)
25 Output unit (equipment control means)
34 Cluster coordinate storage memory (storage means)
41 1st input image acquisition part (image acquisition means)
42 Second input image acquisition unit (image acquisition means)
50 3D information calculation unit (feature point extraction means, spatial position calculation means)
51 Object recognition unit (object recognition means)
54 Clustering unit (clustering means)
55 Size determination unit (object determination means)
60 Position determination part (object determination means)
61 Speed determination unit (object determination means)
62 Traveling direction determination unit (object determination means)
63 Number determination unit (object determination means)
64 combination determination unit (object determination means)
65 Statistical judgment processing part (object judgment means)
66 2D information determination unit (object determination means)
67 Tracking processing unit (estimating means, cluster integrating means)
70 Active sensor (photographing means)
75 Infrared camera (object detection sensor)
76 Infrared image acquisition unit (detection signal acquisition means)
77 Other sensor determination unit (object determination means)
80 Entry detection sensor 81 Mat sensor (object detection sensor)

Claims (16)

1または複数の物体の画像を含む撮影画像から物体を認識する物体認識装置であって、
撮影画像を取得する画像取得手段と、
取得した撮影画像から特徴点を抽出する特徴点抽出手段と、
抽出した特徴点の空間位置を算出する空間位置算出手段と、
算出した特徴点の空間位置に基づいて、前記物体を認識する物体認識手段とを備えており、
前記物体認識手段は、前記算出した特徴点の空間位置に基づいてクラスタリングを行うクラスタリング手段と、
該クラスタリングにより生成されたクラスタのサイズに基づいて、該クラスタに対応する物体を判定する物体判定手段とを備えることを特徴とする物体認識装置。
An object recognition apparatus for recognizing an object from a captured image including an image of one or more objects,
Image acquisition means for acquiring a captured image;
Feature point extraction means for extracting feature points from the acquired captured image;
Spatial position calculation means for calculating the spatial position of the extracted feature points;
Object recognition means for recognizing the object based on the calculated spatial position of the feature point;
The object recognition means includes clustering means for performing clustering based on the calculated spatial positions of the feature points;
An object recognition apparatus comprising: an object determination unit that determines an object corresponding to a cluster based on a size of the cluster generated by the clustering.
前記クラスタリング手段は、或る物体に対応するサイズでクラスタリングを行い、
前記物体判定手段は、前記クラスタが前記物体に対応するか否かを判定し、
前記クラスタリング手段は、前記物体判定手段が前記物体に対応しないと判定したクラスタを構成する特徴点に関して、別の物体に対応するサイズで再度クラスタリングを行うことを特徴とする請求項1に記載の物体認識装置。
The clustering means performs clustering with a size corresponding to a certain object,
The object determination means determines whether the cluster corresponds to the object;
2. The object according to claim 1, wherein the clustering unit performs clustering again with a size corresponding to another object with respect to a feature point constituting a cluster that is determined not to correspond to the object by the object determination unit. Recognition device.
前記クラスタリング手段は、
認識すべき複数の物体に対応する複数のサイズのうち、最大のサイズでクラスタリングを行い、
前記物体判定手段が前記物体に対応しないと判定したクラスタを構成する特徴点に関して、前記複数のサイズのうち最小のサイズで再度クラスタリングを行うことを特徴とする請求項2に記載の物体認識装置。
The clustering means includes
Perform clustering at the maximum size among multiple sizes corresponding to multiple objects to be recognized,
The object recognition apparatus according to claim 2, wherein clustering is performed again at a minimum size among the plurality of sizes with respect to feature points constituting a cluster that is determined not to correspond to the object by the object determination unit.
前記画像取得手段は、ステレオカメラからの2つの撮影画像を取得しており、
前記空間位置算出手段は、前記2つの撮影画像における特徴点を利用して、特徴点の空間位置を算出することを特徴とする請求項1に記載の物体認識装置。
The image acquisition means acquires two captured images from a stereo camera,
The object recognition apparatus according to claim 1, wherein the spatial position calculation unit calculates a spatial position of the feature point using a feature point in the two captured images.
前記画像取得手段は、アクティブセンサからの撮影画像を取得しており、
前記空間位置算出手段は、前記撮影画像に関する空間位置の情報を前記アクティブセンサから取得し、取得した空間位置の情報に基づいて、前記特徴点の空間位置を算出することを特徴とする請求項1に記載の物体認識装置。
The image acquisition means acquires a captured image from an active sensor,
The spatial position calculation unit acquires spatial position information regarding the captured image from the active sensor, and calculates the spatial position of the feature point based on the acquired spatial position information. The object recognition apparatus described in 1.
前記物体判定手段は、前記クラスタリングにより生成されたクラスタのサイズと、該クラスタに関する存在位置、進行方向、移動速度、および個数の中の少なくとも1つとに基づいて、前記クラスタに対応する物体を判定することを特徴とする請求項1に記載の物体認識装置。   The object determination means determines an object corresponding to the cluster based on the size of the cluster generated by the clustering and at least one of the existence position, the traveling direction, the moving speed, and the number of the cluster. The object recognition apparatus according to claim 1. 前記物体判定手段は、前記クラスタのサイズによる物体判定と、前記クラスタに関する存在位置、進行方向、移動速度、および個数の中の少なくとも1つによる物体判定とに対し統計的処理を施すことによって、前記クラスタに対応する物体を判定することを特徴とする請求項6に記載の物体認識装置。   The object determination means performs statistical processing on the object determination based on the size of the cluster and the object determination based on at least one of the existence position, the traveling direction, the moving speed, and the number related to the cluster. The object recognition apparatus according to claim 6, wherein an object corresponding to the cluster is determined. 前記物体の表面には、物体を識別可能なマークが施されており、
前記物体判定手段は、前記クラスタリングにより生成されたクラスタの空間位置に対応する前記撮影画像の領域から前記マークを抽出し、抽出したマークと、前記クラスタのサイズとに基づいて、前記クラスタに対応する物体を判定することを特徴とする請求項1に記載の物体認識装置。
The surface of the object is provided with a mark that can identify the object,
The object determination unit extracts the mark from the captured image region corresponding to the spatial position of the cluster generated by the clustering, and corresponds to the cluster based on the extracted mark and the size of the cluster. The object recognition apparatus according to claim 1, wherein an object is determined.
物体を検知するセンサから検知信号を取得する検知信号取得手段をさらに備えており、
前記物体判定手段は、前記クラスタのサイズによる物体の判定と、前記検知信号取得手段による物体の検知とに基づいて、前記クラスタに対応する物体を判定することを特徴とする請求項1に記載の物体認識装置。
It further comprises detection signal acquisition means for acquiring a detection signal from a sensor that detects an object,
The said object determination means determines the object corresponding to the said cluster based on the determination of the object by the size of the said cluster, and the detection of the object by the said detection signal acquisition means. Object recognition device.
前記クラスタリングにより生成されたクラスタの空間位置の履歴情報を記憶する記憶手段と、
前記クラスタの空間位置の履歴情報に基づいて、前記クラスタが次に位置する空間領域を推定する推定手段と、
前記特徴点抽出手段が抽出した特徴点のうち、前記推定手段が推定した前記クラスタの空間領域に含まれる特徴点を抽出して、前記クラスタに統合するクラスタ統合手段とをさらに備えることを特徴とする請求項1に記載の物体認識装置。
Storage means for storing the history information of the spatial position of the cluster generated by the clustering;
Estimating means for estimating a spatial region in which the cluster is next located based on history information of the spatial position of the cluster;
A cluster integration unit that extracts feature points included in the spatial region of the cluster estimated by the estimation unit out of the feature points extracted by the feature point extraction unit, and integrates the feature points into the cluster; The object recognition apparatus according to claim 1.
所定領域の監視を行う監視システムであって、
前記所定領域の撮影を行う撮影手段と、
該撮影手段が撮影した撮影画像から物体を認識する請求項1ないし10の何れか1項に記載の物体認識装置とを備えることを特徴とする監視システム。
A monitoring system for monitoring a predetermined area,
Photographing means for photographing the predetermined area;
A monitoring system comprising: the object recognizing device according to any one of claims 1 to 10, wherein an object is recognized from a photographed image photographed by the photographing means.
前記物体認識装置が認識した物体に基づいて、所定領域に設けられた設備の動作を制御する設備制御手段をさらに備えることを特徴とする請求項11に記載の監視システム。   The monitoring system according to claim 11, further comprising equipment control means for controlling operation of equipment provided in a predetermined area based on an object recognized by the object recognition device. 前記所定領域への物体の進入を検知する進入検知センサをさらに備えており、
前記物体認識装置は、前記進入検知センサが前記物体の進入を検知すると、動作を開始することを特徴とする請求項11に記載の監視システム。
It further comprises an entry detection sensor for detecting the entry of an object into the predetermined area,
The monitoring system according to claim 11, wherein the object recognition device starts an operation when the entry detection sensor detects the entry of the object.
1または複数の物体の画像を含む撮影画像から物体を認識する物体認識方法であって、
撮影画像を取得する画像取得ステップと、
取得した撮影画像から特徴点を抽出する特徴点抽出ステップと、
抽出した特徴点の空間位置を算出する空間位置算出ステップと、
算出した特徴点の空間位置に基づいて、前記物体を認識する物体認識ステップとを含んでおり、
前記物体認識ステップは、前記算出した特徴点の空間位置に基づいてクラスタリングを行うクラスタリングステップと、
該クラスタリングにより生成されたクラスタのサイズに基づいて、該クラスタに対応する物体を判定する物体判定ステップとを含むことを特徴とする物体認識方法。
An object recognition method for recognizing an object from a captured image including an image of one or more objects,
An image acquisition step of acquiring a captured image;
A feature point extraction step of extracting feature points from the acquired captured image;
A spatial position calculating step for calculating a spatial position of the extracted feature points;
An object recognition step for recognizing the object based on the calculated spatial position of the feature point,
The object recognition step includes a clustering step for performing clustering based on the calculated spatial position of the feature points;
And an object determination step of determining an object corresponding to the cluster based on the size of the cluster generated by the clustering.
請求項1ないし10の何れか1項に記載の物体認識装置を動作させるための物体認識プログラムであって、コンピュータを上記各手段として機能させるための物体認識プログラム。   An object recognition program for operating the object recognition apparatus according to any one of claims 1 to 10, wherein the object recognition program causes a computer to function as each of the means. 請求項15に記載の物体認識プログラムが記録されたコンピュータ読取り可能な記録媒体。   A computer-readable recording medium on which the object recognition program according to claim 15 is recorded.
JP2006209009A 2006-07-31 2006-07-31 Object recognition device, monitoring system, object recognition method, object recognition program, and recording medium recording the program Active JP4830696B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006209009A JP4830696B2 (en) 2006-07-31 2006-07-31 Object recognition device, monitoring system, object recognition method, object recognition program, and recording medium recording the program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006209009A JP4830696B2 (en) 2006-07-31 2006-07-31 Object recognition device, monitoring system, object recognition method, object recognition program, and recording medium recording the program

Publications (2)

Publication Number Publication Date
JP2008033819A true JP2008033819A (en) 2008-02-14
JP4830696B2 JP4830696B2 (en) 2011-12-07

Family

ID=39123132

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006209009A Active JP4830696B2 (en) 2006-07-31 2006-07-31 Object recognition device, monitoring system, object recognition method, object recognition program, and recording medium recording the program

Country Status (1)

Country Link
JP (1) JP4830696B2 (en)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011040202A1 (en) 2009-09-30 2011-04-07 楽天株式会社 System for recommending an article not present in an image
JP2011118790A (en) * 2009-12-07 2011-06-16 Nippon Telegr & Teleph Corp <Ntt> Similar image retrieval device, similar image retrieval method and similar image retrieval program
WO2011118282A1 (en) * 2010-03-24 2011-09-29 株式会社日立製作所 Server using world coordinate system database and terminal
JP2013530380A (en) * 2010-03-31 2013-07-25 オムロン サイエンティフィック テクノロジーズ, インコーポレイテッド Method and apparatus for generating texture in 3D scene
JP2015069648A (en) * 2013-09-27 2015-04-13 株式会社リコー Target detection method and system
CN104662389A (en) * 2012-09-21 2015-05-27 株式会社多田野 Periphery-information acquisition device for vehicle
JP2015515613A (en) * 2012-03-16 2015-05-28 ピルツ ゲーエムベーハー アンド コー.カーゲー Method and apparatus for securing the hazardous work area of an automatic machine
JP2016531462A (en) * 2013-06-21 2016-10-06 ピルツ ゲーエムベーハー アンド コー.カーゲー Apparatus and method for protecting an automatically operating machine
JP2017163279A (en) * 2016-03-08 2017-09-14 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP2017534129A (en) * 2014-08-20 2017-11-16 バーチャル モービング テクノロジーズ エルエルシー Movement estimation system and method using object measurements
JP2018126818A (en) * 2017-02-07 2018-08-16 トヨタ自動車株式会社 Robot control device
JP2018195959A (en) * 2017-05-17 2018-12-06 ファナック株式会社 Monitoring device for monitoring space regions obtained by dividing monitoring region
CN110781334A (en) * 2018-07-24 2020-02-11 丰田自动车株式会社 Information processing apparatus, information processing method, and computer program
CN111126317A (en) * 2019-12-26 2020-05-08 腾讯科技(深圳)有限公司 Image processing method, device, server and storage medium
CN111226178A (en) * 2017-10-24 2020-06-02 罗伯特·博世有限公司 Monitoring device, industrial system, method for monitoring, and computer program
JP2020135617A (en) * 2019-02-22 2020-08-31 株式会社豊田自動織機 Object detection device
JP2020527270A (en) * 2017-07-20 2020-09-03 トヨタ モーター ヨーロッパ Electronic devices, systems and methods for determining object posture
US10917302B2 (en) 2019-06-11 2021-02-09 Cisco Technology, Inc. Learning robust and accurate rules for device classification from clusters of devices
WO2023032316A1 (en) 2021-08-31 2023-03-09 ソニーグループ株式会社 Information processing device, information processing method, and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6555617B2 (en) 2015-12-16 2019-08-07 パナソニックIpマネジメント株式会社 Human detection system

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0550390A (en) * 1991-08-20 1993-03-02 Tokico Ltd Working machine system
JPH05265547A (en) * 1992-03-23 1993-10-15 Fuji Heavy Ind Ltd On-vehicle outside monitoring device
JPH08110948A (en) * 1994-10-11 1996-04-30 Omron Corp Device or method for judging color
JPH10255046A (en) * 1997-03-07 1998-09-25 Hitachi Ltd Object identifying device and method
JPH1166319A (en) * 1997-08-21 1999-03-09 Omron Corp Method and device for detecting traveling object, method and device for recognizing traveling object, and method and device for detecting person
JPH11259641A (en) * 1998-03-12 1999-09-24 Omron Corp Method for observing body, body observing device using the same method, and vehicle observing device
WO2001039513A1 (en) * 1999-11-24 2001-05-31 Cognex Corporation Video safety curtain
JP2002027449A (en) * 2000-07-10 2002-01-25 Fujitsu Ltd Method and apparatus for identifying moving object
JP2002222423A (en) * 2001-01-25 2002-08-09 Fujitsu Ltd Method and device for object recognition
JP2002258510A (en) * 2001-02-28 2002-09-11 Konica Corp Image forming method
JP2002358585A (en) * 2001-06-04 2002-12-13 Koichi Otani System and program for monitoring intruder from outside and internal illegality
JP3755343B2 (en) * 1999-06-30 2006-03-15 オムロン株式会社 Pedestrian observation device, pedestrian recognition system using the device, door opening / closing control system, and building

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0550390A (en) * 1991-08-20 1993-03-02 Tokico Ltd Working machine system
JPH05265547A (en) * 1992-03-23 1993-10-15 Fuji Heavy Ind Ltd On-vehicle outside monitoring device
JPH08110948A (en) * 1994-10-11 1996-04-30 Omron Corp Device or method for judging color
JPH10255046A (en) * 1997-03-07 1998-09-25 Hitachi Ltd Object identifying device and method
JPH1166319A (en) * 1997-08-21 1999-03-09 Omron Corp Method and device for detecting traveling object, method and device for recognizing traveling object, and method and device for detecting person
JPH11259641A (en) * 1998-03-12 1999-09-24 Omron Corp Method for observing body, body observing device using the same method, and vehicle observing device
JP3755343B2 (en) * 1999-06-30 2006-03-15 オムロン株式会社 Pedestrian observation device, pedestrian recognition system using the device, door opening / closing control system, and building
WO2001039513A1 (en) * 1999-11-24 2001-05-31 Cognex Corporation Video safety curtain
JP2003515811A (en) * 1999-11-24 2003-05-07 コグネクス コーポレイション Video crisis management curtain
JP2002027449A (en) * 2000-07-10 2002-01-25 Fujitsu Ltd Method and apparatus for identifying moving object
JP2002222423A (en) * 2001-01-25 2002-08-09 Fujitsu Ltd Method and device for object recognition
JP2002258510A (en) * 2001-02-28 2002-09-11 Konica Corp Image forming method
JP2002358585A (en) * 2001-06-04 2002-12-13 Koichi Otani System and program for monitoring intruder from outside and internal illegality

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8572116B2 (en) 2009-09-30 2013-10-29 Rakuten, Inc. System for recommending an article not present in an image
WO2011040202A1 (en) 2009-09-30 2011-04-07 楽天株式会社 System for recommending an article not present in an image
JP2011118790A (en) * 2009-12-07 2011-06-16 Nippon Telegr & Teleph Corp <Ntt> Similar image retrieval device, similar image retrieval method and similar image retrieval program
WO2011118282A1 (en) * 2010-03-24 2011-09-29 株式会社日立製作所 Server using world coordinate system database and terminal
JP2013530380A (en) * 2010-03-31 2013-07-25 オムロン サイエンティフィック テクノロジーズ, インコーポレイテッド Method and apparatus for generating texture in 3D scene
JP2015515613A (en) * 2012-03-16 2015-05-28 ピルツ ゲーエムベーハー アンド コー.カーゲー Method and apparatus for securing the hazardous work area of an automatic machine
US9300954B2 (en) 2012-09-21 2016-03-29 Tadano Ltd. Surrounding information-obtaining device for working vehicle
CN104662389A (en) * 2012-09-21 2015-05-27 株式会社多田野 Periphery-information acquisition device for vehicle
EP2899496A4 (en) * 2012-09-21 2016-08-31 Tadano Ltd Periphery-information acquisition device for vehicle
EP3235773A3 (en) * 2012-09-21 2017-12-06 Tadano, Ltd. Surrounding information-obtaining device for working vehicle
JP2016531462A (en) * 2013-06-21 2016-10-06 ピルツ ゲーエムベーハー アンド コー.カーゲー Apparatus and method for protecting an automatically operating machine
JP2015069648A (en) * 2013-09-27 2015-04-13 株式会社リコー Target detection method and system
JP2017534129A (en) * 2014-08-20 2017-11-16 バーチャル モービング テクノロジーズ エルエルシー Movement estimation system and method using object measurements
US10528961B2 (en) 2014-08-20 2020-01-07 Virtual Moving Technologies System and method for estimating a move using object measurements
JP2017163279A (en) * 2016-03-08 2017-09-14 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP2018126818A (en) * 2017-02-07 2018-08-16 トヨタ自動車株式会社 Robot control device
US10482322B2 (en) 2017-05-17 2019-11-19 Fanuc Corporation Monitor apparatus for monitoring spatial region set by dividing monitor region
JP2018195959A (en) * 2017-05-17 2018-12-06 ファナック株式会社 Monitoring device for monitoring space regions obtained by dividing monitoring region
JP2020527270A (en) * 2017-07-20 2020-09-03 トヨタ モーター ヨーロッパ Electronic devices, systems and methods for determining object posture
JP2021500668A (en) * 2017-10-24 2021-01-07 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh Monitoring equipment, industrial equipment, monitoring methods and computer programs
CN111226178A (en) * 2017-10-24 2020-06-02 罗伯特·博世有限公司 Monitoring device, industrial system, method for monitoring, and computer program
CN111226178B (en) * 2017-10-24 2023-12-08 罗伯特·博世有限公司 Monitoring device, industrial system, method for monitoring and computer program
CN110781334A (en) * 2018-07-24 2020-02-11 丰田自动车株式会社 Information processing apparatus, information processing method, and computer program
CN110781334B (en) * 2018-07-24 2023-09-29 丰田自动车株式会社 Information processing apparatus and information processing method
JP2020135617A (en) * 2019-02-22 2020-08-31 株式会社豊田自動織機 Object detection device
JP7081526B2 (en) 2019-02-22 2022-06-07 株式会社豊田自動織機 Object detector
US10917302B2 (en) 2019-06-11 2021-02-09 Cisco Technology, Inc. Learning robust and accurate rules for device classification from clusters of devices
US11196629B2 (en) 2019-06-11 2021-12-07 Cisco Technology, Inc. Learning robust and accurate rules for device classification from clusters of devices
US11483207B2 (en) 2019-06-11 2022-10-25 Cisco Technology, Inc. Learning robust and accurate rules for device classification from clusters of devices
CN111126317A (en) * 2019-12-26 2020-05-08 腾讯科技(深圳)有限公司 Image processing method, device, server and storage medium
CN111126317B (en) * 2019-12-26 2023-06-23 腾讯科技(深圳)有限公司 Image processing method, device, server and storage medium
WO2023032316A1 (en) 2021-08-31 2023-03-09 ソニーグループ株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP4830696B2 (en) 2011-12-07

Similar Documents

Publication Publication Date Title
JP4830696B2 (en) Object recognition device, monitoring system, object recognition method, object recognition program, and recording medium recording the program
JP6866673B2 (en) Monitoring system, monitoring device, and monitoring method
EP3434626B1 (en) Projection instruction device, parcel sorting system, and projection instruction method
KR101283262B1 (en) Method of image processing and device thereof
US10740906B2 (en) Unattended object monitoring device, unattended object monitoring system equipped with same, and unattended object monitoring method
US11398049B2 (en) Object tracking device, object tracking method, and object tracking program
CN102257529B (en) Person-judging device and method
JP6558387B2 (en) Image analysis apparatus, image analysis method, and image analysis program
CA3094424A1 (en) Safety monitoring and early-warning method for man-machine interaction behavior of underground conveyor belt operator
EP3434621B1 (en) Instruction projecting device, parcel sorting system and instruction projecting method
US10957067B2 (en) Control apparatus, object detection system, object detection method and program
EP3434622A1 (en) Instruction projecting device, package sorting system and instruction projecting method
JP6544044B2 (en) Image processing apparatus, image processing system and image processing method
CN107122743B (en) Security monitoring method and device and electronic equipment
EP3434623B1 (en) Projection indicator, cargo assortment system, and projection indicating method
US20220083811A1 (en) Monitoring camera, part association method and program
JP5647459B2 (en) Moving object detection device
US11514565B2 (en) Securing a monitored zone comprising at least one machine
JPH11257931A (en) Object recognizing device
JP2011053005A (en) Monitoring system
CN113615166B (en) Accident detection device and accident detection method
US20150063637A1 (en) Image recognition method and robot
KR102527771B1 (en) System and Method for Monitoring Behavior Observation and Abnormal Behavior of the Elderly Living alone by Using TOF Camera and Digital Twin Technology
JP6504180B2 (en) Anomaly detection device, anomaly detection method and anomaly detection program
JP2009266155A (en) Apparatus and method for mobile object tracking

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090511

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110823

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110905

R150 Certificate of patent or registration of utility model

Ref document number: 4830696

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140930

Year of fee payment: 3

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D04