JP4830696B2 - 物体認識装置、監視システム、物体認識方法、物体認識プログラム、および該プログラムを記録した記録媒体 - Google Patents

物体認識装置、監視システム、物体認識方法、物体認識プログラム、および該プログラムを記録した記録媒体 Download PDF

Info

Publication number
JP4830696B2
JP4830696B2 JP2006209009A JP2006209009A JP4830696B2 JP 4830696 B2 JP4830696 B2 JP 4830696B2 JP 2006209009 A JP2006209009 A JP 2006209009A JP 2006209009 A JP2006209009 A JP 2006209009A JP 4830696 B2 JP4830696 B2 JP 4830696B2
Authority
JP
Japan
Prior art keywords
cluster
clustering
unit
size
feature points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006209009A
Other languages
English (en)
Other versions
JP2008033819A (ja
Inventor
光寛 野村
崇 池谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2006209009A priority Critical patent/JP4830696B2/ja
Publication of JP2008033819A publication Critical patent/JP2008033819A/ja
Application granted granted Critical
Publication of JP4830696B2 publication Critical patent/JP4830696B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、1または複数の物体の画像を含む撮影画像から物体を認識する物体認識装置、該装置を用いた監視システム、物体認識方法、物体認識プログラム、および該プログラムを記録した記録媒体に関するものである。特に、本発明は、前記物体認識装置を利用して、生産現場における自動化機械(生産設備)による労働災害を未然に防止する安全監視システムに関するものである。
以前から、プレス機やロボットアームなどの自動化機械(生産設備)を用いる生産現場において、作業員が上記生産設備に巻き込まれるなどの労働災害が発生している。この労働災害の対策として、作業員が安全であるかを監視する安全監視装置を生産現場に導入することが進められている。
一般に、生産現場で作業員の安全を確保するには、災害が発生する虞のある生産設備およびその周辺の領域(危険領域)に対し、作業者の侵入を検知した時に、安全が損なわれたとして生産設備を停止すること(侵入検知)と、作業者の存在を検知した時に、上記危険領域の安全が確認されるまで生産設備を停止すること(存在検知)との2つが必要である。したがって、安全監視装置では、侵入検知および存在検知の両方を実現できることが望ましい。
従来の安全監視装置には、マットセンサ、光電センサ、レーザスキャナ、画像センサなどが利用されており、各センサの検知原理に基づく安全監視が行われている。
例えば、マットセンサは、該センサに印加される荷重の変動を検知する。したがって、マットセンサを用いた安全監視装置では、危険領域内に存在する作業員の荷重を検知するように、マットセンサを危険領域の床面に配置することで存在検知を実現している。
また、光電センサは、投受光器間の遮光状態を検知する。したがって、光電センサを用いた安全監視装置では、作業員の侵入により上記遮光状態を惹起するように、光電センサを危険領域の境界に配置することで侵入検知を実現している。
また、レーザスキャナは、レーザ光を出射してから、反射物にて反射し、その反射光を受光するまでの光の伝搬時間を計測することにより、レーザ光源と反射物との距離を測定できる。さらに、レーザ光を走査することにより、測定可能な反射物の存在領域を拡大することができる。したがって、レーザスキャナを用いた安全監視装置では、レーザスキャナが測定可能な反射物の存在領域が、危険領域を包含するようにレーザスキャナを配置し、測定した距離が作業者の有無によって異なることを利用して、侵入検知および存在検知を同時に実現している。
また、画像センサは、2D(2次元)輝度情報の配列と時系列変化とを監視することにより、視覚的変化を検知する。したがって、画像センサを用いた安全監視装置では、危険領域を俯瞰するようにカメラを配置することで、レーザスキャナと同様に、侵入検知および存在検知を同時に実現している。
また、最近では、画像センサの応用技術としてステレオカメラを用いた技術が提案されている(例えば、特許文献1を参照)。これによると、従来の画像センサは、1台のカメラによって撮影された2D画像を利用し、輝度情報の2D的配列と時系列的変化とを用いて計測しているため、周辺環境光の影響により検知性能が低下することがあり安全監視装置としての信頼度が低下するとされている。
これに対し、ステレオカメラを用いた場合には、カメラ間の視差情報を用いた三角測量の原理より、画像中の物体の3D情報を取得することができる。このため、従来の単眼画像センサよりも一般的に環境変動に強くなると考えられている。
国際公開第WO01/039513号パンフレット(2001年5月31日公開) 特開平5−50390号公報(1993年3月2日公開) 特開平11−66319号公報(1999年3月9日公開)
上述の既存センサから得られる情報は、基本的には、物体の有無により何らかの物理量に変化が生じたことを検知したバイナリ−情報である。したがって、上記情報のみを用いて、検知した物体(検知オブジェクト)がワークおよび作業者の何れであるかを区別することは出来ない。このため、従来は、検知オブジェクトが全て作業者であると判断し、生産設備の運転制御(具体的には運転停止)を行うことで作業員の安全確保を図っていた。
しかしながら、実際の生産現場では、ワークが危険領域に搬入されるなど危険領域内に作業員以外の物体が存在する場合は十分考えられる。このような場合でも、従来は、検知オブジェクトを全て作業者と判断して生産設備の運転制御を行うため、ワークが侵入した場合でも設備が毎回停止することになり生産効率が低下するという問題が生じていた。
この問題点を解決するには、検知オブジェクトがワークおよび作業者の何れであるかを区別して、すなわち物体の種類を特定して、物体の種類毎に生産設備を運転制御する必要がある。例えば、特許文献2に記載の光電センサを用いた安全監視方法では、ワークが周期的に搬送される生産ラインで、その搬送周期に従わない検知オブジェクトを作業者と判定し、この場合のみ生産設備を停止することで、生産性を維持している。
しかしながら、上記の安全監視方法では、ワークの搬送周期に同期しながら、もしくはワークと共に作業者が危険領域へ侵入する場合、作業者の存在を特定する搬送周期外の検知信号が得られないため、ワークおよび作業者の区別が困難となり、その結果作業者の危険領域への侵入を見落とすことになる。つまり、作業者が危険領域へ侵入しても生産設備が稼動したままという状況が発生し安全監視装置として不十分である。
本発明は、上記の問題点に鑑みてなされたものであり、物体の種類を確実に特定できる物体認識装置などを提供することにある。
本発明に係る物体認識装置は、上記課題を解決するため、1または複数の物体の画像を含む撮影画像から物体を認識する物体認識装置であって、撮影画像を取得する画像取得手段と、取得した撮影画像から特徴点を抽出する特徴点抽出手段と、抽出した特徴点の空間位置を算出する空間位置算出手段と、算出した特徴点の空間位置に基づいて、前記物体を認識する物体認識手段とを備えており、前記物体認識手段は、前記算出した特徴点の空間位置に基づいてクラスタリングを行うクラスタリング手段と、該クラスタリングにより生成されたクラスタのサイズに基づいて、該クラスタに対応する物体を判定する物体判定手段とを備えることを特徴としている。
上記の構成によると、撮影画像を取得し、取得した撮影画像から特徴点を抽出し、抽出した特徴点の空間位置を算出し、算出した特徴点の空間位置に基づいてクラスタリングを行う。これにより、物体の形状に類似するクラスタが生成される。
ところで、一般に、物体は、物体の種類によってサイズ(幅、奥行き、高さ)が異なる。例えば、足っているヒトであれば、幅および奥行きが30〜80cm程度であり、高さが150〜180cm程度である。すなわち、物体のサイズから物体の種類を特定できることになる。したがって、本発明によると、物体の形状に類似する前記クラスタのサイズから、前記物体の種類を特定することができる。
本発明に係る物体認識装置では、前記クラスタリング手段は、或る物体に対応するサイズでクラスタリングを行い、前記物体判定手段は、前記クラスタが前記物体に対応するか否かを判定し、前記クラスタリング手段は、前記物体判定手段が前記物体に対応しないと判定したクラスタを構成する特徴点に関して、別の物体に対応するサイズで再度クラスタリングを行うことが好ましい。この場合、物体のサイズごとにクラスタリングを繰り返すことになるので、各クラスタに対応する物体の種類を確実に特定することができる。
本発明に係る物体認識装置では、前記クラスタリング手段は、認識すべき複数の物体に対応する複数のサイズのうち、最大のサイズでクラスタリングを行い、前記物体判定手段が前記物体に対応しないと判定したクラスタを構成する特徴点に関して、前記複数のサイズのうち最小のサイズで再度クラスタリングを行うことがさらに好ましい。
この場合、最大のサイズでのクラスタリングでクラスタを作成できなかった特徴点、または最小のサイズでのクラスタリングでクラスタを作成できなかった特徴点をクラスタリングの繰返しの初期の段階で除外できるので、物体の種類を迅速に特定することができる。
なお、撮影画像から特徴点を抽出し、抽出した特徴点の空間位置を算出する手法の一例としては、ステレオカメラからの2つの撮影画像を取得して、前記2つの撮影画像における特徴点を利用して、特徴点の空間位置を算出することが挙げられる。また、別の例としては、アクティブセンサからの撮影画像を取得すると共に、前記撮影画像に関する空間位置の情報を前記アクティブセンサから取得し、取得した空間位置の情報に基づいて、前記特徴点の空間位置を算出することが挙げられる。
本発明に係る物体認識装置では、前記物体判定手段は、前記クラスタリングにより生成されたクラスタのサイズと、該クラスタに関する存在位置、進行方向、移動速度、および個数の中の少なくとも1つとに基づいて、前記クラスタに対応する物体を判定することが好ましい。
一般に、物体は、物体の種類によって、存在位置、進行方向、移動速度、および個数が規定されることが多い。例えば、搬送機上には、ワークが搬送方向に所定の搬送速度で移動している。また、搬送機が搬送可能な重量には限界があるため、搬送機上に存在するワークの個数にも限度がある。
したがって、上記の場合のように、物体の形状に類似するクラスタのサイズだけでなく、該クラスタに関する存在位置、進行方向、移動速度、および個数の中の少なくとも1つを用いて、クラスタに対応する物体を判定することにより、物体の種類をさらに確実に特定することができる。
なお、クラスタのサイズ、存在位置、進行方向、移動速度、および個数のそれぞれによって、物体判定の確からしさは異なっている。そこで、前記物体判定手段は、前記クラスタのサイズによる物体判定と、前記クラスタに関する存在位置、進行方向、移動速度、および個数の中の少なくとも1つによる物体判定とに対し統計的処理を施すことによって、前記クラスタに対応する物体を判定することがより好ましい。
本発明に係る物体認識装置では、前記物体の表面には、物体を識別可能なマークが施されており、前記物体判定手段は、前記クラスタリングにより生成されたクラスタの空間位置に対応する前記撮影画像の領域から前記マークを抽出し、抽出したマークと、前記クラスタのサイズとに基づいて、前記クラスタに対応する物体を判定してもよい。この場合、クラスタのサイズと、前記マークとを用いてクラスタに対応する物体を判定することにより、物体の種類をさらに確実に特定することができる。なお、上記クラスタの空間位置は、クラスタが占める空間領域でもよいし、クラスタの重心位置でもよい。
本発明に係る物体認識装置では、物体を検知するセンサから検知信号を取得する検知信号取得手段をさらに備えており、前記物体判定手段は、前記クラスタのサイズによる物体の判定と、前記検知信号取得手段による物体の検知とに基づいて、前記クラスタに対応する物体を判定してもよい。
ここで、物体を検知するセンサとしては、物体の温度情報を取得できる赤外線カメラや、物体の荷重を検知できるマットセンサなどが挙げられる。
上記の場合では、クラスタのサイズによる物体の判定と、前記センサによる物体の検知とに基づいて、クラスタに対応する物体を判定するので、物体の種類をさらに確実に特定することができる。
また、前記クラスタリングにより生成されたクラスタの空間位置の履歴情報を記憶する記憶手段と、前記クラスタの空間位置の履歴情報に基づいて、前記クラスタが次に位置する空間領域を推定する推定手段と、前記特徴点抽出手段が抽出した特徴点のうち、前記推定手段が推定した前記クラスタの空間領域に含まれる特徴点を抽出して、前記クラスタに統合するクラスタ統合手段とをさらに備えることが好ましい。この場合、過去のクラスタの空間位置から現在のクラスタの空間領域を推定し、推定した空間領域に含まれる特徴点を予めクラスタに統合するので、これらの特徴点を、クラスタリング処理の対象から除外でき、その結果、クラスタリング処理を迅速化できる。
本発明に係る監視システムは、上記の課題を解決するため、所定領域の監視を行う監視システムであって、前記所定領域の撮影を行う撮影手段と、該撮影手段が撮影した撮影画像から物体を認識する上記構成の物体認識装置とを備えることを特徴としている。
上記の構成によると、所定領域を撮影した撮影画像から物体認識装置が物体を認識できる。したがって、所定領域内に存在する物体を、種類を特定した上で監視することができる。
本発明に係る監視システムでは、前記物体認識装置が認識した物体に基づいて、所定領域に設けられた設備の動作を制御する設備制御手段をさらに備えることが好ましい。ここで、設備の例としては、生産現場における生産設備、警告などを発するアラーム、所定領域に対し進入または退出を行うための自動扉などが挙げられる。上記の場合では、物体認識装置が認識した物体に応じた設備の動作を行うことができる。
特に、上記設備が生産設備であり、認識する物体が作業者である場合には、作業者を認識した場合のみ生産設備を停止し、その他の場合に稼働することにより、生産設備の生産性を維持できる。また、所定領域内に存在する作業者を確実に認識できるので、作業者の安全性を確保できる。
本発明に係る監視システムでは、前記所定領域への物体の進入を検知する進入検知センサをさらに備えており、前記物体認識装置は、前記進入検知センサが前記物体の進入を検知すると、動作を開始することが好ましい。ここで、進入検知センサの例としては、超音波、電波、赤外線などの波動を所定領域の境界付近に出射し、上記波動を物体が遮蔽または反射することにより、物体の存在を検知するセンサが挙げられる。上記の場合では、所定領域内に特定の物体が進入するまで物体認識装置が停止しているので、消費電力を抑えることができる。
本発明に係る物体認識方法は、上記の課題を解決するため、1または複数の物体の画像を含む撮影画像から物体を認識する物体認識方法であって、撮影画像を取得する画像取得ステップと、取得した撮影画像から特徴点を抽出する特徴点抽出ステップと、抽出した特徴点の空間位置を算出する空間位置算出ステップと、算出した特徴点の空間位置に基づいて、前記物体を認識する物体認識ステップとを含んでおり、前記物体認識ステップは、前記算出した特徴点の空間位置に基づいてクラスタリングを行うクラスタリングステップと、該クラスタリングにより生成されたクラスタのサイズに基づいて、該クラスタに対応する物体を判定する物体判定ステップとを含むことを特徴としている。
上記の方法によると、撮影画像を取得し、取得した撮影画像から特徴点を抽出し、抽出した特徴点の空間位置を算出し、算出した特徴点の空間位置に基づいてクラスタリングを行う。これにより、物体の形状に類似するクラスタが生成される。そして、物体のサイズから物体の種類を特定できるので、上記クラスタのサイズから、前記物体の種類を特定することができる。
なお、上記物体認識装置における各手段を、物体認識プログラムによりコンピュータ上で実行させることができる。さらに、上記物体認識プログラムをコンピュータ読取り可能な記録媒体に記憶させることにより、任意のコンピュータ上で上記物体認識プログラムを実行させることができる。
以上のように、本発明に係る物体認識装置は、撮影画像を取得し、取得した撮影画像から特徴点を抽出し、抽出した特徴点の空間位置を算出し、算出した特徴点の空間位置に基づいてクラスタリングを行うことにより、物体の形状に類似するクラスタを生成するので、生成したクラスタのサイズから、前記物体の種類を特定できるという効果を奏する。
〔実施の形態1〕
本発明の一実施形態について図1〜図10を参照しつつ説明する。図2は、本実施形態における監視システム10の概要を示している。図示のように、本実施形態の監視システム10は、自動化機械(生産設備P)を用いて生産を行う生産現場に適用されている。この生産現場では、生産設備Pに所定形状のワークWが搬送機Cにより搬送されている。
図2に示されるように、監視システム10は、生産設備Pの周辺の危険領域Dを俯瞰するように撮影するステレオカメラ(撮像装置、撮影手段)11と、ステレオカメラ11が撮影した撮影画像に基づいて、危険領域D内の作業員Mを認識することにより、危険領域Dに対する作業者Mの存在検知および侵入検知を実行する監視装置(物体認識装置)12とを備える構成である。
図3は、監視システム10におけるステレオカメラ11および監視装置12内の具体的構成を示している。図示のように、ステレオカメラ11は、危険領域の撮影を行う複数台のカメラを備えている。本実施形態では、ステレオカメラ11は、2台のカメラによって構成され、それぞれ「第1画像入力装置13」および「第2画像入力装置14」と称する。第1および第2画像入力装置13・14は、それぞれ、上記撮影により取得した撮影画像信号を監視装置12に送信する。
なお、本実施形態では、撮影画像として、輝度情報のみを有する濃淡画像を利用しているが、輝度情報および色情報を有するカラー画像を利用することもできる。また、第1および第2画像入力装置13・14は、上記撮影に必要な各種パラメータが予め相互に校正されているものとする。
また、図3に示されるように、監視装置12は、PC(Personal Computer)ベースのコンピュータによって構成される。すなわち、監視装置12は、各種機能を実現する制御プログラムの命令を実行するCPU(central processing unit)20、上記プログラムを格納したROM(read only memory)21、上記プログラムを展開するRAM(random access memory)22、上記プログラムおよび各種データを格納するメモリ23、外部から各種情報を受信する受信部24、および外部に各種情報を出力する出力部25を備えている。CPU20、ROM21、RAM22、メモリ23、および出力部25は、バス26を介して相互に接続されている。
本実施形態では、メモリ23は、第1画像入力装置13が撮影した第1入力画像のデータを保存する第1入力画像メモリ30と、第2画像入力装置14が撮影した第2入力画像のデータを保存する第2入力画像メモリ31と、各種の画像のデータを保存する画像保存メモリ32と、特徴点座標を保存するメモリ33と、クラスタ座標を保存するクラスタ座標保存メモリ(記憶手段)34とを含んでいる。
一方、受信部24は、第1および第2画像入力装置13・14からの撮影画像信号をそれぞれ取得してA/D(Analog to Digital)変換するA/D変換回路35・36を含んでいる。A/D変換回路35・36は、変換した撮影画像データを、第1および第2入力画像データとしてそれぞれ第1および第2入力画像メモリ30・31に送信する。
図1は、監視装置12の機能的構成を示している。図示のように、監視装置12は、制御部40、第1入力画像取得部(画像取得手段)41、第2入力画像取得部(画像取得手段)42、および出力部(設備制御手段)25を備える構成である。
制御部40は、監視装置12の各種構成の動作を統括的に制御するものであり、CPU20、ROM21、RAM22、およびメモリ23を備える構成である。なお、制御部40の詳細については後述する。
第1入力画像取得部41は、ステレオカメラ11の第1画像入力装置13が撮影した撮影画像を第1入力画像として取得して保存するものであり、A/D変換回路35および第1入力画像メモリ30を備える構成である。同様に、第2入力画像取得部42は、ステレオカメラ11の第2画像入力装置14が撮影した撮影画像を第2入力画像として取得して保存するものであり、A/D変換回路36および第2入力画像メモリ31を備える構成である。
出力部25は、上述のように、外部に各種情報を出力するものである。出力部25の具体的構成の一例としては、表示出力を行うディスプレイ、音声出力を行うスピーカ、警報を発する警報器、印刷出力を行うプリンタ、外部へ出力信号を送信する送信デバイス、生産設備の稼働および稼働停止を制御する制御デバイスなどが挙げられる。
さらに、出力部25は、制御部40が生成したワーク用出力信号を出力するワーク用出力部43と、制御部40が生成した作業者用出力信号を出力する作業者用出力部44とを備える構成である。
次に、制御部40の詳細について説明する。図1に示されるように、制御部40は、3D(3次元)情報算出部(特徴点抽出手段、空間位置算出手段)50、オブジェクト認識部(物体認識手段)51、および出力信号生成部52を備える構成である。
3D情報算出部50は、第1および第2の入力画像取得部41・42が取得した第1入力画像および第2入力画像を用いて、オブジェクト(物体)の特徴点の空間位置を算出するものである。3D情報算出部50は、算出した空間位置を示す3D情報をオブジェクト認識部51に送信する。
オブジェクト認識部51は、3D情報算出部50から全特徴点の3D情報を取得し、取得した全特徴点の3D情報に基づいてオブジェクトを認識するものである。具体的には、オブジェクト認識部51は、クラスタリング部(クラスタリング手段)54およびサイズ判定部(物体判定手段)55を備える構成である。
クラスタリング部54は、3D情報算出部50から取得した全特徴点の3D情報に基づいて、特徴点のクラスタリング処理を行うものである。また、クラスタリング部54は、上記クラスタリング処理により生成される各クラスタjに関して、高さ・幅などの3Dサイズ情報SOjを算出してクラスタ座標保存メモリ34に記憶する。
サイズ判定部55は、クラスタリング部54が算出した各クラスタjの3Dサイズ情報SOjと所定の判定基準とを比較して、クラスタjに対応するオブジェクトの種類を特定するものである。より詳細には、サイズ判定部55は、各クラスタjの3Dサイズ情報SOjとオブジェクトiのサイズ判定閾値THiとの差が所定値TH以内であるとき、すなわち|SOj−THi|≦THであるとき、クラスタjに対応するオブジェクトの種類が、サイズ判定閾値THiが示すオブジェクトの種類(ワークまたは作業者)であると判定するものである。これにより、オブジェクトの形状に類似するクラスタのサイズから、オブジェクトの種類を特定することができる。
さらに、本実施形態では、クラスタリング部54は、サイズ判定部55がオブジェクトを判定できなかったクラスタを構成する特徴点に対し、クラスタサイズを小さくしてクラスタリング処理を行っている。このように、本実施形態では、クラスタリングおよびサイズ判定を、クラスタサイズを変更して繰り返すことにより、各クラスタに対応するオブジェクトの種類を確実に特定することができる。
出力信号生成部52は、オブジェクト認識部51が認識したオブジェクトに対応する出力信号を生成するものである。より詳細には、出力信号生成部52は、上記クラスタがワークWに対応するとサイズ判定部55が判定した場合、ワーク用出力信号を生成するワーク用出力信号生成部56と、上記クラスタが作業者Mに対応するとサイズ判定部55が判定した場合、作業者用出力信号を生成する作業者用出力信号生成部57とを備える構成である。
ワーク用出力信号生成部56は、生成したワーク用出力信号を出力部25のワーク用出力部43に送信する。一方、作業者用出力信号生成部57は、生成した作業者用出力信号を出力部25の作業者用出力部44に送信する。
例えば、ワーク用出力信号として、生産設備Pの稼働を継続することを指示する信号を出力する一方、作業者用出力信号として、生産設備Pの稼働を停止することを指示する信号を出力する。この場合、ワークWの搬入時でも生産設備Pの稼働を停止することが無いので、生産性が維持される。また、作業者Mが存在する時に生産設備Pの稼働を停止するので、作業員の安全性が確保される。
次に、上記構成の監視装置12の制御部40における処理動作について図4〜図9を参照しつつ説明する。図4は、制御部40の3D情報算出部50における処理動作の流れを示している。
図4に示されるように、3D情報算出部50は、第1入力画像取得部41の第1入力画像メモリ30と、第2入力画像取得部42の第2入力画像メモリ31とからそれぞれ第1入力画像データおよび第2入力画像データを読み出すと、予め設定されたオブジェクト出現領域内を対象に、Harrisオペレータなどのエッジ抽出オペレータによって特徴点を自動的に抽出する(ステップS10。以下、単に「S10」と記載することがある。他のステップについても同様である。)。なお、特徴点を抽出するアルゴリズムはこれに限定されるものではなく、例えばSobelオペレータ、ラプラシアンオペレータなどの公知の手法を用いることもできる。
次に、3D情報算出部50は、第1入力画像の特徴点と、第2入力画像の特徴点との対応付けを行う(S11)。この対応付けには、エピポーラライン上を走査して正規化相関などの一般的な対応づけ手法を用いて行うことができる。
次に、3D情報算出部50は、対応付けた特徴点同士の視差から、特徴点の空間位置を示す3D情報を算出する(S12)。この3D情報は、撮影画像(第1および第2の入力画像)の座標系である撮像素子(CCD)を基準とするCCD中心座標系から、2つのカメラを基準とするカメラ座標系に変換し、さらに、世界座標系に変換されることにより、実際の空間位置を示す情報となる。
図5(a)〜(c)は、それぞれ、CCD中心座標系、カメラ座標系、および世界座標系を示している。同図(a)に示されるCCD中心座標系は、次式(1)を利用することにより、同図(b)に示されるカメラ座標系に変換できる。
Figure 0004830696
同様に、図5(b)に示されるカメラ座標系は、次式(2)を利用することにより、同図(c)に示される世界座標系に変換できる。
Figure 0004830696
そして、3D情報算出部50は、算出した各特徴点の3D情報を特徴点座標保存メモリ33に保存する。
図6は、制御部40における処理動作の流れを示している。また、図7は、図6に示される各種パラメータの意味を示している。図示のように、本実施形態において認識すべきオブジェクトは、オブジェクトID(i)が1であるワークWと、オブジェクトIDが2である作業者Mとの2種類である。また、ワークWのサイズは作業者Mのサイズよりも大きい。このため、本実施形態では、まず、ワークWのサイズでクラスタリングを行って、クラスタがワークWであるか否かを判定し、ワークWではない場合に、作業者Mのサイズでクラスタリングを行って、クラスタが作業者Mであるか否かを判定している。
図6に示されるように、オブジェクト認識部51は、特徴点座標保存メモリ33から各特徴点の3D情報を読み出すと、オブジェクトID(i)およびクラスタID(j)の初期化を行う(S20)。
次に、クラスタリング部54は、全特徴点について、上記特許文献3に記載のように、ユークリッド距離などの特徴点間距離を算出し(S21)、大きい方のクラスタリング閾値であるワークWのクラスタリング閾値TH1を用いたクラスタリング処理を行う(S22)。具体的には、上記特徴点間距離が上記クラスタリング閾値TH1以下である複数の特徴点を、1つのオブジェクトから抽出された特徴点であると仮定して同一クラスタに統合する。
次に、クラスタリング部50は、上記クラスタリング処理により作成されたクラスタの個数Nと、各クラスタの属性とをクラスタ座標保存メモリ34に記憶し(S23)、各クラスタの高さ・幅などの3Dサイズ情報(SOj)(但し、1≦j≦N、かつNは整数である。)を算出してクラスタ座標保存メモリ34に記憶する(S24)。
次に、サイズ判定部55は、各クラスタの3Dサイズ情報(SOj)を読み出し(S25)、3Dサイズ情報(SOj)とサイズ判定閾値(=クラスタリング閾値)(THi)との差が所定範囲(TH)未満であるか否かを判断する(S26)。
上記差が所定範囲未満である場合には(S26にてYES)、上記クラスタのオブジェクトの種類をクラスタリング閾値(THi)が示すオブジェクトの種類(ワークWまたは作業者M)であると判定する。これによりオブジェクトが認識される。そして、サイズ判定部55は、判定したオブジェクトの種類が作業者であるか否かを判断し(S27)、作業者であると判断した場合には(S27にてYES)、作業者用出力信号生成部57が、作業者Mその他を示す出力信号を生成して、作業者用出力部44を介して外部に出力する(S28)。その後、処理動作を終了する。
一方、作業者でないと判断した場合には(S27にてNO)、クラスタID(j)がN以上であるか否かを判断する(S29)。クラスタID(j)がNより小さい場合には(S29にてNO)、調べるべきクラスタが残っているので、クラスタID(j)を増分した後(S30)、ステップS24に戻って上記処理動作を繰り返す。一方、クラスタID(j)がN以上である場合には(S29にてYES)、調べるべきクラスタが残っていないので、全てのクラスタがワークWに対応することになる。したがって、ワーク用出力信号生成部56が、ワークWを示す出力信号を生成して、ワーク用出力部43を介して外部に出力する(S31)。その後、処理動作を終了する。
ステップS26に戻って、クラスタの3Dサイズ情報(SOj)とサイズ判定閾値(=クラスタリング閾値)(THi)との差が所定範囲(TH)以上である場合には(S26にてNO)、当該クラスタは、クラスタリング閾値(THi)に対応するオブジェクトではないと判断して、クラスタ解除を行う(S32)。
次に、クラスタリング部54は、オブジェクトID(i)を増分して、クラスタリングの対象となるオブジェクトを変更する(S33)。次に、クラスタリング部54は、増分したオブジェクトID(i)が、オブジェクトの種類の数M以下であるか否かを判断する(S34)。オブジェクトの種類の数Mよりも多い場合には(S34にてNO)、オブジェクト認識部51は、対象としているオブジェクト以外のオブジェクトが存在すると判断して、作業者用出力信号生成部57が、作業者Mその他を示す出力信号を生成して、作業者用出力部44を介して外部に出力する(S28)。その後、処理動作を終了する。
一方、オブジェクトID(i)がオブジェクトの種類の数M以下である場合には(S34にてYES)、オブジェクト認識部51は、クラスタリングすべきオブジェクトが存在するので、オブジェクトID(i)のクラスタリング閾値THiを用いたクラスタリング(部分クラスタリング)を行う(S35)。その後、ステップS24に戻って上記処理動作を繰り返す。
図8は、クラスタリング部54が行うクラスタリング処理を示している。図示のように、まず、最長距離法によるクラスタリングを行う(S40)。次に、クラスタの年齢を更新し(S41)、クラスタ間の距離行列を作成する(S42)。そして、クラスタを統合して(S43)、各種リストを更新する(S44)。その後、クラスタリング処理を終了する。
図9は、クラスタリング部54が行うクラスタリング処理をさらに詳細に示している。図示において、iは特徴点の番号を示しており、nは特徴点の数を示している。まず、初期設定を行う(S50)。次に、或る特徴点について以下の処理を行い、これを全ての特徴点に関して行う(S51)。
すなわち、まず、該当特徴点と前回のクラスタの組合せとに関して、最小距離と該当クラスタ番号とを求める(S52)。次に、最小距離が閾値よりも小さいか否かを判断し(S53)、最小距離が閾値以上である場合には(S53にてNO)、次の特徴点に移る(S57)。
一方、最小距離が閾値よりも小さい場合には(S53にてYES)、該当特徴点が未だクラスタに対応付けられていないかどうかを判断する(S54)。対応付けられていない場合には(S54にてYES)、クラスタの番号と特徴点の番号とをリンクすることにより、該当特徴点をクラスタに対応付ける(S55)。一方、対応付けられている場合には(S54にてNO)、クラスタとの距離を最小値に設定する(S56)。ステップS55またはステップS56の処理の後に、次の特徴点に移る(S57)。
図10(a)〜(f)は、危険領域Dに1個のワークAと作業者Mとが存在する場合に、監視装置12が行う処理を具体的に示すものである。同図(a)に示されるように、まず、第1および第2入力画像取得部41・42にて撮影画像を取得する。
次に、図10(b)に示されるように、3D情報算出部50が、取得した撮影画像から特徴点を抽出し、3D情報を算出する。次に、同図(c)に示されるように、クラスタリング部54が、ワークAのサイズでクラスタリングを行う。これにより、2つのクラスタが生成される。
次に、図10(d)に示されるように、クラスタリング部54が、各クラスタの3Dサイズ(幅、高さ、および奥行き)を取得し、サイズ判定部55が、各クラスタがワークであるか否かを判定基準に基づいて判定する。
例えば、図10(d)に示されるように、クラスタ1は、高さが175cm、幅が50cm、かつ奥行きが50cmであり、クラスタ2は、高さが170cm、幅が170cm、かつ奥行きが170cmであるとする。そして、ワークの判定基準は、高さが165cm〜175cm、幅が165cm〜175cm、かつ奥行きが165cm〜175cmであるとする。この場合、サイズ判定部55は、クラスタ1がワークAではないと判定し、クラスタ2がワークAであると判定する。
次に、クラスタリング部54は部分クラスタリングを行う。すなわち、図10(e)に示されるように、ワークAではないと判定されたクラスタ1の特徴点に対し、クラスタを解除して、作業者Mのサイズで再度クラスタリングを行う。これにより新たなクラスタ3が生成される。
次に、図10(f)に示されるように、クラスタリング部54が、クラスタ3の3Dサイズ(幅、高さ、および奥行き)を取得し、サイズ判定部55が、クラスタ3が作業者Mであるか否かを判定基準に基づいて判定する。
例えば、図10(f)に示されるように、クラスタ3は、高さが175cm、幅が50cm、かつ奥行きが50cmであるとする。そして、作業者Mの判定基準は、高さが165cm〜175cm、幅が45cm〜55cm、かつ奥行きが45cm〜55cmであるとする。この場合、サイズ判定部55は、クラスタ3が作業者Mであると判定する。
そして、サイズ判定部55の判定結果に作業者Mが含まれる場合には、作業者用出力信号生成部57は、作業者用出力信号として危険信号を生成して出力する。一方、上記判定結果に作業者Mが含まれない場合には、ワーク用出力信号生成部56は、ワーク用出力信号として安全確認信号を生成して出力する。
〔実施の形態2〕
次に、本発明の別の実施形態について、図11〜図13を参照しつつ説明する。本実施形態の監視システムは、図1〜図10に示される監視システム10に比べて、ワークWよりも作業者Mの方がサイズが大きい点が異なり、その他の構成は同様である。なお、上記実施形態で説明した構成と同様の構成には同一の符号を付して、その説明を省略する。
図11は、図6に示される各種パラメータの意味を示している。図示のように、本実施形態において認識すべきオブジェクトは、オブジェクトID(i)が1である作業者Mと、オブジェクトIDが2であるワークWとの2種類である。また、作業者MのサイズがワークWのサイズよりも大きいので、本実施形態では、まず、作業者Mのサイズでクラスタリングを行って、クラスタが作業者Mであるか否かを判定し、作業者Mではない場合に、ワークWのサイズでクラスタリングを行って、クラスタがワークWであるか否かを判定している。
図12(a)〜(d)は、危険領域Dに1個のワークBと作業者Mとが存在する場合に、監視装置12が行う処理を具体的に示すものである。また、図13(a)〜(c)は、危険領域Dに作業者Mが存在せず、1個のワークBのみが存在する場合に、監視装置12が行う処理を具体的に示すものである。
まず、図12(a)に示されるように、第1および第2入力画像取得部41・42にて撮影画像を取得する。次に、図12(b)に示されるように、3D情報算出部50が、取得した撮影画像から特徴点を抽出し、3D情報を算出する。次に、同図(c)に示されるように、クラスタリング部54が、作業者Mのサイズでクラスタリングを行う。これにより、2つのクラスタが生成される。
次に、図12(d)に示されるように、クラスタリング部54が、各クラスタの3Dサイズを取得し、サイズ判定部55が、各クラスタが作業者であるか否かを判定基準に基づいて判定する。
例えば、図12(d)に示されるように、クラスタ1は、高さが175cm、幅が50cm、かつ奥行きが50cmであり、クラスタ2は、高さが30cm、幅が30cm、かつ奥行きが30cmであるとする。そして、作業者の判定基準は、高さが150cm〜180cm、幅が30cm〜80cm、かつ奥行きが30cm〜80cmであるとする。この場合、サイズ判定部55は、クラスタ1が作業者Mであると判定し、クラスタ2が作業者Mではないと判定する。サイズ判定部55の判定結果に作業者Mが含まれるので、作業者用出力信号生成部57は、作業者用出力信号として危険信号を生成して出力する。
なお、図13(a)に示されるように、危険領域Dに作業者Mが存在せず、1個のワークBのみが存在する場合、上記判定結果に作業者Mが含まれないので、クラスタリング部54は、クラスタを解除して、同図(b)に示されるように、ワークBのサイズで再度クラスタリングを行う。これにより、新たなクラスタ1が生成される。
次に、図13(c)に示されるように、クラスタリング部54が、クラスタ1の3Dサイズを取得し、サイズ判定部55が、クラスタ1がワークBであるか否かを判定基準に基づいて判定する。
例えば、図13(c)に示されるように、クラスタ1は、高さが30cm、幅が30cm、かつ奥行きが30cmであるとする。そして、ワークBの判定基準は、高さが25cm〜35cm、幅が25cm〜35cm、かつ奥行きが25cm〜35cmであるとする。この場合、サイズ判定部55は、クラスタ1がワークBであると判定する。以上より、サイズ判定部55は、判定結果に作業者Mが含まれず、ワークBが含まれるので、ワーク用出力信号生成部56は、ワーク用出力信号として安全確認信号を生成して出力する。
したがって、本実施形態でも、上記実施形態と同様に、オブジェクトの形状に類似するクラスタのサイズから、オブジェクトの種類を特定することができる。また、オブジェクトのサイズごとにクラスタリングを繰り返すことになるので、各クラスタに対応するオブジェクトの種類を確実に特定することができる。
〔実施の形態3〕
次に、本発明の別の実施形態について、図14〜図17を参照しつつ説明する。本実施形態の監視システムは、図1〜図10に示される監視システム10に比べて、認識すべきオブジェクト数が異なり、その他の構成は同様である。なお、上記実施形態で説明した構成と同様の構成には同一の符号を付して、その説明を省略する。
図14および図15は、制御部40における処理動作の流れを示している。また、図16は、図14および図15に示される各種パラメータの意味を示している。図示のように、本実施形態において認識すべきオブジェクトは、オブジェクトID(i)が1であるワークAと、オブジェクトIDが2である作業者Mと、オブジェクトIDが3であるワークBとの3種類である。また、ワークAのサイズは作業者Mのサイズよりも大きく、作業者MのサイズはワークBのサイズよりも大きい。
このため、本実施形態では、まず、ワークAのサイズでクラスタリングを行って、クラスタがワークAであるか否かを判定し、ワークAではない場合に、作業者Mのサイズでクラスタリングを行って、クラスタが作業者Mであるか否かを判定し、作業者Mではない場合に、ワークBのサイズでクラスタリングを行って、クラスタがワークBであるか否かを判定している。
具体的には、図14および図15に示されるように、まず、クラスタリング部54は、特徴点座標保存メモリ33から各特徴点の3D情報を読み出して、上記特許文献3に記載のように、ユークリッド距離などの特徴点間距離を算出し、最も大きいクラスタリング閾値であるワークAの上限のクラスタリング閾値TH1maxを用いたクラスタリング処理を行う(S60)。具体的には、上記特徴点間距離が上記クラスタリング閾値TH1max以下である複数の特徴点を、1つのオブジェクトから抽出された特徴点であると仮定して同一クラスタに統合する。
次に、クラスタリング部50は、上記クラスタリング処理により作成された各クラスタの高さ・幅などの3Dサイズ情報を求める(S61)。次に、或るクラスタに関して、サイズ判定部55は、上記クラスタの3Dサイズ情報が、ワークAのサイズ判定閾値(=クラスタリング閾値)の上限値TH1maxおよび下限値TH1min(図16参照)の間に含まれるか否か、すなわちワークAのサイズ判定閾値の範囲内であるか否かを判断する(S62)。
上記クラスタの3Dサイズ情報が、ワークAのサイズ判定閾値の範囲内である場合には(S62にてYES)、サイズ判定部55は、上記クラスタのオブジェクトをワークAであると判定して、ワーク用出力信号生成部56がワークA出力信号を生成して出力する(S63)する。これによりオブジェクトが認識される。その後、ステップS75に進む。
一方、上記クラスタの3Dサイズ情報が、ワークAのサイズ判定閾値の範囲外である場合には(S62にてNO)、サイズ判定部55は、さらに、上記クラスタの3Dサイズ情報が、ワークAのサイズ判定閾値の上限値TH1maxよりも小さいか否かを判断する(S64)。上記クラスタの3Dサイズ情報が、ワークAのサイズ判定閾値の上限値TH1max以上である場合には、サイズ判定部55は、上記クラスタが、ワークAよりも大きいオブジェクト、すなわち、ワークA、作業者、およびワークBの何れよりも大きいオブジェクトであると判断して、出力信号生成部52は、その他の出力信号を生成する(S65)。その後、ステップS75に進む。
一方、上記クラスタの3Dサイズ情報が、ワークAのサイズ判定閾値の上限値TH1maxよりも小さい場合には、クラスタリング部54は、上記クラスタを構成する特徴点に関して、最も小さいクラスタリング閾値であるワークBの上限のクラスタリング閾値TH2maxを用いて、上述のようにクラスタリング処理を行う(S66)。次に、クラスタリング部50は、上記クラスタリング処理により作成された各クラスタの高さ・幅などの3Dサイズ情報を求める(S67)。
次に、或るクラスタに関して、サイズ判定部55は、上記クラスタの3Dサイズ情報が、ワークBのサイズ判定閾値(=クラスタリング閾値)の上限値TH2maxおよび下限値TH2min(図16参照)の間に含まれるか否か、すなわちワークBのサイズ判定閾値の範囲内であるか否かを判断する(S68)。
上記クラスタの3Dサイズ情報が、ワークBのサイズ判定閾値の範囲内である場合には(S68にてYES)、サイズ判定部55は、上記クラスタのオブジェクトをワークBであると判定して、ワーク用出力信号生成部56がワークB出力信号を生成して出力する(S69)。これによりオブジェクトが認識される。その後、ステップS75に進む。
一方、上記クラスタの3Dサイズ情報が、ワークBのサイズ判定閾値の範囲外である場合には(S68にてNO)、サイズ判定部55は、さらに、上記クラスタの3Dサイズ情報が、ワークBのサイズ判定閾値の下限値TH1minよりも大きいか否かを判断する(S70)。上記クラスタの3Dサイズ情報が、ワークBのサイズ判定閾値の下限値TH2min以下である場合には(S70にてNO)、サイズ判定部55は、ワークBよりも小さいオブジェクト、すなわち、ワークA、作業者、およびワークBの何れよりも小さいオブジェクトであると判断して、出力信号生成部52は、その他の出力信号を生成する(S65)。その後、ステップS75に進む。
一方、上記クラスタの3Dサイズ情報が、ワークBのサイズ判定閾値の下限値TH2minよりも大きい場合には(S70にてYES)、クラスタリング部54は、上記クラスタを構成する特徴点に関して、中間のクラスタリング閾値である作業者Mの上限のクラスタリング閾値TH3maxを用いて、上述のようにクラスタリング処理を行う(S71)。次に、クラスタリング部50は、上記クラスタリング処理により作成された各クラスタの高さ・幅などの3Dサイズ情報を求める(S72)。
次に、或るクラスタに関して、サイズ判定部55は、上記クラスタの3Dサイズ情報が、作業者Mのサイズ判定閾値(=クラスタリング閾値)の上限値TH3maxおよび下限値TH3min(図16参照)の間に含まれるか否か、すなわち作業者Mのサイズ判定閾値の範囲内であるか否かを判断する(S73)。
上記クラスタの3Dサイズ情報が、作業者Mのサイズ判定閾値の範囲内である場合には(S73にてYES)、サイズ判定部55は、上記クラスタのオブジェクトを作業者Mであると判定して、作業者用出力信号生成部57が作業者出力信号を生成して出力する(S74)。これによりオブジェクトが認識される。その後、ステップS75に進む。
一方、上記クラスタの3Dサイズ情報が、作業者Mのサイズ判定閾値の範囲外である場合には(S73にてNO)、オブジェクトの認識ができなかったとして、出力信号生成部52は、その他の出力信号を生成する(S65)。その後、ステップS75に進む。
ステップS75において、ワークAに関してステップS60により生成されたクラスタの全てが上記判定処理(S62〜S74)を行うまで繰り返す。同様に、ワークBに関してステップS66により生成されたクラスタの全てが上記判定処理(S65・S68〜S74)を行うまで繰り返す(S76)。さらに、作業者Mに関してステップS71により生成されたクラスタの全てが上記判定処理(S65・S73・S74)を行うまで繰り返す(S77)。その後、処理動作を終了する。
図17(a)〜(h)は、危険領域Dに1個のワークAと1個のワークBと1人の作業者Mとが存在する場合に、監視装置12が行う処理を具体的に示すものである。同図(a)に示されるように、まず、第1および第2入力画像取得部41・42にて撮影画像を取得する。
次に、図17(b)に示されるように、3D情報算出部50は、取得した撮影画像から特徴点を抽出し、3D情報を算出する。次に、同図(c)に示されるように、クラスタリング部54は、ワークAのサイズでクラスタリングを行う。これにより、2つのクラスタ1・2が生成される。
次に、図17(d)に示されるように、クラスタリング部54は、クラスタ1・2の3Dサイズ(幅、高さ、および奥行き)を取得する。次に、サイズ判定部55は、クラスタ1がワークAであるか否かを判定基準に基づいて判定する。図示の場合、サイズ判定部55は、クラスタ1がワークAではないと判定するので、クラスタリング部54は、同図(e)に示されるように、クラスタ1を構成する特徴点に対して、ワークBのサイズでクラスタリングを行う。これにより、2つのクラスタ3・4が生成される。
次に、クラスタリング部54は、クラスタ3・4の3Dサイズ(幅、高さ、および奥行き)を取得する。次に、サイズ判定部55は、クラスタ3がワークBであるか否かを判定基準に基づいて判定する。図示の場合、サイズ判定部55は、クラスタ3がワークBであると判定する。
同様に、サイズ判定部55は、クラスタ4がワークBであるか否かを判定基準に基づいて判定する。図示の場合、サイズ判定部55は、クラスタ4がワークAであると判定するので、クラスタリング部54は、クラスタ4を構成する特徴点に対して、作業者Mのサイズでクラスタリングを行う。これにより、1つのクラスタ4’が生成される。次に、クラスタリング部54は、クラスタ4’の3Dサイズ(幅、高さ、および奥行き)を取得し、サイズ判定部55は、クラスタ4’が作業者Mであるか否かを判定基準に基づいて判定する。図示の場合、サイズ判定部55は、クラスタ4’が作業者Mであると判定する。
したがって、オブジェクト認識部51は、図17(f)に示されるように、クラスタ3をワークBとして認識し、クラスタ4’を作業者Mとして認識する。
次に、サイズ判定部55は、図17(g)に示されるように、クラスタ2がワークAであるか否かを判定基準に基づいて判定する。図示の場合、サイズ判定部55は、クラスタ2がワークAであると判定する。
以上より、オブジェクト認識部51は、図17(h)に示されるように、クラスタ2をワークAとして認識し、クラスタ3をワークBとして認識し、クラスタ4’を作業者Mとして認識して、出力信号生成部52は、それぞれのオブジェクトに対応する出力信号を出力する。
したがって、本実施形態では、まず、特定すべきオブジェクトのうち、最大サイズのオブジェクトに関して、該オブジェクトのサイズに対応するクラスタサイズでクラスタリングを行った後、上記オブジェクトのサイズに対応するサイズ基準でクラスタのサイズ判定を行っている。次に、特定すべきオブジェクトのうち、最小サイズのオブジェクトに関して、同様にクラスタリングおよびサイズ判定を行っている。これにより、特定すべき物体のサイズ範囲を逸脱するサイズのクラスタを取得した場合に、直ちに異常を報せることができる。
〔実施の形態4〕
次に、本発明のさらに別の実施形態について、図18および図19を参照しつつ説明する。本実施形態の監視システムは、図1〜図10に示される監視システム10に比べて、或るクラスタがワークであるかを判定する判定条件に、クラスタの存在位置を追加する点が異なり、その他の構成は同様である。なお、上記実施形態で説明した構成と同様の構成には同一の符号を付して、その説明を省略する。
上記の実施形態では、或るクラスタがワークであるか否かを判定する判定条件として、クラスタの3Dサイズを利用している。しかしながら、ワークと作業者との3Dサイズが類似している場合、上記3Dサイズによる判定結果が確実とは言い難い場合がある。
一方、ワークは、通常、生産現場において所定の領域内を移動している。例えば、図2に示される例では、ワークWは、搬送機C上を移動している。このため、ワークWは、存在位置が搬送機C上に限定されることになる。そこで、本実施形態では、上記判定条件として、クラスタの3Dサイズとともに、クラスタの存在位置を利用している。
図18は、本実施形態の監視システム10における制御部40の概略構成を示している。本実施形態の制御部40は、図1に示される制御部40に比べて、クラスタの重心位置が所定の範囲内に存在するか否かを判定する位置判定部(物体判定手段)60を、オブジェクト認識部51に含む点が異なり、その他の構成は同様である。この位置判定部60は、サイズ判定部55と出力信号生成部52との間に設けられている。
位置判定部60は、サイズ判定部55がワークと判定したクラスタの重心位置を算出し、算出した重心位置が、ワークが通常移動する領域に含まれるか否かを判断し、含まれる場合に上記クラスタをワークと判定し、含まれない場合に上記クラスタをワーク以外(例えば作業者)と判定するものである。
図19は、図6に示される制御部40の処理動作に対し、本実施形態において追加される処理動作を示している。本実施形態では、サイズ判定部55は、判定したオブジェクトの種類が作業者ではないと判断した場合には(S27にてNO)、位置判定部60は、判定したオブジェクトの種類に対応するクラスタの重心位置を算出する(S80)。次に、位置判定部60は、算出した重心位置が、ワークが通常移動する領域に含まれるか否か、すなわち、ワークの存在範囲内にあるか否かを判断する(S81)。
ワークの存在範囲内にある場合には(S81にてYES)、上記クラスタがワークであると判断して、ステップS29に進む。一方、ワークの存在範囲外にある場合には(S81にてNO)、上記クラスタがワークではなく、作業者であると判断して、ステップS28に進む。
したがって、本実施形態の監視システム10では、クラスタのサイズと、クラスタの存在位置とに基づいてオブジェクトの種類を判定するので、オブジェクトのさらに確実な判定結果を得ることができる。
なお、位置情報としては、危険領域Dを含む検知空間における絶対的な3D情報でもよいし、或るオブジェクトを基準とする相対的な3D情報でもよい。
また、ワークが通常移動する領域には、作業者が入ることができない場合が考えられる。そこで、位置判定部60は、サイズ判定部55が作業者と判定したクラスタの重心位置を算出し、算出した重心位置が、ワークが通常移動する領域に含まれるか否かを判断し、含まれる場合に上記クラスタを作業者以外と判定し、含まれない場合に上記クラスタを作業者と判定することもできる。
〔実施の形態5〕
次に、本発明のさらに別の実施形態について、図20および図21を参照しつつ説明する。本実施形態の監視システムは、図18および図19に示される監視システム10に比べて、或るクラスタがワークであるかを判定する判定条件に、クラスタの存在位置の代わりに、クラスタの移動速度を利用する点が異なり、その他の構成は同様である。なお、上記実施形態で説明した構成と同様の構成には同一の符号を付して、その説明を省略する。
通常、ワークは、生産現場において所定の速度範囲で移動している。例えば、図2に示される例では、ワークWの速度は、搬送機Cの搬送速度となる。そこで、本実施形態では、上記判定条件として、クラスタの3Dサイズとともに、クラスタの速度を利用している。
図20は、本実施形態の監視システム10における制御部40の概略構成を示している。本実施形態における制御部40は、図18に示される制御部40に比べて、位置判定部60の代わりに、クラスタの重心位置の移動速度が所定の範囲内であるか否かを判定する速度判定部(物体判定手段)61を、オブジェクト認識部51に含む点が異なり、その他の構成は同様である。この速度判定部61は、サイズ判定部55と出力信号生成部52との間に設けられている。
具体的には、速度判定部61は、サイズ判定部55がワークと判定したクラスタの重心位置を算出してクラスタ座標保存メモリ34に保存する。また、速度判定部61は、上記クラスタに対応する前回のクラスタを3Dサイズ等によって特定し、特定した前回のクラスタの重心位置をクラスタ座標保存メモリ34から読み出す。
次に、速度判定部61は、算出した重心位置と読み出した重心位置とに基づいてクラスタの移動距離を算出し、前回の画像を取得した時刻と今回の画像を取得した時刻との期間を用いて、クラスタの移動速度を算出する。そして、速度判定部61は、算出したクラスタの移動速度が、ワークが通常移動する移動速度の範囲内に含まれるか否かを判断し、含まれる場合に上記クラスタをワークと判定し、含まれない場合に上記クラスタをワーク以外と判定する。
図21は、図6に示される制御部40の処理動作に対し、本実施形態において追加される処理動作を示している。図示のように、本実施形態では、サイズ判定部55は、判定したオブジェクトの種類が作業者ではないと判断した場合には(S27にてNO)、速度判定部61は、判定したオブジェクトの種類に対応するクラスタの重心位置を算出する(S80)。次に、速度判定部61は、上述のように、上記クラスタの移動距離を算出して(S82)、上記クラスタの移動速度を算出し、算出した移動速度が、ワークが通常移動する移動速度の範囲内に含まれるか否かを判断する(S83)。
ワークの移動速度の範囲内にある場合には(S83にてYES)、上記クラスタがワークであると判断して、ステップS29に進む。一方、ワークの移動速度の範囲外にある場合には(S83にてNO)、上記クラスタがワークではなく、作業者であると判断して、ステップS28に進む。
したがって、本実施形態の監視システム10では、クラスタのサイズと、クラスタの移動速度とに基づいてオブジェクトの種類を判定するので、オブジェクトのさらに確実な判定結果を得ることができる。
〔実施の形態6〕
次に、本発明のさらに別の実施形態について、図22および図23を参照しつつ説明する。本実施形態の監視システムは、図18および図19に示される監視システム10に比べて、或るクラスタがワークであるかを判定する判定条件に、クラスタの存在位置の代わりに、クラスタの進行方向を追加する点が異なり、その他の構成は同様である。なお、上記実施形態で説明した構成と同様の構成には同一の符号を付して、その説明を省略する。
通常、ワークは、生産現場において所定の軌跡で搬送される。例えば、図2に示される例では、ワークWの進行方向は、搬送機Cの搬送方向となる。そこで、本実施形態では、上記判定条件として、クラスタの3Dサイズとともに、クラスタの進行方向を利用している。
図22は、本実施形態の監視システム10における制御部40の概略構成を示している。本実施形態における制御部40は、図18に示される制御部40に比べて、位置判定部60の代わりに、クラスタの重心位置の進行方向が所定の範囲内であるか否かを判定する進行方向判定部(物体判定手段)62を、オブジェクト認識部51に含む点が異なり、その他の構成は同様である。この進行方向判定部62は、サイズ判定部55と出力信号生成部52との間に設けられている。
具体的には、進行方向判定部62は、サイズ判定部55がワークと判定したクラスタの重心位置を算出してクラスタ座標保存メモリ34に保存する。また、進行方向判定部62は、上記クラスタに対応する前回のクラスタを3Dサイズ等によって特定し、特定した前回のクラスタの重心位置をクラスタ座標保存メモリ34から読み出す。
次に、進行方向判定部62は、算出した重心位置と読み出した重心位置とに基づいてクラスタの進行方向を算出する。そして、進行方向判定部62は、算出したクラスタの進行方向が、ワークが通常移動する進行方向の範囲内に含まれるか否かを判断し、含まれる場合に上記クラスタをワークと判定し、含まれない場合に上記クラスタをワーク以外と判定する。
図23は、図6に示される制御部40の処理動作に対し、本実施形態において追加される処理動作を示している。図示のように、本実施形態では、サイズ判定部55は、判定したオブジェクトの種類が作業者ではないと判断した場合には(S27にてNO)、進行方向判定部62は、判定したオブジェクトの種類に対応するクラスタの重心位置を算出する(S80)。次に、進行方向判定部62は、上述のように、上記クラスタの進行方向を算出し(S84)、算出した進行方向が、ワークが通常移動する進行方向の範囲内に含まれるか否かを判断する(S85)。
ワークの進行方向の範囲内にある場合には(S85にてYES)、上記クラスタがワークであると判断して、ステップS29に進む。一方、ワークの進行方向の範囲外にある場合には(S85にてNO)、上記クラスタがワークではなく、作業者であると判断して、ステップS28に進む。
したがって、本実施形態の監視システム10では、クラスタのサイズと、クラスタの進行方向とに基づいてオブジェクトの種類を判定するので、オブジェクトのさらに確実な判定結果を得ることができる。
〔実施の形態7〕
次に、本発明のさらに別の実施形態について、図24および図25を参照しつつ説明する。本実施形態の監視システムは、図18および図19に示される監視システム10に比べて、或るクラスタがワークであるかを判定する判定条件に、クラスタの存在位置の代わりに、クラスタの個数を利用する点が異なり、その他の構成は同様である。なお、上記実施形態で説明した構成と同様の構成には同一の符号を付して、その説明を省略する。
通常、ワークは、生産現場において、ワークを搬送する搬送機の搬送容量(単位時間当たりの個数もしくは、単位面積当たりの個数)が限定される。例えば、図2に示される例では、危険領域D内にあるワークWの個数は4個である。そこで、本実施形態では、上記判定条件として、クラスタの3Dサイズとともに、クラスタの個数を利用している。
図24は、本実施形態の監視システム10における制御部40の概略構成を示している。本実施形態における制御部40は、図18に示される制御部40に比べて、位置判定部60の代わりに、クラスタの個数が所定の範囲内であるか否かを判定する個数判定部(物体判定手段)63を、オブジェクト認識部51に含む点が異なり、その他の構成は同様である。この個数判定部63は、サイズ判定部55と出力信号生成部52との間に設けられている。
具体的には、個数判定部63は、サイズ判定部55がワークと判定したクラスタの重心位置を算出し、上記クラスタの個数を算出する。次に、個数判定部63は、算出した個数が、ワークが危険領域D内に通常存在する個数の範囲内に含まれるか否かを判断し、含まれる場合に上記クラスタをワークと判定し、含まれない場合に上記クラスタをワーク以外と判定する。
図25は、図6に示される制御部40の処理動作に対し、本実施形態において追加される処理動作を示している。図示のように、本実施形態では、サイズ判定部55は、判定したオブジェクトの種類が作業者ではないと判断した場合には(S27にてNO)、個数判定部63は、上述のように、判定したオブジェクトの種類に対応するクラスタの個数を算出する(S86)。次に、個数判定部63は、算出した個数が、ワークが危険領域D内に通常存在する個数(規定値)の範囲内に含まれるか否かを判断する(S87)。
上記個数の範囲内にある場合には(S87にてYES)、上記クラスタがワークであると判断して、ステップS29に進む。一方、上記個数の範囲外にある場合には(S87にてNO)、ワークが所定数では無い異常状態と判断して、作業者Mを検知したときと同様に、ステップS28に進む。
したがって、本実施形態の監視システム10では、クラスタのサイズと、クラスタの個数とに基づいてオブジェクトの種類を判定するので、オブジェクトのさらに確実な判定結果を得ることができる。
〔実施の形態8〕
次に、本発明のさらに別の実施形態について、図26および図27を参照しつつ説明する。本実施形態の監視システム10は、上述の実施形態に記載された判定条件を組み合わせて統計的処理を行うことにより、或るクラスタがワークであるかを判定している。なお、上記実施形態で説明した構成と同様の構成には同一の符号を付して、その説明を省略する。
図26は、本実施形態の監視システム10における制御部40の概略構成を示している。本実施形態における制御部40は、図1に示される制御部40に比べて、組合せ判定部(物体判定手段)64および統計的判定処理部(物体判定手段)65を、オブジェクト認識部51に含む点が異なり、その他の構成は同様である。これらの組合せ判定部64および統計的判定処理部65は、サイズ判定部55から出力信号生成部52までの間に順番に設けられている。
組合せ判定部64は、図18に示される位置判定部60、図20に示される速度判定部61、図22に示される進行方向判定部62、および図24に示される個数判定部63を含むものである。すなわち、組合せ判定部64は、サイズ判定部55がワークと判定したクラスタに関して、クラスタの存在位置、移動速度、進行方向、および個数から、上記クラスタがワークであるか否かをそれぞれ判定するものである。組合せ判定部64は、各判定結果を統計的判定処理部65に通知する。
統計的判定処理部65は、組合せ判定部64の各判定結果に対し、統計的処理を施すことにより、上記クラスタがワークであるかの判定を行うものである。具体的には、統計的判定処理部65は、次式(3)の評価関数を用いて演算することにより、上記判定を行っている。
f=αs×fs+αp×fp+αv×fv+αd×fd+αn×fn ・・・(3)
ここで、fxは、各判定結果を示している。また、αxは、各判定結果の重み係数であり、各判定処理の判定信頼度を表現している。また、添字s・p・v・d・nは、それぞれ、サイズ判定、存在位置判定、速度判定、進行方向判定、および個数判定を示すものである。なお、判定信頼度は、システム設計者などによって設定可能である。
図27は、図6に示される制御部40の処理動作に対し、本実施形態において追加される処理動作を示している。図示のように、本実施形態では、サイズ判定部55は、判定したオブジェクトの種類が作業者ではないと判断した場合には(S27にてNO)、組合せ判定部64は、上述のように、判定したオブジェクトの種類に対応するクラスタの重心位置を算出する(S80)。次に、組合せ判定部64は、図19に示されるような存在位置の判定処理S81と、図21に示されるような移動速度の判定処理S82・S83と、図23に示されるような進行方向の判定処理S84・S85と、図25に示されるような存在個数の判定処理S86・S87とを行って、それぞれの判定結果を取得する。
次に、統計的判定処理部65は、組合せ判定部64が取得した各判定結果を上式(3)の評価関数に代入して算出し、その算出結果を最終的な判定結果とする(S88)。そして、上記クラスタがワークであるという判定結果の場合には(S88にてYES)、ステップS29に進む。一方、上記クラスタがワークではないという判定結果の場合には(S88にてNO)、上記クラスタが作業者であると判断して、ステップS28に進む。
したがって、本実施形態の監視システム10では、種々の判定結果を利用するので、多種多様な環境下においても、クラスタがワークであるかを判定することが可能である。すなわち、よりロバストな判定が可能である。
〔実施の形態9〕
次に、本発明のさらに別の実施形態について、図28および図29を参照しつつ説明する。本実施形態の監視システム10は、図18および図19に示される監視システム10に比べて、或るクラスタがワークであるかを判定する判定条件に、クラスタの存在位置の代わりに、クラスタの2D(2次元)情報を追加する点が異なり、その他の構成は同様である。なお、上記実施形態で説明した構成と同様の構成には同一の符号を付して、その説明を省略する。
上記実施形態では、3D情報の中にワークを判定する基準となる特徴が存在する場合を想定しているが、上記特徴が存在しない場合も考えられる。この場合、上記実施形態ではワークの判定が困難となる。そこで、本実施形態では、オブジェクトの種類を識別可能な2Dマークを、ワークの表面の所定位置に予め施しておき、2D画像の中から上記2Dマークを抽出して認識することにより、ワークであるかを判定することができる。
図28は、本実施形態の監視システム10における制御部40の概略構成を示している。本実施形態における制御部40は、図18に示される制御部40に比べて、位置判定部60の代わりに、2D画像情報からワークを判定する2D情報判定部(物体判定手段)66を、オブジェクト認識部51に含む点が異なり、その他の構成は同様である。この2D情報判定部66は、サイズ判定部55と出力信号生成部52との間に設けられている。
具体的には、2D情報判定部66は、サイズ判定部55がオブジェクトの種類を特定できなかったクラスタの重心位置を算出する。次に、2D情報判定部66は、算出したクラスタの重心位置が、画像中の所定領域(図2に示される例では、搬送機C上においてワークが搬送される領域)にあり、かつ、画像中の上記クラスタに2Dマークが含まれるか否かを判断し、含まれる場合に上記クラスタをワークと判定し、含まれない場合に上記クラスタをワーク以外と判定する。
なお、上記画像は、2D画像でよいから、第1入力画像取得部41が取得した第1入力画像、および第2入力画像取得部42が取得した第2入力画像の何れか一方でよい。
図29は、図6に示される制御部40の処理動作に対し、本実施形態において追加される処理動作を示している。図示のように、本実施形態では、サイズ判定部55は、判定したオブジェクトの種類が作業者ではないと判断した場合には(S27にてNO)、2D情報判定部66は、判定したオブジェクトの種類に対応するクラスタの重心位置を算出する(S80)。
次に、2D情報判定部66は、算出した重心位置が、2Dマークの読取位置、すなわち2Dマークの施されたワークが移動する領域に存在するか否かを判断する(S90)。ワークが移動する領域に存在しない場合には(S90にてNO)、上記クラスタがワークではなく、作業者であると判断して、ステップS28に進む。
一方、ワークが移動する領域に存在する場合には(S90にてYES)、2D情報判定部66は、2D画像における上記領域から2Dマークを抽出して(S91)、認識する(S92)。この2Dマークの認識は、一般的なテンプレートマッチング技法を用いることにより実現できる。
そして、2D情報判定部66は、認識した2Dマークが規定のマークであるか否かを判断し(S93)、規定のマークである場合には(S93にてYES)、上記クラスタがワークであると判断して、ステップS29に進む。一方、規定のマークでは無い場合には(S93にてNO)、上記クラスタがワークではなく、作業者であると判断して、ステップS28に進む。
したがって、本実施形態の監視システム10では、3D情報にワーク判定の基準となる特徴的な情報が存在しない場合でも、2D情報からワークを判定することができる。
〔実施の形態10〕
次に、本発明のさらに別の実施形態について、図30〜図33を参照しつつ説明する。本実施形態の監視システム10は、図1〜図10に示される監視システム10に比べて、クラスタの追跡を行う点が異なり、その他の構成は同様である。なお、上記実施形態で説明した構成と同様の構成には同一の符号を付して、その説明を省略する。
図30は、本実施形態の監視システム10における制御部40の概略構成を示している。本実施形態における制御部40は、図1に示される制御部40に比べて、クラスタの追跡を行う追跡処理部(推定手段、クラスタ統合手段)67をオブジェクト認識部51に含む点が異なり、その他の構成は同様である。この追跡処理部67は、クラスタリング部54と通信している。
追跡処理部67は、クラスタリング部54が上述のクラスタリング処理を行った後に、1または全てのクラスタに関する3D情報およびクラスタIDをクラスタ履歴情報としてクラスタ座標保存メモリ34に記憶する。また、追跡処理部67は、クラスタ座標保存メモリ34に記憶した過去の複数のフレームにおける上記クラスタ履歴情報を用いて、クラスタの移動量を算出し、これにより、現在のフレームにおけるクラスタの存在位置を推定する。そして、追跡処理部67は、推定したクラスタの存在位置に出現する現在のフレームの特徴点を、クラスタリング部54がクラスタリング処理を行う前に統合する。
図31は、本実施形態における制御部40の処理動作の流れを示している。本実施形態における制御部40処理動作は、図6に示される制御部40の処理動作に比べて、追跡処理部67における処理動作が追加されている点が異なり、その他の処理動作は同様である。
図31に示されるように、追跡処理部67は、クラスタIDごとに、クラスタ座標保存メモリ34から3D情報を読み出して移動量を算出する(S94)。次に、追跡処理部67は、次のフレームにおけるクラスタの出現位置を推定する(S95)。次に、追跡処理部67は、推定した出現位置のクラスタのクラスタリング対象となる特徴点を特徴点座標保存メモリ33から読み出して抽出する(S96)。次に、追跡処理部67は、抽出した特徴点を追跡クラスタとして事前に統合し(S97)、追跡クラスタの3D情報と、追跡クラスタを構成する特徴点の情報とをクラスタリング部54に通知する。
したがって、本実施形態の監視システム10では、クラスタの過去の移動履歴から現在のクラスタの存在位置を推定するため、クラスタを精度良く特定でき、クラスタに対応するオブジェクトの種類を精度良く特定できる。また、推定したクラスタの存在位置に出現する特徴点を、クラスタリング部54がクラスタリング処理を行う前に統合するので、ユークリッド距離の算出など、クラスタリング処理にて実行される演算を軽減することができ、処理の高速化が可能になる。
図32および図33は、上記追跡処理を具体的に示すものである。図32(a)に示されるように、まず、第1および第2入力画像取得部41・42にて、時刻tにおける撮影画像を取得する。
次に、3D情報算出部50が、取得した撮影画像から特徴点を抽出して、3D情報を算出し、図32(b)に示されるように、クラスタリング部54が、クラスタリングの対象領域にある特徴点に対してクラスタリングを行う。このときのクラスタリングの対象領域は、通常の広い領域である。クラスタリングの結果、同図(c)に示されるようなクラスタが生成され、生成されたクラスタの3D情報および重心位置がクラスタ座標保存メモリ34に記憶される。
次に、図33(a)に示されるように、第1および第2入力画像取得部41・42にて、時刻t+1における撮影画像を取得する。次に、3D情報算出部50が、取得した撮影画像から特徴点を抽出して、3D情報を算出する。
次に、追跡処理部67が、時刻tにおけるクラスタの3D情報および重心位置をクラスタ座標保存メモリ34から読み出して、時刻t+1におけるクラスタの出現領域を推定する。これにより、図33(b)に示されるように、クラスタリングの対象領域を限定することができる。
そして、クラスタリング部54が上記クラスタリングの対象領域においてクラスタリングを行うことにより、図33(c)に示されるようなクラスタが生成され、生成されたクラスタの3D情報および重心位置がクラスタ座標保存メモリ34に記憶される。
クラスタ座標保存メモリ34に記憶された時刻tにおけるクラスタの重心位置と時刻t+1におけるクラスタの重心位置とを用いて、クラスタの移動量を算出できる。したがって、追跡処理部67が、算出した移動量を利用することにより、次回のクラスタの出現領域を精度良く推定できる。
〔実施の形態11〕
次に、本発明のさらに別の実施形態について、図34を参照しつつ説明する。本実施形態の監視システム10は、図1〜図10に示される監視システム10に比べて、ステレオカメラの代わりにアクティブセンサを利用する点が異なり、その他の構成は同様である。なお、上記実施形態で説明した構成と同様の構成には同一の符号を付して、その説明を省略する。アクティブセンサは、所定のパターンを有する光線をオブジェクトに照射し、オブジェクトを撮影して、オブジェクトの2D撮影画像を取得することにより、オブジェクトの3D情報を算出するものである。
図34は、本実施形態の監視システム10の概略構成を示している。本実施形態の監視システム10は、図1に示される監視システム10に比べて、ステレオカメラ11の代わりにアクティブセンサ(撮影手段)70を利用している。
アクティブセンサ70は、投光機71、画像入力装置72、および3D情報算出部73を備える構成である。投光機71は、所定のパターンを有する光線をオブジェクトに照射するものである。
画像入力装置72は、所定のパターンが照射されたオブジェクトを撮影して、オブジェクトの2D撮影画像を取得するものである。画像入力装置72は、取得した2D撮影画像の情報を3D情報算出部73に送信する。
3D情報算出部73は、画像入力装置72から取得した2D撮影画像を用いて、オブジェクトの3D情報を算出するものである。3D情報算出部73は、算出した3D情報をクラスタリング部54に送信する。なお、クラスタリング部54から下流側の構成は図1に示される構成と同様である。
したがって、本実施形態の監視システム10のように、ステレオカメラ11の代わりにアクティブセンサ70を利用することができる。この場合、アクティブセンサ70がオブジェクトの3D情報を算出するので、監視装置12は、図1に示されるような第1入力画像取得部41、第2入力画像取得部42、および3D情報算出部50を省略できる。
〔実施の形態12〕
次に、本発明のさらに別の実施形態について、図35〜図37を参照しつつ説明する。本実施形態の監視システム10は、図1〜図10に示される監視システム10に比べて、或るクラスタがワークであるかを判定する判定条件に、他センサからの検知信号を追加する点が異なり、その他の構成は同様である。なお、上記実施形態で説明した構成と同様の構成には同一の符号を付して、その説明を省略する。
図35は、本実施形態における監視システム10の概要を示している。本実施形態の監視システム10は、図2に示される監視システム10に比べて、赤外線カメラ(物体検知センサ)75が追加されている点が異なり、その他の構成は同様である。赤外線カメラ75は、ステレオカメラ11が撮影する領域、すなわちオブジェクトの検知領域を俯瞰するように設置される。赤外線カメラ75は、上記検知領域を撮影し、撮影した赤外線画像の情報を監視装置12に送信する。
図36は、監視装置12の要部の概略構成を示している。本実施形態の監視装置12は、図1に示される監視装置12に比べて、赤外線画像取得部(検知信号取得手段)76をさらに備える点と、他センサ判定部77(物体判定手段)をオブジェクト認識部51に含む点が異なり、その他の構成は同様である。この他センサ判定部77は、サイズ判定部55と出力信号生成部52との間に設けられている。
赤外線画像取得部76は、赤外線カメラ75から赤外線画像を取得するものである。赤外線画像取得部76は、取得した赤外線画像の情報を他センサ判定部77に送信する。
他センサ判定部77は、赤外線画像取得部76から受信した赤外線画像を用いて、各クラスタの温度を求め、求めた温度に基づいてオブジェクトの種類を判定するものである。例えば、或るクラスタの温度が36℃付近であれば、他センサ判定部77は、当該クラスタが作業者であると判定できる。
図37は、図6に示される制御部40の処理動作に対し、本実施形態において追加される処理動作を示している。本実施形態では、サイズ判定部55は、判定したオブジェクトの種類が作業者ではないと判断した場合には(S27にてNO)、他センサ判定部77は、判定したオブジェクトの種類に対応するクラスタの重心位置を算出する(S80)。
次に、他センサ判定部77は、赤外線画像取得部76が取得した赤外線画像から、各クラスタの重心位置における領域を抽出することにより、各クラスタの測定温度を求める(S100)。次に、各クラスタの測定温度が所定の温度範囲(人体の体温の範囲)内であるか否かを判断する(S101)。
所定の温度範囲内である場合には(S101にてYES)、上記クラスタが作業者であると判断して、ステップS28に進む。一方、所定の温度範囲外である場合には(S101にてNO)、上記クラスタがワークであると判断して、ステップS29に進む。
したがって、本実施形態の監視システム10では、クラスタのサイズと、クラスタの測定温度とに基づいてオブジェクトの種類を判定するので、オブジェクトのさらに確実な判定結果を得ることができる。
〔実施の形態13〕
次に、本発明のさらに別の実施形態について、図38を参照しつつ説明する。本実施形態の監視システム10は、図1〜図10に示される監視システム10に比べて、検知領域にオブジェクトが進入すると、監視動作を開始する点が異なり、その他の構成は同様である。なお、上記実施形態で説明した構成と同様の構成には同一の符号を付して、その説明を省略する。
図38は、本実施形態における監視システム10の概要を示している。本実施形態の監視システム10は、図2に示される監視システム10に比べて、検知領域にオブジェクトが進入したことを検知する進入検知センサ80を、検知領域の境界に設ける点が異なり、その他の構成は同様である。
進入検知センサ80としては、超音波、電波、赤外線などの波動を境界付近に出射し、上記波動をオブジェクトが遮蔽または反射することにより、オブジェクトの存在を検知するものが利用される。進入検知センサ80は、オブジェクトの進入を検知すると、監視装置12に通知する。これにより、監視装置12は、ステレオカメラ11の撮影を開始させ、監視装置12内の各種構成の動作を開始させることにより、監視動作を開始する。
したがって、本実施形態の監視システム10では、検知領域にオブジェクトが存在しない場合には、監視動作を停止しているので、無駄な処理動作を回避できる。
〔実施の形態14〕
次に、本発明のさらに別の実施形態について、図39を参照しつつ説明する。図39は、本実施形態における監視システム10の概要を示している。本実施形態の監視システム10は、図2に示される監視システム10に比べて、オブジェクトの存在を検知するマットセンサ(物体検知センサ)81が設けられている点が異なり、その他の構成は同様である。なお、上記実施形態で説明した構成と同様の構成には同一の符号を付して、その説明を省略する。
ステレオカメラ(撮像装置)11が撮影を行う場合、図39に示されるように、オブジェクトaの裏側は死角となり、オブジェクトaの裏側に存在するオブジェクトbを認識することができない。そこで、本実施形態では、監視装置12は、ステレオカメラ11からの撮影画像に死角領域が存在する場合には、上記撮影画像を用いたオブジェクトの認識とともに、マットセンサ81によるオブジェクトの検知結果を利用している。これにより、ステレオカメラ11の撮影において死角となる領域でもオブジェクトを認識して安全性を確保することができる。
〔実施の形態15〕
次に、本発明の他の実施形態について、図40を参照しつつ説明する。本実施形態の監視システム10は、図1〜図10に示される監視システム10の応用例を示している。なお、上記実施形態で説明した構成と同様の構成には同一の符号を付して、その説明を省略する。
図40は、本実施形態における監視システム10の概要を示している。本実施形態の監視システム10は、図2に示される監視システム10に比べて、検知領域の周囲に壁が設けられ、一部の壁が開設されて自動扉82が設けられている。
監視装置12は、自動扉82付近で作業者(ヒト)を認識する場合に自動扉82を動作させ、その他の場合に自動扉82の動作を停止するように制御している。これにより、自動扉82付近で、ヒト以外のワークや小動物が存在しても、自動扉82が開閉することを防止できる。
なお、監視装置12は、自動扉82付近でワークを認識する場合に自動扉82を動作させ、その他の場合に自動扉82の動作を停止するように制御することもできる。この場合、自動扉82から出ていくものをワークのみに限定することができる。これは、ワークが生産現場から、例えば滅菌室のようなヒトや小動物が進入することが好ましくない部屋に運搬される場合などに好適である。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
最後に、校正装置13の各ブロック、特に制御部16は、ハードウェアロジックによって構成してもよいし、次のようにCPUを用いてソフトウェアによって実現してもよい。
すなわち、校正装置13は、各機能を実現する制御プログラムの命令を実行するCPU(central processing unit)、上記プログラムを格納したROM(read only memory)、上記プログラムを展開するRAM(random access memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアである校正装置13の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、校正装置13に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。
上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD/CD−R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などを用いることができる。
また、校正装置13を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。
本発明は、撮影画像の特徴点からクラスタを作成して物体を特定するだけでなく、物体の空間位置を特定できるので、物体の追跡を行う監視システムにも適用可能である。
本発明の一実施形態である監視システムにおける監視装置の概略構成を示すブロック図である。 上記監視システムの概要を示す斜視図である。 監視システムにおけるステレオカメラおよび監視装置内の具体的構成を示すブロック図である。 上記監視装置の制御部の3D情報算出部における処理動作の流れを示すフローチャートである。 上記3D情報算出部で利用される座標系を示す図であり、同図(a)はCCD中心座標系を示しており、同図(b)はカメラ座標系を示しており、同図(c)は世界座標系を示している。 上記制御部における処理動作の流れを示すフローチャートである。 図6に示される各種パラメータの意味を表形式で示す図である。 上記制御部のクラスタリング部における処理動作の流れを示すフローチャートである。 上記クラスタリング部における処理動作の流れをさらに詳細に示すフローチャートである。 同図(a)〜(f)は、1個のワークと1人の作業者とが危険領域に存在する場合に、上記監視装置が行う処理を具体的に示す図である。 本発明の別の実施形態である監視システムにおいて、図6に示される各種パラメータの意味を表形式で示す図である。 同図(a)〜(d)は、1個のワークと1人の作業者とが危険領域に存在する場合に、上記監視システムの監視装置が行う処理を具体的に示す図である。 同図(a)〜(c)は、1個のワークのみが危険領域に存在する場合に、上記監視装置が行う処理を具体的に示す図である。 本発明のさらに別の実施形態である監視システムの監視装置の制御部における処理動作の流れを示すフローチャートである。 上記制御部における処理動作の流れを示すフローチャートである。 図14および図15に示される各種パラメータの意味を表形式で示す図である。 同図(a)〜(h)は、2個のワークと1人の作業者とが危険領域に存在する場合に、監視装置12が行う処理を具体的に示す図である。 本発明のさらに別の実施形態である監視システムの監視装置における制御部の概略構成を示すブロック図である。 上記制御部の処理動作を示すフローチャートであり、図6に示される処理動作に追加される処理動作を示している。 本発明のさらに別の実施形態である監視システムの監視装置における制御部の概略構成を示すブロック図である。 上記制御部の処理動作を示すフローチャートであり、図6に示される処理動作に追加される処理動作を示している。 本発明のさらに別の実施形態である監視システムの監視装置における制御部の概略構成を示すブロック図である。 上記制御部の処理動作を示すフローチャートであり、図6に示される処理動作に追加される処理動作を示している。 本発明のさらに別の実施形態である監視システムの監視装置における制御部の概略構成を示すブロック図である。 上記制御部の処理動作を示すフローチャートであり、図6に示される処理動作に追加される処理動作を示している。 本発明のさらに別の実施形態である監視システムの監視装置における制御部の概略構成を示すブロック図である。 上記制御部の処理動作を示すフローチャートであり、図6に示される処理動作に追加される処理動作を示している。 本発明のさらに別の実施形態である監視システムの監視装置における制御部の概略構成を示すブロック図である。 上記制御部の処理動作を示すフローチャートであり、図6に示される処理動作に追加される処理動作を示している。 本発明のさらに別の実施形態である監視システムの監視装置における制御部の概略構成を示すブロック図である。 上記制御部の処理動作を示すフローチャートである。 同図(a)〜(c)は、上記制御部における追跡処理部が行う処理を具体的に示す図である。 同図(a)〜(c)は、上記追跡処理部が行う処理を具体的に示す図である。 本発明のさらに別の実施形態である監視システムの概略構成を示すブロック図である。 本発明のさらに別の実施形態である監視システムの概要を示す斜視図である。 上記監視システムにおける監視装置の要部の概略構成を示すブロック図である。 上記監視装置の制御部の処理動作を示すフローチャートであり、図6に示される処理動作に追加される処理動作を示している。 本発明のさらに別の実施形態である監視システムの概要を示す斜視図である。 本発明のさらに別の実施形態である監視システムの概要を示す斜視図である。 本発明の他の実施形態である監視システムの概要を示す斜視図である。
符号の説明
10 監視システム
11 ステレオカメラ(撮影手段)
12 監視装置(物体認識装置)
25 出力部(設備制御手段)
34 クラスタ座標保存メモリ(記憶手段)
41 第1入力画像取得部(画像取得手段)
42 第2入力画像取得部(画像取得手段)
50 3D情報算出部(特徴点抽出手段、空間位置算出手段)
51 オブジェクト認識部(物体認識手段)
54 クラスタリング部(クラスタリング手段)
55 サイズ判定部(物体判定手段)
60 位置判定部(物体判定手段)
61 速度判定部(物体判定手段)
62 進行方向判定部(物体判定手段)
63 個数判定部(物体判定手段)
64 組合せ判定部(物体判定手段)
65 統計的判定処理部(物体判定手段)
66 2D情報判定部(物体判定手段)
67 追跡処理部(推定手段、クラスタ統合手段)
70 アクティブセンサ(撮影手段)
75 赤外線カメラ(物体検知センサ)
76 赤外線画像取得部(検知信号取得手段)
77 他センサ判定部(物体判定手段)
80 進入検知センサ
81 マットセンサ(物体検知センサ)

Claims (14)

  1. 所定領域における1または複数の物体の画像を含む撮影画像から物体を認識する物体認識装置であって、
    撮影画像を取得する画像取得手段と、
    取得した撮影画像からエッジ抽出オペレータによって特徴点を抽出する特徴点抽出手段と、
    抽出した特徴点の空間位置を算出する空間位置算出手段と、
    算出した特徴点の空間位置に基づいて、前記物体を認識する物体認識手段とを備えており、
    前記物体認識手段は、前記算出した特徴点の空間位置に基づいてクラスタリングを行うクラスタリング手段と、
    該クラスタリングにより生成されたクラスタのサイズに基づいて、該クラスタに対応する物体が人か否かを判定する物体判定手段と、
    前記物体判定手段により判定された物体に応じて、前記所定領域に配置された外部機器の稼動状態を制御する稼動制御手段と、を備え、
    前記クラスタリング手段は、前記特徴点抽出手段により抽出された複数の特徴点のうち、前記空間位置算出手段により算出された前記複数の特徴点それぞれの空間位置間の特徴点間距離が或る物体に対して定められたクラスタリング閾値以下である特徴点を同一のクラスタとして統合するクラスタリングを行い、
    前記物体判定手段は、前記クラスタが前記或る物体に対応するか否かを判定し、
    前記クラスタリング手段は、前記物体判定手段が前記或る物体に対応しないと判定したクラスタを構成する特徴点に関して、別の物体に対して定められたクラスタリング閾値で再度クラスタリングを行い、
    前記或る物体および前記別の物体のいずれかは人であることを特徴とする物体認識装置。
  2. 前記クラスタリング手段は、
    認識すべき複数の物体に対応する複数のサイズのうち、最大のサイズでクラスタリングを行い、
    前記物体判定手段が前記物体に対応しないと判定したクラスタを構成する特徴点に関して、前記複数のサイズのうち最小のサイズで再度クラスタリングを行うことを特徴とする請求項に記載の物体認識装置。
  3. 前記画像取得手段は、ステレオカメラからの2つの撮影画像を取得しており、
    前記空間位置算出手段は、前記2つの撮影画像における特徴点を利用して、特徴点の空間位置を算出することを特徴とする請求項1に記載の物体認識装置。
  4. 前記画像取得手段は、アクティブセンサからの撮影画像を取得しており、
    前記空間位置算出手段は、前記撮影画像に関する空間位置の情報を前記アクティブセンサから取得し、取得した空間位置の情報に基づいて、前記特徴点の空間位置を算出することを特徴とする請求項1に記載の物体認識装置。
  5. 前記物体判定手段は、前記クラスタリングにより生成されたクラスタのサイズと、該クラスタに関する存在位置、進行方向、移動速度、および個数の中の少なくとも1つとに基づいて、前記クラスタに対応する物体を判定することを特徴とする請求項1に記載の物体認識装置。
  6. 前記物体判定手段は、前記クラスタのサイズによる物体判定と、前記クラスタに関する存在位置、進行方向、移動速度、および個数の中の少なくとも1つによる物体判定とに対し統計的処理を施すことによって、前記クラスタに対応する物体を判定することを特徴とする請求項に記載の物体認識装置。
  7. 前記物体の表面には、物体を識別可能なマークが施されており、
    前記物体判定手段は、前記クラスタリングにより生成されたクラスタの空間位置に対応する前記撮影画像の領域から前記マークを抽出し、抽出したマークと、前記クラスタのサイズとに基づいて、前記クラスタに対応する物体を判定することを特徴とする請求項1に記載の物体認識装置。
  8. 物体を検知するセンサから検知信号を取得する検知信号取得手段をさらに備えており、
    前記物体判定手段は、前記クラスタのサイズによる物体の判定と、前記検知信号取得手段による物体の検知とに基づいて、前記クラスタに対応する物体を判定することを特徴とする請求項1に記載の物体認識装置。
  9. 前記クラスタリングにより生成されたクラスタの空間位置の履歴情報を記憶する記憶手段と、
    前記クラスタの空間位置の履歴情報に基づいて、前記クラスタが次に位置する空間領域を推定する推定手段と、
    前記特徴点抽出手段が抽出した特徴点のうち、前記推定手段が推定した前記クラスタの空間領域に含まれる特徴点を抽出して、前記クラスタに統合するクラスタ統合手段とをさらに備えることを特徴とする請求項1に記載の物体認識装置。
  10. 前記所定領域の監視を行う監視システムであって、
    前記所定領域の撮影を行う撮影手段と、
    該撮影手段が撮影した撮影画像から物体を認識する請求項1ないしの何れか1項に記載の物体認識装置とを備えることを特徴とする監視システム。
  11. 前記所定領域への物体の進入を検知する進入検知センサをさらに備えており、
    前記物体認識装置は、前記進入検知センサが前記物体の進入を検知すると、動作を開始することを特徴とする請求項10に記載の監視システム。
  12. 所定領域における1または複数の物体の画像を含む撮影画像から物体を認識する物体認識方法であって、
    撮影画像を取得する画像取得ステップと、
    取得した撮影画像からエッジ抽出オペレータによって特徴点を抽出する特徴点抽出ステップと、
    抽出した特徴点の空間位置を算出する空間位置算出ステップと、
    算出した特徴点の空間位置に基づいて、前記物体を認識する物体認識ステップとを含んでおり、
    前記物体認識ステップは、前記算出した特徴点の空間位置に基づいてクラスタリングを行うクラスタリングステップと、
    該クラスタリングにより生成されたクラスタのサイズに基づいて、該クラスタに対応する物体が人か否か判定する物体判定ステップと、
    前記判定された物体に応じて、前記所定領域に配置された外部機器の稼動状態を制御するステップと、を含み、
    前記クラスタリングステップは、前記特徴点抽出ステップにより抽出された複数の特徴点のうち、前記空間位置算出ステップにより算出された前記複数の特徴点それぞれの空間位置間の特徴点間距離が或る物体に対して定められたクラスタリング閾値以下である特徴点を同一のクラスタとして統合するクラスタリングを行い、
    前記物体判定ステップは、前記クラスタが前記或る物体に対応するか否かを判定し、
    前記クラスタリングステップは、前記物体判定ステップが前記或る物体に対応しないと判定したクラスタを構成する特徴点に関して、別の物体に対して定められたクラスタリング閾値で再度クラスタリングを行い、
    前記或る物体および前記別の物体のいずれかは人であることを特徴とする物体認識方法。
  13. 請求項1ないしの何れか1項に記載の物体認識装置を動作させるための物体認識プログラムであって、コンピュータを上記各手段として機能させるための物体認識プログラム。
  14. 請求項13に記載の物体認識プログラムが記録されたコンピュータ読取り可能な記録媒体。
JP2006209009A 2006-07-31 2006-07-31 物体認識装置、監視システム、物体認識方法、物体認識プログラム、および該プログラムを記録した記録媒体 Active JP4830696B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006209009A JP4830696B2 (ja) 2006-07-31 2006-07-31 物体認識装置、監視システム、物体認識方法、物体認識プログラム、および該プログラムを記録した記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006209009A JP4830696B2 (ja) 2006-07-31 2006-07-31 物体認識装置、監視システム、物体認識方法、物体認識プログラム、および該プログラムを記録した記録媒体

Publications (2)

Publication Number Publication Date
JP2008033819A JP2008033819A (ja) 2008-02-14
JP4830696B2 true JP4830696B2 (ja) 2011-12-07

Family

ID=39123132

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006209009A Active JP4830696B2 (ja) 2006-07-31 2006-07-31 物体認識装置、監視システム、物体認識方法、物体認識プログラム、および該プログラムを記録した記録媒体

Country Status (1)

Country Link
JP (1) JP4830696B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101764071B1 (ko) 2015-12-16 2017-08-01 파나소닉 아이피 매니지먼트 가부시키가이샤 사람 검지 시스템

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2426633A4 (en) 2009-09-30 2015-01-21 Rakuten Inc SYSTEM FOR RECOMMENDING AN ARTICLE NOT PRESENT IN AN IMAGE
JP5226651B2 (ja) * 2009-12-07 2013-07-03 日本電信電話株式会社 類似画像検索装置,類似画像検索方法および類似画像検索プログラム
JP2013141049A (ja) * 2010-03-24 2013-07-18 Hitachi Ltd 世界座標系データベースを利用したサーバ及び端末
ES2460946T3 (es) * 2010-03-31 2014-05-16 Omron Scientific Technologies, Inc. Método y aparato para generar textura en una escena tridimensional
DE102012102236A1 (de) * 2012-03-16 2013-09-19 Pilz Gmbh & Co. Kg Verfahren und Vorrichtung zum Absichern eines gefährlichen Arbeitsbereichs einer automatisiert arbeitenden Maschine
US9300954B2 (en) 2012-09-21 2016-03-29 Tadano Ltd. Surrounding information-obtaining device for working vehicle
DE102013106514B3 (de) * 2013-06-21 2014-10-30 Pilz Gmbh & Co. Kg Vorrichtung und Verfahren zum Absichern einer automatisiert arbeitenden Maschine
CN104517275A (zh) * 2013-09-27 2015-04-15 株式会社理光 对象检测方法和系统
US10528961B2 (en) * 2014-08-20 2020-01-07 Virtual Moving Technologies System and method for estimating a move using object measurements
JP6679349B2 (ja) * 2016-03-08 2020-04-15 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2018126818A (ja) * 2017-02-07 2018-08-16 トヨタ自動車株式会社 ロボット制御装置
JP6416980B1 (ja) 2017-05-17 2018-10-31 ファナック株式会社 監視領域を分割した空間領域を監視する監視装置
JP6955081B2 (ja) * 2017-07-20 2021-10-27 トヨタ モーター ヨーロッパ オブジェクト姿勢を決定するための電子デバイス、システムおよび方法
DE102017218917A1 (de) * 2017-10-24 2019-04-25 Robert Bosch Gmbh Überwachungsvorrichtung, Industrieanlage, Verfahren zur Überwachung sowie Computerprogramm
JP7095455B2 (ja) * 2018-07-24 2022-07-05 トヨタ自動車株式会社 情報処理装置および情報処理方法
JP7081526B2 (ja) * 2019-02-22 2022-06-07 株式会社豊田自動織機 物体検出装置
US10917302B2 (en) 2019-06-11 2021-02-09 Cisco Technology, Inc. Learning robust and accurate rules for device classification from clusters of devices
CN111126317B (zh) * 2019-12-26 2023-06-23 腾讯科技(深圳)有限公司 一种图像处理方法、装置、服务器及存储介质
EP4398196A1 (en) 2021-08-31 2024-07-10 Sony Group Corporation Information processing device, information processing method, and program

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0550390A (ja) * 1991-08-20 1993-03-02 Tokico Ltd 作業機システム
JPH05265547A (ja) * 1992-03-23 1993-10-15 Fuji Heavy Ind Ltd 車輌用車外監視装置
JPH08110948A (ja) * 1994-10-11 1996-04-30 Omron Corp 色判定装置または色判定方法
JPH10255046A (ja) * 1997-03-07 1998-09-25 Hitachi Ltd 物体識別装置および方法
JPH1166319A (ja) * 1997-08-21 1999-03-09 Omron Corp 移動体検出方法及び装置並びに移動体認識方法及び装置並びに人間検出方法及び装置
JPH11259641A (ja) * 1998-03-12 1999-09-24 Omron Corp 物体観測方法およびその方法を用いた物体観測装置ならびに車輌観測装置
JP3755343B2 (ja) * 1999-06-30 2006-03-15 オムロン株式会社 歩行者観測装置、およびその装置を用いた歩行者認識システム、扉開閉制御システムならびに建造物
US6297844B1 (en) * 1999-11-24 2001-10-02 Cognex Corporation Video safety curtain
JP2002027449A (ja) * 2000-07-10 2002-01-25 Fujitsu Ltd 移動物体識別方法および移動物体識別装置
JP2002222423A (ja) * 2001-01-25 2002-08-09 Fujitsu Ltd 物体認識方法および装置
JP4254066B2 (ja) * 2001-02-28 2009-04-15 コニカミノルタホールディングス株式会社 画像形成方法
JP2002358585A (ja) * 2001-06-04 2002-12-13 Koichi Otani 外部侵入者・内部不正監視システム、及び外部侵入者・内部不正監視プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101764071B1 (ko) 2015-12-16 2017-08-01 파나소닉 아이피 매니지먼트 가부시키가이샤 사람 검지 시스템

Also Published As

Publication number Publication date
JP2008033819A (ja) 2008-02-14

Similar Documents

Publication Publication Date Title
JP4830696B2 (ja) 物体認識装置、監視システム、物体認識方法、物体認識プログラム、および該プログラムを記録した記録媒体
EP3363602B1 (en) Monitoring system, monitoring device, and monitoring method
CA3094424C (en) Safety monitoring and early-warning method for man-machine interaction behavior of underground conveyor belt operator
EP3434626B1 (en) Projection instruction device, parcel sorting system, and projection instruction method
JP6558387B2 (ja) 画像解析装置、画像解析方法、及び画像解析プログラム
CN102257529B (zh) 判断人的设备、方法
US20190019296A1 (en) Unattended object monitoring device, unattended object monitoring system equipped with same, and unattended object monitoring method
EP3434621B1 (en) Instruction projecting device, parcel sorting system and instruction projecting method
JP2019164842A (ja) 人体行動分析方法、人体行動分析装置、機器及びコンピュータ可読記憶媒体
US10957067B2 (en) Control apparatus, object detection system, object detection method and program
EP3434622A1 (en) Instruction projecting device, package sorting system and instruction projecting method
JP2012059030A (ja) 距離画像カメラを用いた人体識別方法および人体識別装置
WO2021065413A1 (ja) 物体認識装置、物体認識システムおよび物体認識方法
EP3434623B1 (en) Projection indicator, cargo assortment system, and projection indicating method
US12026225B2 (en) Monitoring camera, part association method and program
JP2016224547A (ja) 画像処理装置、画像処理システム及び画像処理方法
JP5647459B2 (ja) 移動物体検出装置
KR101454644B1 (ko) 보행자 추적기를 이용한 서성거림을 탐지하는 방법
CN118379800B (zh) 遮挡条件下的人体跌倒检测方法、装置、设备及存储介质
JP6504180B2 (ja) 異常検出装置、異常検出方法および異常検出プログラム
CN113615166B (zh) 事故检测装置及事故检测方法
JP2021163401A (ja) 人物検知システム、人物検知プログラム、学習済みモデル生成プログラム及び学習済みモデル
EP3434625A1 (en) Projection instruction device, parcel sorting system, and projection instruction method
KR20230099225A (ko) 영상 내 건설 작업자의 안전 상태를 모니터링하는 장치 및 이의 동작 방법
Thirde et al. Evaluation of object tracking for aircraft activity surveillance

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090511

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110823

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110905

R150 Certificate of patent or registration of utility model

Ref document number: 4830696

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140930

Year of fee payment: 3

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D04