JP6544044B2 - 画像処理装置、画像処理システム及び画像処理方法 - Google Patents

画像処理装置、画像処理システム及び画像処理方法 Download PDF

Info

Publication number
JP6544044B2
JP6544044B2 JP2015107721A JP2015107721A JP6544044B2 JP 6544044 B2 JP6544044 B2 JP 6544044B2 JP 2015107721 A JP2015107721 A JP 2015107721A JP 2015107721 A JP2015107721 A JP 2015107721A JP 6544044 B2 JP6544044 B2 JP 6544044B2
Authority
JP
Japan
Prior art keywords
image processing
camera
robot arm
normal operation
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015107721A
Other languages
English (en)
Other versions
JP2016224547A (ja
Inventor
亮介 笠原
亮介 笠原
潤 岸和田
潤 岸和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2015107721A priority Critical patent/JP6544044B2/ja
Publication of JP2016224547A publication Critical patent/JP2016224547A/ja
Application granted granted Critical
Publication of JP6544044B2 publication Critical patent/JP6544044B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置、画像処理システム及び画像処理方法に関する。
従来、ロボット等の可動する装置と作業員等の人間とが同じ作業空間で同時に作業を行ういわゆる協調動作において、人間の安全を確保する方法が知られている。
具体的には、協調動作において、光電センサ又は光追尾センサ等によって、作業員が安全柵に設けられる窓を通過するのを検出して、ロボットを停止、減速又は回避させる方法が知られている(例えば、特許文献1等)。
また、用途別に複数のセンサを用いないで、作業員とロボットとが接近する状況となると、作業員が携帯する携帯装置からの人体通信によって、ロボットを停止又は減速させる方法が知られている(例えば、特許文献2等)。
上述のように、様々なロボットに対する人の安全性を確保する方法が存在するが、人とロボットとの関係性も様々な場合があり、人に対する安全を高めることは常に求められている。
本発明では、人に対する安全を高めることができる画像処理装置を提供することを目的とする。
一態様における、第1物体及び前記第1物体の周辺を撮像する画像処理装置は、前記画像処理装置に入力される画像データに基づいて前記第1物体の異常動作を検出する検出部と、前記検出によって前記異常動作が検出されると、前記第1物体の状態、前記第1物体の周辺に係る状態、前記第1物体の周辺にある第2物体の状態若しくは種類又は前記第1物体の正常動作の種類のうち、いずれかを含む環境状況に基づいて、前記異常動作の通知又は前記第1物体の制御を行う処理部と、前記画像データに基づいて特徴量を算出する特徴量算出部と、前記環境状況として前記第1物体の周辺に係る状態又は前記正常動作の種類を取得する取得部とを含み、前記検出部は、前記特徴量のうち、前記第1物体の動作が所定の正常動作である場合の特徴量によって生成される学習データに基づいて、前記正常動作を検出し、前記第1物体が可動機械であって、前記処理部は、前記正常動作の種類に基づいて、重み係数を算出し、前記重み係数に基づいて前記通知又は前記制御のいずれかを行うかを決定し、前記環境状況に前記正常動作の種類が含まれ、前記正常動作の種類が、前記可動機械が所定の動線上を繰り返し移動する動作であるか、前記可動機械が決定した動線上を動く動作であるかによって、前記処理部は、前記重み係数を算出する
本発明の各実施形態によれば、人に対する安全を高めることができる。
実施形態に係る画像処理装置を用いる全体構成の一例を示す全体構成図である。 実施形態に係る画像処理装置のハードウェア構成の一例を示すブロック図である。 実施形態に係る画像処理装置による学習処理の一例を示すフローチャートである。 実施形態に係る学習画像データに基づく特徴量の算出の一例を示す図である。 実施形態に係る画像処理装置による判定処理の一例を示すフローチャートである。 第1実施形態に係る画像処理装置の機能構成の一例を示す機能ブロック図である。 第1実施形態に係る画像処理装置が行う全体処理による処理結果の一例を示す図である。 第2実施形態に係る画像処理装置の機能構成の一例を示す機能ブロック図である。 第2実施形態に係る画像処理装置が行う全体処理による処理結果の一例を示す図である。 第3実施形態に係る画像処理装置の機能構成の一例を示す機能ブロック図である。 第4実施形態に係る画像処理装置の機能構成の一例を示す機能ブロック図である。 第4実施形態に係る画像処理装置が行う全体処理による処理結果の一例を示す図である。 第5実施形態に係る画像処理装置の機能構成の一例を示す機能ブロック図である。
以下、本発明の実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付し、重複した説明を省く。また、本明細書及び図面において、ロボット又は産業機械等を可動機械等という。
[第1実施形態]
<全体構成例>
はじめに、本実施形態に係る画像処理装置を用いる全体構成の一例について説明する。
図1は、実施形態に係る画像処理装置を用いる全体構成の一例を示す全体構成図である。
画像処理装置の例であるカメラ10は、第1物体の例であるロボットアーム2を撮像し、画像データを生成する。また、ロボットアーム2の周辺に、第2物体の例として人3又はロボットアーム2が使用する部品4等がある場合には、カメラ10は、人3等を撮像する。
以下、図示するように、ロボットアーム2が工場等で部品4のピッキング等の動作を行う、いわゆるFA(Factory Automation)の例で説明する。即ち、ロボットアーム2は、可動機械の例であり、アクチュエータ及びセンサ等を有するロボットの例である。したがって、ロボットアーム2は、複数の自由度を有し、部品4等を運んだり、部品4等を持つために、部品4等に向かって移動したりする。これに対して、カメラ10は、ロボットアーム2及びロボットアーム2の周辺を定期的又は任意のタイミングで撮像する。
<ハードウェア構成例>
図2は、実施形態に係る画像処理装置のハードウェア構成の一例を示すブロック図である。図示するように、カメラ10は、CPU(Central Processing Unit)11と、HDD(Hard Disk Drive)12と、RAM(Random Access Memory)13と、ROM(Read Only Memory)14とを有する。さらに、カメラ10は、入力装置15と、表示装置16と、外部I/F(interface)17と、通信I/F18と、撮像素子19とを有する。カメラ10が有する各ハードウェアは、バスBで接続される。
CPU11は、ROM14及びHDD12等の記憶装置からプログラム又はデータ等をRAM13上に読み出し、カメラ10が行う各種処理に係る演算及びデータの加工等を行う演算装置並びにカメラ10が有する各ハードウェアを制御する制御装置である。
HDD12は、プログラム及びデータ等を記憶する補助記憶装置の例である。なお、記憶されるプログラム及びデータは、例えば、カメラ10全体を制御する基本ソフトウェアであるOS(Operating System)及びOS上において各種機能を実現するアプリケーションソフトウェア等である。なお、カメラ10は、HDD12の代わり又はHDD12と組み合わせてSSD(Solid State Drive)等を有してもよい。
RAM13は、プログラム及びデータを一時保持する、いわゆる揮発性のメモリであり、主記憶装置の例である。一方、ROM14は、電源を切ってもプログラム及びデータを保持することができる不揮発性のメモリ(記憶装置)である。
入力装置15は、ユーザが各種操作をカメラ10に入力するのに用いられる装置である。なお、入力装置15は、例えば、各種操作ボタン、タッチパネル、キーボード又はマウス等である。また、表示装置16は、カメラ10による処理結果を表示する出力装置である。例えば、表示装置16は、ディスプレイ等である。
外部I/F17は、記録媒体17a等の外部装置を接続させるコネクタ等のインタフェースである。例えば、記録媒体17aは、USB(Universal Serial Bus)メモリ、SD(登録商標)メモリカード、CD又はDVD等である。また、通信I/F18は、ネットワーク等を介して情報処理装置等とデータ通信を行うコネクタ又はアンテナ等のインタフェースである。
撮像素子19は、画像データを生成する光学系及び画像処理IC(Integrated Circuit)等である。具体的には、光学系は、光学センサ、レンズ及びフィルタ等である。なお、撮像素子19は、複数の光学系等を有する、いわゆるステレオカメラ等でもよい。また、撮像素子19は、超音波センサ又は赤外線センサ等と組み合わせて、被写体との距離又は被写体の速度等を計測できるシステムでもよい。
本実施形態に係るカメラ10は、上記ハードウェア構成を有することにより、後述する各種処理を実現することができる。
なお、実施形態は、画像データ等を生成するカメラと、カメラと接続されるPC(Personal Computer)等の情報処理装置とを有する画像処理システムによって実現されてもよい。具体的には、カメラは、いわゆるネットワークカメラ等であり、画像処理システムでは、カメラ及びPCは、ネットワーク等を介して接続される。即ち、画像処理システムでは、カメラが画像データを生成し、生成される画像データに基づいて、PCが各種処理を行ってもよい。なお、情報処理装置は、複数の装置で構成され、処理の一部又は全部が冗長、並列又は分散して行われる構成でもよい。
<学習処理例及び判定処理例>
学習処理及び判定処理は、例えば、特願2014−245194明細書等に記載された処理である。まず、カメラ10(図1)は、学習処理を行い、学習処理によって、カメラ10は、ロボットアーム2(図1)の動作を学習する。次に、学習処理後、カメラ10は、図1に示すように、撮像を行う。また、ロボットアーム2がピッキング等を実現する所定の動作(以下「正常動作」という。)とは異なる動作(以下「異常動作」という。)を行う場合がある。これに対して、カメラ10は、撮像によって生成される画像データに基づいて、判定処理を行い、判定処理によって、ロボットアーム2が行う動作のうち、異常動作を検出する。
学習処理及び判定処理は、ロボットアーム2全体に対して行われる。なお、ロボットアーム2が複数の部品によって構成される場合には、部品に対応して学習処理及び判定処理が行われてもよい。以下の説明では、部品に対応して学習処理及び判定処理がそれぞれ行われる例で説明する。
<学習処理例>
図3は、実施形態に係る画像処理装置による学習処理の一例を示すフローチャートである。具体的には、まず、カメラ10(図1)が学習画像データを用いて学習処理を行う例を説明する。なお、学習画像データは、ロボットアーム2の正常動作をカメラ10が撮像して得られる画像データである。即ち、以降で説明する学習処理は、半教師あり学習である。
ステップS01において、カメラ10は、学習画像データを入力する。例えば、カメラ10は、ロボットアーム2の正常動作をカメラ10が撮像して学習画像データを入力する。なお、カメラ10は、学習画像データを、例えば、HDD12(図2)又は外部I/F17(図2)によって記録媒体17a(図2)等から入力してもよい。また、カメラ10は、学習画像データを、例えば、ネットワーク等を介して情報処理装置等の外部装置から入力してもよい。
なお、ステップS02乃至ステップS03は、入力される学習画像データごとに繰り返し実行される。
ステップS02において、カメラ10は、ステップS01で入力される学習画像データから部品ごとの学習画像データを生成する。カメラ10によって撮像されるロボットアーム2等の被写体は、複数の部品等から構成される場合がある。ステップS02は、被写体が複数の部品から構成される場合に行われる処理例である。つまり、複数の部品を含む被写体を撮像した画像データが、学習画像データとしてステップS01で入力される。以下、ステップS01で入力される学習画像データに基づいて、ステップS02で生成される学習画像データ、即ち、それぞれの部品に係る学習画像データを「部品ごとの学習画像データ」という。
例えば、ロボットアーム2が部品A、部品B及び部品Cから構成される場合には、具体的には、以下のようにして部品ごとの学習画像データが生成される。
(1)カメラ10は、部品Aを撮像して得られる部品A画像データ、部品Bを撮像して得られる部品B画像データ及び部品Cを撮像して得られる部品C画像データをそれぞれ入力する。
(2)カメラ10は、部品A画像データをテンプレートとして、学習画像データに対して、テンプレートマッチングを行い、類似度を算出する。なお、類似度の算出は、例えばSSD(Sum of Squared Difference)、SAD(Sum of Absolute Difference)又はNCC(Normalized Cross−Correlation)等によって実現される。
(3)カメラ10は、算出された類似度があらかじめ設定される閾値以上となる(又は最大となる)画像を部品Aの学習画像データとする。これにより、部品Aの学習画像データが生成される。
同様に、部品Bの学習画像データ及び部品Cの学習画像データは、それぞれの部品B画像データ及び部品C画像データに基づいて、上記(2)に示す方法によって、それぞれ生成される。
以上のようにして、学習画像データから、正常動作におけるロボットアーム2を構成する部品ごとの学習画像データがそれぞれ生成される。なお、同一の部品が複数含まれる場合、当該部品の学習画像データは、複数枚生成される。例えば、ロボットアーム2に部品Aが2つ含まれる場合、2枚の部品Aの学習画像データが生成される。
ステップS03において、カメラ10は、部品ごとの学習画像データからそれぞれの特徴量を算出する。例えば、ロボットアーム2が部品A、部品B及び部品Cから構成されている場合には、具体的には、カメラ10は、以下のようにしてそれぞれの特徴量を算出する。
(1)部品Aの学習画像データについて、2ピクセルごとに、SURF(Speeded Up Robust Features)特徴量の算出手法を用いて、所定のスケールσでオリエンテーションを算出する。なお、SURF特徴量の算出手法は、例えば、「H.Bay,"Speeded−Up Robust Features(SURF)",Computng Vision and Image Understanding, Vol.110 (3) June 2008, pp.346−359.」等で開示されている手法等である。また、特徴量の算出手法は、SIFT(Scale−Invariant Feature Transform)特徴量又はFerns特徴量の算出手法等でもよい。
図4は、実施形態に係る学習画像データに基づく特徴量の算出の一例を示す図である。なお、図4では、部品Aの学習画像データ1100が、100×100ピクセル(pixel)の画素を有する画像データであり、図4に示す1つのセルが、1つのピクセルを示すとする。図4に示すように、各n,m=1,・・・,50に対して、(x,y)=(2n−1,2m−1)の座標のピクセルにおいて、所定のスケールσでオリエンテーションθxyが算出される。図4では、各矢印の向きは、それぞれのオリエンテーションθxyを示す。このように、キーポイントの検出を行わずに、所定のピクセルごと(又はすべてのピクセルに対して)に特徴量を算出する手法は、例えば、いわゆるDense sampling等である。
(2)カメラ10は、上記(1)で得られる各3次元ベクトル(x,y,θxy)を部品Aの学習画像データの特徴量とする。
カメラ10は、部品Bの学習画像データ及び部品Cの学習画像データに対して上記(1)及び(2)をそれぞれ行い、3次元ベクトル(x,y,θxy部品B及び(x,y,θxy部品Cをそれぞれの特徴量として算出する。
以上のようにして、部品ごとの学習画像データからそれぞれ特徴量が算出される。ここで算出された部品ごとの特徴量が、当該部品におけるポジティブデータである。なお、上記では、カメラ10は、2ピクセルごとにオリエンテーションを算出したが、カメラ10は、任意のピクセルごとにオリエンテーションを算出してもよい。また、所定のスケールσは、部品ごとの学習画像データのサイズに基づいて決定され、例えば、20乃至30ピクセルである。
図3に戻り、ステップS04において、カメラ10は、ステップS03で算出される特徴量を用いて学習を行う。例えば、カメラ10は、ロボットアーム2全体に対応する学習画像データから算出される特徴量を用いて、ロボットアーム2全体に係る学習を行う。なお、カメラ10は、部品ごとに学習を行ってもよい。具体的には、例えば、部品Aの学習画像データから算出される特徴量を用いて、カメラ10は、部品Aに係る学習を行う。同様に、部品Bの学習画像データから算出される特徴量を用いて、部品Bに係る学習を行う。このように、学習は、部品ごとに行われてもよい。この場合には、判定処理では、いずれかの部品で異常が検出されると、全体としても異常が検出される。
ここで、one―class SVMを用いた学習は、例えば、次のようにして行われる。即ち、カメラ10は、ステップS03で算出される特徴量を3次元空間にプロットして、ポジティブデータを示すデータ集合(ポジティブモデル)を生成する。そして、カメラ10は、このデータ集合と、3次元空間上の所定の点とを分ける所定の平面(又は曲面)を求める。このように、学習処理によってカメラ10が学習すると、判定処理において、判定対象画像データが示す被写体が正常動作としているか異常動作をしているかを判定することができる。なお、生成されるデータ集合は、例えば、HDD12(図2)等に記憶される。
<判定処理例>
図5は、実施形態に係る画像処理装置による判定処理の一例を示すフローチャートである。なお、図5に示す処理は、カメラ10が図3に示す学習処理を行った後に行われる処理の例である。判定対象画像データは、図1に示すように、ロボットアーム2及びロボットアーム2の周辺をカメラ10が撮像した画像データである。
学習処理で入力される学習画像データは、ロボットアーム2が正常動作を行っている場合を撮像して生成される画像データである。一方、判定処理で入力される判定対象画像データは、ロボットアーム2が正常動作を行っているか異常動作を行っているかが不明な場合を撮像して生成される画像データである。したがって、カメラ10は、判定処理によって、判定対象画像データに基づいて、ロボットアーム2が正常動作を行っているか異常動作を行っているかを判定する。
ステップS11において、カメラ10は、判定対象画像データを入力する。例えば、カメラ10は、ロボットアーム2をカメラ10が撮像して判定対象画像データを入力する。なお、カメラ10は、判定対象画像データを、例えば、HDD12(図2)又は外部I/F17(図2)によって記録媒体17a(図2)等から入力してもよい。また、カメラ10は、判定対象画像データを、例えば、ネットワーク等を介して情報処理装置等の外部装置から入力してもよい。
ステップS12において、カメラ10は、入力される判定対象画像データから部品ごとの判定対象画像データをそれぞれ生成する。例えば、ステップS12は、図3に示すステップS02と同様であるため、簡単に説明する。
例えば、ロボットアーム2が部品A、部品B及び部品Cから構成されている場合には、以下のようにして部品ごとの判定対象画像データが生成される。
(1)カメラ10は、部品A画像データ、部品B画像データ及び部品C画像データをそれぞれ入力する。
(2)カメラ10は、(1)で入力される部品A画像データをテンプレートとして、ステップS11で入力される判定対象画像データに対して、テンプレートマッチングを行い、類似度を算出する。
(3)カメラ10は、算出される類似度があらかじめ設定される閾値以上となる(又は最大となる)画像を部品Aの判定対象画像データとする。
部品Bの判定対象画像データ及び部品Cの判定対象画像データは、(2)において、それぞれ部品B画像データ及び部品C画像データを用いてテンプレートマッチングを行うことにより、部品Aの判定対象画像データと同様にそれぞれ生成される。
以上のようにして、入力される判定対象画像データから、ロボットアーム2を構成する部品ごとの判定対象画像データが、それぞれ生成される。なお、ロボットアーム2を構成する部品として、同一の部品が複数含まれる場合には、当該部品の判定対象画像データは、複数枚生成される。
ステップS13において、カメラ10は、部品ごとの判定対象画像データからそれぞれの特徴量を算出する。例えば、ロボットアーム2が部品A、部品B及び部品Cから構成されている場合には、具体的には、カメラ10は、以下のようにして特徴量を算出する。
(1)カメラ10は、部品Aの判定対象画像データについて、キーポイントの検出を行う。キーポイントは、例えば、ヘッセ行列が用いられると、検出できる。以下、検出されるキーポイントをそれぞれ(x,y),(x,y),・・・,(x,y)とする。
(2)カメラ10は、(1)で検出されるキーポイント(x,y),(x,y),・・・,(x,y)に対して、スケールσをそれぞれ算出する。ここで、j=1,・・・,kであるとする。
(3)カメラ10は、キーポイント(x,y),(x,y),・・・,(x,y)のうち、学習処理で用いた所定のスケールσとの関係で、|σ−σ|>εとなる(x,y)を除外する。このようにして得られるキーポイントを(x,y),(x,y),・・・,(x,y)とする。ここで、k≧Lである。また、上記のεは、あらかじめ設定される値である。これは、キーポイント(x,y),(x,y),・・・,(x,y)のうち、スケールσの値がσと近い値となるキーポイント以外を除外することを意味する。なお、このようにして得られるキーポイント(x,y),(x,y),・・・,(x,y)が、当該部品(部品A)において異常な状態である場合を示す箇所の候補となる。
(4)カメラ10は、各キーポイント(x,y),(x,y),・・・,(x,y)に対して、それぞれのキーポイントにおけるオリエンテーションθをそれぞれ算出する。そして、カメラ10は、これにより得られる3次元ベクトル(x,y,θ)(j=1,・・・,L)を部品Aの判定対象画像データの特徴量とする。
カメラ10は、部品Bの判定対象画像データ及び部品Cの判定対象画像データについてもそれぞれ上記(1)乃至(4)を行い、それぞれの3次元ベクトル(x,y,θ部品B及び(x,y,θ部品Cを特徴量として算出する。
以上のようにして、それぞれの特徴量は、部品ごとの判定対象画像データから算出される。ここで算出される部品ごとの特徴量を用いて、部品ごとに正常であるか異常であるかが判定される。
ステップS14において、カメラ10は、ステップS13で算出される特徴量を用いてロボットアーム2が正常動作を行っているか異常動作を行っているかを判定する。つまり、判定処理によってロボットアーム2が異常動作を行っていると判定することによって、カメラ10は、異常動作を検出できる。
例えば、部品Aの判定対象画像データから算出される特徴量に基づき、部品Aに係る異常を検出する。具体的には、部品Aの特徴量(x,y,θ)の各jについて、それぞれone―class SVMを用いると、部品Aに係る異常を示すネガティブデータであるか否かが識別できる。この場合では、ネガティブデータであると識別された特徴量(x,y,θ)に対応するキーポイント(x,y)は、判定対象画像データにおける特徴点とされる。そして、判定対象画像データに基づいて、カメラ10は、特徴点の密度があらかじめ設定される閾値以上の範囲を部品Aの異常がある範囲と判定する。これにより、部品Aの異常が検出される。さらに、部品B及び部品Cについても、同様の方法で異常が検出される。これにより、判定対象画像データが示すロボットアーム2全体が正常動作であるか異常動作であるかが判定される。なお、異常の検出には、LOF(Local Outlier Factor)等が用いられてもよい。
<機能構成例>
図6は、第1実施形態に係る画像処理装置の機能構成の一例を示す機能ブロック図である。具体的には、カメラ10は、特徴量算出部10F1と、検出部10F2と、処理部10F3と、認識部10F4とを含む。カメラ10には、学習画像データD1及び判定対象画像データD2等の画像データがそれぞれ入力される。
特徴量算出部10F1は、入力される画像データの特徴量を学習処理及び判定処理において算出する。なお、特徴量算出部10F1は、例えば、CPU11(図2)等によって実現される。
検出部10F2は、まず、正常動作、即ち、ポジティブモデルを示す学習データに基づく学習処理を行う。この学習処理があらかじめ行われると、検出部10F2は、学習処理後に行われる判定処理によって、ロボットアーム2の異常動作を検出することができる。なお、検出部10F2は、例えば、CPU11、撮像素子19(図2)及びHDD12(図2)等によって実現される。
処理部10F3は、ロボットアーム2の状態等の環境状況に基づいて、異常動作を人3に通知したり、ロボットアーム2の制御を行ったりする。なお、処理部10F3は、例えば、CPU11及び通信I/F18(図2)等によって実現される。
認識部10F4は、ロボットアーム2の可動範囲に、人3がいるか否かを認識する。なお、認識部10F4は、例えば、CPU11及び撮像素子19等によって実現される。また、画像データが示す被写体のうち、被写体が人であるか否かを認識する方法は、例えば、"Histograms of Oriented Gradients for Human Detection,Navneet Dalal and Bill Triggs,Computer Vision and Pattern Recognition, 2005. CVPR 2005. IEEE Computer Society Conference on June 25 2005."等で説明される方法で実現される。なお、同様の方法で、ロボットアーム2が認識されてもよい。
図7は、第1実施形態に係る画像処理装置が行う全体処理による処理結果の一例を示す図である。カメラ10が図6に示す機能構成である場合には、カメラ10が全体処理を行うと、全体処理による処理結果は、例えば、図7に示すような処理結果となる。
まず、カメラ10は、あらかじめ特徴量算出部10F1及び検出部10F2によって図3に示す学習処理を行うため、図5に示す判定処理によって、ロボットアーム2の異常動作が検出できる。
次に、カメラ10は、ロボットアーム2及びロボットアーム2の周辺を撮像して、撮像によって生成される判定対象画像データに対して判定処理を行い、ロボットアーム2の異常動作を検出する。
さらに、カメラ10は、認識部10F4によって、作業員等の人3を認識する。また、カメラ10は、認識した人3がロボットアーム2の可動範囲RMにいるか否かを認識する。
なお、可動範囲RMは、例えば、ロボットアーム2の可動できる範囲、即ち、ロボットアーム2が行う作業等においてロボットアーム2の一部又は全部が移動するいわゆる作業領域である。具体的には、可動範囲RMは、ロボットアーム2の先端部分等が届く範囲である。また、可動範囲RMには、ロボットアーム2の大きさ等から、ロボットアーム2が動いた場合にロボットアーム2の一部又は全部が届く範囲等が含まれてもよい。具体的には、例えば、ロボットアーム2が転倒した場合等に、ロボットアーム2の先端部分が届く範囲等である。なお、可動範囲RMは、あらかじめ決定される範囲でもよく、例えば、カメラ10が撮像する範囲の中心から3/4程度の範囲といったように、あらかじめカメラ10に設定される範囲等でもよい。
カメラ10は、環境状況としてロボットアーム2の状態を取得する。具体的には、カメラ10は、ロボットアーム2の電源が切断されている状態、ロボットアーム2が停止するように制御されている状態又はロボットアーム2が動作を開始する前の状態のいずれかであるかを判定できるデータを取得する。なお、ロボットアームの電源が切断されている状態は、例えば、ロボットアーム2の主電源がOFFとなっている場合等である。また、ロボットアーム2が停止するように制御されている状態は、例えば、ロボットアーム2のスタートボタンがONでない場合(主電源は、ON)又は緊急停止ボタンがONとなっている場合等である。さらに、ロボットアーム2が動作を開始する前の状態は、例えば、ロボットアーム2のスタートボタンがONとされる前の状態、いわゆるスタンバイ状態等である。
即ち、これらの状態では、人3は、ロボットアーム2が停止していると判断することが多い。このため、人3は、ロボットアーム2が動くと予測するのが難しい。これに対して、ロボットアーム2は、電源が切断されていても、例えば、ロボットアーム2の自重又は外部からの電波等によって、設定されていない動作を行ったり、傾いたり、転倒したりする異常動作を行う場合がある。この場合には、人3がロボットアーム2の異常動作を予測するのが難しいため、ロボットアーム2が人3に接触したり、ロボットアーム2が人3に向かって倒れたりして、事故が起こる場合がある。
これに対して、カメラ10は、ロボットアーム2の異常動作を検出できる。さらに、人3がロボットアーム2の異常動作を予測するのが難しい状態(特に上述した、人3が、ロボットアーム2が停止していると判断することが多い状態)では、例えば、カメラ10は、警報音若しくは危険を知らせるメッセージ音声等の音、危険を知らせるメッセージを示す文字の表示若しくは発光等の光又はこれらを組み合わせて人に通知を行う。即ち、カメラ10は、異常動作を検出し、かつ、電源が切断されている場合等には、音又は光等を用いて人3に通知ATを行う。なお、カメラ10は、スピーカ又は光源等の警報装置を有し、通知を行う場合には、警報装置によって、通知を行う。また、警報装置は、カメラ10に接続される外部装置でもよい。
さらに、カメラ10は、異常動作を検出し、かつ、電源が切断されている場合等には、ロボットアーム2を制御してもよい。例えば、カメラ10は、ロボットアーム2が行う動作を減速又は停止させるため、制御信号CTLをロボットアーム2に送信して制御を行う。
なお、カメラ10は、通知及び制御を組み合わせて行ってもよい。例えば、カメラ10は、音による通知ATを行い、かつ、ロボットアーム2を停止させる制御信号CTLを送信して制御を行ってもよい。
また、人3がロボットアーム2の可動範囲RMにいるのを認識して通知AT又は制御信号CTLによる制御を行ってもよい。人3が可動範囲RMにいる場合には、特に、事故が起きる可能性が高いため、人3が可動範囲RMにいるのを認識することによって、カメラ10は、より事故が起きるのを少なくできる。
一方、人3は、ロボットアーム2が異常動作しているのをロボットアーム2が正常動作していると勘違いして、可動範囲RMに入ろうとする場合がある。したがって、人3が可動範囲RMの外側にいる場合であっても、カメラ10は、通知及び制御を行うのが望ましい。これによって、カメラ10は、人3にロボットアーム2が異常動作していることを知らせることができる。
人3がロボットアーム2の異常動作を予測するのが難しい場合には、カメラ10は、異常動作を検出すると、カメラ10は、処理部10F3によって、通知又は制御を行う。通知が行われると、人3は、ロボットアーム2が異常動作を行っているのを知ることができるため、人3は、ロボットアーム2の可動範囲RMから離れる等の回避を行うことができる。
また、制御が行われると、ロボットアーム2は、異常動作を停止したり、減速させたりする。これによって、人3に向かってロボットアーム2が動くのが抑制される又はロボットアーム2の動作が低速となる。そのため、人3は、ロボットアーム2との接触を回避するのが容易になる。そのため、カメラ10は、事故が起きるのを減らし、可動機械等が使用される環境において、人に対する安全を高めることができる。
[第2実施形態]
第2実施形態では、第1実施形態と同様の図2に示すカメラ10を用い、図3及び図5に示す処理を行う。したがって、ハードウェア構成、学習処理及び判定処理については、説明を省略する。また、第2実施形態について、第1実施形態と同様に、図1に示す構成である例で説明する。第2実施形態は、第1実施形態と比較して、機能構成が異なる。なお、説明では、同一の機能については、同一の符号を付し、説明を省略する。
<機能構成例>
図8は、第2実施形態に係る画像処理装置の機能構成の一例を示す機能ブロック図である。図示する機能構成は、第1実施形態の機能構成と比較すると、視線方向検出部10F5が追加される点が異なる。また、第2実施形態では、カメラ10は、計測部10F6を更に含んでもよい。以下、異なる点を中心に説明する。
視線方向検出部10F5は、人3の姿勢、人3の顔の向き又は人3の視線に基づいて視線方向DSを検出する。視線方向DSが検出されると、カメラ10は、視線方向DSがロボットアーム2に向いているか否かによって、人3がロボットアーム2を見ているか否かを判定することができる。なお、視線方向検出部10F5は、例えば、CPU11(図2)及び撮像素子19(図2)等によって実現される。また、人の顔の向き又は人の目を検出する方法は、例えば、"Multimodal Face Detection, Head Orientation and Eye Gaze Tracking,Frank Wallhoff,Markus Ablabmeier,Gerhard Rigoll,Multisensor Fusion and Integration for Intelligent Systems, 2006 IEEE International Conference on Sep.2006."等で説明される方法で実現される。
計測部10F6は、ロボットアーム2と人3との距離DI、ロボットアーム2の速度SP又はロボットアーム2と人3との相対速度RSのうち、いずれかの計測値を計測する。計測部10F6は、例えば、CPU11及び撮像素子19等によって実現される。また、距離、速度又は相対速度の計測は、ステレオカメラ等によるいわゆる三角測量法又はオプティカルフロー法等の方法によって実現される。具体的には、計測部10F6がステレオカメラ等によって実現される場合には、計測部10F6は、画像データから、ロボットアーム2及び人3と認識されたそれぞれの箇所の3次元座標を求めることができる。次に、3次元座標の差によって、計測部10F6は、距離DIを計測できる。また、計測部10F6は、カメラの撮像周期(例えば、30fps(画面/秒)等)において、画面ごとのロボットアーム2及び人3のそれぞれの3次元座標の変化から速度SP又は相対速度RSを計測できる。
図9は、第2実施形態に係る画像処理装置が行う全体処理による処理結果の一例を示す図である。カメラ10が図8に示す機能構成である場合には、カメラ10が全体処理を行うと、全体処理による処理結果は、例えば、図9に示すような処理結果となる。
まず、カメラ10は、第1実施形態と同様に、あらかじめ特徴量算出部10F1(図8)及び検出部10F2(図8)によって図3に示す学習処理を行うため、判定処理によって、ロボットアーム2の異常動作が検出できる。次に、カメラ10は、ロボットアーム2及びロボットアーム2の周辺を撮像して、撮像によって生成される判定対象画像データに対して判定処理を行い、ロボットアーム2の異常動作を検出する。さらに、カメラ10は、認識部10F4(図8)によって、作業員等の人3を認識する。また、カメラ10は、認識した人3が可動範囲RMにいるか否かを認識する。また、ステレオカメラを用いる場合には、あらかじめ可動範囲RMをデータとして記憶しておくと、カメラ10は、人3が可動範囲RMにいるか否かを認識できる。
カメラ10は、視線方向検出部10F5によって視線方向がロボットアーム2に向いているか否かを判定する。例えば、視線方向は、第1視線方向DS1のように、ロボットアーム2に向いていない方向と、第2視線方向DS2のように、ロボットアーム2に向いている方向とがある。これに対して、カメラ10は、第1視線方向DS1等の場合では、異常動作を検出し、異常動作が検出されると、カメラ10は、人3に通知ATを行ったり、制御信号CTLをロボットアーム2に送信して制御を行ったりする。これは、第1視線方向DS1等の場合には、特に、人3が異常動作を知るのが遅れる場合が多い。したがって、第1視線方向DS1等の場合には、通知又は制御が行われると、カメラ10は、事故が起きるのを減らし、可動機械等が使用される環境において、人に対する安全を高めることができる。
また、カメラ10は、環境状況としてロボットアーム2の状態を取得して、ロボットアーム2の状態によって、通知及び制御を行ってもよい。
具体的には、例えば、ロボットアーム2の主電源がOFF又はスタートボタンがOFFである場合には、異常動作が検出されると、カメラ10は、通知及び制御を行う。特に、主電源がOFF又はスタートボタンがOFFである場合であって、人3が可動範囲RMにいる場合であり、かつ、第1視線方向DS1等の場合には、通知及び制御を行う。
一方、スタートボタンがONである場合には、人3は、ロボットアーム2が動く可能性がある程度の予測が可能な場合が多いので、カメラ10は、人3が可動範囲RMにいるか否かを認識する処理等を行う。また、スタートボタンがONである場合には、カメラ10は、異常動作の検出に係るハードウェアの動作又は処理の実行を停止してもよい。これによって、カメラ10は、動作させるハードウェア又は実行する処理を少なくできるため、消費電力を少なくすることができる。
視線方向が第1視線方向DS1等のように、ロボットアーム2を見る方向でない場合には、人3は、ロボットアーム2の異常動作を知るのが難しい。特に、主電源がOFFとなっている場合には、人3は、ロボットアーム2の異常動作を予測するのが難しいため、異常動作があると、事故が起きやすい。これに対して、カメラ10が異常動作を検出し、カメラ10は、処理部10F3(図8)によって、通知又は制御を行う。通知が行われると、人3は、ロボットアーム2を見ていなくとも、ロボットアーム2が異常動作を行っているのを知ることができるため、人3は、回避等を行うことができる。
なお、カメラ10は、ロボットアーム2及び人3のそれぞれの部位を認識して距離DI等を計測してもよい。例えば、カメラ10は、ロボットアーム2について、動作する部位の例である先端部分を認識し、一方、人3について、頭部を認識する。この例では、カメラ10は、それぞれ認識した頭部と、先端部分との距離DI等を計測する。先端部分のように動作する部位は、より人3に接触する可能性が高いため、動作する部位を認識して計測を行うことで、カメラ10は、より事故を少なくできる。また、頭部等といった部位は、ロボットアーム2と接触すると、より大きな事故になる場合が多い。したがって、カメラ10は、より大きな事故が起こりやすい部位を認識することで、カメラ10は、大きな事故を少なくできる。
また、カメラ10は、計測部10F6(図8)によって計測される距離DI、相対速度RS又は速度SP等の計測値を用いてもよい。例えば、ロボットアーム2と人3とが近い、即ち、距離DIが短い場合には、異常動作があると、人3は、回避する時間が少ない状態であるため、事故がより起きやすい。また、ロボットアーム2又は人3のいずれかが速く動いている場合、即ち、相対速度RSが高い値である場合には、異常動作があると、人3は、回避しにくい状態であるため、事故がより起きやすく、さらに、接触等があった場合には、大きな事故が起こりやすい。同様に、ロボットアーム2が速く動いている場合、即ち、速度SPが高い値である場合には、異常動作があると、人3は、回避しにくい状態であるため、事故がより起きやすく、接触等があった場合には、大きな事故になりやすい。
そのため、計測値によって、カメラ10は、行う通知及び制御を決定してもよい。具体的には、下記(表1)のように、カメラ10は、通知及び制御を段階的に行ってもよい。
Figure 0006544044
上記(表1)で示すように、距離DIが近い場合、相対速度RSが高い場合又は速度SPが高い場合には、カメラ10は、ロボットアーム2を停止させる制御及び通知を行う。これに対して、計測値が低い値になるに伴って、カメラ10は、ロボットアーム2を減速させる制御を行う。つまり、計測値が高い値であると、カメラ10は、ロボットアーム2をより減速させ、計測値が低い値であると、カメラ10は、ロボットアーム2を減速させる。一方、距離DIが遠い場合、相対速度RSが低い場合又は速度SPが低い場合には、カメラ10は、通知を行う。なお、上記(表1)で示す制御(停止)及び制御(減速)を行う場合では、カメラ10は、通知を更に行ってもよい。
ロボットアーム2を停止又はより低速に減速させると、ロボットアーム2の動作は、遅くなるため、ロボットアーム2による作業は、遅くなり、ロボットアーム2による作業効率が低下する。つまり、ロボットアーム2は、なるべく停止又はより低速に減速させる制御が行われないのが望ましい。したがって、事故がより起きやすく、接触等があると大きな事故になりやすい計測値が高い場合には、カメラ10は、停止又はより低速に減速させる制御を行う。一方、計測値が低い場合には、通知が行われると、ロボットアーム2との距離DIが遠いので、人3は、回避できる場合が多く、事故が起きるのを少なくできる。
上記(表1)で示すように、段階的に、計測値に基づいて行う通知及び制御が決定されると、カメラ10は、作業効率を維持でき、かつ、事故が起きるのを減らすことができる。ゆえに、視線方向の判定結果に基づいて、通知又は制御が行われると、カメラ10は、事故が起きるのを減らし、可動機械等が使用される環境において、人に対する安全を高めることができる。なお、上記(表1)で示す段階的制御は、視線方向に基づく制御との組合わせでも良いし、独立していてもよい。
[第3実施形態]
第3実施形態では、第1実施形態と同様の図2に示すカメラ10を用い、図3及び図5に示す処理を行う。したがって、ハードウェア構成、学習処理及び判定処理については、説明を省略する。また、第3実施形態について、第1実施形態と同様に、図1に示す構成である例で説明する。第3実施形態は、第1実施形態と比較して、機能構成が異なる。なお、説明では、同一の機能については、同一の符号を付し、説明を省略する。
<機能構成例>
図10は、第3実施形態に係る画像処理装置の機能構成の一例を示す機能ブロック図である。図示する機能構成は、第1実施形態の機能構成と比較すると、判別部10F7が追加される点が異なる。以下、異なる点を中心に説明する。
判別部10F7は、第2物体の種類を判別する。即ち、判別部10F7は、ロボットアーム2の周辺にある物体が人であるか否かを判別する。なお、判別部10F7は、例えば、CPU11(図2)及び撮像素子19(図2)等によって実現される。また、判別部10F7は、例えば、認識部10F4(図6)が行う人を認識する方法等によって実現される。
工場内等には、人3以外に、第2物体として鼠等の動物又は自走式車両等が存在する場合が多い。第2物体が人3以外である場合と比較すると、第2物体が人3である場合の方が第2物体とロボットアーム2とが接触した場合には、大きな事故になりやすい。したがって、カメラ10は、第2物体の種類を判別し、種類に基づいて、ロボットアーム2の制御又は通知を行う。例えば、第2物体の種類が人と判別され、かつ、異常動作を検出した場合には、カメラ10は、ロボットアーム2を停止させる制御を行う。また、第2物体の種類が人と判別され、かつ、異常動作を検出した場合には、カメラ10は、ロボットアーム2を停止させ、かつ、通知を行ってもよい。さらに、カメラ10は、上記(表1)に示すように、第2物体の種類に基づいて、段階的に制御又は通知を行ってもよい。第2物体の種類に基づいて、通知又は制御が行われると、カメラ10は、事故が起きるのを減らし、可動機械等が使用される環境において、人に対する安全を高めることができる。
[第4実施形態]
第4実施形態では、第1実施形態と同様の図2に示すカメラ10を用い、図3及び図5に示す処理を行う。したがって、ハードウェア構成、学習処理及び判定処理については、説明を省略する。また、第4実施形態について、第1実施形態と同様に、図1に示す構成である例で説明する。第4実施形態は、第1実施形態と比較して、機能構成が異なる。なお、説明では、同一の機能については、同一の符号を付し、説明を省略する。
<機能構成例>
図11は、第4実施形態に係る画像処理装置の機能構成の一例を示す機能ブロック図である。図示する機能構成は、第1実施形態の機能構成と比較すると、取得部10F8が追加される点が異なる。以下、異なる点を中心に説明する。
取得部10F8は、ロボットアーム2の周辺に係る状態又はロボットアーム2の正常動作の種類を取得する。なお、取得部10F8は、外部I/F17(図2)又は通信I/F18(図2)等によって実現される。
取得部10F8は、例えば、ネットワーク等を介して、ロボットアーム2の正常動作の種類等を示すデータを取得する。なお、入力装置等を用いる管理者による操作又はコントローラ5によって正常動作の種類等を示すパラメータが入力され、取得部10F8は、入力されるパラメータ等からロボットアーム2の正常動作の種類等を取得してもよい。
例えば、ロボットアーム2が部品4をピッキングする正常動作を行う場合を例に説明する。ロボットアーム2がピッキングを行う場合には、正常動作は、ロボットアーム2が所定の位置又はルートを往復する等のあらかじめ決められた動作(以下「第1ピッキング方式」という。)である場合がある。即ち、第1ピッキング方式であると、正常動作では、ロボットアーム2は、所定の動線上を動く場合が多い。
一方、正常動作は、ロボットアーム2があらかじめ設定される形状の部品を探してロボットアーム2が動く移動先又はルートを決定し、ロボットアーム2が部品4を取りに行く動作(以下「第2ピッキング方式」という。)である場合がある。即ち、第2ピッキング方式であると、ロボットアーム2は、正常動作では、ロボットアーム2が決定した動線上を動く場合が多い。
なお、第2ピッキング方式では、カメラ10は、ステレオ法、位相シフト法又は光切断法等によって3次元計測が可能なカメラ、即ち、ステレオカメラ等を有し、ステレオカメラによって、ピッキングの対象となる部品4を探す。また、ステレオカメラによって、部品4の位置及び姿勢等が3次元データで計測される。次に、3次元データがコントローラ5に送信されると、ロボットアーム2は、制御され、部品4を取りに行く。これらの方法によって、第2ピッキング方式は、実現される。なお、カメラ10は、コントローラ5を有する構成でもよい。即ち、カメラ10は、CPU11(図2)によってコントローラ5を実現してもよく、又はコントローラ5を実現できる電子回路基板等を更に有する構成でもよい。
図12は、第4実施形態に係る画像処理装置が行う全体処理による処理結果の一例を示す図である。以下、ロボットアーム2が、部品4をピッキングし、部品4を保管場所6に移動させる作業を行う例で説明する。
部品4の位置、形状、保管場所6の位置又はロボットアーム2が部品4を取りに行くルート(以下「第1ルート」という。)R1等が、あらかじめ決まっている場合がある。また、部品4を保管場所6に移動させるルート(以下「第2ルート」という。)R2又はピッキングが終了した場合に動くルート(以下「第3ルート」という。)R3等が、あらかじめ決まっている場合がある。これらの場合には、ロボットアーム2は、第1ピッキング方式でピッキングを行う場合が多い。
一方、部品4の位置等があらかじめ決まっていない場合等には、ロボットアーム2は、第2ピッキング方式でピッキングを行う場合が多い。
第2ピッキング方式では、ロボットアーム2が部品4を探してルートを決定するため、人3は、第1ルートR1、第2ルートR2及び第3ルートR3を予測するのが、第1ピッキング方式と比較して難しい。例えば、第1ピッキング方式では、部品4の位置と保管場所6の位置との間を最短で移動できる、部品4の位置と保管場所6の位置を直線で結んだルート等が第2ルートR2となる場合が多く、人3は、第2ルートR2を予測しやすい。また、第1ピッキング方式では、ロボットアーム2は、同様のルートを繰り返し移動することが多い。そのため、第1ピッキング方式では、人3は、正常動作、異常動作及び可動範囲RMを予測しやすい。
一方、第2ピッキング方式では、ロボットアーム2がどの部品を探しているかが人3が分からない場合等があるため、人3は、第1ルートR1を予測するのが難しい。即ち、第2ピッキング方式では、人3は、正常動作、異常動作及び可動範囲RMを予測するのが難しい。そのため、第2ピッキング方式の場合には、事故がより起きやすい。
カメラ10は、取得部10F8(図11)によって、環境状況として正常動作の種類を取得する。即ち、カメラ10は、ロボットアーム2の正常動作が第1ピッキング方式であるか第2ピッキング方式であるかを示すデータ等を取得する。例えば、ロボットアーム2の正常動作が第2ピッキング方式であり、かつ、異常動作が検出される場合には、カメラ10は、ロボットアーム2を停止させる制御を行う。また、ロボットアーム2の正常動作が第2ピッキング方式であり、かつ、異常動作を検出した場合には、カメラ10は、ロボットアーム2を停止させ、かつ、通知を行ってもよい。
さらに、カメラ10は、正常動作の種類、ロボットアーム2が使用する部品4の量、ロボットアーム2の周辺の明るさ若しくは時間帯等の第1物体の周辺に係る状態又はこれらを組み合わせて、重み係数を算出し、段階的に制御又は通知を行ってもよい。具体的には、カメラ10は、取得部10F8によって取得される環境状況に基づいて重み係数を算出し、下記(表2)のように、重み係数に応じて行う制御及び通知を決定してもよい。
Figure 0006544044
例えば、環境状況として第2ピッキング方式を示す正常動作の種類が取得される場合には、重み係数は、高くなり、重み係数が高い場合には、カメラ10は、ロボットアーム2を停止させる制御及び通知を行う。上記(表2)に示すように、正常動作の種類以外に、ロボットアーム2が使用する部品4の量、ロボットアーム2の周辺の明るさ又は時間帯等から重み係数が算出されてもよい。
具体的には、部品量が少ない場合には、重み係数は、高くなる。部品4がバラ積みされており、ピッキングが何度か行われると、部品量は、少なくなる。部品量が少なくなると、部品4の補充等を行うため、人3等が、ロボットアーム2が部品4を取る位置に近づく場合が多い。したがって、このような場合には、事故がより起きやすい。ゆえに、部品量が少ない場合には、重み係数に、高い値が算出される。この場合には、異常動作が検出されると、カメラ10は、ロボットアーム2を停止させる制御及び通知を行う。
また、ロボットアーム2の周辺及び工場内等の明るさが暗い場合には、重み係数は、高くなる。暗い場所では、人3は、ロボットアーム2等を見つけにくいため、事故がより起きやすい。ゆえに、明るさが暗い場合には、重み係数に、高い値が算出される。この場合には、異常動作が検出されると、カメラ10は、ロボットアーム2を停止させる制御及び通知を行う。なお、例えば、明るさは、画像データが有する画素の輝度値等に基づいて計算される。また、カメラ10は、輝度計等の明るさを計測できるセンサ等を有し、センサによって、明るさを計測してもよい。
さらに、夜間又は人3が長時間勤務であると推測できる時間帯では、重み係数は、高くなる。夜間又は長時間勤務となると、人3の集中力が下がるため、事故がより起きやすい。ゆえに、夜間又は人3が長時間勤務であると推測できる時間帯では、重み係数には、高い値が算出される。この場合には、異常動作が検出されると、カメラ10は、ロボットアーム2を停止させる制御及び通知を行う。なお、時間帯は、例えば、カメラ10がタイマ等を有し、あらかじめ定められる時間を経過した場合には、夜間又は人3が長時間勤務であると判定する。
環境状況として第1物体の周辺に係る状態又は正常動作の種類が取得されると、カメラ10は、事故が起きやすい第2ピッキング方式でロボットアーム2が動作している等を判定することができる。したがって、例えば、主電源がONであり、かつ、スタートボタンがOFFである場合であって、さらに、第2ピッキング方式でロボットアーム2が動作する場合で、異常動作が検出されると、カメラ10は、ロボットアーム2を停止させる制御及び通知を行う。一方、第1ピッキング方式でロボットアーム2が動作する場合では、異常動作が検出されると、カメラ10は、通知を行う。
カメラ10は、上記(表2)に示すように、事故がより起きやすいと推測できる場合には、重み係数が高くなるように算出する。算出される重み係数に基づいて、カメラ10は、上記(表2)に示すように、通知及び制御を行うため、事故がより起きやすい重み係数が高い場合には、カメラ10は、停止又はより低速に減速させる制御を行う。一方、重み係数が低い場合には、通知が行われると、人3は、回避できる場合が多く、事故が起きるのを少なくできる。
上記(表2)で示すように、段階的に、重み係数に基づいて行う通知及び制御が決定されると、カメラ10は、作業効率を維持でき、かつ、事故が起きるのを減らすことができる。ゆえに、重み係数に基づいて、通知又は制御が行われると、カメラ10は、事故が起きるのを減らし、可動機械等が使用される環境において、人に対する安全を高めることができる。
[第5実施形態]
第5実施形態では、第1実施形態と同様の図2に示すカメラ10を用い、図3及び図5に示す処理を行う。したがって、ハードウェア構成、学習処理及び判定処理については、説明を省略する。また、第5実施形態について、第1実施形態と同様に、図1に示す構成である例で説明する。第5実施形態は、第1実施形態と比較して、機能構成が異なる。なお、説明では、同一の機能については、同一の符号を付し、説明を省略する。
<機能構成例>
図13は、第5実施形態に係る画像処理装置の機能構成の一例を示す機能ブロック図である。図示する機能構成は、第1実施形態の機能構成と比較すると、生成部10F9が追加される点が異なる。以下、異なる点を中心に説明する。
生成部10F9は、環境状況としてロボットアーム2の状態、ロボットアーム2の周辺に係る状態又は人3の状態を入力して、環境状況を示すデータ、画像データ、環境状況若しくは画像データに基づいて算出される算出値又はこれらを組み合わせたデータを生成する。さらに、生成部10F9は、生成したデータ等を外部装置等に送信してもよい。なお、生成部10F9は、CPU11(図2)、外部I/F17(図2)、通信I/F18(図2)及び撮像素子19(図2)等によって実現される。
例えば、カメラ10は、入力される環境状況から、下記(表3)に示す状態が起きた回数をカウントして算出値を算出する。
Figure 0006544044
「可動範囲に人が入った」状態は、図7で説明した方法等で判定される。また、「人がヘルメットを着けていない」状態は、例えば、カメラ10が人3の頭部等を認識し、頭部と認識される箇所があらかじめ設定されるヘルメットの色でないと認識することで判定される。さらに、「ロボットアームの周辺に通常置いていない物体がある」状態は、ロボットアーム2の周辺について正常動作を学習するのと同様の学習処理が行われると、判定処理によって、カメラ10は、通常置いていない物体があると判定できる。さらにまた、「可動範囲に物体が入った場合、物体の種類が人である」状態は、第3実施形態で説明した方法等で判定される。
また、カメラ10は、上記(表3)となった環境状況を示すデータ、画像データ又はこれらを組み合わせたデータを生成する。例えば、保険等に係る調査等では、生成されたデータが証拠となり、調査等に使用できる。なお、カメラ10は、生成したデータを外部装置等で記憶するため、生成したデータを外部装置等に送信してもよい。
さらに、カメラ10は、外部装置に事故が起きたことを連絡するのに合わせて生成したデータを送信してもよい。なお、カメラ10が連絡を行う場合には、連絡を行うタイミングを状態にあわせて変更してもよい。例えば、上記(表3)に示す「可動範囲に人が入った」状態、「人がヘルメットを着けていない」状態又は「可動範囲に物体が入った場合、物体の種類が人である」状態で接触事故が起きた場合には、カメラ10は、直ちに連絡を行う。即ち、この場合には、カメラ10は、事故が起きたことを直ちに管理者等に伝える処理を行う。一方、人に関する状態でない場合には、カメラ10は、一定期間のデータをまとめて連絡を行う等でもよい。即ち、この場合には、カメラ10は、いわゆるログを取る程度の処理を行う。なお、人に関する状態でない場合は、例えば、異常動作が検出され、かつ、可動範囲に入った物体が人でない場合等である。
また、上記(表2)と同様に、上記(表3)に示す各状態にそれぞれ重みを設定し、カメラ10は、第4実施形態のように、重み係数を算出してもよい。即ち、カメラ10は、第4実施形態のように、重み係数に基づいて、段階的に、重み係数に基づいて通知及び制御を行ってもよい。重み係数に基づいて通知及び制御が行われると、カメラ10は、作業効率を維持でき、かつ、事故が起きるのを減らすことができる。ゆえに、重み係数に基づいて、通知又は制御が行われると、カメラ10は、事故が起きるのを減らし、可動機械等が使用される環境において、人に対する安全を高めることができる。
なお、上述の説明では、ロボットアーム2の電源が切断されている状態等のロボットアーム2が動作しにくい状態の例で説明したが、実施形態は、これに限られない。例えば、カメラ10は、ロボットアーム2に電力が供給されている場合に、判定処理等を行ってもよい。ロボットアーム2が正常動作をしている場合でも、人の不注意、動物の侵入又は自走式車両の誤動作等によって、異常動作が検出される場合がある。これらの事象が異常動作として検出されると、ロボットアーム2が損傷する等の事象が検出できるため、ロボットアーム2を保護することができる。
<まとめ>
以上の説明から明らかなように、本実施形態に係るカメラでは、
・特徴量算出部及び検出部は、正常動作である場合の学習データによって学習処理を行い、画像データに基づく判定処理によって異常動作を検出できる構成とした。
・処理部は、音若しくは光等を使用して人に通知を行う又はロボットアーム等の第1物体を減速若しくは停止させる制御を行える構成とした。
・視線方向検出部は、人の視線を検出し、視線方向に基づいて人がロボットアームを見ているか否かを判定して判定結果に基づいて処理部が行う通知及び制御を決定できる構成とした。
・計測部は、第1物体と人との距離、相対速度又は第1物体の速度のうち、いずれかの計測値を計測し、計測値に基づいて上記(表1)のように、処理部が行う通知及び制御を決定できる構成とした。
・判別部は、第2物体の種類を判別し、判別された種類に基づいて処理部が行う通知及び制御を決定できる構成とした。
・取得部は、環境状況として第1物体の周辺に係る状態又は正常動作の種類を取得し、第1物体の状態又は正常動作の種類により算出される重み係数に基づいて上記(表2)のように、処理部が行う通知及び制御を決定できる構成とした。
・生成部は、環境状況として第1物体の状態、第1物体の周辺に係る状態又は第2物体の状態を入力して、環境状況を示すデータ、画像データ、環境状況若しくは画像データに基づいて算出される算出値又はこれらを組み合わせたデータを生成できる構成とした。
このように、本実施形態では、特徴量算出部及び検出部は、正常動作である場合の学習データによって学習処理を行う。これによって、画像データに基づく判定処理によって異常動作が検出されるため、異常動作が検出されると、処理部は、通知及び制御を行うことが実現できる。したがって、本実施形態に係るカメラは、事故が起きるのを減らし、人に対する安全を高めることができる。
なお、画像処理装置及び画像処理システムが用いられるのは、FAに限られない。即ち、画像処理装置及び画像処理システムは、屋外等に用いられてもよい。例えば、画像処理装置及び画像処理システムは、屋外の工事現場等に用いられてもよい。また、第1物体は、ロボットアームに限られない。即ち、第1物体は、移動若しくは可動する産業機械、他のロボット又は自動車等でもよい。
以上、本発明の好ましい実施例について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形又は変更が可能である。
10 カメラ
2 ロボットアーム
3 人
4 部品
特開2010−188515号公報 特開2010−188458号公報

Claims (9)

  1. 第1物体及び前記第1物体の周辺を撮像する画像処理装置であって、
    前記画像処理装置に入力される画像データに基づいて前記第1物体の異常動作を検出する検出部と、
    前記検出によって前記異常動作が検出されると、前記第1物体の状態、前記第1物体の周辺に係る状態、前記第1物体の周辺にある第2物体の状態若しくは種類又は前記第1物体の正常動作の種類のうち、いずれかを含む環境状況に基づいて、前記異常動作の通知又は前記第1物体の制御を行う処理部と
    前記画像データに基づいて特徴量を算出する特徴量算出部と、
    前記環境状況として前記第1物体の周辺に係る状態又は前記正常動作の種類を取得する取得部とを含み、
    前記検出部は、前記特徴量のうち、前記第1物体の動作が所定の正常動作である場合の特徴量によって生成される学習データに基づいて、前記正常動作を検出し、
    前記第1物体が可動機械であって、
    前記処理部は、前記正常動作の種類に基づいて、重み係数を算出し、前記重み係数に基づいて前記通知又は前記制御のいずれかを行うかを決定し、
    前記環境状況に前記正常動作の種類が含まれ、
    前記正常動作の種類が、前記可動機械が所定の動線上を繰り返し移動する動作であるか、前記可動機械が決定した動線上を動く動作であるかによって、前記処理部は、前記重み係数を算出する
    画像処理装置。
  2. 前記第1物体が可動機械であって、
    前記環境状況に前記第1物体の状態が含まれ、
    前記第1物体の状態が、前記可動機械の電源が切断されている状態、前記可動機械が停止するように制御されている状態又は前記可動機械が動作を開始する前の状態のいずれかであると、前記処理部は、前記通知を行う請求項1に記載の画像処理装置。
  3. 前記第2物体が人であって、
    前記環境状況に前記人の状態が含まれ、
    前記人の姿勢、前記人の顔の向き又は前記人の視線に基づいて視線方向を検出する視線方向検出部を更に含み、
    前記視線方向に基づく前記人が前記第1物体を見ているか否かの判定結果によって、前記処理部は、前記通知又は前記制御を行う請求項1又は2に記載の画像処理装置。
  4. 前記第2物体が人であって、
    前記第1物体と前記人との距離、前記第1物体と前記人との相対速度又は前記第1物体の速度のうち、いずれかの計測値を計測する計測部を更に含み、
    前記計測値に基づいて、前記処理部は、前記通知又は前記制御のいずれかを行うかを決定する請求項1乃至3のいずれか一項に記載の画像処理装置。
  5. 前記第2物体の種類を判別する判別部を更に含み、
    前記環境状況に前記第2物体の種類が含まれ、
    前記種類に基づいて、前記処理部は、前記通知又は前記制御のいずれかを行うかを決定する請求項1乃至4のいずれか一項に記載の画像処理装置。
  6. 前記環境状況に前記第1物体の周辺に係る状態が含まれ、
    前記可動機械が使用する部品の量、前記第1物体の周辺の明るさ又は時間帯によって、前記処理部は、前記重み係数を算出する請求項1乃至5のいずれか一項に記載の画像処理装置。
  7. 前記環境状況に前記第1物体の状態、前記第1物体の周辺に係る状態又は前記第2物体の状態が含まれ、
    前記環境状況を示すデータ、前記画像データ、前記環境状況若しくは前記画像データに基づいて算出される算出値又はこれらを組み合わせたデータを生成する生成部を更に含む請求項1乃至のいずれか一項に記載の画像処理装置。
  8. 第1物体及び前記第1物体の周辺を撮像して画像データを生成する画像処理装置と、前記画像データを処理する1以上の情報処理装置とを有する画像処理システムであって、
    前記画像処理装置に入力される画像データに基づいて前記第1物体の異常動作を検出する検出部と、
    前記検出によって前記異常動作が検出されると、前記第1物体の状態、前記第1物体の周辺に係る状態、前記第1物体の周辺にある第2物体の状態若しくは種類又は前記第1物体の正常動作の種類のうち、いずれかを含む環境状況に基づいて、前記異常動作の通知又は前記第1物体の制御を行う処理部と
    前記画像データに基づいて特徴量を算出する特徴量算出部と、
    前記環境状況として前記第1物体の周辺に係る状態又は前記正常動作の種類を取得する取得部とを含み、
    前記検出部は、前記特徴量のうち、前記第1物体の動作が所定の正常動作である場合の特徴量によって生成される学習データに基づいて、前記正常動作を検出し、
    前記第1物体が可動機械であって、
    前記処理部は、前記正常動作の種類に基づいて、重み係数を算出し、前記重み係数に基づいて前記通知又は前記制御のいずれかを行うかを決定し、
    前記環境状況に前記正常動作の種類が含まれ、
    前記正常動作の種類が、前記可動機械が所定の動線上を繰り返し移動する動作であるか、前記可動機械が決定した動線上を動く動作であるかによって、前記処理部は、前記重み係数を算出する
    画像処理システム。
  9. 第1物体及び前記第1物体の周辺を撮像する画像処理装置が行う画像処理方法であって、
    前記画像処理装置が、前記画像処理装置に入力される画像データに基づいて前記第1物体の異常動作を検出する検出手順と、
    前記画像処理装置が、前記検出によって前記異常動作が検出されると、前記第1物体の状態、前記第1物体の周辺に係る状態、前記第1物体の周辺にある第2物体の状態若しくは種類又は前記第1物体の正常動作の種類のうち、いずれかを含む環境状況に基づいて、前記異常動作の通知又は前記第1物体の制御を行う処理手順と
    前記画像処理装置が、前記画像データに基づいて特徴量を算出する特徴量算出手順と、
    前記画像処理装置が、前記環境状況として前記第1物体の周辺に係る状態又は前記正常動作の種類を取得する取得手順とを含み、
    前記検出手順では、前記特徴量のうち、前記第1物体の動作が所定の正常動作である場合の特徴量によって生成される学習データに基づいて、前記正常動作を検出し、
    前記第1物体が可動機械であって、
    前記処理手順では、前記正常動作の種類に基づいて、重み係数を算出し、前記重み係数に基づいて前記通知又は前記制御のいずれかを行うかを決定し、
    前記環境状況に前記正常動作の種類が含まれ、
    前記正常動作の種類が、前記可動機械が所定の動線上を繰り返し移動する動作であるか、前記可動機械が決定した動線上を動く動作であるかによって、前記処理手順では、前記重み係数を算出する
    画像処理方法。
JP2015107721A 2015-05-27 2015-05-27 画像処理装置、画像処理システム及び画像処理方法 Expired - Fee Related JP6544044B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015107721A JP6544044B2 (ja) 2015-05-27 2015-05-27 画像処理装置、画像処理システム及び画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015107721A JP6544044B2 (ja) 2015-05-27 2015-05-27 画像処理装置、画像処理システム及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2016224547A JP2016224547A (ja) 2016-12-28
JP6544044B2 true JP6544044B2 (ja) 2019-07-17

Family

ID=57745805

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015107721A Expired - Fee Related JP6544044B2 (ja) 2015-05-27 2015-05-27 画像処理装置、画像処理システム及び画像処理方法

Country Status (1)

Country Link
JP (1) JP6544044B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018144157A (ja) * 2017-03-03 2018-09-20 株式会社キーエンス ロボットシミュレーション装置、ロボットシミュレーション方法、ロボットシミュレーションプログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
WO2019014951A1 (zh) * 2017-07-21 2019-01-24 深圳市萨斯智能科技有限公司 一种机器人的信息传输方法和机器人
JP7011910B2 (ja) * 2017-09-01 2022-01-27 川崎重工業株式会社 ロボットシステム
JP7131958B2 (ja) * 2018-05-09 2022-09-06 高砂熱学工業株式会社 通知装置、情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラム
JP7401965B2 (ja) * 2018-09-28 2023-12-20 Idec株式会社 安全制御システム
JP6885909B2 (ja) * 2018-10-12 2021-06-16 ファナック株式会社 ロボット制御装置
WO2023170868A1 (ja) * 2022-03-10 2023-09-14 株式会社Fuji 安全装置およびロボットシステム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6016386A (ja) * 1983-07-04 1985-01-28 松下電器産業株式会社 動作監視装置
JP3800257B2 (ja) * 1996-08-02 2006-07-26 オムロン株式会社 注目情報計測方法及び装置並びにそれを用いた各種システム
JP2011089784A (ja) * 2009-10-20 2011-05-06 Nippon Signal Co Ltd:The 物体方向推定装置
EP2650754A3 (en) * 2012-03-15 2014-09-24 Omron Corporation Gesture recognition apparatus, electronic device, gesture recognition method, control program, and recording medium

Also Published As

Publication number Publication date
JP2016224547A (ja) 2016-12-28

Similar Documents

Publication Publication Date Title
JP6544044B2 (ja) 画像処理装置、画像処理システム及び画像処理方法
US20200357125A1 (en) Systems and methods for user detection, identification, and localization within a defined space
TWI629150B (zh) 使用行動機器人之物件觀察之電腦實施方法及系統
EP3884201A1 (en) Proximity-based personnel safety system and method
KR101125233B1 (ko) 융합기술기반 보안방법 및 융합기술기반 보안시스템
CN106251567B (zh) 一种智能火灾预警系统
JP2021500668A (ja) 監視装置、産業用設備、監視方法及びコンピュータプログラム
JP2014204375A (ja) 画像処理システム、画像処理装置、それらの制御方法、及びプログラム
JP2022103189A (ja) 作業現場監視装置、作業現場監視システム、作業現場監視方法およびプログラム
JP6712778B2 (ja) 物体検知装置、物体検知システムおよび物体検知方法
EP2992403B1 (en) Depth sensors
JP2020513627A (ja) インテリジェント盲導方法および装置
Vierling et al. Crane safety system with monocular and controlled zoom cameras
JP2011053005A (ja) 監視システム
JP5262148B2 (ja) ランドマーク検出装置および方法ならびにプログラム
D'Auria et al. Sarri: A smart rapiro robot integrating a framework for automatic high-level surveillance event detection
JP6885909B2 (ja) ロボット制御装置
KR20230051848A (ko) 위험 영역의 안전사고 예방을 위한 시스템 및 시스템의 동작 방법
WO2023162484A1 (ja) 情報処理装置及びプログラム
Umapathy et al. Night Surveillance Robot for Women Safety
KR101441755B1 (ko) 이미지센서모듈 및 메인프로세싱모듈이 교체 가능한 스마트 카메라
US20230252646A1 (en) More efficient automatic door sensing
TWI748299B (zh) 動作感測資料產生方法和動作感測資料產生系統
US20220006955A1 (en) Control device, non-transitory storage medium, and control system
KR20230152146A (ko) 위치 검지 장치, 위치 검지 방법, 및 위치 검지 프로그램

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190408

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190603

R151 Written notification of patent or utility model registration

Ref document number: 6544044

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees