JP6806845B2 - ロボットシステムおよびロボット制御方法 - Google Patents

ロボットシステムおよびロボット制御方法 Download PDF

Info

Publication number
JP6806845B2
JP6806845B2 JP2019108549A JP2019108549A JP6806845B2 JP 6806845 B2 JP6806845 B2 JP 6806845B2 JP 2019108549 A JP2019108549 A JP 2019108549A JP 2019108549 A JP2019108549 A JP 2019108549A JP 6806845 B2 JP6806845 B2 JP 6806845B2
Authority
JP
Japan
Prior art keywords
image
robot
dimensional image
unit
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019108549A
Other languages
English (en)
Other versions
JP2019193974A (ja
Inventor
祐輝 高橋
祐輝 高橋
渡邉 淳
淳 渡邉
中村 稔
稔 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FANUC Corp
Original Assignee
FANUC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FANUC Corp filed Critical FANUC Corp
Priority to JP2019108549A priority Critical patent/JP6806845B2/ja
Publication of JP2019193974A publication Critical patent/JP2019193974A/ja
Application granted granted Critical
Publication of JP6806845B2 publication Critical patent/JP6806845B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ロボットシステムおよびロボット制御方法に関するものである。
従来、物体の3次元情報を取得するレンジセンサと、2次元画像を取得するカメラとを組み合わせて、3次元の物体の位置を特定する技術が知られている(例えば、特許文献1参照。)。
特許文献1の技術では、カメラにより取得された2次元画像を処理して2次元画像内の物体の像を検出して物体の2次元位置情報を取得し、取得された2次元位置情報に基づいて3次元情報から物体の3次元の位置および姿勢を計算している。
特開2013−101045号公報
しかしながら、特許文献1の技術では、静止している3次元の物体については、精度よく認識できるが、人間やロボット等の形状が変化する物体については特定することができないという不都合がある。
したがって、人間やロボット等の形状が変化する物体についても精度よく認識することができるロボットシステムおよびロボット制御方法が望まれている。
本発明の参考例としての発明の一態様は、所定の監視領域を撮影して3次元画像および2次元画像を取得する撮像部と、該撮像部により取得された前記3次元画像において、所定範囲の画素値を有する領域を抽出する物体抽出部と、前記撮像部により取得された前記2次元画像において、物体の種別に応じて予め登録された基準画像を探索する画像探索部と、該画像探索部により探索される前記基準画像が前記物体抽出部により抽出された前記領域内に存在するか否かにより前記物体の種別を判定する判定部とを備える物体認識装置と、前記監視領域内の所定の作業領域で作業するロボットと、該ロボットを制御するロボット制御部とを備え、前記物体認識装置が、前記物体が安全監視対象であると認識した場合に、前記物体が前記作業領域に侵入するのを検出し、前記ロボット制御部が、前記物体認識装置によって前記作業領域への前記物体の侵入が検出された場合に前記ロボットを停止させるロボットシステムである。
本発明の第1態様は、所定の監視領域を撮影して3次元画像および2次元画像を取得する撮像部と、該撮像部により取得された前記3次元画像において、所定範囲の画素値を有する領域を抽出する物体抽出部と、前記撮像部により取得された前記2次元画像において、物体の種別に応じて予め登録された基準画像を探索する画像探索部と、該画像探索部により探索される前記基準画像が前記物体抽出部により抽出された前記領域内に存在するか否かにより、前記物体が前記基準画像に対応付けられている安全監視対象であるか前記基準画像に対応付けられていない非対象物体であるかを判定する判定部とを備える物体認識装置と、前記監視領域内の所定の作業領域で作業するロボットと、該ロボットを制御するロボット制御部とを備え、前記物体認識装置が、前記物体が前記安全監視対象であると認識した場合は、前記物体が前記作業領域に侵入するのを許容する一方、前記物体が前記非対象物体であると認識した場合は、前記物体が前記作業領域に侵入するのを検出し、前記ロボット制御部が、前記物体認識装置によって前記作業領域への前記非対象物体の侵入が検出された場合に前記ロボットを停止させるロボットシステムである。
本発明の参考例としての発明の他の一態様は、所定の監視領域を撮影して3次元画像および2次元画像を取得する撮像ステップと、該撮像ステップにより取得された前記3次元画像において、所定範囲の画素値を有する領域を抽出する物体抽出ステップと、前記撮像ステップにより取得された前記2次元画像において、物体の種別に応じて予め登録された基準画像を探索する画像探索ステップと、該画像探索ステップにより探索される前記基準画像が前記物体抽出ステップにより抽出された前記領域内に存在するか否かにより前記物体の種別を判定する判定ステップと、該判定ステップにより前記物体が安全監視対象と識別された場合に、ロボットが作業する前記監視領域内の所定の作業領域に前記物体が侵入するのを検出する検出ステップと、該検出ステップにより前記作業領域への前記物体の侵入が検出された場合に前記ロボットを停止させるロボット停止ステップとを含むロボット制御方法である。
本発明の第2態様は、所定の監視領域を撮影して3次元画像および2次元画像を取得する撮像ステップと、該撮像ステップにより取得された前記3次元画像において、所定範囲の画素値を有する領域を抽出する物体抽出ステップと、前記撮像ステップにより取得された前記2次元画像において、物体の種別に応じて予め登録された基準画像を探索する画像探索ステップと、該画像探索ステップにより探索される前記基準画像が前記物体抽出ステップにより抽出された前記領域内に存在するか否かにより、前記物体が前記基準画像に対応付けられている安全監視対象であるか前記基準画像に対応付けられていない非対象物体であるかを判定する判定ステップと、該判定ステップにより前記物体が安全監視対象と識別された場合は、ロボットが作業する前記監視領域内の所定の作業領域に前記物体が侵入するのを許容する一方、前記物体が前記非対象物体と識別された場合は、前記物体が前記作業領域に侵入するのを検出する検出ステップと、該検出ステップにより前記作業領域への前記非対象物体の侵入が検出された場合に前記ロボットを停止させるロボット停止ステップとを含むロボット制御方法である。
本発明の参考例としての発明の別の一態様は、所定の監視領域を撮影して3次元画像および2次元画像を取得する撮像部と、該撮像部により取得された前記3次元画像において、所定範囲の画素値を有する領域を抽出する物体抽出部と、前記撮像部により取得された前記2次元画像において、物体の種別に応じて予め登録された基準画像を探索する画像探索部と、該画像探索部により探索される前記基準画像が前記物体抽出部により抽出された前記領域内に存在するか否かにより前記物体の種別を判定する判定部とを備える物体認識装置である
本態様によれば、撮像部により所定の監視領域が撮影されて2次元画像および3次元画像が取得されると、取得された3次元画像において所定範囲の画素値を有する領域が物体抽出部により抽出され、取得された2次元画像において画像探索部により基準画像が探索され、抽出された領域内に基準画像が存在するか否かが判定部により判定されることによって、物体の種別が判定される。3次元画像内の物体の形状ではなく、3次元画像内に抽出された物体の位置に予め登録された基準画像が存在することによって監視領域内の物体の種別を認識するので、人間やロボット等の形状が変化する物体についても精度よく認識することができる。
上記態様においては、前記物体抽出部により抽出された前記領域を包含するように、前記画像探索部による探索領域を設定する探索領域設定部を備えていてもよい。
このようにすることで、物体抽出部により抽出された物体を表す領域の形状そのものを用いるのではなく、その領域を包含するように単純化された探索領域を設定することができ、画像探索部による探索演算を容易にすることができる。
また、上記態様においては、前記画像探索部が、前記撮像部により取得された前記3次元画像の各部における前記撮像部からの距離に基づいて、前記基準画像の縮尺を変更して探索を行ってもよい。
撮像部からの距離が近い位置に配置されている物体に付されているマークは2次元画像中に大きく写り、撮像部からの距離が遠い位置に配置されている物体に付されているマークは2次元画像中に小さく写る。このようにすることで、撮像部からの距離に応じて基準画像の縮尺を変更することにより、探索すべきマークの大きさに基準画像を近づけて、探索を容易にすることができる。
また、上記態様においては、前記画像探索部が、前記撮像部により取得された前記3次元画像の各部の前記撮像部の光軸に対する傾斜角度に基づいて、前記基準画像を変形して探索を行ってもよい。
マークが付されている物体の表面が撮像部の光軸に対して傾斜していると、マークが歪む。このようにすることで、物体の表面の傾斜角度に応じて基準画像を変形することにより、探索すべきマークの形状に基準画像を近づけて、探索を容易にすることができる。
また、本発明の参考例としての発明のさらに別の態様は、所定の監視領域を撮影して3次元画像および2次元画像を取得する撮像ステップと、該撮像ステップにより取得された前記3次元画像において、所定範囲の画素値を有する領域を抽出する物体抽出ステップと、前記撮像ステップにより取得された前記2次元画像において、物体の種別に応じて予め登録された基準画像を探索する画像探索ステップと、該画像探索ステップにより探索される前記基準画像が前記物体抽出ステップにより抽出された前記領域内に存在するか否かにより前記物体の種別を判定する判定ステップとを含む物体認識方法である
本発明によれば、人間やロボット等の形状が変化する物体についても精度よく認識することができるという効果を奏する。
本発明の一実施形態に係る物体認識装置を示す全体構成図である。 図1の物体認識装置により取得された3次元画像の一例を示す図である。 図2の3次元画像から抽出された物体の2値化画像の一例を示す図である。 図3において抽出された物体を含む探索領域の一例を示す図である。 図4において設定された探索領域に対応する2次元画像における探索領域の一例を示す図である。 図1の物体認識装置を用いた物体認識方法を説明するフローチャートである。 図1の物体認識装置により取得された3次元画像における3次元傾きの一例を示す図である。 図7の3次元画像から抽出された物体の2次元画像の一例を示す図である。 図1の物体認識装置のアプリケーションの一例であるロボットシステムを示す平面図である。 図9のロボットシステムの正面図である。
本発明の一実施形態に係る物体認識装置1および物体認識方法について、図面を参照しながら以下に説明する。
本実施形態に係る物体認識装置1は、図1に示されるように、所定の監視領域Aを撮影する撮像部2と、該撮像部2により取得された2次元画像G2および3次元画像G1に基づいて物体の種別を認識する画像処理部3とを備えている。
撮像部2は、監視領域Aを含む領域を撮影して監視領域Aの2次元画像G2を取得する2次元カメラ4と、監視領域Aの3次元画像G1を取得する3次元カメラ5とを備えている。2次元カメラ4と3次元カメラ5との相対位置は予め設定されており、2次元カメラ4により取得される2次元画像G2の各画素位置と3次元カメラ5により取得される3次元画像G1の各画素位置とは、相互に精密に対応づけられている。なお、2次元カメラ4と3次元カメラ5とは別体ではなく一体であってもよい。
3次元カメラ5は、例えば、監視領域Aの上方に鉛直下向きに配置されている。2次元カメラ4は、図1に示す例では、3次元カメラ5に対して若干角度を設けることにより、3次元カメラ5と同一の監視領域Aを視野内に配置して、監視領域Aを平面視した2次元画像G2を取得するようになっている。一方、3次元カメラ5は、監視領域A内の各部の高さの分布を示す3次元画像G1を取得するようになっている。
画像処理部3は、3次元カメラ5により取得された3次元画像G1において、監視領域A内の物体Bを抽出する物体抽出部6と、該物体抽出部6により抽出された物体Bを含む探索領域C1を設定する探索領域設定部7と、探索領域設定部7において設定された探索領域C1を2次元カメラ4により取得された2次元画像G2内の探索領域C2に変換する画像対応演算部8と、2次元画像G2の探索領域C2内において基準画像Mと同一の画像を探索する画像探索部9と、探索領域C2内に基準画像Mと同一の画像が発見されたか否かによって物体Bの種別を判定する判定部100とを備えている。
本実施形態においては、物体Bとして、図2に示されるように、頭部、例えば、ヘルメットに正方形のマークM1を付与した人間および、天板に三角形のマークM2を付与した作業台を例示している。
物体抽出部6による物体Bの抽出は、3次元画像G1における監視領域A内の所定の高さ範囲に配置されている画素を物体Bが存在する領域であるとして抽出するようになっている。具体的には、図3に示されるように、3次元画像G1の画素値を所定の値によって2値化することにより、地表からの高さが所定の高さ以上である領域を物体Bとして抽出するようになっている。そして、物体抽出部6は、2値化により抽出された画素が連続する領域を単一の物体Bを表す領域であるとして抽出するようになっている。
探索領域設定部7は、物体抽出部6により抽出された物体Bを表す領域を、図4に示されるように、当該抽出された領域を含みかつ単純な形状、例えば、長方形の形状を有する領域(以下、探索領域という。)C1に置き換えるようになっている。
画像対応演算部8は、2次元画像G2と3次元画像G1との対応位置関係を示すデータを記憶しており、図4に示されるように探索領域設定部7により設定された3次元画像G1内の探索領域C1を図5に示されるように2次元画像G2内の探索領域C2に変換して画像探索部9に送るようになっている。
画像探索部9は、探索すべき基準画像、例えば、人間に付された正方形のマークM1および作業台に付された三角形のマークM2と同一形状の基準画像Mをそれぞれ記憶している。すなわち、四角形の基準画像Mを人間と対応付け、三角形の基準画像Mを作業台と対応づけて記憶している。
画像探索部9は、公知のパターンマッチング等の画像処理により、画像対応演算部8から送られて来た2次元画像G2の探索領域C2内において各基準画像Mと同一の画像を探索するようになっている。
そして、基準画像Mと同一の画像が2次元画像G2の探索領域C2内において発見された場合には、判定部100において、物体Bの種別が、基準画像Mに対応づけられた種別であると認識され、発見されない場合には、物体Bの種別が異物であると認識されるようになっている。
このように構成された本実施形態に係る物体認識装置1を用いた物体認識方法について以下に説明する。
本実施形態に係る物体認識方法は、図6に示されるように、撮像部2により監視領域Aの2次元画像G2および3次元画像G1を取得する撮像ステップS1と、3次元画像G1から物体Bの存在する領域を抽出する物体抽出ステップS2と、物体Bが抽出されたか否かを判定するステップS3と、物体Bが抽出された場合に、2次元画像G2において、記憶している基準画像Mと同一のマークを探索する画像探索ステップS4と、基準画像Mと同一のマークが探索領域C2内に発見されたか否かを判定するステップS5と、発見された否かによって物体Bの種別を判定する判定ステップS6,S7とを含んでいる。
ステップS3において物体Bが抽出されなかったと判定された場合には、ステップS1からの工程が繰り返されるようになっている。
ステップS5においてマークが発見されなかった場合には、探索が終了したか否かを判定し(ステップS8)、終了している場合には、判定ステップS7において物体Bが異物であると認識されるようになっている。探索が終了していない場合には、ステップS4からの工程が繰り返される。
ステップS5において、マークが探索領域C2内に発見された判定されたと判定された場合には、判定ステップS6において、当該物体Bが基準画像Mに対応する物体であると認識され、探索が終了したか否かを判定し(ステップS9)、終了していない場合にはステップS4からの工程が繰り返される。
このように、本実施形態に係る物体認識装置1および物体認識方法によれば、3次元画像G1によって物体Bの存否を認識し、2次元画像G2によって物体Bの種別を認識するので、人間やロボットのように形状が変化する物体Bであってもより確実に物体Bの種別を認識することができるという利点がある。
また、本実施形態においては、全ての人間にマークM1を付与することにより、マークM1が探索領域C1,C2に検出されればその物体Bが人間であると認識できるが、特定の人間のみにマークM1を付与することにより、物体Bが特定の人間であるということも認識できるという利点もある。
また、本実施形態においては、3次元カメラ5によって取得された3次元画像G1において、所定範囲の高さ情報を有する連続した領域を単一の物体Bとして抽出するので、人間のみならず人間が持っている物品についても物体Bの一部として認識することができる。
また、3次元画像G1から抽出された物体Bを包含する探索領域C1,C2として長方形等の単純な形状の領域を定義したので、基準画像Mが探索領域C2内に存在するか否かを簡易に判定することができる。
また、本実施形態においては、画像探索部9が、3次元カメラ5によって取得された3次元画像G1の各部の高さ情報(3次元カメラ5からの距離情報)に基づいて、基準画像Mの縮尺を調整することにしてもよい。2次元画像G2内において物体Bに付されているマークM1,M2は物体Bの高さに応じて、その大きさが変化するので、高さが高い位置にマークM1,M2が付されている場合には、基準画像Mの大きさを大きく、高さが低い位置にマークM1,M2が付されている場合には、基準画像Mの大きさを小さくするように調節する。これにより、2次元画像G2内における基準画像Mと同一の画像の探索を容易に行うことができる。
また、画像探索部9が、3次元カメラ5によって取得された3次元画像G1の各部の高さ情報に基づいて、物体Bに付されているマークM1,M2が3次元カメラ5の光軸に対して傾斜した面に付されている場合には、3次元カメラ5の光軸に対する傾斜角度に基づいて基準画像Mを変形して探索を行うことにしてもよい。すなわち、図7に示されるように、3次元画像G1における各部の高さ情報hに基づいて、各部の法線ベクトルVを求めることができ、求められた法線ベクトルVの方向に従って、長方形の基準画像Mを台形状に変形すればよい。
図8に示されるように、2次元画像G2内に写っているマークM1,M2は、高さが低い方向に漸次小さくなる台形状になっているため、台形状の基準画像Mを用いてマークM1,M2の位置を容易に探索することができるという利点がある。
次に、本実施形態に係る物体認識装置1および物体認識方法を用いたロボットシステム70およびロボット制御方法について説明する。
このロボットシステム70は、図9および図10に示すように、所定の作業を行うロボット10と、ロボット10が作業を行う作業台20と、ロボット10および作業台20を囲う安全柵30とを備えている。
このロボットシステム70では、作業者Sが作業台20上の治具、型、ワーク等の交換や調整を行う際に、作業者Sが作業台20の上方に手や頭を配置する場合がある。作業台20を挟んでロボット10とは反対側に位置する部分において、安全柵30における一部分に作業者Sが作業台20にアクセスするための開口部31が設けられている。
このロボットシステム70は、作業台20の上方に設けられ、ロボット10の作業領域の少なくとも一部と作業者Sが侵入し得る領域の少なくとも一部とが写されるように図9および図10に二点鎖線で示されている視野Wで2次元画像G2および3次元画像G1を、所定のフレームレートで時間間隔をあけて取得する撮像部40と、安全柵30により支持された表示装置50とをさらに備えている。表示装置50は、液晶画面を有し、開口部31の近くの作業者Sから見える位置に配置されている。
ロボット10は、例えば、床面に固定された6軸多関節型のロボットであり、作業台20上のワーク(図示略)の移動、ワークへの加工等を行うように構成されている。ロボット10の形態は任意でよい。
ロボット10は、ロボット制御部16に接続され、該ロボット制御部16により各軸の動作が制御されるようになっている。
図9および図10においては、撮像部40を単一のカメラにより表示しているが、図1と同様に、例えば、ステレオカメラ、TOF(Time of Flight)方式の3次元カメラ5と、CCDあるいはCMOSイメージセンサのような2次元カメラ4とを別々に備えていてもよい。
このロボットシステム70は、撮像部40により取得された2次元画像G2および3次元画像G1に基づき、画像処理部3において、物体Bを識別し、識別結果を表示装置50に表示するとともにロボット制御部16にロボット10を制御させるようになっている。撮像部40および画像処理部3により、本実施形態に係る物体認識装置1が構成されている。
このロボットシステム70においては、時系列に取得された3次元画像G1において、図9および図10に示されるように、一点鎖線で囲われた作業者認識領域A1および斜線で示された共通作業領域A2が設定される。共通作業領域A2は作業者Sがアクセス可能であるとともにロボット10もアクセス可能な領域である。
また、このロボットシステム70においては、時系列に取得された3次元画像G1において図9および図10に示す作業者側境界B1およびロボット側境界B2が設定される。作業者側境界B1は作業者Sが共通作業領域A2にアクセスする際に越える境界面であり、ロボット側境界B2はロボット10が共通作業領域A2にアクセスする際に越える境界面である。
作業者認識領域A1および共通作業領域A2を監視領域として、時系列に取得された3次元画像G1により監視領域内の物体Bを抽出して探索領域C1を設定し、同時に時系列に取得された2次元画像G2の対応する探索領域C2内において基準画像、例えば、図9に示すようなマークMが存在しているか否かが判定される。マークMが存在している場合には、検出された物体Bは、安全監視対象の作業者Sであると認識され、マークMが存在していない場合には、非対象物体であると認識される。
図9に示す例では、マークMは作業者Sのヘルメットや帽子の上面に付けられた3つの黒い正方形着色部からなる。3つの正方形着色部は作業者Sの幅方向(左右方向)に並ぶように配置され、中央の正方形着色部は他の2つに対して作業者Sの前方に配置されている。これにより、マークMを見ると、作業者Sがどちらの方向を向いているかを判断または推定することができる。
本実施形態によれば、時系列に取得される2次元画像G2および3次元画像G1において作業者Sが安全監視対象として認識され、2次元画像G2および3次元画像G1中で追跡される。このため、2次元画像G2および3次元画像G1中で作業者Sを見失わずに監視することができる。これにより、作業者Sが侵入することが許容されていない境界(ロボット側境界B2)に侵入したことを確実に検出することができる。そして、侵入の検出によりロボット10を停止させ、あるいはロボット10に危険回避動作を行わせることができる。
3次元画像G1中において、作業者S側から共通作業領域A2にアクセスするために越える作業者側境界B1と、共通作業領域A2におけるロボット10側に存在するロボット側境界B2とが設定され、安全監視対象と認識されると作業者側境界B1を越えて共通作業領域A2にアクセスできるが、安全監視対象として認識されていない非対象物体は共通作業領域A2にアクセスするために越える作業者側境界B1への侵入が検出される。このため、例えば、作業者Sではなく安全作業の知識が十分でない者(マークMを付されていない者)が共通作業領域A2に向かって移動した時、作業者側境界B1に侵入した時点でその移動が検出されるので、例えば、ロボット10を停止させること、または、ロボット10に危険回避動作を行わせることにより、安全作業の知識が十分でない者がロボット10と接触することが回避される。
また、ロボット10は非対象物体であるから、ロボット10が共通作業領域A2を通過して作業者側境界B1を越える等の異常が生じた場合に、当該異常を検出することができる。または、共通作業領域A2内の治具やワーク等が作業者S側に意図せず移動する等の異常や、作業者Sが持っている治具やワークが作業者Sの手から離れて共通作業領域A2内に入る等の異常がある場合に、これらの異常を検出することができる。
なお、3次元画像G1中で作業者Sを追跡する際に、1フレーム前でマークMが認識された近傍においてマークMの照合を試みる構成とすることにより、処理時間を短縮するとともに、誤検出の可能性を低減することが可能となる。
また、安全監視対象として認識される作業者Sは複数であってもよい。この場合は、複数の作業者Sの各々について前述と同様の処理が行われる。つまり、全ての作業者Sが認識されなくなるまで前述の安全監視の処理が行われる。
本実施形態では、非対象物体による侵入が検出されるとロボット10を停止させるので、作業者Sの安全の確保やロボット10の故障防止を図ることができる。
また、作業者Sだけではなく、作業者Sにより運搬される物品も安全監視対象となるので、当該物品とロボット10との接触等を防止することが可能になり、作業者Sの安全の確保やロボット10の故障防止を図ることができる。
また、非対象物体による侵入が検出された場合でもロボット10を共通作業領域A2の外で作業を継続するようにしてもよい。この場合、ロボット10の稼働率を下げることなく、作業者Sの安全が確保される。
また、本実施形態では、表示装置50を見ることで、作業者Sは、自らが安全監視対象として認識されているか否かを確認でき、安全監視対象として認識されていないのに共通作業領域A2で作業を行ってしまうことや、安全監視対象として認識されているか否かがわからずに待機する待機時間の発生が防止される。
また、基準画像Mは、作業者Sの身長および体格に関する情報に対応づけられていてもよい。3次元画像G1は、該3次元画像G1中の作業者Sの頭部や肩部の高さ情報を有するので、基準画像Mに作業を許可された作業者Sの頭部や肩部の高さ情報を対応づけることにより、ヘルメットにマークMを付けた者が作業を許可された作業者Sであるか否かを判断することが可能となる。
この場合、ヘルメットにマークMを付けているが作業を許可された者ではないと判断されたときには、その者は非対象物体であると認識され、作業者側境界B1に侵入した際にはロボット10を停止させることになる。
また、ロボット10にもロボット用マークを付け、2次元画像G2中においてロボット10に付けられたロボット用マークを探索してロボット10を認識するための他の基準画像を格納していてもよい。この場合、作業者Sと同様にロボット10も安全監視対象として認識し、また、安全監視対象以外の物体がロボット側境界B2に侵入したことを検出するように構成できる。
これにより、ロボット10の位置も追跡することができるようになり、共通作業領域A2において作業者Sが越えることは許されるがロボット10が越えることは許されていない作業者側境界B1を越える場合や、ロボット10が通常とは異なる動きを行った場合等に、これら事象をすぐに知ることができ、安全性を向上する上で有利である。
なお、本実施形態では、3次元画像G1中において作業者認識領域A1、共通作業領域A2、作業者側境界B1、およびロボット側境界B2を設定した。これに代えて、床面にテープ等で作業者認識領域A1、共通作業領域A2、作業者側境界B1、およびロボット側境界B2を設けておき、2次元画像G2中に写るこれら領域および境界を作業者認識領域A1、共通作業領域A2、作業者側境界B1、およびロボット側境界B2として用いることも可能である。この場合、3次元画像G1中で検出された物体Bが、作業者側境界B1やロボット側境界B2に重なった時に、これら境界に物体Bが侵入したと判断されればよい。
1 物体認識装置
2,40 撮像部
6 物体抽出部
7 探索領域設定部
9 画像探索部
10 ロボット
16 ロボット制御部
70 ロボットシステム
100 判定部
A 監視領域
A1 作業者認識領域(監視領域)
A2 共通作業領域(監視領域)
B 物体
C1,C2 探索領域
M 基準画像
G1 3次元画像
G2 2次元画像
S1 撮像ステップ
S2 物体抽出ステップ
S4 画像探索ステップ
S5 判定ステップ

Claims (2)

  1. 所定の監視領域を撮影して3次元画像および2次元画像を取得する撮像部と、
    該撮像部により取得された前記3次元画像において、所定範囲の画素値を有する領域を抽出する物体抽出部と、
    前記撮像部により取得された前記2次元画像において、物体の種別に応じて予め登録された基準画像を探索する画像探索部と、
    該画像探索部により探索される前記基準画像が前記物体抽出部により抽出された前記領域内に存在するか否かにより、前記物体が前記基準画像に対応付けられている安全監視対象であるか前記基準画像に対応付けられていない非対象物体であるかを判定する判定部とを備える物体認識装置と、
    前記監視領域内の所定の作業領域で作業するロボットと、
    該ロボットを制御するロボット制御部とを備え、
    前記物体認識装置が、前記物体が前記安全監視対象であると認識した場合は、前記物体が前記作業領域に侵入するのを許容する一方、前記物体が前記非対象物体であると認識した場合は、前記物体が前記作業領域に侵入するのを検出し、
    前記ロボット制御部が、前記物体認識装置によって前記作業領域への前記非対象物体の侵入が検出された場合に前記ロボットを停止させるロボットシステム。
  2. 所定の監視領域を撮影して3次元画像および2次元画像を取得する撮像ステップと、
    該撮像ステップにより取得された前記3次元画像において、所定範囲の画素値を有する領域を抽出する物体抽出ステップと、
    前記撮像ステップにより取得された前記2次元画像において、物体の種別に応じて予め登録された基準画像を探索する画像探索ステップと、
    該画像探索ステップにより探索される前記基準画像が前記物体抽出ステップにより抽出された前記領域内に存在するか否かにより、前記物体が前記基準画像に対応付けられている安全監視対象であるか前記基準画像に対応付けられていない非対象物体であるかを判定する判定ステップと、
    該判定ステップにより前記物体が前記安全監視対象と識別された場合は、ロボットが作業する前記監視領域内の所定の作業領域に前記物体が侵入するのを許容する一方、前記物体が前記非対象物体と識別された場合は、前記物体が前記作業領域に侵入するのを検出する検出ステップと、
    該検出ステップにより前記作業領域への前記非対象物体の侵入が検出された場合に前記ロボットを停止させるロボット停止ステップとを含むロボット制御方法。
JP2019108549A 2019-06-11 2019-06-11 ロボットシステムおよびロボット制御方法 Active JP6806845B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019108549A JP6806845B2 (ja) 2019-06-11 2019-06-11 ロボットシステムおよびロボット制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019108549A JP6806845B2 (ja) 2019-06-11 2019-06-11 ロボットシステムおよびロボット制御方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016191125A Division JP2018055429A (ja) 2016-09-29 2016-09-29 物体認識装置および物体認識方法

Publications (2)

Publication Number Publication Date
JP2019193974A JP2019193974A (ja) 2019-11-07
JP6806845B2 true JP6806845B2 (ja) 2021-01-06

Family

ID=68469143

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019108549A Active JP6806845B2 (ja) 2019-06-11 2019-06-11 ロボットシステムおよびロボット制御方法

Country Status (1)

Country Link
JP (1) JP6806845B2 (ja)

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61244493A (ja) * 1985-04-24 1986-10-30 株式会社東芝 ロボツト装置
JP2921496B2 (ja) * 1996-07-15 1999-07-19 三菱電機株式会社 画像処理装置および物体移載装置
JP4048779B2 (ja) * 2001-12-28 2008-02-20 松下電工株式会社 距離画像処理装置
JP2006003263A (ja) * 2004-06-18 2006-01-05 Hitachi Ltd 視覚情報処理装置および適用システム
JP4548784B2 (ja) * 2005-08-29 2010-09-22 株式会社不二越 ロボット制御装置、ロボットシステム及びプログラム
JP2010120139A (ja) * 2008-11-21 2010-06-03 New Industry Research Organization 産業用ロボットの安全制御装置
JP5343641B2 (ja) * 2009-03-12 2013-11-13 株式会社Ihi ロボット装置の制御装置及びロボット装置の制御方法
JP5447044B2 (ja) * 2010-03-18 2014-03-19 株式会社デンソーウェーブ ロボットシステム
US9043025B2 (en) * 2012-08-31 2015-05-26 Rethink Robotics, Inc. Systems and methods for safe robot operation
JP5549724B2 (ja) * 2012-11-12 2014-07-16 株式会社安川電機 ロボットシステム
JP2015100873A (ja) * 2013-11-25 2015-06-04 セイコーエプソン株式会社 ロボットシステム及びロボット
JP6397226B2 (ja) * 2014-06-05 2018-09-26 キヤノン株式会社 装置、装置の制御方法およびプログラム

Also Published As

Publication number Publication date
JP2019193974A (ja) 2019-11-07

Similar Documents

Publication Publication Date Title
US10482341B2 (en) Object recognition device and object recognition method
JP6360105B2 (ja) ロボットシステム
US10347005B2 (en) Object state identification method, object state identification apparatus, and carrier
US20040227816A1 (en) Intruding object monitoring system
US20180341823A1 (en) Processing method for distinguishing a three dimensional object from a two dimensional object using a vehicular system
US10445887B2 (en) Tracking processing device and tracking processing system provided with same, and tracking processing method
US10163225B2 (en) Object state identification method, object state identification apparatus, and carrier
KR101967305B1 (ko) 차량의 보행자 인식 방법 및 차량의 보행자 인식 시스템
JP2005538278A (ja) ステレオドアセンサ
JP7043968B2 (ja) 監視システムおよび監視方法
KR20140056790A (ko) 영상 인식 장치 및 그 방법
JP2007293627A (ja) 車両の周辺監視装置、車両、車両の周辺監視方法、および車両の周辺監視用プログラム
JP5539250B2 (ja) 接近物体検知装置及び接近物体検知方法
CN110926330A (zh) 图像处理装置和图像处理方法
US10521679B2 (en) Human detection device, human detection system, human detection method, and human detection program
CN109886064A (zh) 确定可驾驶空间的边界的方法
KR20140114594A (ko) 사람 객체 추적을 통한 자동 카메라 보정 방법
JP6806845B2 (ja) ロボットシステムおよびロボット制御方法
JP6860445B2 (ja) 物体距離検出装置
JP4817384B2 (ja) 移動物体検出装置及び移動物体検出装置用プログラム
JPH07294251A (ja) 障害物検出装置
TWI520110B (zh) 判斷物體是否進入隨選區域之立體視覺偵測方法與系統
KR20160088986A (ko) 소실점 기반의 양안시차를 이용한 차선 검출 방법
JP4567072B2 (ja) 車両周辺監視装置
WO2020111053A1 (ja) 監視装置、監視システム、監視方法、監視プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190611

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201204

R150 Certificate of patent or registration of utility model

Ref document number: 6806845

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150