JP6397226B2 - 装置、装置の制御方法およびプログラム - Google Patents

装置、装置の制御方法およびプログラム Download PDF

Info

Publication number
JP6397226B2
JP6397226B2 JP2014117095A JP2014117095A JP6397226B2 JP 6397226 B2 JP6397226 B2 JP 6397226B2 JP 2014117095 A JP2014117095 A JP 2014117095A JP 2014117095 A JP2014117095 A JP 2014117095A JP 6397226 B2 JP6397226 B2 JP 6397226B2
Authority
JP
Japan
Prior art keywords
work
information
worker
robot
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014117095A
Other languages
English (en)
Other versions
JP2015230621A5 (ja
JP2015230621A (ja
Inventor
祐介 中里
祐介 中里
小林 一彦
一彦 小林
鈴木 雅博
雅博 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014117095A priority Critical patent/JP6397226B2/ja
Priority to US14/726,958 priority patent/US9943961B2/en
Publication of JP2015230621A publication Critical patent/JP2015230621A/ja
Publication of JP2015230621A5 publication Critical patent/JP2015230621A5/ja
Priority to US15/867,136 priority patent/US10603791B2/en
Application granted granted Critical
Publication of JP6397226B2 publication Critical patent/JP6397226B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM]
    • G05B19/4183Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS], computer integrated manufacturing [CIM] characterised by data acquisition, e.g. workpiece identification
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/31From computer integrated manufacturing till monitoring
    • G05B2219/31289Read card with operator and another card with process, product, work order info
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40202Human robot coexistence
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Description

本発明は、情報処理装置の制御方法およびプログラムに関する。
ロボットと作業者が共同で作業するロボットシステムでは、作業者の安全を図ることが必須である。そのため、特許文献1では、ライトカーテンなどによりロボットの動作範囲と作業者の作業範囲を分離し、ロボットの動作範囲に作業者が侵入した場合にロボットを停止したり、ロボットの駆動を所定速度以下に減速させたりしている。
特開2007−283448号公報
しかしながら、共同作業する作業者はロボットがどのように動くかを知っているにもかかわらず、ロボットに近づいただけでロボットが停止したり動作が遅くなったりしてロボットシステムによる作業全体の稼働率が低下してしまうという課題がある。
本発明は、上記の課題に鑑みてなされたものであり、ロボットと作業者が共同で作業することが可能なロボットシステムの安全性を保ちつつ、作業効率を向上させることを目的とする。
上記の目的を達成する本発明に係る装置は、
作業者を識別する識別情報と、前記作業者の身体的特徴と、前記作業者が行った作業の動作軌跡とを保持する保持手段と、
前記作業者を認識するための計測データを取得する取得手段と、
前記識別情報と、前記計測データとに基づいて、前記作業者を認識する認識手段と、
前記認識された作業者について前記保持手段に保持された身体的特徴及び作業の動作軌跡に基づいて、前記認識された作業者とロボットとが対象物体に対して協調して作業を行う際の前記作業者の位置および姿勢を予測し、当該作業者の姿勢の変化が少なくなるように、前記ロボットを制御する制御手段と、
を備えることを特徴とする。
本発明によれば、ロボットと作業者が共同で作業することが可能なロボットシステムの安全性を保ちつつ、作業効率を向上させることができる。
実施形態1乃至4に係る情報処理装置1の構成を示す図。 実施形態1乃至4に係る個人情報を説明する図。 実施形態1乃至4に係る作業工程情報を説明する図。 実施形態1乃至4に係る処理の概略を示す図。 実施形態5に係る情報処理装置2の構成を示す図。 実施形態6に係る情報処理装置3の構成を示す図。
以下、添付図面を参照しながら、本発明の実施形態について詳細に説明する。
(実施形態1)
<1.概要>
実施形態1では、作業を行う人物を認識し、認識した人物の属性や身体特徴などに応じて、作業者に適した速度でロボットを駆動させることで時間効率良く作業することが可能なロボットシステムについて述べる。本実施形態では、作業者の熟練度や過去に実施した作業工程情報やタクトタイムなどの作業履歴、身体特徴などに応じて、ロボットの駆動速度を変更する。例えば、作業に慣れていない作業者に対してはゆっくり駆動させて心理的負担を軽減し、熟練者には速い速度で駆動し、作業効率を向上させる。
<2.構成>
図1を参照して、本実施形態における情報処理装置1の構成について説明する。情報処理装置1は、個人情報保持部110と、作業工程情報保持部120と、計測部130と、人物認識部140と、作業情報管理部150と、制御部160を備えている。不図示のCPUがRAMやROM等のメモリからプログラムを呼び出して実行することにより、各処理部の動作が制御される。
情報処理装置1は、ロボットコントローラ170、コントローラ180と接続されている。ロボットコントローラ170はロボット171を制御する。コントローラ180は、ロボットコントローラ182、184と無線で接続されており、ロボットコントローラ182、184はそれぞれ作業ロボット181、搬送ロボット183を制御する。作業者190がロボット171の側で作業を行っている。
個人情報保持部110は、図2に示すように個人を識別する識別情報112及び、作業に関係する該個人の身体特徴や作業履歴などの属性情報113を含む個人情報111を1つ以上保持する。
識別情報112は、各個人のIDや名前など個人を特定するための情報や、人物認識部140が計測部130により計測された情報と照合するための情報を含む。本実施形態では、識別情報112として、該個人のIDと名前及び1つ以上の顔画像を保持する。属性情報113は、該個人の身体特徴や作業履歴、該個人が保持する技術や資格などの作業動作に関係する属性を含む。これらの情報は、作業情報管理部150や制御部160により利用される。本実施形態では、属性情報113として、作業毎の該個人のタクトタイムを保持する。
作業工程情報保持部120は、図3に示すような作業工程情報121を1つ以上保持する。作業工程情報121は、作業を行う作業者の作業者条件情報122と作業内容情報123とを保持する。作業者条件情報122は、作業を行う個人のIDや名前など個人を特定する情報や、作業内容を実施する作業者の条件を含む。作業内容情報123は、作業手順や作業に必要な道具、協調作業するロボットやその動作プログラム、作業場所や領域など作業の内容に関する情報の少なくなくとも一つを含む。本実施形態における作業工程情報121は、作業者条件情報122として作業を行う個人のIDを、作業内容情報123としてロボットの動作プログラムを保持する。
計測部130は、個人情報保持部110で保持する個人の識別情報と照合するための情報を取得する。本実施形態ではカメラを用いて環境の画像を取得する。
人物認識部140は、個人情報保持部110で保持する個人の識別情報と、計測部130で取得した情報とを照合して人物を認識する。具体的には計測部130で取得した画像から、公知の技術(Paul Viola and Michael Jones. "Rapid object detection using a boosted cascade of simple features." Computer Vision and Pattern Recognition, 2001. CVPR 2001. Proceedings of the 2001 IEEE Computer Society Conference on. Vol. 1. IEEE, 2001.など)を用いて顔を検出する。次に検出した顔と、個人情報保持部110で保持する個人の顔の画像を公知の技術(Matthew Turk and Alex Pentland. "Eigenfaces for recognition." Journal of cognitive neuroscience 3.1 (1991): 71-86.など)を用いて照合する。照合の結果、合致する人物が見つかればその人物を認識し、当該認識した個人のIDを作業情報管理部150に伝達する。また検出した人物が照合できなかった場合、未確認人物として認識し、作業情報管理部150に伝達する。
作業情報管理部150は、人物認識部140により認識された人物に基づいて、個人情報保持部110で保持する個人情報111及び、作業工程情報保持部120で保持する作業工程情報121を取得してロボット及び作業者が行う作業を管理する。具体的には、人物認識部140により認識された個人のIDと一致する個人情報111と作業工程情報121とを取得し、その組を作業情報として保持する。
制御部160は、作業情報管理部150が管理する作業情報に基づいて1つ以上のロボットを制御する。作業情報は、個人情報111と作業工程情報121の組である。作業情報管理部150から作業情報を取得し、ロボットの動作プログラムを当該作業情報が保持する作業内容情報123から取得する。そしてロボットの駆動速度を個人情報111が保持するタクトタイムに基づいて設定し、当該動作プログラムを用いてロボットを制御・駆動する。具体的には、タクトタイムに反比例して駆動速度が速くなるように、タクトタイムを引数にして駆動速度を戻り値とする単調減少関数を用いて、駆動速度を設定する。これによりタクトタイムの長い作業者に対してはゆっくり駆動させて心理的負担を軽減し、タクトタイムの短い熟練者には速い速度で駆動することができ、作業効率が向上する。なお、本実施形態ではロボットは図1に示す把持動作が可能なロボット171を用いる。ロボット171はロボットコントローラ170を介して制御部160により制御される。
<3.処理の流れ>
図4のフローチャートを参照して、本実施形態に係る情報処理装置1が実施する処理の手順を説明する。なお、個人情報111及び作業工程情報121は事前に個人情報保持部110及び作業工程情報保持部120にそれぞれ登録されているものとする。
(ステップS1010)
ステップS1010において、計測部は、人物認識部140が照合に使用するための計測データを取得する。ここでは計測データとして環境の画像を取得する。
(ステップS1020、S1025)
ステップS1020において、人物認識部140は、計測部130により取得された計測データ(画像)から人物を検出し、個人情報保持部110が保持する個人の識別情報112(顔画像)と照合し、個人を認識する。そもそも人物を検出できなければ(S1025;No)、ステップS1010に遷移して再度計測を行う。一方、個人または未確認人物が認識されれば(S1025;Yes)、ステップS1030に遷移する。
(ステップS1030)
ステップS1030において、作業情報管理部150は、ステップS1020で認識された人物のIDに一致する個人情報111を個人情報保持部110から取得する。
(ステップS1040)
ステップS1040において、作業情報管理部150は、ステップS1020で認識した人物のIDに一致する作業工程情報121を作業工程情報保持部120から取得する。
(ステップS1050)
ステップS1050において、作業情報管理部150は、ステップS1020で認識された人物が担当する作業工程情報121が取得できない場合(すなわち、認識した個人のIDに一致する作業工程情報が作業工程情報保持部120で保持する作業工程情報121に存在しない場合)、未確認人物が認識されたと判断して、ステップS1070に遷移する。一方、認識した個人のIDに一致する作業工程情報が取得できる場合、ステップS1060に遷移する。
(ステップS1060)
ステップS1060において、作業情報管理部150は、ステップS1030で取得された個人情報111とステップS1040で取得された作業工程情報との組を作業情報として保持する。
(ステップS1070)
ステップS1070において、制御部160は、作業情報管理部150により保持されている作業情報に基づいてロボット171を制御し、作業者190とロボット171との共同作業を実施する。作業者190が未確認人物でなければ、作業情報が保持する個人のタクトタイムに反比例してロボット171の駆動速度を設定する。またロボット171の制御をしつつ、バックグラウンドで計測及び人物認識を行っても良い。
(ステップS1080)
ステップS1080において、制御部160は、情報処理装置1の電源のOFFや、作業停止指示の入力等のイベントの有無に基づいて、処理を終了するか否かを判定する。処理を終了すると判定された場合、図4のフローチャートの一連の処理を終了する。一方、処理を終了しないと判定された場合、ステップS1010に遷移して、一連の処理を繰り返す。
<4.変形例>
本実施形態では、個人情報保持部110が、個人のIDと名前及び1つ以上の顔画像を保持する識別情報112及び、個人の作業毎のタクトタイムを保持する属性情報113を含む個人情報111を1つ以上保持する例を説明した。しかしながら、識別情報112や属性情報113はこれらのものに限定されない。
識別情報112は個人を特定できる情報であればよい。顔や身体の2次元画像や距離画像、3次元モデルであっても良いし、SIFTやSpinImages(A.E. Johnson and M. Hebert, "Using Spin Images for Efficient Object Recognition in Cluttered 3D Scenes," IEEE Trans. on PAMI,vol.21,no.5,pp.433−449,1999.)などの特徴量の集合であっても良い。また身長、体重、胸囲などのパラメータや、指紋、静脈、虹彩、声、筆跡、歩き方などの身体特徴を表す画像や動画像等の特徴量であっても良い。署名やパスワード、ジェスチャなどの所定のパターンやIDカードなどの個人を識別できるものであっても良い。さらに識別情報の組み合わせであっても良い。
属性情報113は、作業に関連する属性の少なくとも一つを有していればよい。個人の身長や体重、利き手や癖(作業の動作モーションなど)などの身体特徴であっても良いし、該個人が過去に行った作業やその作業を経験した時間などの作業履歴、該個人が保有する技術や知識、熟練度、資格のリストなどであっても良い。
また、本実施形態では、作業工程情報保持部120が、作業におけるロボットの動作プログラムを保持する作業内容情報123と、その作業を実施する個人のIDを保持する作業者条件情報122との組を含む作業工程情報121を1つ以上保持する例を説明した。しかしながら、作業工程情報121は当該例に限らず、作業を行う作業者の作業者条件と、作業内容とを保持していればよい。
作業者条件情報122は、作業を行う個人のIDや名前など作業者を特定する情報、あるいは作業内容を実施する作業者の条件を有していれば良い。作業者条件情報122は、個人情報保持部110が保持する個人情報111の属性情報113に対応し、属性情報113と照合して条件を満たす作業者を探索する場合に使用される。
また、作業内容情報123は、作業手順や作業に必要な道具、協調作業するロボットやその動作プログラム、作業場所や領域、作業時刻など作業の内容に関する情報の少なくなくとも一つを有していればよい。作業手順は作業者の作業工程表であっても良いし、ロボットの動作プログラムや作業の過程におけるロボットや作業者の軌跡や位置・姿勢のリストであっても良い。作業道具の情報は道具の名前や形状、置いてある位置や姿勢、使い方やロボットがその道具を使うためのプログラムであっても良い。作業場所や領域は、作業者やロボットが作業する位置及び、作業範囲や侵入すると危険な領域を示す地図や2次元領域、3次元領域であっても良い。
また、本実施形態では、計測部130が環境の画像を取得するカメラである例を説明した。しかしながら、計測部130は、個人情報保持部110が保持する各個人の識別情報112と照合する情報を取得できればよい。レンジセンサやRGB−Dカメラなどの計測装置で2次元画像や距離画像を取得しても良いし、それらの情報から3次元モデルや特徴量を取得しても良い。計測装置はサーモセンサや赤外線カメラであっても良いし、計測装置が複数あっても良い。また重量計やマイクであっても良いし、指紋、静脈、虹彩などを計測するセンサであっても良い。タッチパネルやスキャナ、キーボード、IDカードリーダーなどの入力装置であっても良い。さらに各計測部の組み合わせであっても良く、個人を特定できる情報を取得できれば良い。
また、本実施形態では、人物認識部140が、計測部130で取得した画像から、公知の技術で人物を検出し、公知の技術で個人情報保持部110が保持する人物の顔画像と照合して人物を認識する例を説明した。しかしながら、人物認識部140の構成は画像を用いた手法に限らない。個人情報保持部110が保持する人物の識別情報112と計測部130が取得した計測データとを照合し、計測された人物を認識できればよい。例えば、計測部130がレンジセンサやRGB−Dカメラであっても、公知の技術(Abate, Andrea F., et al. "2D and 3D face recognition: A survey." Pattern Recognition Letters 28.14 (2007): 1885-1906.など)を用いて照合することができる。各種センサで計測したデータと指紋、静脈、虹彩、筆跡、声、歩き方などを照合しても良い。指紋や静脈、虹彩、筆跡などの照合は、識別情報112として登録したそれらの画像と、計測部130で計測した画像とのパターンマッチングをすることで照合できる。声の場合は、識別情報112として登録した声紋と、計測部130で計測した声紋とのパターンマッチングを行うことで照合できる。また歩き方の場合は、計測部130で取得した動画像から公知技術(Y. Makihara, R. Sagawa, Y. Mukaigawa, T. Echigo, and Y. Yagi, "Which Reference View is Effective for Gait Identification Using a View Transformation Model?", Proc. of the IEEE Computer Society Workshop on Biometrics 2006, New York, USA, Jun. 2006.など)を用いて照合できる。タッチパネルやキーボードなどの入力装置でパスワードやジェスチャを入力し、事前に登録したパスワードやパターンなどの識別情報と照合しても良い。IDカードリーダーから読み取った個人のIDに合致する人物を認識しても良い。また人物が検出できても個人情報に合致する情報が見つからなければ、未確認人物として認識してもよい。さらに計測データに複数人の情報が含まれていれば、複数人を認識しても良い。
また、本実施形態では、作業情報管理部150が、人物認識部140で認識した個人について個人情報保持部110が保持する個人情報111と、該個人が担当する作業工程情報保持部120で保持する作業工程情報121とを取得し、その組を作業情報として保持する例を説明した。しかしながら、作業情報管理部150は、人物認識部140で認識した個人に応じて、個人情報保持部110が保持する個人情報111及び、作業工程情報保持部120が保持する作業工程情報121を取得して、ロボット及び作業者が行う作業を管理できればよい。事前に作業者が行う作業が作業工程情報121に登録されているのであれば、認識した個人の個人情報111とその個人が担当する作業工程情報121とを取得し、その組を作業情報として保持してもよい。認識した個人が行う作業が作業工程情報121に登録されていないのであれば、作業工程情報121が保持する作業者条件情報122と、認識した個人の属性情報113とを照合し、作業者条件情報122を満たす個人をその作業工程情報121に割り当てても良い。また、人物認識部140で該個人の位置や姿勢、動作などを計測しているのであれば、該個人の動作情報を該個人が実施している作業の時間や、タクトタイム、回数などの情報に変換し、作業情報としてさらに保持しても良い。
また、本実施形態では、制御部160が、作業情報管理部150が管理する個人情報111が保持する作業工程情報からロボットの動作プログラムを、個人情報111から実施する作業のタクトタイムを取得し、タクトタイムに応じた駆動速度でロボットを制御し、作業者との共同作業を行う例を説明した。しかしながら、制御部160は、作業情報管理部150が管理する作業情報に基づいて1つ以上のロボットを制御できればよい。タクトタイムとほぼ同じ時間で動作するようにロボットの駆動速度を設定しても良い。個人情報111にその作業を経験した時間を保持していれば、作業経験時間が長いほど熟練しているとして、ロボットの駆動速度を設定しても良い。作業者が熟練しているほど大きな値になる熟練度を個人情報に保持していれば、熟練度が高いほど駆動速度が速くなるようにロボットの駆動速度を設定しても良い。また作業者の身体特徴や過去の動作軌跡などを用いて作業動作のシミュレーションを行い算出したタクトタイムに基づいて、ロボットの駆動速度を設定しても良い。
また本実施形態で制御するロボットは図1のロボット171に示すようなロボットアームに限らない。作業者と共に作業する自動機械であればどのような形態、構成であっても良い。双腕のロボットアームであっても良いし、歩行ロボットや車輪のついたロボットなど移動部をもった作業ロボット181であっても良い。搬送用の自動走行車(搬送ロボット183)であっても良いし、ロボットが複数あっても良い。ここで作業ロボット181はコントローラ180からの指示を受けたロボットコントローラ182による制御に基づいて動作し、同様に搬送ロボット183はコントローラ180からの指示を受けたロボットコントローラ184による制御に基づいて動作する。
以上説明したように、作業を行う人物を認識し、認識した人物の属性や身体特徴などに応じて、作業者に適した速度でロボットを駆動させることができる。その結果、作業効率を向上させることができる。
(実施形態2;作業者の身体特徴に合わせて軌道を変更)
実施形態2では、作業者の属性や身体特徴などに応じてロボットの位置・姿勢や軌道を設定し、作業者の負担を減らし、時間効率良く作業することが可能なロボットシステムについて述べる。より具体的には、作業者の身長や利き手、癖などの身体的特徴や過去に行った作業の動作モーションなどに基づいて、ロボットの位置・姿勢や軌道を設定する。例えば共同して作業する作業者の身長に合わせてロボットが部品を供給する位置を設定する。
装置の構成及び処理の流れは実施形態1と同様であり、ここではその差分を説明する。
本実施形態では個人情報保持部110は、各個人ごとに保持する属性情報113として、該個人が行った作業の作業動作軌跡を保持する。
制御部160は、作業情報管理部150が管理する作業者の属性情報113(作業者の作業動作軌跡)と作業工程情報121とに基づき、ロボットアームの軌跡を制御する。本実施形態ではロボットアームと作業者とが部品や道具などの物体の受け渡しを行って作業する。そこで、属性情報113が保持する作業者の過去の作業動作軌跡に基づき、作業者の手の位置付近にロボットアームのエンドエフェクタ(把持装置)を移動し、物体を受け取る、または渡す動作を行う。これにより作業者の移動が少なくなり、より短い時間で作業を実施することが可能となる。
<バリエーション>
個人情報保持部110が保持する属性情報113は作業動作軌跡に限らない。個人の身長や体重、利き手などの身体特徴であっても良い。その場合、制御部160が該個人の身長に比例した位置にロボットアームのエンドエフェクタ(把持装置)を移動し、物体を受け取る、または渡す動作を行っても良い。また該個人の身体特徴に基づき作業者の動作を公知技術(Reed, Matthew P., et al. "The HUMOSIM Ergonomics Framework: A new approach to digital human simulation for ergonomic analysis." SAE Technical Paper (2006): 01-2365.など)を用いてシミュレーションし、該個人の位置・姿勢、該個人の手の位置・姿勢などを予測し、予測した位置付近にロボットのエンドエフェクタを移動できるように、ロボットの位置・姿勢やアームなどの軌道を設定しても良い。さらにロボットはロボットアームでなくても良い。ロボットが搬送用の自動走行車(搬送ロボット)であっても良い。搬送ロボットから作業者が部品を取り出したり、置いたりする場合に、該個人の身体特徴や癖(作業者の作業動作軌跡)に基づき、該個人の姿勢変化が少なくなるような位置に搬送ロボットや搬送用の容器を移動させても良い。該個人の姿勢変化が少なくなるような位置は、該個人の身体特徴に基づき公知技術を用いてシミュレーションして決定しても良い。公知技術(Jamie Shotton, Toby Sharp, Alex Kipman, Andrew Fitzgibbon, Mark Finocchio, Andrew Blake, Mat Cook, and Richard Moore. 2013. Real-time human pose recognition in parts from single depth images. Commun. ACM 56, 1 (January 2013), 116-124. など)を用いて、該個人の姿勢を計測し、該個人の姿勢の変化が少なくなるように、搬送ロボットや搬送用の容器の位置を決定しても良い。該個人の姿勢の変化が少なくなる位置は、該個人の姿勢の変化量をコスト関数とし、コスト関数が最小となるように、非線型最適化や遺伝的アルゴリズムを用いて算出することができる。またロボットは複数あっても良い。
以上説明したように、本実施形態によれば、作業を行う人物を認識し、認識した人物の属性や身体特徴などに応じてロボットの位置姿勢や軌道を設定することにより、作業者の負担を減らすことができる。その結果、作業効率を向上させることができる。
(実施形態3;登録外の人物が近づいたら停止)
実施形態3では、人物認識部140が認識した個人の個人情報111と該個人の行う作業の作業工程情報121とに基づいて、作業者でない人物が作業領域に侵入した場合の危険を回避することが可能なロボットシステムについて述べる。
装置の構成及び処理の流れは実施形態1と同様であり、ここではその差分を説明する。
作業工程情報保持部120において、作業工程情報として作業者条件情報と作業者が行う作業内容情報を保持する。作業内容情報は作業者が作業を行う時刻と作業領域の範囲を保持する。
人物認識部140は、計測部130で計測した計測データと個人情報保持部110が保持する個人情報111とを照合して人物の認識を行う。さらに、その人物の位置を公知技術(Jamie Shotton, Toby Sharp, Alex Kipman, Andrew Fitzgibbon, Mark Finocchio, Andrew Blake, Mat Cook, and Richard Moore. 2013. Real-time human pose recognition in parts from single depth images. Commun. ACM 56, 1 (January 2013), 116-124. など)を用いて認識する。人物が検出されたが個人情報と合致する個人が見つからない場合は未確認人物として認識する。
作業情報管理部150は、人物認識部140が認識した個人の個人情報111および位置、該個人が実施する作業工程情報121を取得し、その組を作業情報として保持する。さらに該個人の位置(作業者位置)及び計測部130で計測した計測データを取得した時刻(計測データ取得時刻)と、作業工程情報121で保持する作業範囲及び作業時刻とを比較する。作業者位置が作業範囲内であり、かつ計測データ取得時刻が作業時刻の範囲外である場合、つまり認識した該個人が作業工程情報121で保持する作業時刻でない時刻に作業範囲内に入った場合、その作業者を未確認人物と判定する。
制御部160は、未確認人物が認識されない場合には、実施形態1乃至2と同様にロボットを制御する。一方、未確認人物が認識された場合には、危険を回避するために、ロボットの駆動速度を減速または停止する。
<バリエーション>
本実施形態では、制御部160が、未確認人物が検出された場合にロボットを減速または停止させる例について述べた。しかし、作業情報に基づいて注意喚起や危険回避できればどのような方法であっても良い。検出した人物の位置や姿勢を認識しているのであれば、その人物の位置からロボットが遠ざかる方向に移動しても良いし、未確認人物がロボットの稼働範囲などの危険な領域に侵入しないように、ロボットが未確認人物を遮るように移動しても良いし、未確認人物を安全な場所へ誘導しても良い。
以上説明したように、本実施形態によれば、作業者を認識し、作業者でない人物が作業領域に侵入した場合にロボットが回避行動をとることにより、予定された作業者の場合は通常通りに作業できる。その結果、効率を落とすことなく作業ができる。
(実施形態4;作業者への情報提示)
実施形態4では、上述の各実施形態に加えて、システムの状態を提示する機能をさらに有するロボットシステムについて述べる。
本実施形態では、人物の認識状態を提示する例について述べる。実施形態3では認識した人物が作業を実施する人物でない場合にロボットを減速、停止することで安全を確保していた。本実施形態では認識した人物が作業を実施する人物でない場合に、周囲に警告情報を提示することにより安全を図る。
本実施形態では、情報処理装置2の構成を図5に示す。情報処理装置2は、図1に示す情報処理装置1の構成に加えて、提示部270をさらに有する。個人情報保持部210乃至制御部260は実施形態3の個人情報保持部110乃至制御部160と同様である。また、その他のシステム構成の参照符号は上述の実施形態で既に説明した構成と同様である。
提示部270は、人物認識部240または作業情報管理部250において未確認人物が認識された場合に、スピーカから音声による警告音声を出力する。これにより未確認人物や作業者、作業を管理する者などの人物に対して注意を喚起し、安全性を維持しつつ作業をすることができる。
<バリエーション>
提示部270は、人物認識部240、作業情報管理部250及び制御部260の少なくとも1つの状態、より具体的には、人物認識部240による個人の認識状態を示す情報、作業情報管理部により管理される個人が実施する作業工程情報、および制御部260により制御されるロボットの制御状態を示す情報の少なくとも1つを提示できれば良い。提示するのに用いる装置はスピーカやブザーなど音声を発生する装置であっても良いし、ディスプレイやランプ、LEDなどの光源、旗、ゲート、遮断機であっても良い。周囲にシステムの状態を伝える部であればどのような装置を用いても良い。提示する状態情報は、人物の認識状態をスピーカを通して提示しても良いし、環境やロボットに設置した光源やディスプレイを発光させたりメッセージを表示させたりしても良いし、未確認人物に対して障害物や警告の旗などを提示しても良い。また、人物認識の状態を提示するためにディスプレイなどを用いて人物認識部240で認識した個人の名前や顔画像などの個人情報111を提示しても良い。作業状態を提示するために、認識した個人が実施する作業の作業工程情報121を作業情報管理部250から取得し、作業工程やマニュアルを提示しても良い。ロボットの制御状態を提示するために、ロボットの駆動速度やロボットの作業内容、ロボットの動作プログラムや軌道、温度や稼働時間などの内部状態を提示しても良い。
以上説明したように、本実施形態によれば、作業者や周囲の人物がシステムの状況をさらに把握することができ、安全性を維持しつつ、作業をすることができる。
(実施形態5;人物認識に基づいてロボットが部品や道具を用意)
実施形態5では、認識した個人の作業工程情報に基づいて、自動で作業の準備をすることが可能なロボットシステムについて述べる。
装置の構成及び処理の流れは実施形態1と同様であり、ここではその差分を説明する。
作業工程情報保持部120は、作業工程情報121として作業者条件情報122とその作業者が行う作業内容情報123とを保持する。本実施形態において、作業者条件情報122はその作業を行う個人のIDを保持する。作業内容情報123は作業者が作業を行うのに必要な道具類の情報及び作業対象の部品類の情報の少なくとも一方を保持する。道具類または部品類の情報は、道具類または部品類の保管場所及び作業時の配置場所を保持する。
制御部160は、作業情報管理部150が管理する作業情報に基づき、ロボットを制御し、作業の準備を行う。図1に示す作業ロボット181または搬送ロボット183などの少なくとも1つを制御し、作業工程情報121に記述されている道具類または部品類の少なくとも一方を保管場所から公知技術(森岡. "人間・ロボット協調型セル生産組立システムの開発." 日本ロボット学会誌 27.10 (2009): 1088-1091.など)を用いて搬送・運搬し、作業工程情報121に記述されている所定の位置に配置する。
これにより作業者が作業場所に来たらすぐに作業を取り掛かることができ、時間効率良く作業することが可能となる。
<バリエーション>
作業工程情報121が保持する道具類または部品類の情報は、道具類または部品類を搬送するのに必要な情報であれば良い。道具類または部品類の保管場所や、道具類または部品類の認識や把持のための画像や、特徴量、形状情報であっても良いし、それらの組み合わせであっても良い。また作業工程情報121はロボットの動作プログラムをさらに保持していても良い。また、道具類の情報には保有者や右手用や左手用、大きさや重さなどの属性情報があってもよい。これらの情報を用いて、道具類を作業者の個人情報に基づいて選択し、配置しても良い。例えば作業者個人専用の道具類や、作業者の利き手などの属性情報に合わせた道具類を選択しても良い。さらにその中から作業工程で必要な道具類を選択してもよい。
制御部160は、作業情報管理部150が管理する作業情報に基づき、ロボットを制御し、作業に必要なものを準備できればよい。公知技術(立野, 小竹, 内山. "ビンピッキングのための距離・濃淡画像を最ゆうに統合する高精度高安定なモデルフィッティング手法 (インタラクション, VR, ロボットビジョン,<特集> 画像の認識・理解論文)." 電子情報通信学会論文誌. D, 情報・システム 94.8 (2011): 1410-1422.など)を用いて道具類や部品類の位置姿勢を認識し、ロボットで道具類や部品類をピッキングし、搬送ロボットへの積み込みや、所定の位置への配置を行っても良い。ベルトコンベアなどを用いて部品類や道具類を供給する機構を用いて搬送しても良い。
以上説明したように、本実施形態によれば、認識した作業者と予定されている作業工程情報に基づいて自動で作業の準備を行うことにより、作業者自身が準備する手間を減らすことができる。その結果、作業効率を向上させることができる。
(実施形態6;作業工程情報の更新)
実施形態6では、上述の各実施形態に加えて、個人情報または作業工程情報または作業情報の少なくとも一つを更新する機能をさらに有するロボットシステムについて述べる。
本実施形態における情報処理装置3の構成を図6に示す。情報処理装置3は、図1に示す情報処理装置1の構成に加え、更新部370をさらに有する。個人情報保持部310乃至制御部360は実施形態1の個人情報保持部110乃至制御部160と同様である。
本実施形態における個人情報保持部310が保持する個人情報の属性情報は、各作業を実施した回数を保持する。
本実施形態における更新部370は、作業情報管理部350で管理する作業情報に基づいて、個人情報を更新する。作業情報は人物認識部340で認識した個人の個人情報と、該個人が行う作業工程情報とを含む。そこで、作業工程情報が有する作業内容情報の中から、個人情報の属性情報に対応する項目を抽出し、属性情報を更新する。具体的には、人物が行っている作業工程情報に対応する作業について、属性情報が保持する回数を増加させる。
<バリエーション>
更新部370は、個人情報または作業工程情報または作業情報の少なくとも一つを更新または追加できれば良い。作業情報管理部350が、作業者の実施している作業の作業時間やタクトタイム、回数などを作業情報として保持しているのであれば、それらの情報を作業履歴として作業者の個人情報の属性情報に追加、または更新しても良い。また、マウスやキーボード、タッチセンサなどの入力装置を用いて、個人情報や作業工程情報を手動で更新、追加しても良い。作業者が実施した作業の作業工程情報や作業時間、回数などを作業履歴として作業者の個人情報の属性情報に自動または手動で付加しても良い。認識できなかった人物の計測データを識別情報として、入力装置などを用いて個人情報に追加、更新しても良い。また作業者の動作や姿勢を計測部で計測または入力装置で入力し、作業者の動作や姿勢を学習し、学習データを作業工程情報保持部320で保持する作業工程情報に追加、更新しても良いし、個人情報保持部310で保持する作業者自身の個人情報の属性情報に追加、更新しても良い。また更新部370は、実施形態4に示す提示部270と併用しても構わない。
以上説明したように、本実施形態によれば、個人情報や作業工程情報、作業情報などを更新することにより、作業の改善を行うことができる。その結果、作業効率を向上させることができる。
<定義>
個人情報保持部110は、個人を識別する識別情報及び、該個人の作業に関係する身体特徴や作業履歴などの属性情報の組からなる個人情報を保持できればよい。個人情報保持部は1人以上の個人情報を保持し、識別情報及び属性情報は作業者と紐付けられる。
識別情報は該人物のIDや名前など個人を特定する情報及び計測部130で計測した情報と人物認識部140で照合する情報である。よって人物認識部に応じて、顔や身体の2次元画像や距離画像、3次元モデルであっても良いし、SIFTやSpinImages(A.E. Johnson and M. Hebert, "Using Spin Images for Efficient Object Recognition in Cluttered 3D Scenes," IEEE Trans. on PAMI,vol.21,no.5,pp.433−449,1999.)などの特徴量の集合であっても良い。また身長、体重、胸囲などのパラメータや、指紋、静脈、虹彩、声、筆跡、歩き方などの身体特徴であっても良い。署名やパスワード、ジェスチャなどの所定のパターンやIDカードなどの個人を識別できるものであっても良い。さらに識別情報の組み合わせであっても良く、個人を特定できる情報であれば良い。
属性情報は、該人物の身体特徴や作業履歴、該人物が保有する技術や資格などの作業に関係する属性からなる。これらの情報は作業情報管理部150や制御部160で利用される。具体的には該人物の身長や体重、利き手や癖(作業の動作モーションなど)などの身体特徴や過去に行った作業やその作業を経験した時間などの作業履歴、作業者が有する技術や知識、熟練度、資格などの少なくとも一つを有する。
個人情報を保持する方法はコンピュータのメモリやHDD、SSDなどの記憶装置に保持しても良いし、ネットワークを介してデータベースや記憶装置に保持しても良い。個人情報が保持できればどのような装置を用いても構わない。
作業工程情報保持部120は、作業工程情報を1つ以上保持できればよい。作業工程情報は作業を行う人物の作業者条件情報と、作業内容情報とを含む。作業者条件情報は作業を行う個人のIDや名前など個人を特定する情報、または作業内容情報が示す作業を行う作業者の条件を有する。作業者条件情報は作業を行う個人のIDや名前など作業者を特定する情報、または作業内容情報を実施する作業者の条件を有していれば良い。作業者の条件は、個人情報保持部110で保持する個人情報の属性情報に対応し、属性情報と照合して条件を満たす作業者を探索する場合に用いる。作業内容情報は、作業手順や作業に必要な道具、協調作業するロボットやその動作プログラム、作業場所や領域、作業時刻など作業の内容に関する情報の少なくなくとも一つを有していればよい。作業手順は作業者の作業手順であっても良いし、ロボットの動作プログラムや作業の過程におけるロボットや作業者の軌跡や位置・姿勢のリストであっても良い。作業道具の情報は道具の名前や形状、置いてある位置や姿勢、使い方やロボットがその道具を使うためのプログラムであっても良い。作業場所や領域は、作業者やロボットが作業する位置及び、作業範囲や侵入すると危険な領域を示す地図や2次元領域、3次元領域であっても良い。
作業工程情報を保持する方法はコンピュータのメモリやHDD、SSDなどの記憶装置に保持しても良いし、ネットワークを介してデータベースや記憶装置に保持しても良い。作業工程情報が保持できればどのような装置を用いても構わない。
計測部130は、個人情報保持部110で保持する個人の識別情報と照合する情報を取得できればよい。カメラやレンジセンサ、RGB−Dカメラなどの計測装置で人物の顔や身体を撮影し、2次元画像や距離画像を取得しても良いし、それらの情報から3次元モデルや特徴量を取得しても良い。計測装置はサーモセンサや赤外線カメラであっても良いし、計測装置が複数あっても良い。また、このような非接触センサだけでなく、重量計やマイクであっても良いし、指紋、静脈、虹彩などを計測するセンサであっても良いし、タッチパネルやスキャナ、キーボード、IDカードリーダーなどの入力装置であっても良い。さらに複数の計測部130の組み合わせであっても良く、個人を特定できる情報を取得できれば良い。また計測部130で用いる計測装置はロボットに設置しても良いし、作業をする環境に設置しても良いし、複数設置しても良い。作業領域から離れた場所、たとえば工場(作業を行う敷地)の入り口などであっても良く、対象とする人物を計測できる位置に設置できれば良い。
人物認識部140は、個人情報保持部110で保持する個人の識別情報と計測部130で取得した計測データを照合し、計測データで計測された人物を認識できればよい。計測データに合致する情報が識別情報に見つかれば、その識別情報に紐付けられている人物として認識する。合致する情報が見つからなければ、未確認人物として認識する。計測データに複数人の情報が含まれていれば、複数人を認識しても良い。照合は計測部130に応じて行う。計測部130がカメラやレンジセンサであれば、公知の技術(岩井,勞,山口,平山,"画像処理による顔検出と顔認識",情報処理学会研究報告.CVIM, 2005(38), 343-368, 2005-05-12.など)を用いて識別情報に登録されている顔情報などと照合しても良い。また各種センサで計測したデータと指紋、静脈、虹彩、声、筆跡、歩き方などを公知技術を用いて照合しても良い。指紋や静脈、虹彩、筆跡などの照合は、識別情報として登録したそれらの画像と、計測部130で計測した画像とのパターンマッチングをすることで照合できる。声の場合は、識別情報として登録した声紋と、計測部130で計測した声紋のパターンマッチングを行うことで照合できる。また歩き方の場合は、計測部130で取得した動画像から公知技術(Y. Makihara, R. Sagawa, Y. Mukaigawa, T. Echigo, and Y. Yagi, "Which Reference View is Effective for Gait Identification Using a View Transformation Model?", Proc. of the IEEE Computer Society Workshop on Biometrics 2006, New York, USA, Jun. 2006.など)を用いて照合できる。タッチパネルやキーボードなどの入力装置でパスワードやジェスチャを入力し、事前に登録したパスワードやパターンなどの識別情報と照合しても良い。IDカードリーダーから読み取った個人のIDに合致する人物を認識しても良い。さらにその人物の位置や姿勢も公知技術(Jamie Shotton, Toby Sharp, Alex Kipman, Andrew Fitzgibbon, Mark Finocchio, Andrew Blake, Mat Cook, and Richard Moore. 2013. Real-time human pose recognition in parts from single depth images. Commun. ACM 56, 1 (January 2013), 116-124. など)を用いて認識しても良い。
作業情報管理部150は、人物認識部140で認識した個人に応じて、個人情報保持部110で保持する個人情報及び、作業工程情報保持部120で保持する作業工程情報を取得してロボット及び作業者が行う作業を管理できればよい。事前に各作業者が行う作業が作業工程情報に登録されているのであれば、認識した個人の個人情報と該個人が担当する作業工程情報を取得し、その組を作業情報として保持する。作業者が行う作業が作業工程情報に登録されていないのであれば、作業工程情報が保持する作業者条件情報と、認識した人物の属性情報を照合し、作業者条件情報を満たす人物をその作業工程情報に割り当てても良い。
作業情報を保持する方法はコンピュータのメモリやHDD、SSDなどの記憶装置に保持しても良いし、ネットワークを介してデータベースや記憶装置に保持しても良い。作業情報が保持できればどのような装置を用いても構わない。
制御部160は、作業情報管理部150が管理する作業情報に基づいて1つ以上のロボットを制御できればよい。作業情報は個人情報と作業工程情報の組を含んでおり、それらに基づいてロボットを制御する。例えば個人情報が保持する認識した個人の身長や利き手などの身体特徴に基づいてロボットの配置やロボットやロボットアームの動作パスを設定しても良いし、認識した個人の作業履歴やタクトタイム、熟練度などに基づいてロボットの駆動速度を設定しても良い。さらに作業工程情報に基づいて、作業道具の準備や材料や部品の搬入をロボットにより自動で行っても良い。また認識した人物が未確認人物であったり、作業情報が保持する所定の作業場所や領域に、その作業を担当する作業者でない者が侵入したりした場合に、ロボットの駆動速度を低下、または停止したりして事故の危険を抑制しても良い。
制御するロボットは作業者と共に作業する自動機械であればどのような形態、構成であっても良い。単腕や双腕のロボットアームであっても良いし、歩行ロボットや車輪のついたロボットなど移動部をもったロボットであっても良い。搬送用の自動走行車(搬送ロボット)であっても良いし、ロボットが複数あっても良いし、ネットワークを通して遠隔から制御可能なロボットであっても良い。
提示部270は、人物認識部240及び作業情報管理部250及び制御部260の少なくとも1つの状態を提示できれば良い。提示するのに用いる装置はディスプレイであっても良いし、スピーカであっても良い。ランプ、LEDなどの光源や、旗、ゲート、遮断機など周囲にシステムの状態を伝える部であればどのような装置を用いても良いし、それらの組み合わせであっても良い。提示する状態情報は、人物認識部240で認識した個人の個人情報であっても良い。認識した個人に割あたっている作業の作業工程情報を作業情報管理部250から取得し、作業工程情報やマニュアルを提示しても良い。ロボットの駆動速度やロボットの作業内容情報や内部状態を提示しても良い。個人情報及び作業工程情報に基づき、所定の領域で作業する予定のない人物が所定の領域に侵入した場合に警告情報を提示しても良い。
更新部370は、個人情報または作業工程情報または作業情報の少なくとも一つを更新または追加できれば良い。マウスやキーボード、タッチセンサなどの入力装置を用いて、個人情報や作業工程情報を手動で更新、追加しても良い。作業者が実施した作業の作業工程情報や作業時間、回数などを作業履歴として作業者の属性情報に自動または手動で付加しても良い。認識できなかった人物の計測データを識別情報として、入力装置などを用いて個人情報に追加、更新しても良い。また作業者の動作や姿勢を計測部330で計測または入力装置で入力し、作業者の動作や姿勢を学習し、学習データを作業工程情報保持部320で保持する作業工程情報に追加、更新しても良いし、個人情報保持部310で保持する作業者自身の個人情報の属性情報に追加、更新しても良い。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
110:個人情報保持部、120:作業工程情報保持部、130:計測部、140:人物認識部、150:作業情報管理部、160:制御部、270:提示部、370:更新部

Claims (6)

  1. 作業者を識別する識別情報と、前記作業者の身体的特徴と、前記作業者が行った作業の動作軌跡とを保持する保持手段と、
    前記作業者を認識するための計測データを取得する取得手段と、
    前記識別情報と、前記計測データとに基づいて、前記作業者を認識する認識手段と、
    前記認識された作業者について前記保持手段に保持された身体的特徴及び作業の動作軌跡に基づいて、前記認識された作業者とロボットとが対象物体に対して協調して作業を行う際の前記作業者の位置および姿勢を予測し、当該作業者の姿勢の変化が少なくなるように、前記ロボットを制御する制御手段と、
    を備えることを特徴とする装置。
  2. 前記制御手段は、前記予測に基づいて、前記ロボットの位置、姿勢、または軌道の少なくとも1つを制御することを特徴とする請求項に記載の装置。
  3. 前記作業は、前記作業者と前記ロボットとの間で、前記対象物体を受け渡す作業であることを特徴とする請求項1または2に記載の装置。
  4. 前記認識された作業者の前記身体的特徴は、身長及び利き手に関する情報のうちの少なくともいずれかであることを特徴とする請求項1からのいずれか1項に記載の装置。
  5. 作業者を識別する識別情報と、前記作業者の身体的特徴と、前記作業者が行った作業の動作軌跡とを保持する保持手段を備える装置の制御方法であって、
    前記作業者を認識するための計測データを取得する取得工程と、
    前記識別情報と、前記計測データとに基づいて、前記作業者を認識する認識工程と、
    前記認識された作業者について前記保持手段に保持された身体的特徴及び作業の動作軌跡に基づいて、前記認識された作業者とロボットとが対象物体に対して協調して作業を行う際の前記作業者の位置および姿勢を予測し、当該作業者の姿勢の変化が少なくなるように、前記ロボットを制御する制御工程と、
    を有することを特徴とする装置の制御方法。
  6. コンピュータを、
    作業者を識別する識別情報と、前記作業者の身体的特徴と、前記作業者が行った作業の動作軌跡とを保持する保持手段、
    前記作業者を認識するための計測データを取得する取得手段、
    前記識別情報と、前記計測データとに基づいて、前記作業者を認識する認識手段、及び、
    前記認識された作業者について前記保持手段に保持された身体的特徴及び作業の動作軌跡に基づいて、前記認識された作業者とロボットとが対象物体に対して協調して作業を行う際の前記作業者の位置および姿勢を予測し、当該作業者の姿勢の変化が少なくなるように、前記ロボットを制御する制御手段、
    として機能させるためのプログラム。
JP2014117095A 2014-06-05 2014-06-05 装置、装置の制御方法およびプログラム Active JP6397226B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014117095A JP6397226B2 (ja) 2014-06-05 2014-06-05 装置、装置の制御方法およびプログラム
US14/726,958 US9943961B2 (en) 2014-06-05 2015-06-01 Apparatus, method for controlling apparatus, and storage medium
US15/867,136 US10603791B2 (en) 2014-06-05 2018-01-10 Apparatus, method for controlling apparatus, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014117095A JP6397226B2 (ja) 2014-06-05 2014-06-05 装置、装置の制御方法およびプログラム

Publications (3)

Publication Number Publication Date
JP2015230621A JP2015230621A (ja) 2015-12-21
JP2015230621A5 JP2015230621A5 (ja) 2017-06-08
JP6397226B2 true JP6397226B2 (ja) 2018-09-26

Family

ID=54768839

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014117095A Active JP6397226B2 (ja) 2014-06-05 2014-06-05 装置、装置の制御方法およびプログラム

Country Status (2)

Country Link
US (2) US9943961B2 (ja)
JP (1) JP6397226B2 (ja)

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9233470B1 (en) 2013-03-15 2016-01-12 Industrial Perception, Inc. Determining a virtual representation of an environment by projecting texture patterns
US10589973B2 (en) 2013-10-25 2020-03-17 Ats Automation Tooling Systems Inc. Flexible feeding and closing machine for hinged caps
WO2017033360A1 (ja) * 2015-08-25 2017-03-02 川崎重工業株式会社 遠隔操縦マニピュレータシステム及びその運転方法
AT517784B1 (de) * 2015-10-01 2021-01-15 B & R Ind Automation Gmbh Verfahren zur automatisierten Steuerung einer Maschinenkomponente
US10416614B2 (en) * 2015-10-15 2019-09-17 Siemens Aktiengesellschaft Human programming interfaces for machine-human interfaces
JP6688088B2 (ja) 2016-01-19 2020-04-28 キヤノン株式会社 情報処理装置およびその制御方法
JP6504072B2 (ja) * 2016-02-15 2019-04-24 オムロン株式会社 作業領域推定装置、制御装置、制御システム、作業領域推定方法およびプログラム
US10171730B2 (en) 2016-02-15 2019-01-01 Canon Kabushiki Kaisha Information processing apparatus, method of controlling information processing apparatus, and storage medium
JP6351900B2 (ja) * 2016-05-26 2018-07-04 三菱電機株式会社 ロボット制御装置
JP6740033B2 (ja) 2016-06-28 2020-08-12 キヤノン株式会社 情報処理装置、計測システム、情報処理方法及びプログラム
JP6226049B1 (ja) 2016-09-07 2017-11-08 オムロン株式会社 制御装置、システム、制御方法およびプログラム
JP6330882B2 (ja) * 2016-09-30 2018-05-30 オムロン株式会社 制御装置
JP6662746B2 (ja) * 2016-10-07 2020-03-11 ファナック株式会社 機械学習部を備えた作業補助システム
JP6549545B2 (ja) 2016-10-11 2019-07-24 ファナック株式会社 人の行動を学習してロボットを制御する制御装置およびロボットシステム
JP6692775B2 (ja) * 2017-06-06 2020-05-13 Idec株式会社 協調安全制御方法および協調安全制御システム
JP6577532B2 (ja) * 2017-07-28 2019-09-18 ファナック株式会社 機械学習装置、及びユーザ識別装置
DE102017218819A1 (de) * 2017-10-20 2019-04-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. System und Verfahren zum Informationsaustausch zwischen mindestens zwei Mensch-Roboter-Kooperationssystemen
WO2019097676A1 (ja) 2017-11-17 2019-05-23 三菱電機株式会社 3次元空間監視装置、3次元空間監視方法、及び3次元空間監視プログラム
JP7043812B2 (ja) * 2017-11-30 2022-03-30 株式会社安川電機 ロボットシステムおよびワークの生産方法
ES2828307T3 (es) * 2017-12-05 2021-05-26 Guima Palfinger S A S Sistema de detección para montaje en camiones
CN108052081A (zh) * 2017-12-13 2018-05-18 华北理工大学 一种工业自动化控制装置
US11061380B2 (en) * 2017-12-26 2021-07-13 Canon Kabushiki Kaisha Production management system and production management method
KR102499576B1 (ko) * 2018-01-08 2023-02-15 삼성전자주식회사 전자 장치 및 그 제어 방법
GB2574297B (en) * 2018-03-28 2021-05-12 Bae Systems Plc Collaborative robot system
EP3998139B1 (en) * 2018-06-19 2023-07-26 BAE SYSTEMS plc Workbench system
EP3584038A1 (en) * 2018-06-19 2019-12-25 BAE SYSTEMS plc Workbench system
EP3811166A1 (en) * 2018-06-19 2021-04-28 BAE SYSTEMS plc Workbench system
GB2576403B (en) * 2018-06-19 2021-03-10 Bae Systems Plc Robot Human Collaboration Workbench System
ES2919649T3 (es) 2018-06-19 2022-07-27 Bae Systems Plc Sistema de banco de trabajo
EP3584039A1 (en) * 2018-06-19 2019-12-25 BAE SYSTEMS plc Workbench system
GB2575096B (en) * 2018-06-29 2021-12-15 Sony Interactive Entertainment Inc Motion restriction system and method
US11003939B2 (en) 2018-07-06 2021-05-11 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
JP7107091B2 (ja) * 2018-08-22 2022-07-27 セイコーエプソン株式会社 ロボットシステム及び制御装置
JP7198824B2 (ja) * 2018-09-07 2023-01-04 株式会社牧野フライス製作所 工作機械の制御装置
JP7225659B2 (ja) * 2018-10-11 2023-02-21 ソニーグループ株式会社 情報処理装置、情報処理方法および情報処理プログラム
JP6916157B2 (ja) * 2018-10-23 2021-08-11 ファナック株式会社 人と協働作業を行うロボットシステム、及びロボット制御方法
JP7394322B2 (ja) 2018-11-28 2023-12-08 パナソニックIpマネジメント株式会社 無人飛行体、制御方法及びプログラム
US11077559B2 (en) 2018-12-05 2021-08-03 Honda Motor Co., Ltd. Support robot and methods of use thereof
US10866579B2 (en) * 2019-03-01 2020-12-15 Toyota Motor Engineering & Manufacturing North America, Inc. Automated manufacturing process tooling setup assist system
JP2020189367A (ja) * 2019-05-22 2020-11-26 セイコーエプソン株式会社 ロボットシステム
JP6806845B2 (ja) * 2019-06-11 2021-01-06 ファナック株式会社 ロボットシステムおよびロボット制御方法
US20220347848A1 (en) * 2019-07-05 2022-11-03 Fuji Corporation Work management system
US11472028B2 (en) * 2019-12-06 2022-10-18 Mitsubishi Electric Research Laboratories, Inc. Systems and methods automatic anomaly detection in mixed human-robot manufacturing processes
DE112021003388T5 (de) * 2020-06-25 2023-04-20 Fanuc Corporation Roboter-steuervorrichtung
JP7347349B2 (ja) * 2020-07-07 2023-09-20 トヨタ自動車株式会社 情報処理装置、情報処理システム、及び情報処理方法
JP2022056085A (ja) 2020-09-29 2022-04-08 キヤノン株式会社 情報処理装置、情報処理方法、及び、プログラム
JP2022156507A (ja) * 2021-03-31 2022-10-14 Johnan株式会社 ロボット制御システム、および制御装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1911553B1 (en) * 2005-07-19 2014-04-02 Omron Corporation Safety management system for worker
JP4548784B2 (ja) * 2005-08-29 2010-09-22 株式会社不二越 ロボット制御装置、ロボットシステム及びプログラム
JP2007283448A (ja) 2006-04-18 2007-11-01 Nachi Fujikoshi Corp ロボット制御装置
JP2008158971A (ja) * 2006-12-26 2008-07-10 Fujitsu Ltd 作業計画管理プログラム、作業計画管理方法、及び作業計画管理装置
JP5035802B2 (ja) * 2007-12-04 2012-09-26 本田技研工業株式会社 ロボットおよびタスク実行システム
JP4648486B2 (ja) * 2009-01-26 2011-03-09 ファナック株式会社 人間とロボットとの協調動作領域を有する生産システム
JP5502348B2 (ja) * 2009-03-12 2014-05-28 ファナック株式会社 シミュレーション方法
CN101970185B (zh) * 2009-05-22 2015-08-19 丰田自动车东日本株式会社 作业辅助机器人系统
JP5059978B2 (ja) * 2010-01-25 2012-10-31 パナソニック株式会社 危険提示装置、危険提示システム、危険提示方法およびプログラム
DE112011103155T5 (de) * 2010-09-21 2013-07-18 Toyota Jidosha Kabushiki Kaisha Beweglicher Körper
JP5180414B2 (ja) * 2011-01-27 2013-04-10 パナソニック株式会社 ロボットアームの制御装置及び制御方法、ロボット、ロボットアーム制御プログラム、並びに、集積電子回路
JP2013111737A (ja) * 2011-12-01 2013-06-10 Sony Corp ロボット装置及びその制御方法、並びにコンピューター・プログラム
US9043025B2 (en) * 2012-08-31 2015-05-26 Rethink Robotics, Inc. Systems and methods for safe robot operation
JP5549724B2 (ja) 2012-11-12 2014-07-16 株式会社安川電機 ロボットシステム
WO2014093822A1 (en) * 2012-12-14 2014-06-19 Abb Technology Ag Bare hand robot path teaching

Also Published As

Publication number Publication date
US10603791B2 (en) 2020-03-31
US20180126555A1 (en) 2018-05-10
US20150352719A1 (en) 2015-12-10
US9943961B2 (en) 2018-04-17
JP2015230621A (ja) 2015-12-21

Similar Documents

Publication Publication Date Title
JP6397226B2 (ja) 装置、装置の制御方法およびプログラム
US11084168B2 (en) Article stacking apparatus and machine learning apparatus
CN109434832B (zh) 机械学习装置及方法、机器人系统
CN109844784B (zh) 用于引导人类执行的库存任务的自适应过程
CN104102185B (zh) 具有人和物体区分的基于识别的工业自动化控制的系统和方法
JP2021501102A (ja) 自動パッケージスキャンおよび登録メカニズムを備えたロボットシステム、ならびにその動作方法
US20140083058A1 (en) Controlling and monitoring of a storage and order-picking system by means of motion and speech
JP2020503582A (ja) 仕分け支援方法、仕分けシステム、および平台機械工具
US20140135984A1 (en) Robot system
WO2011161304A1 (en) Method for the selection of physical objects in a robot system
CN107392083A (zh) 识别装置、识别方法、识别程序和记录介质
JP2009545789A (ja) 工業環境中で人間を観察する方法
CN105598987A (zh) 借助机器人确定关于对象的抓取空间
CN104102186B (zh) 具有冗余系统输入支持的基于识别的工业自动化控制
CN114405866B (zh) 视觉引导钢板分拣方法、视觉引导钢板分拣装置和系统
Park et al. Development of robotic bin picking platform with cluttered objects using human guidance and convolutional neural network (CNN)
US11478932B2 (en) Handling assembly comprising a handling device for carrying out at least one work step, method, and computer program
KR20210026595A (ko) 로봇이 관리자 모드로 이동하는 방법 및 이를 구현하는 로봇
US11768499B2 (en) Method for generating intersection point pattern recognition model using sensor data of mobile robot and intersection point pattern recognition system
JP2006209259A (ja) 操作支援システム及び操作支援方法、並びにコンピュータ・プログラム
Lim et al. Human-robot collaboration and safety management for logistics and manipulation tasks
Phyu et al. Verification of recognition performance of cloth handling robot with photo-model-based matching
Phyu et al. Verification of unique cloth handling performance based on 3D recognition accuracy of cloth by dual-eyes cameras with photo-model-based matching
Chandan et al. Intelligent Robotic Arm for Industry Applications
EP4206958A1 (en) Methods and systems for detecting foreign objects on a landing surface

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170418

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170418

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180202

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180402

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180831

R151 Written notification of patent or utility model registration

Ref document number: 6397226

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151